OpenAI lança modelo GPT-4 aprimorado para ChatGPT e via API
Atualização de 12 de abril de 2024:
A última iteração do GPT-4 foi incorporada ao ChatGPT, com foco principal no aprimoramento da proficiência matemática e computacional e, ao mesmo tempo, na redução da verbosidade.
ChatGPT implementou um novo recurso que elimina a comunicação excessiva e repetitiva, garantindo que os usuários não fiquem sobrecarregados com informações desnecessárias. Esta abordagem inovadora permite interações mais eficientes entre indivíduos e sistemas de IA.
Os benchmarks mostram isso da seguinte forma:
As métricas mencionadas abrangem uma gama de habilidades, incluindo habilidades de resolução de problemas avaliadas por meio de MATEMÁTICA (+8,9%), proficiência em responder perguntas complexas além dos resultados básicos de pesquisa na Internet, conforme avaliado pelo GPQA (+7,9%), aptidão para resolver matemática elementar em diversos formação linguística com MGSM (+4,5%), capacidade de extrair insights distintos de passagens longas com DROP (+4,5%), proficiência na geração e decifração de linguagem de programação de acordo com critérios de avaliação humana com HumanEval (+1,6%) e, por último, versatilidade na abordagem de tarefas multifacetadas em domínios variados usando MMLU (+1,3%).
Artigo original de 9 de abril de 2024:
A OpenAI revelou recentemente melhorias na iteração GPT-4 Turbo de sua Interface de Programação de Aplicativo (API), que deverá se tornar acessível no contexto do ChatGPT em um futuro próximo.
A última iteração do modelo GPT-4 Turbo, que inclui funcionalidade para processamento de imagens e foi lançada em 9 de abril de 2024, tornou-se acessível por meio de nossa API na data mencionada.
A versão mais recente do modelo desenvolvido pela OpenAI foi descrita como mais avançada e versátil em seus recursos do que as iterações anteriores, permitindo processar dados visuais e linguísticos por meio de uma única solicitação de API. Isto representa um afastamento significativo das abordagens tradicionais, que exigiam algoritmos distintos para lidar com essas tarefas separadamente.
O aprimoramento dos recursos de solicitação de visão foi expandido para incluir funcionalidades API populares, como formato JSON e operações baseadas em funções, a fim de facilitar a integração perfeita com vários aplicativos e agilizar os processos de desenvolvimento para desenvolvedores.
OpenAI demonstra os recursos do novo modelo com casos de uso como tldraw, que escreve código baseado em um desenho de interface.
Recomendação
Vídeo: Roberto Nickson
*️⃣ Link da fonte: