2 minute read

Ao longo do mês de abril, a OpenAI anunciou uma série de avanços importantes em seus modelos e ferramentas, com foco em desempenho, eficiência e suporte a agentes autônomos. A atualização apresenta novos modelos de linguagem, ferramentas para desenvolvedores e melhorias significativas na área de áudio. Confira as novidades.

1. Novos Modelos de Raciocínio: o3 e o4-mini

Novos modelos de racioncício da OpenAI

A OpenAI lançou os modelos o3 e o4-mini, voltados para tarefas complexas como programação, matemática e visão computacional.

  • o3 é o modelo com o melhor desempenho em tarefas de codificação, liderando o benchmark SWE-Bench Verified com 69,1%.
  • o4-mini oferece raciocínio avançado com mais velocidade e menor custo.

Ambos estão disponíveis na API via Chat Completions e Responses. Para quem busca mais controle e explicações detalhadas da IA, a Responses API é recomendada, com suporte a “reasoning summaries”, onde você pode ver o raciocínio da IA em tempo real.

2. GPT-4.1: Mais Contexto, Melhor Raciocínio

Novas versões do GPT4.1

Três versões do GPT-4.1 foram lançadas:

Estes três novos modelos foram otimizados para tarefas como codificação, interpretação de instruções e chamadas de função. Destaque para a capacidade de lidar com até 1 milhão de tokens de contexto, o que significa que conseguem manter coerência mesmo em interações longas ou complexas.

3. Codex CLI: IA Local Para Codificação

Lançamento o Codex CLI

A OpenAI apresentou o Codex CLI, uma ferramenta open source que transforma linguagem natural em código executável localmente. Com ela, basta dizer o que você quer fazer, corrigir ou entender, e a ferramenta traduz isso diretamente em código funcional.

Compatível com os modelos mais recentes da OpenAI, o Codex CLI é a ferramenta voltada para desenvolvedores que buscam maior controle e privacidade na programação assistida por Agentes de IA. Assista à demonstração no Youtube.

4. Evals API: Avaliação Automatizada de Prompts

Com a Evals API, agora é possível criar e rodar testes automatizados para avaliar a performance de modelos em tarefas específicas. Isso facilita a iteração rápida de prompts e ajustes em aplicações que usam IA.

5. Modelos de Áudio: Fala e Transcrição com Qualidade Superior

Novos modelos de áudio para STT e TTS

Três novos modelos de áudio foram adicionados à API:

  • Dois modelos de transcrição de fala (STT) que superam o Whisper em precisão: gpt-4o-transcribe, gpt-4o-mini-transcribe
  • Um novo modelo de síntese de voz (TTS) com controle sobre o estilo da fala: gpt-4o-mini-tts

Esses avanços também foram integrados ao Agents SDK, permitindo a criação de agentes de voz mais naturais e responsivos.

Essas novidades mostram como a OpenAI está avançando em várias frentes: modelos mais potentes e acessíveis, ferramentas que tornam o desenvolvimento com IA mais produtivo, e melhorias na forma como interagimos com os computadores, seja por texto, voz ou código. A direção é clara: modelos cada vez mais autônomos, integrados e capazes de operar em contextos complexos, com menos esforço humano na mediação. Para quem está construindo hoje, essas ferramentas são mais que melhorias técnicas — são blocos fundamentais para as experiências de IA que vão definir os próximos anos.

Comments