OpenAI revelou na última quinta-feira o GPT-5.3-Codex-Spark, um modelo de codificação otimizado para tempos de resposta quase instantâneos. Essa iniciativa marca a primeira parceria significativa da empresa fora de sua infraestrutura tradicionalmente dominada pela Nvidia. O modelo opera em hardwares da Cerebras Systems, uma empresa de chips baseada em Sunnyvale, que se especializa em processadores de escala de wafer para cargas de trabalho de IA de baixa latência.
A parceria com a Cerebras surge em um momento crucial para a OpenAI, que enfrenta desafios em seu relacionamento com a Nvidia, críticas sobre a introdução de anúncios no ChatGPT, um novo contrato com o Pentágono e mudanças internas significativas. A empresa desmantelou uma equipe focada em segurança, e pelo menos um pesquisador demitiu-se em protesto. GPUs continuam sendo fundamentais nas operações de treinamento e inferência, oferecendo o custo mais eficaz por tokens para uso geral, de acordo com um porta-voz da OpenAI. No entanto, a Cerebras complementa essa fundação ao se destacar em fluxos de trabalho que exigem latência extremamente baixa, melhorando a resposta em casos como codificação em tempo real no Codex.
O Codex-Spark é o primeiro modelo da OpenAI projetado especificamente para colaboração em codificação em tempo real. A empresa afirma que o modelo entrega mais de 1000 tokens por segundo em hardware de latência ultra-baixa, embora não divulgue métricas específicas de latência. A OpenAI reconhece que esses ganhos de velocidade vêm acompanhados de compromissos de capacidade. No SWE-Bench Pro e no Terminal-Bench 2.0, benchmarks da indústria que avaliam a capacidade dos sistemas de IA em executar tarefas complexas de engenharia de software, o Codex-Spark tem desempenho inferior ao modelo completo GPT-5.3-Codex. A empresa considera essa troca aceitável, pois os desenvolvedores recebem respostas rápidas o suficiente para manter o fluxo criativo.
O modelo é lançado com uma janela de contexto de 128.000 tokens, suportando apenas texto, sem entrada de imagem ou multimodal. Está disponível como prévia de pesquisa para assinantes do ChatGPT Pro por meio do aplicativo Codex, interface de linha de comando e extensão do Visual Studio Code. Um pequeno grupo de parceiros empresariais recebe acesso à API para avaliar possibilidades de integração. A arquitetura técnica do Codex-Spark revela uma narrativa sobre a economia de inferência que se torna cada vez mais relevante à medida que empresas de IA escalam produtos voltados para o consumidor. O Wafer Scale Engine 3 da Cerebras — um chip do tamanho de um prato de jantar contendo 4 trilhões de transistores — elimina grande parte da sobrecarga de comunicação que ocorre quando cargas de trabalho de IA se espalham por clusters de processadores menores.
A parceria com a Cerebras ganha importância adicional devido à relação cada vez mais complicada entre OpenAI e Nvidia. No outono passado, quando a OpenAI anunciou sua iniciativa de infraestrutura Stargate, a Nvidia comprometeu-se publicamente a investir US$ 100 bilhões para apoiar a OpenAI na construção de infraestrutura de IA. No entanto, este acordo estagnou, com relatos de tensões entre as empresas. A OpenAI tem buscado agressivamente parcerias com fornecedores de chips alternativos, incluindo acordos com AMD e Broadcom. Para a Nvidia, pode parecer que a OpenAI está usando sua influência para commoditizar o hardware que possibilitou seus avanços em IA. Da perspectiva da OpenAI, reduzir a dependência de um único fornecedor representa uma estratégia de negócios prudente.
Apesar dos desafios, a OpenAI continua a avançar com um roteiro técnico ambicioso para o Codex. A empresa imagina um assistente de codificação que combina edições interativas rápidas com tarefas autônomas complexas — uma IA que gerencia correções rápidas enquanto orquestra múltiplos agentes trabalhando em problemas mais complexos em segundo plano. Neste cenário, o Codex-Spark estabelece a base de baixa latência para a parte interativa dessa experiência. Futuras versões precisarão entregar o raciocínio autônomo e a coordenação multitagente que tornariam essa visão completa possível. A parceria com a Cerebras é uma aposta calculada de que hardware especializado pode desbloquear casos de uso que GPUs de propósito geral não conseguem atender de forma custo-efetiva. Para uma empresa que enfrenta concorrentes, gerencia relações tensas com fornecedores e lida com dissidências internas sobre sua direção comercial, é um lembrete de que, na corrida da IA, ficar parado não é uma opção.
Explore a versão 2.6 de Zenless Zone Zero e descubra novas mecânicas e agentes. Confira…
Prepare-se para a Temporada 2 de Battlefield 6 com novos mapas, armas e o retorno…
Explore a crítica moderna a O Silêncio dos Inocentes e suas controvérsias. Veja como o…
Novo filme de J.J. Abrams, The Great Beyond, mistura fantasia e metalinguagem. Não perca essa…
Prepare-se para a quarta rodada da FA Cup com surpresas e disputas intensas. Acompanhe todos…
Stephen Libby troca cibersegurança por moda na TV. Veja suas novas aventuras e parcerias surpreendentes!