OpenAI e Cerebras Lançam Codex-Spark Rápido

Acelino Silva

OpenAI Lança Modelo Codex-Spark em Parceria com Cerebras Systems

OpenAI revelou na última quinta-feira o GPT-5.3-Codex-Spark, um modelo de codificação otimizado para tempos de resposta quase instantâneos. Essa iniciativa marca a primeira parceria significativa da empresa fora de sua infraestrutura tradicionalmente dominada pela Nvidia. O modelo opera em hardwares da Cerebras Systems, uma empresa de chips baseada em Sunnyvale, que se especializa em processadores de escala de wafer para cargas de trabalho de IA de baixa latência.

Parceria Estratégica com a Cerebras Systems

A parceria com a Cerebras surge em um momento crucial para a OpenAI, que enfrenta desafios em seu relacionamento com a Nvidia, críticas sobre a introdução de anúncios no ChatGPT, um novo contrato com o Pentágono e mudanças internas significativas. A empresa desmantelou uma equipe focada em segurança, e pelo menos um pesquisador demitiu-se em protesto. GPUs continuam sendo fundamentais nas operações de treinamento e inferência, oferecendo o custo mais eficaz por tokens para uso geral, de acordo com um porta-voz da OpenAI. No entanto, a Cerebras complementa essa fundação ao se destacar em fluxos de trabalho que exigem latência extremamente baixa, melhorando a resposta em casos como codificação em tempo real no Codex.

Codex-Spark: Aposta no Tempo de Resposta

O Codex-Spark é o primeiro modelo da OpenAI projetado especificamente para colaboração em codificação em tempo real. A empresa afirma que o modelo entrega mais de 1000 tokens por segundo em hardware de latência ultra-baixa, embora não divulgue métricas específicas de latência. A OpenAI reconhece que esses ganhos de velocidade vêm acompanhados de compromissos de capacidade. No SWE-Bench Pro e no Terminal-Bench 2.0, benchmarks da indústria que avaliam a capacidade dos sistemas de IA em executar tarefas complexas de engenharia de software, o Codex-Spark tem desempenho inferior ao modelo completo GPT-5.3-Codex. A empresa considera essa troca aceitável, pois os desenvolvedores recebem respostas rápidas o suficiente para manter o fluxo criativo.

Integração e Acesso ao Codex-Spark

O modelo é lançado com uma janela de contexto de 128.000 tokens, suportando apenas texto, sem entrada de imagem ou multimodal. Está disponível como prévia de pesquisa para assinantes do ChatGPT Pro por meio do aplicativo Codex, interface de linha de comando e extensão do Visual Studio Code. Um pequeno grupo de parceiros empresariais recebe acesso à API para avaliar possibilidades de integração. A arquitetura técnica do Codex-Spark revela uma narrativa sobre a economia de inferência que se torna cada vez mais relevante à medida que empresas de IA escalam produtos voltados para o consumidor. O Wafer Scale Engine 3 da Cerebras — um chip do tamanho de um prato de jantar contendo 4 trilhões de transistores — elimina grande parte da sobrecarga de comunicação que ocorre quando cargas de trabalho de IA se espalham por clusters de processadores menores.

Relação com a Nvidia e Desafios Internos

A parceria com a Cerebras ganha importância adicional devido à relação cada vez mais complicada entre OpenAI e Nvidia. No outono passado, quando a OpenAI anunciou sua iniciativa de infraestrutura Stargate, a Nvidia comprometeu-se publicamente a investir US$ 100 bilhões para apoiar a OpenAI na construção de infraestrutura de IA. No entanto, este acordo estagnou, com relatos de tensões entre as empresas. A OpenAI tem buscado agressivamente parcerias com fornecedores de chips alternativos, incluindo acordos com AMD e Broadcom. Para a Nvidia, pode parecer que a OpenAI está usando sua influência para commoditizar o hardware que possibilitou seus avanços em IA. Da perspectiva da OpenAI, reduzir a dependência de um único fornecedor representa uma estratégia de negócios prudente.

Conclusão: Codex-Spark e o Futuro da OpenAI

Apesar dos desafios, a OpenAI continua a avançar com um roteiro técnico ambicioso para o Codex. A empresa imagina um assistente de codificação que combina edições interativas rápidas com tarefas autônomas complexas — uma IA que gerencia correções rápidas enquanto orquestra múltiplos agentes trabalhando em problemas mais complexos em segundo plano. Neste cenário, o Codex-Spark estabelece a base de baixa latência para a parte interativa dessa experiência. Futuras versões precisarão entregar o raciocínio autônomo e a coordenação multitagente que tornariam essa visão completa possível. A parceria com a Cerebras é uma aposta calculada de que hardware especializado pode desbloquear casos de uso que GPUs de propósito geral não conseguem atender de forma custo-efetiva. Para uma empresa que enfrenta concorrentes, gerencia relações tensas com fornecedores e lida com dissidências internas sobre sua direção comercial, é um lembrete de que, na corrida da IA, ficar parado não é uma opção.

Do listening am eagerness oh objection collected solicitude so decisively unpleasing conviction is partiality he.

Share This Article
Follow:
Sou um amante de séries, filmes, games, doramas, k-pop, animes e tudo relacionado a cultura pop, nerd e geek.