Europa Press/Contacto/Thomas Fuller - Arquivo
MADRID 13 fev. (Portaltic/EP) - A OpenAI apresentou o GPT-5.3-Codex-Spark, seu primeiro modelo projetado para codificação em tempo real, com capacidade para executar seus resultados de forma “quase imediata”, entregando mais de 1.000 tokens por segundo.
Uma semana após divulgar o GPT-5.3-Codex, sua inteligência artificial (IA) de codificação mais avançada que ajudou em sua própria criação, a empresa de tecnologia dirigida por Sam Altman divulgou uma nova versão reduzida projetada para codificação em tempo real.
Trata-se do GPT-5.3-Codex-Spark e, como explicou a OpenAI em um comunicado em seu blog, ele permite realizar edições específicas, redefinir a lógica ou aperfeiçoar as interfaces na hora de realizar tarefas de codificação, oferecendo “resultados imediatos” e interação em tempo real.
Ou seja, os usuários podem colaborar com o modelo interrompendo-o ou modificando solicitações enquanto ele trabalha, recebendo respostas quase imediatas. No entanto, deve-se levar em conta que, para alcançar essa rapidez, o modelo realiza edições mínimas e específicas e não executa testes automaticamente, a menos que seja especificado.
Como resultado, os usuários poderão utilizar o Codex-Spark para realizar tanto tarefas mais trabalhosas e demoradas quanto o trabalho no momento. Para isso, o modelo foi apresentado com uma janela de contexto de 128K, apenas de texto.
A tecnologia também destacou que o Codex-Spark demonstra um “excelente desempenho” nos benchmarks SWE-Bench Pro e Terminal-Bench 2.0, que avaliam a capacidade de engenharia de software. De fato, de acordo com esses testes, ele é capaz de completar tarefas “em muito menos tempo” do que o GPT-5.3-Codex.
É importante notar que, para alcançar essa rapidez no Codex-Spark garantindo resultados eficientes, a OpenAI detalhou que este modelo faz parte de sua colaboração com a empresa Cerebras, de modo que é executado no motor Wafer Scale Engine 3 da empresa, um acelerador de IA projetado especificamente para inferência de alta velocidade, que ajuda a priorizar a latência.
Com tudo isso, o Codex-Spark foi lançado como uma prévia de pesquisa para usuários do ChatGPT Pro nas últimas versões do aplicativo Codex, para que eles possam começar a experimentar essa tecnologia.
A OpenAI também alertou que, como o modelo é executado em um hardware especializado de baixa latência, ele terá um limite de velocidade independente que pode ser ajustado de acordo com a demanda durante a versão de teste de pesquisa.
Esta notícia foi traduzida por um tradutor automático