Em uma tentativa de injetar IA em mais do processo de programação, o OpenAI está lançando Codex CLIum “agente” de codificação projetado para executar localmente a partir do software Terminal.
Anunciados na quarta-feira, ao lado dos mais novos modelos de IA da OpenAi, O3 e O4-Mini, o Codex CLI vincula os modelos do OpenAI com tarefas de código local e computação, diz o Openai. Via Codex CLI, os modelos do OpenAI podem escrever e editar o código em uma área de trabalho e tomar determinadas ações, como mover arquivos.
O CodEx CLI parece ser uma pequena etapa na direção da visão mais ampla de codificação Agentic da OpenAI. Recentemente, o CFO da empresa, Sarah Friar, descrito O que ela chamou de “Engenheiro de Software Agentic”, um conjunto de ferramentas OpenAI pretende construir que possa levar uma descrição do projeto para um aplicativo e criá -lo efetivamente e até mesmo a garantia de qualidade.
Codex CLI não vai tão longe. Mas isso vai Integrar os modelos do OpenAI, incluindo o O3 e o O4-mini, com os clientes que processam o código e os comandos do computador, também conhecidos como interfaces de linha de comando.
É também de código aberto, diz o Openai.
“(Codex CLI é) um agente de codificação de código aberto leve que é executado localmente no seu terminal”, disse um porta -voz do OpenAI ao TechCrunch por e -mail. “O objetivo (é) dar aos usuários uma interface mínima e transparente para vincular modelos diretamente com (código e tarefas).”
Em uma postagem de blog fornecida ao TechCrunch, o Openai acrescentou: “Você pode obter os benefícios do raciocínio multimodal da linha de comando passando capturas de tela ou esboços de baixa fidelidade para o modelo, combinados com o acesso ao seu código localmente (via Codex CLI).”
Para estimular o uso da CLI do Codex, o OpenAI planeja distribuir US $ 1 milhão em subsídios de API para projetos elegíveis de desenvolvimento de software. A empresa diz que concederá bloqueios de US $ 25.000 de créditos da API aos projetos escolhidos.
As ferramentas de codificação de IA apresentam riscos, é claro. Muitos estudos ter mostrado que os modelos de geração de código freqüentemente não conseguem corrigir vulnerabilidades e bugs de segurança e até apresentá-los. É melhor ter isso em mente antes de dar acesso à IA a arquivos ou projetos sensíveis – deve menos sistemas inteiros.