Em uma tentativa de injetar IA em mais do processo de programação, o OpenAI está lançando Codex CLIum “agente” de codificação projetado para executar localmente a partir do software Terminal.

Anunciados na quarta-feira, ao lado dos mais novos modelos de IA da OpenAi, O3 e O4-Mini, o Codex CLI vincula os modelos do OpenAI com tarefas de código local e computação, diz o Openai. Via Codex CLI, os modelos do OpenAI podem escrever e editar o código em uma área de trabalho e tomar determinadas ações, como mover arquivos.

O CodEx CLI parece ser uma pequena etapa na direção da visão mais ampla de codificação Agentic da OpenAI. Recentemente, o CFO da empresa, Sarah Friar, descrito O que ela chamou de “Engenheiro de Software Agentic”, um conjunto de ferramentas OpenAI pretende construir que possa levar uma descrição do projeto para um aplicativo e criá -lo efetivamente e até mesmo a garantia de qualidade.

Codex CLI não vai tão longe. Mas isso vai Integrar os modelos do OpenAI, incluindo o O3 e o O4-mini, com os clientes que processam o código e os comandos do computador, também conhecidos como interfaces de linha de comando.

É também de código aberto, diz o Openai.

“(Codex CLI é) um agente de codificação de código aberto leve que é executado localmente no seu terminal”, disse um porta -voz do OpenAI ao TechCrunch por e -mail. “O objetivo (é) dar aos usuários uma interface mínima e transparente para vincular modelos diretamente com (código e tarefas).”

Em uma postagem de blog fornecida ao TechCrunch, o Openai acrescentou: “Você pode obter os benefícios do raciocínio multimodal da linha de comando passando capturas de tela ou esboços de baixa fidelidade para o modelo, combinados com o acesso ao seu código localmente (via Codex CLI).”

Para estimular o uso da CLI do Codex, o OpenAI planeja distribuir US $ 1 milhão em subsídios de API para projetos elegíveis de desenvolvimento de software. A empresa diz que concederá bloqueios de US $ 25.000 de créditos da API aos projetos escolhidos.

As ferramentas de codificação de IA apresentam riscos, é claro. Muitos estudos ter mostrado que os modelos de geração de código freqüentemente não conseguem corrigir vulnerabilidades e bugs de segurança e até apresentá-los. É melhor ter isso em mente antes de dar acesso à IA a arquivos ou projetos sensíveis – deve menos sistemas inteiros.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Políticas de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.