Nathan Strauss, porta-voz da Amazon, disse que a empresa está analisando de perto o índice. “O Titan Text ainda está em pré-visualização privada e seria prematuro avaliar a transparência de um modelo básico antes que ele esteja pronto para disponibilidade geral”, diz ele. A Meta se recusou a comentar o relatório de Stanford e a OpenAI não respondeu a um pedido de comentário.
Rishi Bommasani, um estudante de doutorado em Stanford que trabalhou no estudo, diz que isso reflete o fato de que a IA está se tornando mais opaca ao mesmo tempo em que se torna mais influente. Isto contrasta enormemente com o último grande boom da IA, quando a abertura ajudou a alimentar grandes avanços em capacidades, incluindo reconhecimento de voz e imagem. “No final da década de 2010, as empresas eram mais transparentes sobre as suas pesquisas e publicavam muito mais”, diz Bommasani. “Esta é a razão pela qual tivemos o sucesso do aprendizado profundo.”
O relatório de Stanford também sugere que os modelos não precisam ser tão secretos por razões competitivas. Kevin Klyman, investigador político em Stanford, afirma que o facto de vários modelos líderes terem pontuações relativamente elevadas em diferentes medidas de transparência sugere que todos eles poderiam tornar-se mais abertos sem perder para os rivais.
À medida que os especialistas em IA tentam descobrir para onde irá o recente florescimento de certas abordagens à IA, alguns dizem que o sigilo corre o risco de tornar o campo menos uma disciplina científica do que uma disciplina orientada para o lucro.
“Este é um momento crucial na história da IA”, diz Jessé Dodge, um cientista pesquisador do Allen Institute for AI, ou AI2. “Os intervenientes mais influentes que constroem sistemas generativos de IA hoje estão cada vez mais fechados, não conseguindo partilhar detalhes importantes dos seus dados e dos seus processos.”
AI2 está tentando desenvolver um modelo de linguagem de IA muito mais transparente, chamado Olmo. Ele está sendo treinado usando uma coleção de dados provenientes da web, publicações acadêmicas, códigos, livros e enciclopédias. Esse conjunto de dados, chamado Enchimentofoi lançado sob AI2 Licença de impacto. Quando o OLMo estiver pronto, a AI2 planeja lançar o sistema de IA funcional e também o código por trás dele, permitindo que outros desenvolvam o projeto.
Dodge diz que ampliar o acesso aos dados por trás de modelos poderosos de IA é especialmente importante. Sem acesso direto, geralmente é impossível saber por que ou como um modelo pode fazer o que faz. “O avanço da ciência requer reprodutibilidade”, diz ele. “Sem ter acesso aberto a estes blocos de construção cruciais para a criação de modelos, permaneceremos numa situação ‘fechada’, estagnada e proprietária.”
Dada a amplitude da implantação dos modelos de IA – e o quão perigosos alguns especialistas alertam que eles podem ser – um pouco mais de abertura poderia ser muito útil.