Quando o ChatGPT foi lançado em novembro de 2023, ele só podia ser acessado através da nuvem porque o modelo por trás dele era absolutamente enorme.
Hoje estou executando um programa de IA com capacidade semelhante em um Macbook Air, e ele nem está quente. A redução mostra a rapidez com que os pesquisadores estão refinando os modelos de IA para torná-los mais enxutos e eficientes. Também mostra como atingir escalas cada vez maiores não é a única maneira de tornar as máquinas significativamente mais inteligentes.
O modelo que agora infunde em meu laptop inteligência e sabedoria semelhantes às do ChatGPT é chamado Phi-3-mini. Faz parte de uma família de modelos menores de IA lançados recentemente por pesquisadores da Microsoft. Embora seja compacto o suficiente para rodar em um smartphone, testei-o rodando-o em um laptop e acessando-o de um iPhone por meio de um aplicativo chamado Encantado que fornece uma interface de bate-papo semelhante ao aplicativo oficial ChatGPT.
Em um papel descrevendo a família de modelos Phi-3, os pesquisadores da Microsoft dizem que o modelo que usei se compara favoravelmente ao GPT-3.5, o modelo OpenAI por trás do primeiro lançamento do ChatGPT. Essa afirmação baseia-se na medição do seu desempenho em vários benchmarks padrão de IA concebidos para medir o bom senso e o raciocínio. Em meus próprios testes, certamente parece igualmente capaz.
Microsoft anunciou um novo modelo “multimodal” Phi-3 capaz de lidar com áudio, vídeo e texto em sua conferência anual de desenvolvedores, Build, esta semana. Isso aconteceu poucos dias depois que a OpenAI e o Google anunciaram novos assistentes de IA radicais construídos sobre modelos multimodais acessados pela nuvem.
A família liliputiana de modelos de IA da Microsoft sugere que está se tornando possível construir todos os tipos de aplicativos úteis de IA que não dependem da nuvem. Isso poderia abrir novos casos de uso, permitindo que fossem mais responsivos ou privados. (Algoritmos offline são uma peça-chave do recurso Recall anunciado pela Microsoft, que usa IA para tornar pesquisável tudo o que você fez no seu PC.)
Mas a família Phi também revela algo sobre a natureza da IA moderna e talvez como ela pode ser melhorada. Sébastien Bubeck, pesquisador da Microsoft envolvido no projeto, me disse que os modelos foram construídos para testar se ser mais seletivo sobre o que um sistema de IA é treinado poderia fornecer uma maneira de ajustar suas habilidades.
Os grandes modelos de linguagem, como o GPT-4 da OpenAI ou o Gemini do Google, que alimentam chatbots e outros serviços, são normalmente alimentados com enormes quantidades de texto desviados de livros, sites e praticamente qualquer outra fonte acessível. Embora sejam levantadas questões jurídicas, a OpenAI e outros descobriram que aumentar a quantidade de texto fornecido a esses modelos e a quantidade de energia do computador usada para treiná-los pode desbloquear novos recursos.