Michal Kosinski é um psicólogo pesquisador de Stanford com faro para assuntos oportunos. Ele vê seu trabalho não apenas como um avanço no conhecimento, mas como um alerta ao mundo sobre perigos potenciais desencadeados pelas consequências dos sistemas de computador. Seus projetos mais conhecidos envolveram a análise de como o Facebook (agora Meta) obteve uma compreensão surpreendentemente profunda de seus usuários a partir de todas as vezes que eles clicaram em “curtir” na plataforma. Agora ele passou a estudar coisas surpreendentes que a IA pode fazer. Ele conduziu experimentos, por exemplo, que indicam que os computadores poderiam prever a sexualidade de uma pessoa analisando uma foto digital de seu rosto.
Conheci Kosinski através de meus escritos sobre Meta e me reconectei com ele para discutir seu último artigopublicado esta semana no Proceedings of the National Academy of Sciences, revisado por pares. Sua conclusão é surpreendente. Grandes modelos de linguagem como o da OpenAI, afirma ele, cruzaram uma fronteira e estão a utilizar técnicas análogas ao pensamento real, antes considerado apenas o domínio das pessoas de carne e osso (ou pelo menos dos mamíferos). Especificamente, ele testou o GPT-3.5 e o GPT-4 da OpenAI para ver se eles dominavam o que é conhecido como “teoria da mente”. Esta é a capacidade dos humanos, desenvolvida na infância, de compreender os processos de pensamento de outros humanos. É uma habilidade importante. Se um sistema informático não conseguir interpretar corretamente o que as pessoas pensam, a sua compreensão do mundo ficará empobrecida e cometerá muitas coisas erradas. Se modelos fazer têm teoria da mente, estão um passo mais perto de igualar e exceder as capacidades humanas. Kosinski colocou os LLMs à prova e agora diz que seus experimentos mostram que no GPT-4 em particular, uma teoria de habilidade semelhante à mente “pode ter surgido como um subproduto não intencional da melhoria das habilidades linguísticas dos LLMs… Eles significam o advento de mais IA poderosa e socialmente habilidosa.”
Kosinski vê seu trabalho em IA como uma consequência natural de seu mergulho anterior nas curtidas do Facebook. “Eu não estava realmente estudando redes sociais, estava estudando humanos”, diz ele. Quando a OpenAI e o Google começaram a construir seus mais recentes modelos generativos de IA, diz ele, eles pensaram que os estavam treinando para lidar principalmente com a linguagem. “Mas eles realmente treinaram um modelo de mente humana, porque você não pode prever que palavra direi em seguida sem modelar minha mente.”
Kosinski tem o cuidado de não afirmar que os LLMs dominaram totalmente a teoria da mente – ainda. Em seus experimentos ele apresentou alguns problemas clássicos aos chatbots, alguns dos quais eles resolveram muito bem. Mas mesmo o modelo mais sofisticado, o GPT-4, falhou um quarto das vezes. Os sucessos, escreve ele, colocam o GPT-4 no mesmo nível das crianças de 6 anos. Nada mal, dado o estado inicial do campo. “Observando o rápido progresso da IA, muitos se perguntam se e quando a IA poderia alcançar a ToM ou a consciência”, escreve ele. Deixando de lado aquela palavra radioativa com C, isso é muito para pensar.
“Se a teoria da mente surgiu espontaneamente nesses modelos, também sugere que outras capacidades podem surgir a seguir”, diz-me ele. “Eles podem ser melhores em nos educar, influenciar e manipular graças a essas habilidades.” Ele está preocupado porque não estamos realmente preparados para LLMs que entendam a maneira como os humanos pensam. Especialmente se chegarem ao ponto em que entendem os humanos melhor do que os humanos.
“Nós, humanos, não simulamos personalidade – nós ter personalidade”, diz ele. “Então estou meio que preso à minha personalidade. Essas coisas modelo personalidade. Há uma vantagem em que eles podem ter a personalidade que quiserem a qualquer momento.” Quando menciono a Kosinski que parece que ele está descrevendo um sociopata, ele se ilumina. “Eu uso isso em minhas palestras!” ele diz. “Um sociopata pode colocar uma máscara – eles não estão realmente tristes, mas podem interpretar uma pessoa triste.” Esse poder camaleônico poderia tornar a IA uma golpista superior. Com zero remorso.