Seis meses atrás esta semana, muitos pesquisadores, engenheiros e empreendedores proeminentes de IA assinaram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de sistemas de IA mais capazes do que o mais recente gerador de linguagem GPT-4 da OpenAI. Argumentou que a IA está a avançar tão rápida e imprevisivelmente que poderia eliminar inúmeros empregos, inundar-nos com desinformação e…como uma onda de manchetes em pânico relatou– destruir a humanidade. Opa!
Como você deve ter notado, a carta não resultou em uma pausa no desenvolvimento da IA, nem mesmo em uma desaceleração para um ritmo mais comedido. Em vez disso, as empresas aceleraram os seus esforços para construir uma IA mais avançada.
Elon Musk, um dos signatários mais proeminentes, não esperou muito para ignorar o seu próprio apelo à desaceleração. Em julho, ele anunciou a xAI, uma nova empresa que, segundo ele, buscaria ir além da IA existente e competir com OpenAI, Google e Microsoft. E muitos funcionários do Google que também assinaram a carta aberta permaneceram com sua empresa enquanto ela se prepara para lançar um modelo de IA chamado Gemini, que possui capacidades mais amplas do que o GPT-4 da OpenAI.
A WIRED procurou mais de uma dúzia de signatários da carta para perguntar que efeito eles acham que ela teve e se o seu alarme sobre a IA se aprofundou ou diminuiu nos últimos seis meses. Ninguém que respondeu parecia esperar que a pesquisa em IA realmente parasse.
“Nunca pensei que as empresas iriam fazer uma pausa voluntária”, diz Max Tegmark, astrofísico do MIT que lidera o Future of Life Institute, a organização por detrás da carta – uma admissão que alguns poderão argumentar que faz todo o projecto parecer cínico. Tegmark diz que o seu principal objetivo não era interromper a IA, mas legitimar a conversa sobre os perigos da tecnologia, incluindo o facto de que ela poderia afetar a humanidade. O resultado “superou minhas expectativas”, diz ele.
As respostas ao meu acompanhamento também mostram a enorme diversidade de preocupações que os especialistas têm sobre a IA – e que muitos signatários não estão realmente obcecados com o risco existencial.
Lars Kotthoff, professor associado da Universidade de Wyoming, diz que não assinaria a mesma carta hoje porque muitos dos que pediram uma pausa ainda estão trabalhando para promover a IA. “Estou aberto a assinar cartas que sigam uma direção semelhante, mas não exatamente como esta”, diz Kotthoff. Ele acrescenta que o que mais o preocupa hoje é a perspectiva de uma “reação social contra os desenvolvimentos da IA, que pode precipitar outro inverno da IA”, anulando o financiamento da investigação e fazendo com que as pessoas rejeitem produtos e ferramentas de IA.
Outros signatários disseram-me que assinariam novamente com prazer, mas as suas grandes preocupações parecem envolver problemas de curto prazo, como desinformação e perda de empregos, em vez de cenários do Exterminador do Futuro.
“Na era da Internet e de Trump, posso ver mais facilmente como a IA pode levar à destruição da civilização humana ao distorcer informações e corromper o conhecimento”, diz Richard Kiehlprofessor que trabalha com microeletrônica na Arizona State University.
“Vamos fazer com que a Skynet invada todos esses servidores militares e lance armas nucleares por todo o planeta? Eu realmente acho que não”, diz Stephen Mander, um estudante de doutorado que trabalha com IA na Lancaster University, no Reino Unido. No entanto, ele vê a ameaça de uma deslocação generalizada do emprego e chama-a de “risco existencial” para a estabilidade social. Mas ele também teme que a carta possa ter estimulado mais pessoas a experimentar a IA e reconhece que não agiu de acordo com o apelo da carta para desacelerar. “Depois de assinar a carta, o que fiz no último ano ou mais? Tenho feito pesquisas sobre IA”, diz ele.
Apesar do fracasso da carta em provocar uma pausa generalizada, ela ajudou a impulsionar a ideia de que a IA poderia extinguir a humanidade e torná-la um tópico de discussão dominante. Foi seguido por uma declaração pública assinada pelos líderes da OpenAI e da divisão DeepMind AI do Google que comparou o risco existencial representado pela IA ao das armas nucleares e das pandemias. No próximo mês, o governo britânico irá acolher uma conferência internacional sobre “segurança de IA”onde líderes de vários países discutirão os possíveis danos que a IA pode causar, incluindo ameaças existenciais.