No centro de todo império, há uma ideologia, um sistema de crenças que impulsiona o sistema a seguir e justifica a expansão – mesmo que o custo dessa expansão desafia diretamente a missão declarada pela ideologia.
Para as potências coloniais européias, era o cristianismo e a promessa de salvar almas enquanto extraía recursos. Para o império da IA de hoje, é inteligência geral artificial para “beneficiar toda a humanidade”. E o OpenAI é seu principal evangelista, espalhando zelo por toda a indústria de uma maneira que reformulou como a IA é construída.
“Eu estava entrevistando pessoas cujas vozes estavam tremendo do fervor de suas crenças em Agi”, Karen Hao, jornalista e autor best -seller de “Império de Ai”Disse TechCrunch em um episódio recente de Equity.
Em seu livro, Hao compara a indústria da IA em geral e o Openai em particular, a um império.
“A única maneira de realmente entender o escopo e a escala do comportamento de Openai … é realmente reconhecer que eles já se tornaram mais poderosos do que praticamente qualquer estado nacional do mundo, e eles consolidaram uma quantidade extraordinária não apenas do poder econômico, mas também do poder político”, disse Hao. “Eles estão terraformando a terra. Eles estão religando nossa geopolítica, todas as nossas vidas. E assim você só pode descrevê -la como um império.”
O OpenAI descreveu a AGI como “um sistema altamente autônomo que supera os seres humanos no trabalho mais economicamente valioso”, que de alguma forma “elevará a humanidade aumentando a abundância, turbo da economia e ajudando na descoberta de novos conhecimentos científicos que mudam os limites de possibilidade”.
Essas promessas nebulosas alimentaram o crescimento exponencial do setor – suas maciças demandas de recursos, oceanos de dados raspados, redes de energia tensas e vontade de liberar sistemas não testados no mundo. Tudo a serviço de um futuro que muitos especialistas dizem nunca chegar.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Hao diz que esse caminho não foi inevitável, e essa escala não é a única maneira de obter mais avanços na IA.
“Você também pode desenvolver novas técnicas em algoritmos”, disse ela. “Você pode melhorar os algoritmos existentes para reduzir a quantidade de dados e calcular que eles precisam usar”.
Mas essa tática significaria sacrificar a velocidade.
“Quando você define a busca para construir a AGI benéfica como aquela onde o vencedor leva tudo – que foi o que o Openai fez -, então o mais importante é a velocidade em relação a qualquer outra coisa”, disse Hao. “Velocidade sobre a eficiência, velocidade sobre segurança, velocidade em relação à pesquisa exploratória.”
Para o Openai, ela disse, a melhor maneira de garantir a velocidade era pegar as técnicas existentes e “apenas fazer a coisa intelectualmente barata, que é bombear mais dados, mais supercomputadores, nessas técnicas existentes”.
O Openai preparou o terreno e, em vez de ficar para trás, outras empresas de tecnologia decidiram se alinhar.
“E como o setor de IA capturou com sucesso a maioria dos principais pesquisadores de IA do mundo, e esses pesquisadores não existem mais na academia, você tem uma disciplina inteira agora sendo moldada pela agenda dessas empresas, e não pela exploração científica real”, disse Hao.
Os gastos foram e serão astronômicos. Na semana passada, o Openai disse que espera queimar US $ 115 bilhões em dinheiro Até 2029. Meta disse em julho que gastaria até US $ 72 bilhões na construção de infraestrutura de IA este ano. Google espera chegar a US $ 85 bilhões nas despesas de capital para 2025, a maioria dos quais será gasta na expansão da IA e da infraestrutura em nuvem.
Enquanto isso, os postos de gols continuam se movendo, e os “benefícios mais altos para a humanidade” ainda não se materializaram, mesmo quando os danos montam. Danos como perda de emprego, concentração de riqueza e chatbots de IA que alimentam delírios e psicose. Em seu livro, Hao também documenta trabalhadores em países em desenvolvimento como Quênia e Venezuela, que foram expostos a conteúdo perturbador, incluindo material de abuso sexual infantil, e recebiam salários muito baixos – cerca de US $ 1 a US $ 2 por hora – em funções como moderação de conteúdo e rotulagem de dados.
Hao disse que é uma troca falsa colocar o progresso da IA contra os danos atuais, especialmente quando outras formas de IA oferecem benefícios reais.
Ela apontou para o alfafold do Prêmio Nobel do Google Deepmind, que é treinado em dados de sequência de aminoácidos e estruturas de dobramento de proteínas complexas, e agora pode prever com precisão a estrutura 3D das proteínas de seus aminoácidos-profundamente útil para a descoberta de medicamentos e a compreensão doenças.
“Esses são os tipos de sistemas de IA que precisamos”, disse Hao. “O Alphafold não cria crises de saúde mental nas pessoas. Alphafold não leva a danos ambientais colossais … porque é treinado em substancialmente menos infraestrutura. Ele não cria danos à moderação do conteúdo porque (os conjuntos de dados não têm) toda a porcaria tóxica que você se elevou quando estava eliminando a Internet.”
Juntamente com o compromisso quase religioso com a AGI, tem sido uma narrativa sobre a importância de correr para derrotar a China na corrida de IA, para que o Vale do Silício possa ter um efeito liberalizador no mundo.
“Literalmente, o oposto aconteceu”, disse Hao. “A lacuna continuou a fechar entre os EUA e a China, e o Vale do Silício teve um efeito iliberador no mundo … e o único ator que saiu ileso, você poderia argumentar, é o próprio Vale do Silício”.
Obviamente, muitos argumentarão que o OpenAI e outras empresas de IA beneficiaram a humanidade, lançando o ChatGPT e outros grandes modelos de idiomas, que prometem enormes ganhos em produtividade, automatizando tarefas como codificação, escrita, pesquisa, suporte ao cliente e outras tarefas de trabalho-trabalho.
Mas a maneira como o OpenAI é estruturado-parte sem fins lucrativos, parte com fins lucrativos-complica como ele define e mede seu impacto na humanidade. E isso é ainda mais complicado com as notícias desta semana de que o Openai chegou a um acordo com a Microsoft que a aproxima de eventualmente se tornar público.
Dois ex-pesquisadores de segurança do Openai disseram ao TechCrunch que temem que o laboratório de IA tenha começado a confundir suas missões com fins lucrativos e sem fins lucrativos-que, porque as pessoas gostam de usar o ChatGPT e outros produtos construídos no LLMS, isso marque a caixa de beneficiar a humanidade.
Hao ecoou essas preocupações, descrevendo os perigos de ser tão consumido pela missão que a realidade é ignorada.
“Mesmo quando as evidências acumulam que o que eles estão construindo está realmente prejudicando quantidades significativas de pessoas, a missão continua a papel tudo isso”, disse Hao. “Há algo realmente perigoso e sombrio nisso, de (sendo) tão envolvido em um sistema de crenças que você construiu que perde o contato com a realidade.”