Agora mesmo, generativo a inteligência artificial é impossível de ignorar online. Um resumo gerado por IA pode aparecer aleatoriamente no topo dos resultados sempre que você faz uma pesquisa no Google. Ou você pode ser solicitado a tentar Ferramenta de IA da Meta enquanto navega no Facebook. E isso emoji de brilho sempre presente continua a assombrar meus sonhos.

Essa pressa em adicionar IA ao maior número possível de interações online pode ser rastreada até o lançamento inovador do ChatGPT pela OpenAI no final de 2022. O Vale do Silício logo ficou obcecado com IA generativa e, quase dois anos depois, ferramentas de IA alimentadas por grandes modelos de linguagem permeiam a experiência do usuário online.

Um efeito colateral infeliz dessa proliferação é que os processos de computação necessários para executar sistemas de IA generativos são muito mais intensivos em recursos. Isso levou à chegada da era de hiperconsumo da internet, um período definido pela disseminação de um novo tipo de computação que demanda quantidades excessivas de eletricidade e água para construir e operar.

“No back-end, esses algoritmos que precisam estar em execução para qualquer modelo de IA generativo são fundamentalmente muito, muito diferentes do tipo tradicional de pesquisa do Google ou e-mail”, diz Sajjad Moazenium pesquisador de engenharia da computação na Universidade de Washington. “Para serviços básicos, eles eram muito leves em termos da quantidade de dados que precisavam ir e voltar entre os processadores.” Em comparação, Moazeni estima que as aplicações de IA generativas são cerca de 100 a 1.000 vezes mais intensivas computacionalmente.

As necessidades de energia da tecnologia para treinamento e implantação não são mais o segredinho sujo da IA ​​generativa, já que especialista após especialista previu no ano passado picos na demanda de energia em data centers onde as empresas trabalham em aplicativos de IA. Quase como se estivesse em uma deixa, o Google recentemente parou de se considerar neutro em carbonoe a Microsoft pode atropelar seu metas de sustentabilidade em andamento na corrida contínua para construir as maiores e melhores ferramentas de IA.

“A pegada de carbono e o consumo de energia serão lineares à quantidade de computação que você faz, porque basicamente esses data centers estão sendo alimentados proporcionalmente à quantidade de computação que eles fazem”, diz Junchen Jiangpesquisador de sistemas em rede da Universidade de Chicago. Quanto maior o modelo de IA, mais computação é frequentemente necessária, e esses modelos de fronteira estão ficando absolutamente gigantescos.

Embora o consumo total de energia do Google tenha dobrado de 2019 a 2023, Corina Standiford, porta-voz da empresa, disse que não seria justo afirmar isso Consumo de energia do Google aumentou durante a corrida da IA. “Reduzir as emissões de nossos fornecedores é extremamente desafiador, o que representa 75% da nossa pegada”, ela diz em um e-mail. Os fornecedores que o Google culpa incluem os fabricantes de servidores, equipamentos de rede e outras infraestruturas técnicas para os data centers — um processo intensivo em energia que é necessário para criar peças físicas para modelos de IA de fronteira.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Políticas de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.