Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch está lançando uma série de entrevistas com foco em mulheres notáveis que contribuíram para a revolução da IA. Publicaremos vários artigos ao longo do ano à medida que o boom da IA continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.
Urvashi Aneja é o diretor fundador do Digital Futures Lab, um esforço de pesquisa interdisciplinar que busca examinar a interação entre tecnologia e sociedade no Sul Global. Ela também é membro associado do programa Ásia-Pacífico da Chatham House, um instituto político independente com sede em Londres.
A pesquisa atual de Aneja concentra-se no impacto social dos sistemas algorítmicos de tomada de decisão na Índia, onde ela está baseada, e na governança da plataforma. Aneja escreveu recentemente um estudo sobre as utilizações atuais da IA na Índia, analisando casos de utilização em setores como o policiamento e a agricultura.
Perguntas e respostas
Resumidamente, como você começou na IA? O que te atraiu para a área?
Comecei minha carreira em pesquisa e envolvimento político no setor humanitário. Durante vários anos, estudei a utilização de tecnologias digitais em crises prolongadas em contextos de poucos recursos. Aprendi rapidamente que existe uma linha tênue entre inovação e experimentação, especialmente quando se trata de populações vulneráveis. Os aprendizados desta experiência me deixaram profundamente preocupado com as narrativas tecno-solucionistas em torno do potencial das tecnologias digitais, particularmente da IA. Ao mesmo tempo, a Índia lançou o seu Índia Digital missão e Estratégia Nacional de Inteligência Artificial. Fiquei preocupado com as narrativas dominantes que viam a IA como uma solução mágica para os complexos problemas socioeconómicos da Índia, e com a completa falta de discurso crítico em torno da questão.
De qual trabalho você mais se orgulha (na área de IA)?
Estou orgulhoso por termos conseguido chamar a atenção para a economia política da produção de IA, bem como para as implicações mais amplas para a justiça social, as relações laborais e a sustentabilidade ambiental. Muitas vezes, as narrativas sobre IA centram-se nos ganhos de aplicações específicas e, na melhor das hipóteses, nos benefícios e riscos dessa aplicação. Mas isto perde a floresta em vez das árvores – uma lente orientada para o produto obscurece os impactos estruturais mais amplos, como a contribuição da IA para a injustiça epistémica, a desqualificação do trabalho e a perpetuação de um poder irresponsável no mundo maioritário. Também estou orgulhoso por termos conseguido traduzir estas preocupações em políticas e regulamentações concretas – seja na concepção de directrizes de aquisição para a utilização da IA no sector público ou na apresentação de provas em processos judiciais contra grandes empresas tecnológicas no Sul Global.
Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?
Deixando meu trabalho falar. E perguntando constantemente: por quê?
Que conselho você daria às mulheres que desejam ingressar na área de IA?
Desenvolva seu conhecimento e experiência. Certifique-se de que seu entendimento técnico dos problemas seja sólido, mas não se concentre apenas na IA. Em vez disso, estude bastante para poder estabelecer conexões entre campos e disciplinas. Poucas pessoas entendem a IA como um sistema sociotécnico que é um produto da história e da cultura.
Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?
Penso que a questão mais premente é a concentração de poder num punhado de empresas tecnológicas. Embora não seja novo, este problema é agravado por novos desenvolvimentos em grandes modelos de linguagem e IA generativa. Muitas destas empresas estão agora a alimentar receios em torno dos riscos existenciais da IA. Isto não é apenas uma distração dos danos existentes, mas também posiciona estas empresas como necessárias para lidar com os danos relacionados com a IA. De muitas maneiras, estamos perdendo um pouco do ímpeto do “chicote tecnológico” que surgiu após o episódio da Cambridge Analytica. Em locais como a Índia, também me preocupa que a IA esteja a ser considerada necessária para o desenvolvimento socioeconómico, apresentando uma oportunidade para ultrapassar desafios persistentes. Isto não só exagera o potencial da IA, mas também ignora o facto de não ser possível ultrapassar o desenvolvimento institucional necessário para desenvolver salvaguardas. Outra questão que não estamos a considerar suficientemente seriamente são os impactos ambientais da IA – a trajetória atual será provavelmente insustentável. No ecossistema atual, é pouco provável que os mais vulneráveis aos impactos das alterações climáticas sejam os beneficiários da inovação da IA.
Quais são alguns problemas dos quais os usuários de IA devem estar cientes?
Os usuários precisam estar cientes de que a IA não é mágica, nem nada próximo da inteligência humana. É uma forma de estatística computacional que tem muitos usos benéficos, mas, em última análise, é apenas uma estimativa probabilística baseada em padrões históricos ou anteriores. Tenho certeza de que há vários outros problemas dos quais os usuários também precisam estar cientes, mas quero alertar que devemos ter cuidado com as tentativas de transferir a responsabilidade a jusante, para os usuários. Vejo isso mais recentemente com o uso de ferramentas generativas de IA em contextos de poucos recursos no mundo majoritário — em vez de ser cauteloso com essas tecnologias experimentais e não confiáveis, o foco muitas vezes muda para como os usuários finais, como agricultores ou trabalhadores da linha de frente, os profissionais de saúde necessitam de melhorar as suas competências.
Qual é a melhor maneira de construir IA com responsabilidade?
Isto deve começar com a avaliação da necessidade de IA em primeiro lugar. Existe um problema que a IA pode resolver de forma única ou existem outros meios possíveis? E se quisermos construir IA, será necessário um modelo complexo de caixa preta, ou será que um modelo mais simples baseado em lógica servirá igualmente bem? Também precisamos centralizar novamente o conhecimento do domínio na construção da IA. Na obsessão pelo big data, sacrificámos a teoria – precisamos de construir uma teoria da mudança baseada no conhecimento do domínio e esta deve ser a base dos modelos que estamos a construir, e não apenas do big data. Isto é, obviamente, um acréscimo a questões-chave como participação, equipas inclusivas, direitos laborais e assim por diante.
Como podem os investidores promover melhor uma IA responsável?
Os investidores precisam de considerar todo o ciclo de vida da produção de IA – e não apenas os resultados ou resultados das aplicações de IA. Isto exigiria a análise de uma série de questões, tais como se o trabalho é valorizado de forma justa, os impactos ambientais, o modelo de negócio da empresa (ou seja, é baseado na vigilância comercial?) e medidas de responsabilização interna dentro da empresa. Os investidores também precisam de pedir provas melhores e mais rigorosas sobre os supostos benefícios da IA.