Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch está lançando uma série de entrevistas com foco em mulheres notáveis ​​​​que contribuíram para a revolução da IA. Publicaremos vários artigos ao longo do ano à medida que o boom da IA ​​continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

Claire Leibowicz é chefe do programa de IA e integridade de mídia da Partnership on AI (PAI), o grupo industrial apoiado pela Amazon, Meta, Google, Microsoft e outros comprometidos com a implantação “responsável” de tecnologia de IA. Ela também supervisiona o comitê diretor de IA e integridade da mídia do PAI.

Em 2021, Leibowicz foi bolsista de jornalismo na Tablet Magazine e, em 2022, foi bolsista do Bellagio Center da Fundação Rockefeller com foco na governança de IA. Leibowicz – que possui bacharelado em psicologia e ciência da computação em Harvard e mestrado em Oxford – aconselhou empresas, governos e organizações sem fins lucrativos sobre governança de IA, mídia generativa e informação digital.

Perguntas e respostas

Resumidamente, como você começou na IA? O que te atraiu para a área?

Pode parecer paradoxal, mas cheguei ao campo da IA ​​por interesse no comportamento humano. Cresci em Nova York e sempre fui cativado pelas diversas maneiras como as pessoas interagem e como uma sociedade tão diversificada toma forma. Fiquei curioso sobre grandes questões que afetam a verdade e a justiça, como por exemplo: como escolhemos confiar nos outros? O que desencadeia o conflito intergrupal? Por que as pessoas acreditam que certas coisas são verdadeiras e outras não? Comecei a explorar estas questões na minha vida académica através da investigação em ciências cognitivas e rapidamente percebi que a tecnologia estava a afectar as respostas a estas questões. Também achei intrigante como a inteligência artificial poderia ser uma metáfora para a inteligência humana.

Isso me levou às salas de aula de ciência da computação, onde os professores – tenho que destacar a professora Barbara Grosz, que é uma pioneira no processamento de linguagem natural, e o professor Jim Waldo, que combinou sua formação em filosofia e ciência da computação – enfatizaram a importância de preencher suas salas de aula com cursos que não sejam de ciência da computação e engenharia se concentrem no impacto social das tecnologias, incluindo IA. E isso foi antes de a “ética da IA” ser um campo distinto e popular. Deixaram claro que, embora a compreensão técnica seja benéfica, a tecnologia afecta vastos domínios, incluindo a geopolítica, a economia, o envolvimento social e muito mais, exigindo assim que pessoas de muitas origens disciplinares ponderem sobre questões aparentemente tecnológicas.

Quer você seja um educador pensando em como as ferramentas generativas de IA afetam a pedagogia, um curador de museu experimentando uma rota preditiva para uma exposição ou um médico investigando novos métodos de detecção de imagens para leitura de relatórios de laboratório, a IA pode impactar sua área. Esta realidade, de que a IA abrange muitos domínios, intrigou-me: havia variedade intelectual inerente ao trabalho no campo da IA, e isto trouxe consigo uma oportunidade de impactar muitas facetas da sociedade.

De qual trabalho você mais se orgulha (na área de IA)?

Tenho orgulho do trabalho em IA que reúne perspectivas díspares de uma forma surpreendente e orientada para a ação — que não apenas acomoda, mas incentiva o desacordo. Entrei na PAI como segundo membro da equipe da organização há seis anos e percebi imediatamente que a organização era pioneira em seu compromisso com diversas perspectivas. A PAI viu esse trabalho como um pré-requisito vital para a governação da IA, que mitiga os danos e leva à adoção prática e ao impacto no campo da IA. Isto provou ser verdade, e fiquei animado em ajudar a moldar a adoção da multidisciplinaridade pelo PAI e observar a instituição crescer junto com o campo da IA.

O nosso trabalho nos meios de comunicação sintéticos nos últimos seis anos começou muito antes de a IA generativa se tornar parte da consciência pública e exemplifica as possibilidades da governação multissetorial da IA. Em 2020, trabalhamos com nove organizações diferentes da sociedade civil, da indústria e da mídia para moldar o Deepfake Detection Challenge do Facebook, uma competição de aprendizado de máquina para construir modelos para detectar mídia gerada por IA. Estas perspectivas externas ajudaram a moldar a justiça e os objectivos dos modelos vencedores – mostrando como os especialistas em direitos humanos e jornalistas podem contribuir para uma questão aparentemente técnica como a detecção de deepfake. No ano passado, publicamos um conjunto normativo de orientações sobre mídia sintética responsável — PAI’s Práticas Responsáveis ​​para Mídia Sintética – que agora tem 18 apoiadores de origens extremamente diferentes, desde OpenAI a TikTok até Code for Africa, Bumble, BBC e WITNESS. Ser capaz de colocar no papel orientações práticas baseadas em realidades técnicas e sociais é uma coisa, mas outra é realmente obter apoio institucional. Neste caso, as instituições comprometeram-se a fornecer relatórios de transparência sobre a forma como navegam no campo dos meios de comunicação sintéticos. Os projetos de IA que apresentam orientações tangíveis e mostram como implementar essas orientações em todas as instituições são alguns dos mais significativos para mim.

Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?

Tive mentores masculinos e femininos maravilhosos ao longo de minha carreira. Encontrar pessoas que simultaneamente me apoiem e me desafiem é fundamental para qualquer crescimento que experimentei. Acho que focar em interesses comuns e discutir as questões que animam o campo da IA ​​pode reunir pessoas com diferentes origens e perspectivas. Curiosamente, a equipa do PAI é composta por mais de metade de mulheres, e muitas das organizações que trabalham com IA e sociedade ou questões de IA responsável têm muitas mulheres nos seus quadros. Isto muitas vezes contrasta com aqueles que trabalham em equipes de engenharia e pesquisa de IA, e é um passo na direção certa para representação no ecossistema de IA.

Que conselho você daria às mulheres que desejam ingressar na área de IA?

Como mencionei na pergunta anterior, alguns dos espaços dominados principalmente por homens dentro da IA ​​que encontrei também foram aqueles que são mais técnicos. Embora não devamos priorizar a perspicácia técnica em detrimento de outras formas de alfabetização no campo da IA, descobri que ter formação técnica tem sido uma bênção tanto para a minha confiança como para a minha eficácia nesses espaços. Precisamos de representação igualitária em funções técnicas e de abertura à experiência de pessoas que sejam especialistas em outras áreas, como direitos civis e política, que tenham uma representação mais equilibrada. Ao mesmo tempo, dotar mais mulheres de conhecimentos técnicos é fundamental para equilibrar a representação no domínio da IA.

Também achei extremamente significativo conectar-me com mulheres da área de IA que navegaram equilibrando a vida familiar e profissional. Encontrar modelos com quem conversar sobre grandes questões relacionadas à carreira e à paternidade – e alguns dos desafios únicos que as mulheres ainda enfrentam no trabalho – fez com que eu me sentisse mais bem preparada para lidar com alguns desses desafios à medida que surgem.

Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?

As questões de verdade e confiança online – e offline – tornam-se cada vez mais complicadas à medida que a IA evolui. Como conteúdos que vão desde imagens a vídeos e texto podem ser gerados ou modificados por IA, ver ainda é acreditar? Como podemos confiar em evidências se os documentos podem ser falsificados de forma fácil e realista? Podemos ter espaços online apenas para humanos se for extremamente fácil imitar uma pessoa real? Como navegamos nas compensações que a IA apresenta entre a liberdade de expressão e a possibilidade de os sistemas de IA poderem causar danos? De forma mais ampla, como podemos garantir que o ambiente de informação não seja moldado apenas por um grupo seleto de empresas e por aqueles que trabalham para elas, mas que incorpore as perspectivas das partes interessadas de todo o mundo, incluindo o público?

Paralelamente a estas questões específicas, a PAI tem estado envolvida noutras facetas da IA ​​e da sociedade, incluindo a forma como consideramos a justiça e o preconceito numa era de tomada de decisões algorítmicas, como o trabalho tem impacto e é impactado pela IA, como navegar na implementação responsável de sistemas de IA e até mesmo como tornar os sistemas de IA mais reflexivos de inúmeras perspectivas. A nível estrutural, devemos considerar como a governação da IA ​​pode navegar por vastos compromissos, incorporando perspectivas variadas.

Quais são alguns problemas dos quais os usuários de IA devem estar cientes?

Primeiro, os usuários de IA devem saber que se algo parece bom demais para ser verdade, provavelmente é.

O boom da IA ​​generativa ao longo do ano passado reflectiu, evidentemente, uma enorme engenhosidade e inovação, mas também conduziu a mensagens públicas sobre a IA que são muitas vezes hiperbólicas e imprecisas.

Os utilizadores de IA também devem compreender que a IA não é revolucionária, mas agrava e aumenta os problemas e oportunidades existentes. Isto não significa que devam levar a IA menos a sério, mas sim usar este conhecimento como uma base útil para navegar num mundo cada vez mais infundido pela IA. Por exemplo, se você está preocupado com o fato de que as pessoas podem contextualizar incorretamente um vídeo antes de uma eleição alterando a legenda, você deve se preocupar com a velocidade e a escala com que elas podem enganar o uso da tecnologia deepfake. Se você está preocupado com o uso da vigilância no local de trabalho, também deve considerar como a IA tornará essa vigilância mais fácil e difundida. Manter um ceticismo saudável sobre a novidade dos problemas de IA, ao mesmo tempo que é honesto sobre o que é distinto no momento atual, é um quadro útil para os utilizadores trazerem para os seus encontros com a IA.

Qual é a melhor maneira de construir IA com responsabilidade?

A construção responsável da IA ​​exige que ampliemos a nossa noção de quem desempenha um papel na “construção” da IA. É claro que influenciar as empresas tecnológicas e as plataformas de redes sociais é uma forma fundamental de afetar o impacto dos sistemas de IA, e estas instituições são vitais para a construção responsável de tecnologia. Ao mesmo tempo, devemos reconhecer como diversas instituições da sociedade civil, da indústria, dos meios de comunicação social, do meio académico e do público devem continuar a estar envolvidas na construção de uma IA responsável que sirva o interesse público.

Tomemos, por exemplo, o desenvolvimento responsável e a implantação de meios de comunicação sintéticos.

Embora as empresas de tecnologia possam estar preocupadas com a sua responsabilidade ao navegar como um vídeo sintético pode influenciar os utilizadores antes de uma eleição, os jornalistas podem estar preocupados com a possibilidade de impostores criarem vídeos sintéticos que pretendem vir da sua marca de notícias de confiança. Os defensores dos direitos humanos podem considerar a responsabilidade relacionada com a forma como os meios de comunicação gerados pela IA reduzem o impacto dos vídeos como prova de abusos. E os artistas podem ficar entusiasmados com a oportunidade de se expressarem através de meios generativos, ao mesmo tempo que se preocupam com a forma como as suas criações podem ser aproveitadas sem o seu consentimento para treinar modelos de IA que produzem novos meios de comunicação. Estas diversas considerações mostram como é vital envolver diferentes partes interessadas em iniciativas e esforços para construir IA de forma responsável, e como inúmeras instituições são afetadas – e afetam – a forma como a IA é integrada na sociedade.

Como podem os investidores promover melhor uma IA responsável?

Anos atrás, ouvi DJ Patil, ex-cientista-chefe de dados da Casa Branca, descrever uma revisão do difundido mantra “aja rápido e quebre as coisas” do início da era das mídias sociais que ficou comigo. Ele sugeriu que o campo “mover-se propositalmente e consertar as coisas”.

Adorei isto porque não implicava estagnação ou abandono da inovação, mas sim intencionalidade e a possibilidade de inovar ao mesmo tempo que assumimos responsabilidades. Os investidores devem ajudar a induzir esta mentalidade – permitindo mais tempo e espaço para as empresas do seu portfólio desenvolverem práticas responsáveis ​​de IA sem sufocar o progresso. Muitas vezes, as instituições descrevem o tempo limitado e os prazos apertados como factores limitantes para fazer a coisa “certa”, e os investidores podem ser um importante catalisador para mudar esta dinâmica.

Quanto mais trabalhei com IA, mais me deparei com questões profundamente humanísticas. E essas perguntas exigem que todos nós as respondamos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *