Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch publicou uma série de entrevistas focadas em mulheres notáveis ​​​​que contribuíram para a revolução da IA. Publicaremos esses artigos ao longo do ano, à medida que o boom da IA ​​continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

Em destaque hoje: Allison Cohen, gerente sênior de projetos de IA aplicada na Mila, uma comunidade com sede em Quebec com mais de 1.200 pesquisadores especializados em IA e aprendizado de máquina. Ela trabalha com pesquisadores, cientistas sociais e parceiros externos para implantar projetos de IA socialmente benéficos. O portfólio de trabalho de Cohen inclui uma ferramenta que detecta misoginia, um aplicativo para identificar atividades online de suspeitas de vítimas de tráfico humano e um aplicativo agrícola para recomendar práticas agrícolas sustentáveis ​​em Ruanda.

Anteriormente, Cohen foi co-líder na descoberta de medicamentos de IA na Parceria Global sobre Inteligência Artificial, uma organização para orientar o desenvolvimento e uso responsável de IA. Ela também atuou como consultora de estratégia de IA na Deloitte e consultora de projetos no Center for International Digital Policy, um think tank canadense independente.

Perguntas e respostas

Resumidamente, como você começou na IA? O que te atraiu para a área?

A constatação de que poderíamos modelar tudo matematicamente, desde o reconhecimento de rostos até a negociação de acordos comerciais, mudou a maneira como eu via o mundo, e foi isso que tornou a IA tão atraente para mim. Ironicamente, agora que trabalho com IA, vejo que não podemos — e em muitos casos não deveríamos — capturar esse tipo de fenômeno com algoritmos.

Tive contato com a área enquanto completava um mestrado em assuntos globais na Universidade de Toronto. O programa foi concebido para ensinar os alunos a navegar nos sistemas que afetam a ordem mundial – tudo, desde a macroeconomia ao direito internacional e à psicologia humana. À medida que aprendia mais sobre IA, porém, reconheci como ela se tornaria vital para a política mundial e como era importante me educar sobre o assunto.

O que me permitiu entrar na área foi um concurso de redação. Para a competição, escrevi um artigo descrevendo como as drogas psicodélicas ajudariam os humanos a permanecerem competitivos em um mercado de trabalho repleto de IA, o que me qualificou para participar do Simpósio de St. Gallen em 2018 (era um artigo criativo). Meu convite e a subsequente participação naquele evento me deram confiança para continuar perseguindo meu interesse na área.

De qual trabalho você mais se orgulha na área de IA?

Um dos projetos que gerenciei envolveu a construção de um conjunto de dados contendo exemplos de expressões sutis e evidentes de preconceito contra as mulheres.

Para este projeto, foi crucial formar e gerir uma equipa multidisciplinar de especialistas em processamento de linguagem natural, linguistas e especialistas em estudos de género ao longo de todo o ciclo de vida do projeto. É algo de que tenho muito orgulho. Aprendi em primeira mão por que esse processo é fundamental para a criação de aplicativos responsáveis ​​e também por que não é feito o suficiente — é um trabalho árduo! Se você puder apoiar cada uma dessas partes interessadas na comunicação eficaz entre disciplinas, poderá facilitar um trabalho que combina tradições de décadas das ciências sociais e desenvolvimentos de ponta na ciência da computação.

Também estou orgulhoso que este projeto tenha sido bem recebido pela comunidade. Um de nossos artigos recebeu destaque no workshop de modelagem de linguagem socialmente responsável em uma das principais conferências de IA, NeurIPS. Além disso, este trabalho inspirou um processo interdisciplinar semelhante que foi gerenciado por AI Suéciaque adaptou o trabalho para se adequar às noções e expressões suecas de misoginia.

Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?

É lamentável que, numa indústria tão inovadora, ainda estejamos a assistir a dinâmicas de género problemáticas. Não se trata apenas de afectar negativamente as mulheres – todos nós estamos a perder. Fui bastante inspirada por um conceito chamado “teoria do ponto de vista feminista” que aprendi no livro de Sasha Costanza-Chock, “Design Justice”.

A teoria afirma que as comunidades marginalizadas, cujos conhecimentos e experiências não beneficiam dos mesmos privilégios que outras, têm uma consciência do mundo que pode provocar mudanças justas e inclusivas. É claro que nem todas as comunidades marginalizadas são iguais, nem as experiências dos indivíduos dentro dessas comunidades.

Dito isto, uma variedade de perspetivas desses grupos é fundamental para nos ajudar a navegar, desafiar e desmantelar todos os tipos de desafios estruturais e desigualdades. É por isso que a não inclusão das mulheres pode manter o campo da IA ​​excludente para uma faixa ainda mais ampla da população, reforçando também a dinâmica de poder fora do campo.

Em termos de como lidei com uma indústria dominada pelos homens, descobri que os aliados são muito importantes. Esses aliados são produto de relacionamentos fortes e de confiança. Por exemplo, tive muita sorte de ter amigos como Peter Kurzwelly, que compartilhou sua experiência em podcasting para me apoiar na criação de um podcast centrado e liderado por mulheres chamado “O mundo que estamos construindo”. Este podcast nos permite elevar o trabalho de ainda mais mulheres e pessoas não binárias na área de IA.

Que conselho você daria às mulheres que desejam ingressar na área de IA?

Encontre uma porta aberta. Não precisa ser remunerado, não precisa ser uma carreira e nem precisa estar alinhado com sua formação ou experiência. Se você encontrar uma abertura, poderá usá-la para aprimorar sua voz no espaço e construir a partir daí. Se você for voluntário, dê tudo de si – isso permitirá que você se destaque e, com sorte, seja pago pelo seu trabalho o mais rápido possível.

É claro que é um privilégio poder ser voluntário, o que também quero reconhecer.

Quando perdi meu emprego durante a pandemia e o desemprego estava em alta no Canadá, muito poucas empresas procuravam contratar talentos em IA, e aquelas que contratavam não procuravam estudantes de assuntos globais com oito meses de experiência em consultoria . Enquanto me candidatava a empregos, comecei a trabalhar como voluntário em uma organização de ética em IA.

Um dos projetos em que trabalhei enquanto era voluntário era sobre se deveria haver proteção de direitos autorais para arte produzida por IA. Procurei um advogado de um escritório de advocacia canadense de IA para entender melhor o espaço. Ela me conectou com alguém em CIFAR, que me conectou com Benjamin Prud’homme, diretor executivo da equipe AI for Humanity de Mila. É incrível pensar que através de uma série de intercâmbios sobre arte de IA, aprendi sobre uma oportunidade de carreira que desde então transformou minha vida.

Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?

Tenho três respostas para esta pergunta que estão um tanto interligadas. Acho que precisamos descobrir:

  1. Como conciliar o fato de que a IA foi construída para ser escalonada e, ao mesmo tempo, garantir que as ferramentas que estamos construindo sejam adaptadas para atender ao conhecimento, à experiência e às necessidades locais.
  2. Se quisermos construir ferramentas adaptadas ao contexto local, precisaremos incorporar antropólogos e sociólogos no processo de design da IA. Mas há uma infinidade de estruturas de incentivos e outros obstáculos que impedem uma colaboração interdisciplinar significativa. Como podemos superar isso?
  3. Como podemos afetar o processo de design de forma ainda mais profunda do que simplesmente incorporar conhecimentos multidisciplinares? Especificamente, como podemos alterar os incentivos de modo a concebermos ferramentas construídas para aqueles que delas necessitam com maior urgência, em vez de para aqueles cujos dados ou negócios são mais rentáveis?

Quais são alguns problemas dos quais os usuários de IA devem estar cientes?

A exploração laboral é uma das questões que penso que não recebe cobertura suficiente. Existem muitos modelos de IA que aprendem com dados rotulados usando métodos de aprendizagem supervisionada. Quando o modelo depende de dados rotulados, há pessoas que precisam fazer essa marcação (ou seja, alguém adiciona o rótulo “gato” à imagem de um gato). Estas pessoas (anotadores) são frequentemente objecto de práticas de exploração. Para modelos que não exigem que os dados sejam rotulados durante o processo de treinamento (como é o caso de alguns modelos de IA generativos e outros modelos básicos), os conjuntos de dados ainda podem ser construídos de forma exploratória, pois os desenvolvedores muitas vezes não obtêm consentimento nem fornecem compensação ou crédito aos criadores dos dados.

Eu recomendaria conferir o trabalho de Krystal Kauffman, que fiquei muito feliz em ver nesta série do TechCrunch. Ela está a fazer progressos na defesa dos direitos laborais dos anotadores, incluindo um salário digno, o fim das práticas de “rejeição em massa” e práticas de envolvimento que se alinham com os direitos humanos fundamentais (em resposta a desenvolvimentos como a vigilância intrusiva).

Qual é a melhor maneira de construir IA com responsabilidade?

As pessoas muitas vezes recorrem aos princípios éticos da IA ​​para afirmar que sua tecnologia é responsável. Infelizmente, a reflexão ética só pode começar depois de uma série de decisões já terem sido tomadas, incluindo, mas não se limitando a:

  1. O que você está construindo?
  2. Como você está construindo isso?
  3. Como será implantado?

Se você esperar até que essas decisões sejam tomadas, você terá perdido inúmeras oportunidades de construir uma tecnologia responsável.

Na minha experiência, a melhor maneira de construir uma IA responsável é estar ciente – desde os primeiros estágios do seu processo – de como o seu problema é definido e quais interesses ele satisfaz; como a orientação apoia ou desafia dinâmicas de poder pré-existentes; e quais comunidades serão capacitadas ou desempoderadas através do uso da IA.

Se quiser criar soluções significativas, você deve navegar cuidadosamente por esses sistemas de poder.

Como podem os investidores promover melhor uma IA responsável?

Pergunte sobre os valores da equipe. Se os valores forem definidos, pelo menos em parte, pela comunidade local e houver um certo grau de responsabilização perante essa comunidade, é mais provável que a equipa incorpore práticas responsáveis.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *