Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch está lançando uma série de entrevistas com foco em mulheres notáveis ​​​​que contribuíram para a revolução da IA. Publicaremos vários artigos ao longo do ano à medida que o boom da IA ​​continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

Mutale Nkonde é o CEO fundador da organização sem fins lucrativos AI for the People (AFP), que busca aumentar a quantidade de vozes negras na tecnologia. Antes disso, ela ajudou a apresentar as Leis Algorítmicas e Algorítmicas Profundas, além da Lei Sem Barreiras Biométricas à Habitação, na Câmara dos Representantes dos EUA. Atualmente é Visiting Policy Fellow no Oxford Internet Institute.

Resumidamente, como você começou na IA? O que te atraiu para a área?

Comecei a ficar curioso sobre como as mídias sociais funcionavam depois que um amigo meu postou que o Google Pictures, o precursor do Google Image, rotulou dois negros como gorilas em 2015. Estive envolvido com muitos círculos de “negros na tecnologia”, e ficamos indignados, mas não comecei a entender que isso se devia ao viés algorítmico até a publicação de “Armas de Destruição Matemática” em 2016. Isso me inspirou a começar a me inscrever em bolsas onde pudesse estudar mais a fundo e terminei com minha função como co-autor de um relatório chamado Promovendo a alfabetização racial em tecnologia, que foi publicado em 2019. Isso foi percebido pelo pessoal da Fundação McArthur e deu início à etapa atual da minha carreira.

Fiquei atraído por questões sobre racismo e tecnologia porque pareciam pouco pesquisadas e contra-intuitivas. Gosto de fazer coisas que outras pessoas não fazem, então aprender mais e divulgar essas informações no Vale do Silício pareceu muito divertido. Desde o Avanço da Alfabetização Racial em Tecnologia, comecei uma organização sem fins lucrativos chamada IA para as pessoas que se concentra na defesa de políticas e práticas para reduzir a expressão do preconceito algorítmico.

De qual trabalho você mais se orgulha (na área de IA)?

Estou muito orgulhoso de ser o principal defensor da Lei de Responsabilidade Algorítmica, que foi apresentada pela primeira vez à Câmara dos Representantes em 2019. Ela estabeleceu a IA para o Povo como um importante líder de pensamento sobre como desenvolver protocolos para orientar o design, implantação e governança de sistemas de IA que cumpram as leis locais de não discriminação. Isso nos levou a ser incluídos nos canais Schumer AI Insights como parte de um grupo consultivo para várias agências federais e alguns trabalhos futuros interessantes no Hill.

Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?

Na verdade, tive mais problemas com guardiões acadêmicos. A maioria dos homens com quem trabalho em empresas de tecnologia foram encarregados de desenvolver sistemas para uso em populações negras e outras populações não-brancas e, portanto, tem sido muito fácil trabalhar com eles. Principalmente porque atuo como um especialista externo que pode validar ou desafiar as práticas existentes.

Que conselho você daria às mulheres que desejam ingressar na área de IA?

Encontre um nicho e torne-se uma das melhores pessoas do mundo nisso. Tive duas coisas que me ajudaram a construir credibilidade. A primeira foi que eu defendia políticas para reduzir o viés algorítmico, enquanto as pessoas na academia começavam a discutir o assunto. Isto deu-me uma vantagem de ser o pioneiro no “espaço de soluções” e fez da AI for the People uma autoridade no Congresso cinco anos antes da ordem executiva. A segunda coisa que eu diria é analisar suas deficiências e resolvê-las. AI for the People tem quatro anos e tenho obtido as credenciais acadêmicas necessárias para garantir que não seja expulso dos espaços de líderes inovadores. Mal posso esperar para me formar com um mestrado em Columbia em maio e espero continuar pesquisando nessa área.

Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?

Estou pensando muito sobre as estratégias que podem ser adotadas para envolver mais negros e pessoas de cor na construção, teste e anotação de modelos fundamentais. Isso ocorre porque as tecnologias são tão boas quanto seus dados de treinamento, então como podemos criar conjuntos de dados inclusivos em um momento em que o DEI está sendo atacado, os fundos de risco negros estão sendo processados ​​por visar fundadores negros e mulheres, e os acadêmicos negros estão sendo atacados publicamente , quem fará esse trabalho na indústria?

Quais são alguns problemas dos quais os usuários de IA devem estar cientes?

Penso que deveríamos pensar no desenvolvimento da IA ​​como uma questão geopolítica e como os Estados Unidos poderiam tornar-se líderes em IA verdadeiramente escalável, criando produtos com elevadas taxas de eficácia em pessoas de todos os grupos demográficos. Isto acontece porque a China é o único outro grande produtor de IA, mas produz produtos dentro de uma população largamente homogénea e apesar de ter uma grande presença em África. O sector tecnológico americano pode dominar esse mercado se forem feitos investimentos agressivos no desenvolvimento de tecnologias anti-preconceito.

Qual é a melhor maneira de construir IA com responsabilidade?

É necessária uma abordagem multifacetada, mas uma coisa a considerar seria a prossecução de questões de investigação centradas nas pessoas que vivem à margem das margens. A maneira mais fácil de fazer isso é anotar as tendências culturais e depois considerar como isso impacta o desenvolvimento tecnológico. Por exemplo, fazer perguntas como como podemos projetar tecnologias biométricas escalonáveis ​​em uma sociedade onde mais pessoas se identificam como trans ou não binárias?

Como podem os investidores promover melhor uma IA responsável?

Os investidores deveriam olhar para as tendências demográficas e depois perguntar-se: será que estas empresas serão capazes de vender a uma população que se torna cada vez mais negra e parda devido à queda das taxas de natalidade nas populações europeias em todo o mundo? Isto deverá levá-los a colocar questões sobre o preconceito algorítmico durante o processo de devida diligência, uma vez que isto se tornará cada vez mais um problema para os consumidores.

Há muito trabalho a ser feito para requalificar a nossa força de trabalho para uma época em que os sistemas de IA realizam tarefas de baixo risco para poupar mão de obra. Como podemos garantir que as pessoas que vivem à margem da nossa sociedade sejam incluídas nestes programas? Que informações eles podem nos fornecer sobre como os sistemas de IA funcionam e não funcionam a partir deles, e como podemos usar esses insights para garantir que a IA realmente seja para as pessoas?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *