Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch publicou uma série de entrevistas focadas em mulheres notáveis ​​​​que contribuíram para a revolução da IA. Publicaremos esses artigos ao longo do ano, à medida que o boom da IA ​​continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

Miriam Vogel é CEO da EqualAI, uma organização sem fins lucrativos criada para reduzir preconceitos inconscientes na IA e promover uma governança responsável da IA. Ela também atua como presidente do recém-lançado Comitê Consultivo Nacional de IA, mandatado pelo Congresso para aconselhar o presidente Joe Biden e a Casa Branca sobre políticas de IA, e leciona direito e política de tecnologia no Centro de Direito da Universidade de Georgetown.

Vogel atuou anteriormente como procurador-geral adjunto no Departamento de Justiça, assessorando o procurador-geral e o procurador-geral adjunto em uma ampla gama de questões jurídicas, políticas e operacionais. Como membro do conselho do Responsible AI Institute e consultor sênior do Centro para Democracia e Tecnologia, Vogel aconselhou a liderança da Casa Branca em iniciativas que vão desde mulheres, políticas econômicas, regulatórias e de segurança alimentar até questões de justiça criminal.

Resumidamente, como você começou na IA? O que te atraiu para a área?

Comecei minha carreira trabalhando no governo, inicialmente como estagiário no Senado, no verão antes do 11º ano. Peguei o vírus da política e passei os verões seguintes trabalhando no Congresso e depois na Casa Branca. Meu foco naquele momento estava nos direitos civis, que não é o caminho convencional para a inteligência artificial, mas, olhando para trás, faz todo o sentido.

Após a faculdade de direito, minha carreira progrediu de um advogado de entretenimento especializado em propriedade intelectual para um trabalho de direitos civis e impacto social no poder executivo. Tive o privilégio de liderar a força-tarefa de igualdade de remuneração enquanto servi na Casa Branca e, enquanto atuava como vice-procuradora-geral associada da ex-procuradora-geral adjunta Sally Yates, liderei a criação e o desenvolvimento de treinamento sobre preconceito implícito para aplicação da lei federal .

Fui convidado para liderar a EqualAI com base na minha experiência como advogado em tecnologia e na minha experiência em políticas que abordam preconceitos e danos sistemáticos. Fiquei atraído por esta organização porque percebi que a IA apresentava a próxima fronteira dos direitos civis. Sem vigilância, décadas de progresso poderiam ser desfeitas em linhas de código.

Sempre estive entusiasmado com as possibilidades criadas pela inovação e ainda acredito que a IA pode apresentar novas oportunidades surpreendentes para que mais populações prosperem – mas apenas se tivermos cuidado nesta conjuntura crítica para garantir que mais pessoas sejam capazes de participar de forma significativa na sua criação e desenvolvimento.

Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?

Acredito fundamentalmente que todos temos um papel a desempenhar para garantir que a nossa IA seja tão eficaz, eficiente e benéfica quanto possível. Isso significa garantir que fazemos mais para apoiar as vozes das mulheres no seu desenvolvimento (que, aliás, representam mais de 85% das compras nos EUA e, portanto, garantir que os seus interesses e segurança sejam incorporados é uma jogada empresarial inteligente), como bem como as vozes de outras populações sub-representadas de várias idades, regiões, etnias e nacionalidades que não participam suficientemente.

À medida que trabalhamos em prol da paridade de género, devemos garantir que mais vozes e perspetivas sejam consideradas para desenvolver uma IA que funcione para todos os consumidores – e não apenas uma IA que funcione para os criadores.

Que conselho você daria às mulheres que desejam ingressar na área de IA?

Primeiro, nunca é tarde para começar. Nunca. Encorajo todos os avós a tentarem usar o ChatGPT da OpenAI, o Copilot da Microsoft ou o Gemini do Google. Todos nós precisaremos nos tornar alfabetizados em IA para prosperar no que se tornará uma economia movida pela IA. E isso é emocionante! Todos nós temos um papel a desempenhar. Quer você esteja iniciando uma carreira em IA ou usando IA para apoiar seu trabalho, as mulheres deveriam experimentar ferramentas de IA, ver o que essas ferramentas podem ou não fazer, ver se funcionam para elas e, em geral, tornar-se conhecedoras de IA.

Em segundo lugar, o desenvolvimento responsável da IA ​​exige mais do que apenas cientistas da computação éticos. Muitas pessoas pensam que o campo da IA ​​exige uma ciência da computação ou algum outro diploma STEM quando, na realidade, a IA precisa de perspectivas e conhecimentos de mulheres e homens de todas as origens. Pule dentro! Sua voz e perspectiva são necessárias. Seu envolvimento é crucial.

Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?

Primeiro, precisamos de uma maior alfabetização em IA. Somos “positivos em termos de IA” na EqualAI, o que significa que pensamos que a IA proporcionará oportunidades sem precedentes para a nossa economia e melhorará a nossa vida quotidiana – mas apenas se essas oportunidades estiverem igualmente disponíveis e forem benéficas para uma secção transversal maior da nossa população. Precisamos da nossa força de trabalho atual, da próxima geração, dos nossos avós – todos nós — estar equipados com os conhecimentos e competências necessários para beneficiar da IA.

Em segundo lugar, devemos desenvolver medidas e métricas padronizadas para avaliar os sistemas de IA. Avaliações padronizadas serão cruciais para construir confiança nos nossos sistemas de IA e permitir que consumidores, reguladores e utilizadores a jusante compreendam os limites dos sistemas de IA com os quais estão envolvidos e determinem se esse sistema é digno da nossa confiança. Compreender para quem um sistema foi criado e os casos de uso previstos nos ajudará a responder à pergunta-chave: para quem isso poderia falhar?

Quais são alguns problemas dos quais os usuários de IA devem estar cientes?

A inteligência artificial é apenas isso: artificial. É construído por humanos para “imitar” a cognição humana e capacitar os humanos em suas atividades. Devemos manter a quantidade adequada de ceticismo e exercer a devida diligência ao utilizar esta tecnologia para garantir que depositamos a nossa fé em sistemas que merecem a nossa confiança. A IA pode aumentar – mas não substituir – a humanidade.

Devemos permanecer atentos ao facto de que a IA consiste em dois ingredientes principais: algoritmos (criados por humanos) e dados (refletindo conversas e interações humanas). Como resultado, a IA reflete e adapta as nossas falhas humanas. Preconceitos e danos podem ser incorporados ao longo do ciclo de vida da IA, seja por meio de algoritmos escritos por humanos ou por meio de dados que são um instantâneo de vidas humanas. No entanto, cada ponto de contacto humano é uma oportunidade para identificar e mitigar os danos potenciais.

Como só se pode imaginar de forma tão ampla quanto a sua própria experiência permite e os programas de IA são limitados pelas construções sob as quais são construídos, quanto mais pessoas com perspectivas e experiências variadas numa equipa, maior será a probabilidade de detectarem preconceitos e outras preocupações de segurança. incorporados em sua IA.

Qual é a melhor maneira de construir IA com responsabilidade?

Construir uma IA que seja digna de nossa confiança é de nossa responsabilidade. Não podemos esperar que outra pessoa faça isso por nós. Devemos começar por fazer três perguntas básicas: (1) Para quem este sistema de IA foi construído (2), quais foram os casos de utilização previstos e (3) para quem isto pode falhar? Mesmo com estas questões em mente, inevitavelmente haverá armadilhas. Para mitigar estes riscos, os designers, desenvolvedores e implantadores devem seguir as melhores práticas.

Na EqualAI, promovemos uma boa “higiene da IA”, que envolve planear a sua estrutura e garantir a responsabilização, padronizar testes, documentação e auditorias de rotina. Também publicámos recentemente um guia para conceber e operacionalizar um quadro de governação responsável da IA, que delineia os valores, princípios e quadro para a implementação responsável da IA ​​numa organização. O documento serve como um recurso para organizações de qualquer tamanho, setor ou maturidade no processo de adoção, desenvolvimento, utilização e implementação de sistemas de IA com um compromisso interno e público de fazê-lo de forma responsável.

Como podem os investidores promover melhor uma IA responsável?

Os investidores têm um papel descomunal em garantir que a nossa IA seja segura, eficaz e responsável. Os investidores podem garantir que as empresas que procuram financiamento estão conscientes e pensam em mitigar potenciais danos e responsabilidades nos seus sistemas de IA. Mesmo fazendo a pergunta: “Como você instituiu práticas de governança de IA?” é um primeiro passo significativo para garantir melhores resultados.

Este esforço não é bom apenas para o bem público; é também do interesse dos investidores que desejam garantir que as empresas nas quais investem e nas quais estão afiliados não sejam associadas a más manchetes ou sobrecarregadas por litígios. A confiança é um dos poucos elementos inegociáveis ​​para o sucesso de uma empresa, e o compromisso com uma governação responsável da IA ​​é a melhor forma de construir e manter a confiança pública. Uma IA robusta e confiável faz sentido para os negócios.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *