Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch está lançando uma série de entrevistas com foco em mulheres notáveis ​​​​que contribuíram para a revolução da IA. Publicaremos vários artigos ao longo do ano à medida que o boom da IA ​​continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

Heidy Khlaaf é diretora de engenharia da empresa de segurança cibernética Trail of Bits. Ela é especializada na avaliação de implementações de software e IA em sistemas “críticos para a segurança”, como usinas nucleares e veículos autônomos.

Khlaaf recebeu seu doutorado em ciência da computação. pela University College London e seu bacharelado em ciência da computação e filosofia pela Florida State University. Ela liderou auditorias de segurança e proteção, forneceu consultas e análises de casos de garantia e contribuiu para a criação de padrões e diretrizes para aplicações relacionadas à segurança e proteção e seu desenvolvimento.

Perguntas e respostas

Resumidamente, como você começou na IA? O que te atraiu para a área?

Fui atraído pela robótica desde muito jovem e comecei a programar aos 15 anos, pois estava fascinado com as perspectivas de usar robótica e IA (já que estão inexplicavelmente ligadas) para automatizar cargas de trabalho onde elas são mais necessárias. Tal como na indústria, vi a robótica a ser utilizada para ajudar os idosos – e automatizar o trabalho manual perigoso na nossa sociedade. No entanto, recebi meu doutorado. em um subcampo diferente da ciência da computação, porque acredito que ter uma base teórica sólida em ciência da computação permite que você tome decisões informadas e científicas sobre onde a IA pode ou não ser adequada e onde podem estar as armadilhas.

De qual trabalho você mais se orgulha (na área de IA)?

Usando minha forte experiência e experiência em engenharia de segurança e sistemas críticos de segurança para fornecer contexto e críticas quando necessário no novo campo da “segurança” da IA. Embora o campo da segurança da IA ​​tenha tentado adaptar e citar técnicas de segurança e proteção bem estabelecidas, várias terminologias foram mal interpretadas no seu uso e significado. Faltam definições consistentes ou intencionais que comprometam a integridade das técnicas de segurança que a comunidade de IA utiliza atualmente. Estou particularmente orgulhoso de “Rumo a avaliações de risco abrangentes e garantia de sistemas baseados em IA” e “Uma estrutura de análise de perigos para modelos de linguagem grande de síntese de código”onde desconstruo narrativas falsas sobre avaliações de segurança e IA e forneço etapas concretas para preencher a lacuna de segurança na IA.

Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?

O reconhecimento de quão pouco o status quo mudou não é algo que discutimos com frequência, mas acredito que seja realmente importante para mim e para outras mulheres técnicas compreendermos a nossa posição dentro da indústria e termos uma visão realista sobre as mudanças necessárias. As taxas de retenção e a proporção de mulheres em cargos de liderança permaneceram praticamente as mesmas desde que entrei na área, e isso foi há mais de uma década. E, como o TechCrunch apontou apropriadamente, apesar dos enormes avanços e contribuições das mulheres na IA, continuamos marginalizados das conversas que nós mesmas definimos. Reconhecer esta falta de progresso ajudou-me a compreender que construir uma comunidade pessoal forte é muito mais valioso como fonte de apoio, em vez de depender de iniciativas de DEI que, infelizmente, não mudaram o rumo, dado que o preconceito e o ceticismo em relação às mulheres técnicas ainda são bastante difundidos em tecnologia.

Que conselho você daria às mulheres que desejam ingressar na área de IA?

Não apelar à autoridade e encontrar uma linha de trabalho em que realmente acredite, mesmo que contradiga as narrativas populares. Dado o poder que os laboratórios de IA detêm política e economicamente no momento, há um instinto de considerar qualquer coisa que os “líderes de pensamento” de IA afirmam como fato, quando muitas vezes acontece que muitas afirmações de IA são discursos de marketing que exageram as habilidades da IA ​​para beneficiar um resultado final. No entanto, vejo uma hesitação significativa, especialmente entre as mulheres jovens nesta área, em vocalizar o cepticismo contra as afirmações feitas pelos seus pares do sexo masculino que não podem ser fundamentadas. A síndrome do impostor tem forte influência sobre as mulheres no setor de tecnologia e leva muitas a duvidar de sua própria integridade científica. Mas é mais importante do que nunca desafiar afirmações que exageram as capacidades da IA, especialmente aquelas que não são falsificáveis ​​pelo método científico.

Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?

Independentemente dos avanços que observarmos na IA, eles nunca serão a solução única, tecnológica ou socialmente, para os nossos problemas. Atualmente, há uma tendência de inserir a IA em todos os sistemas possíveis, independentemente de sua eficácia (ou falta dela) em vários domínios. A IA deveria aumentar as capacidades humanas em vez de substituí-las, e estamos a testemunhar um completo desrespeito pelas armadilhas e modos de falha da IA ​​que estão a conduzir a danos reais e tangíveis. Recentemente, um sistema de IA ShotSpotter recentemente levou um policial a atirar em uma criança.

Quais são alguns problemas dos quais os usuários de IA devem estar cientes?

Quão verdadeiramente não confiável é a IA. Os algoritmos de IA são notoriamente falhos, com altas taxas de erro observadas em aplicações que exigem precisão, exatidão e criticidade em termos de segurança. A forma como os sistemas de IA são treinados incorpora o preconceito e a discriminação humanos nos seus resultados, que se tornam “de facto” e automatizados. E isto ocorre porque a natureza dos sistemas de IA é fornecer resultados baseados em inferências e correlações estatísticas e probabilísticas de dados históricos, e não em qualquer tipo de raciocínio, evidência factual ou “causalidade”.

Qual é a melhor maneira de construir IA com responsabilidade?

Garantir que a IA seja desenvolvida de uma forma que proteja os direitos e a segurança das pessoas através da construção de declarações verificáveis ​​e responsabilizar os desenvolvedores de IA perante eles. Estas alegações também devem ter como escopo uma aplicação regulatória, de segurança, ética ou técnica e não devem ser falsificáveis. Caso contrário, existe uma falta significativa de integridade científica para avaliar adequadamente estes sistemas. Os reguladores independentes também deveriam avaliar os sistemas de IA em relação a estas alegações, conforme exigido atualmente para muitos produtos e sistemas em outras indústrias – por exemplo, aqueles avaliados pela FDA. Os sistemas de IA não devem estar isentos de processos de auditoria normalizados que estão bem estabelecidos para garantir a proteção do público e dos consumidores.

Como podem os investidores promover melhor uma IA responsável?

Os investidores devem envolver-se e financiar organizações que procuram estabelecer e promover práticas de auditoria para IA. A maior parte do financiamento é atualmente investida nos próprios laboratórios de IA, com a crença de que as suas equipas de segurança são suficientes para o avanço das avaliações de IA. No entanto, os auditores e reguladores independentes são fundamentais para a confiança pública. A independência permite que o público confie na precisão e integridade das avaliações e na integridade dos resultados regulamentares.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *