Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch está lançando uma série de entrevistas com foco em mulheres notáveis que contribuíram para a revolução da IA. Publicaremos vários artigos ao longo do ano à medida que o boom da IA continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.
Sarah Kreps é uma cientista política, veterana da Força Aérea dos EUA e analista que se concentra na política externa e de defesa dos EUA. Ela é professora de governo na Universidade Cornell, professora adjunta de direito na Cornell Law School e acadêmica adjunta no Modern War Institute de West Point.
A pesquisa recente de Kreps explora o potencial e os riscos da tecnologia de IA, como o GPT-4 da OpenAI, especificamente na esfera política. Em uma opinião coluna para o The Guardian no ano passado, ela escreveu que, à medida que mais dinheiro é investido na IA, a corrida armamentista da IA, não apenas entre empresas, mas entre países, intensificar-se-á – enquanto o desafio da política de IA se tornará mais difícil.
Perguntas e respostas
Resumidamente, como você começou na IA? O que te atraiu para a área?
Comecei na área de tecnologias emergentes com implicações para a segurança nacional. Eu era oficial da Força Aérea na época em que o drone Predator foi implantado e estive envolvido em sistemas avançados de radar e satélite. Passei quatro anos trabalhando neste espaço, então era natural que, como PhD, eu estivesse interessado em estudar as implicações das tecnologias emergentes para a segurança nacional. Escrevi pela primeira vez sobre drones e o debate sobre drones estava a avançar para questões de autonomia, o que, claro, implica inteligência artificial.
Em 2018, estive em um workshop de inteligência artificial em um think tank de DC e a OpenAI fez uma apresentação sobre esse novo recurso GPT-2 que eles haviam desenvolvido. Tínhamos acabado de passar pelas eleições de 2016 e pela interferência eleitoral estrangeira, que foi relativamente fácil de detectar devido a pequenas coisas como erros gramaticais de falantes não nativos de inglês – o tipo de erros que não eram surpreendentes, dado que a interferência tinha vindo do Agência de Pesquisa na Internet apoiada pela Rússia. Enquanto a OpenAI fazia esta apresentação, fiquei imediatamente preocupado com a possibilidade de gerar desinformação credível em grande escala e depois, através do microssegamento, manipular a psicologia dos eleitores americanos de formas muito mais eficazes do que seria possível quando esses indivíduos tentavam escrever conteúdo à mão. , onde a escala sempre seria um problema.
Entrei em contato com a OpenAI e me tornei um dos primeiros colaboradores acadêmicos em sua estratégia de lançamento gradual. Minha pesquisa específica teve como objetivo investigar o possível caso de uso indevido – se o GPT-2 e mais tarde o GPT-3 eram credíveis como geradores de conteúdo político. Numa série de experiências, avaliei se o público veria este conteúdo como credível, mas depois também conduzi uma grande experiência de campo onde gerei “cartas eleitorais” que randomizei com cartas eleitorais reais para ver se os legisladores responderiam nas mesmas taxas a saber se poderão ser enganados – se intervenientes mal-intencionados poderão moldar a agenda legislativa com uma campanha de redação de cartas em grande escala.
Estas questões atingiram o cerne do que significa ser uma democracia soberana e concluí inequivocamente que estas novas tecnologias representavam novas ameaças à nossa democracia.
De qual trabalho você mais se orgulha (na área de IA)?
Estou muito orgulhoso do experimento de campo que conduzi. Ninguém tinha feito nada remotamente semelhante e fomos os primeiros a mostrar o potencial disruptivo num contexto de agenda legislativa.
Mas também tenho orgulho de ferramentas que infelizmente nunca levei ao mercado. Trabalhei com vários estudantes de ciência da computação em Cornell para desenvolver um aplicativo que processasse e-mails legislativos recebidos e os ajudasse a responder aos constituintes de maneira significativa. Estávamos trabalhando nisso antes do ChatGPT e usando IA para digerir o grande volume de e-mails e fornecer assistência de IA para funcionários com falta de tempo se comunicando com pessoas em seu distrito ou estado. Achei que estas ferramentas eram importantes devido ao descontentamento dos constituintes em relação à política, mas também às crescentes exigências do tempo dos legisladores. Desenvolver a IA nestas formas de interesse público parecia uma contribuição valiosa e um trabalho interdisciplinar interessante para cientistas políticos e cientistas da computação. Conduzimos uma série de experimentos para avaliar as questões comportamentais de como as pessoas se sentiriam se uma assistência de IA respondesse a elas e concluímos que talvez a sociedade não estivesse preparada para algo assim. Mas então, alguns meses depois de desligarmos, o ChatGPT entrou em cena e a IA é tão onipresente que quase me pergunto como nos preocupamos se isso era eticamente duvidoso ou legítimo. Mas ainda sinto que é certo termos feito perguntas éticas difíceis sobre o caso de uso legítimo.
Como você enfrenta os desafios da indústria de tecnologia dominada pelos homens e, por extensão, da indústria de IA dominada pelos homens?
Como pesquisador, não senti esses desafios de forma terrivelmente aguda. Eu estava na Bay Area e eram todos caras literalmente dando suas propostas de elevador no elevador do hotel, um clichê que eu poderia considerar intimidante. Eu recomendaria que eles encontrassem mentores (homens e mulheres), desenvolvessem habilidades e deixassem que essas habilidades falassem por si, enfrentassem desafios e permanecessem resilientes.
Que conselho você daria às mulheres que desejam ingressar na área de IA?
Acredito que há muitas oportunidades para as mulheres — elas precisam desenvolver habilidades e ter confiança para prosperar.
Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?
Preocupo-me com o facto de a comunidade da IA ter desenvolvido tantas iniciativas de investigação que se concentram em coisas como o “superalinhamento”, que obscurecem as questões mais profundas – ou, na verdade, as certas – sobre os valores de quem ou com que valores estamos a tentar alinhar a IA. O lançamento problemático do Google Gemini mostrou a caricatura que pode surgir do alinhamento com um conjunto restrito de valores dos desenvolvedores de maneiras que na verdade levaram a imprecisões históricas (quase) ridículas em seus resultados. Acho que os valores desses desenvolvedores eram de boa fé, mas revelaram o fato de que esses grandes modelos de linguagem estão sendo programados com um conjunto específico de valores que moldarão a forma como as pessoas pensam sobre política, relações sociais e uma variedade de tópicos delicados. Estas questões não são do tipo risco existencial, mas criam a estrutura da sociedade e conferem um poder considerável às grandes empresas (por exemplo, OpenAI, Google, Meta e assim por diante) que são responsáveis por esses modelos.
Quais são alguns problemas dos quais os usuários de IA devem estar cientes?
À medida que a IA se torna omnipresente, penso que entrámos num mundo de “confiar, mas verificar”. É niilista não acreditar em nada, mas há muito conteúdo gerado por IA e os usuários realmente precisam ser cautelosos em termos daquilo em que confiam instintivamente. É bom procurar fontes alternativas para verificar a autenticidade antes de presumir que tudo está correto. Mas acho que já aprendemos isso com as redes sociais e a desinformação.
Qual é a melhor maneira de construir IA com responsabilidade?
Recentemente escrevi um pedaço para o Boletim dos Cientistas Atômicos, que começou cobrindo armas nucleares, mas se adaptou para abordar tecnologias disruptivas como a IA. Eu estava pensando em como os cientistas poderiam ser melhores administradores públicos e queria conectar alguns dos casos históricos que estava analisando para o projeto de um livro. Não apenas descrevo um conjunto de passos que apoiaria para o desenvolvimento responsável, mas também falo sobre por que algumas das perguntas que os desenvolvedores de IA estão fazendo são erradas, incompletas ou equivocadas.