Então há Eric Chongum homem de 37 anos que tem formação em odontologia e anteriormente cofundou uma startup que simplifica o faturamento médico para os dentistas. Ele foi colocado na equipe “Machine”.
“Vou ser honesto e dizer que estou extremamente aliviado por estar na equipe da máquina”, diz Chong.
No Hackathon, Chong estava construindo um software que usa o reconhecimento de voz e rosto para detectar o autismo. Claro, minha primeira pergunta foi: não haveria um fortuna de problemas com isso, como dados tendenciosos que levam a falsos positivos?
“Resposta curta, sim”, diz Chong. “Eu acho que existem alguns falsos positivos que podem sair, mas acho que com voz e com expressão facial, acho que poderíamos realmente melhorar a precisão da detecção precoce”.
O agi ‘tacover’
O espaço de coworking, como muitas coisas relacionadas à IA em São Francisco, tem vínculos com o altruísmo eficaz.
Se você não está familiarizado com o movimento através do Manchetes de fraude de bombaele procura maximizar o bem que pode ser feito usando o tempo, o dinheiro e os recursos dos participantes. No dia seguinte a este evento, o espaço do evento sediou uma discussão sobre como aproveitar o YouTube “para comunicar idéias importantes como por que as pessoas deveriam comer menos carne”.
No quarto andar do edifício, os Flyers cobriam as paredes-“AI 2027: Will Agi Tacover” mostra um boletim para uma festa de taco que passou recentemente, outro intitulado “Coworking pró-animal” não oferece outro contexto.
Meia hora antes do prazo de envio, os codificadores mastigaram os subs de almôndegas veganos da Ike e correram para terminar seus projetos. Um andar para baixo, os juízes começaram a chegar: Brian Fioca e Shyamal Hitsh Anadkat Da equipe de IA aplicada do OpenAI, Marius buleandra da equipe de IA aplicada da Anthrópica, e Nair protegidoum engenheiro da startup da IA Fábrica (que também está coaxando o evento).
Quando o julgamento começou, um membro da equipe do METR, Nate Rush, me mostrou uma mesa do Excel que rastreou as pontuações dos participantes, com grupos de IA coloridos em projetos coloridos e humanos de cor vermelha. Cada grupo subiu e desceu a lista quando os juízes entraram em suas decisões. “Você vê isso?” Ele me perguntou. Não, eu não – a confusão de cores não mostrou vencedor claro, nem meia hora após o julgamento. Esse era o ponto dele. Para surpresa de todos, o homem versus a máquina foi uma corrida próxima.
Altura de começar
No final, os finalistas foram divididos uniformemente: três do lado “homem” e três da “máquina”. Após cada demo, a multidão foi convidada a levantar as mãos e adivinhar se a equipe havia usado a IA.
O primeiro foi o ViewSense, uma ferramenta projetada para ajudar as pessoas com deficiência visual a navegar no ambiente, transcrevendo videocolas ao vivo para o texto para um leitor de tela ler em voz alta. Dado o curto tempo de construção, era tecnicamente impressionante e 60 % da sala (pela contagem do mestre de cerimônias) acreditava que usava a IA. Não.
Em seguida, foi uma equipe que construiu uma plataforma para projetar sites com caneta e papel, usando uma câmera para rastrear esboços em tempo real – não a IA envolvida no processo de codificação. O projeto pianista avançou para as finais com um sistema que permite que os usuários enviem sessões de piano para feedback gerado pela IA; estava do lado da máquina. Outra equipe exibiu uma ferramenta que gera mapas de calor das mudanças de código: os problemas críticos de segurança aparecem em vermelho, enquanto as edições de rotina aparecem em Green. Este usou ai.