Então há Eric Chongum homem de 37 anos que tem formação em odontologia e anteriormente cofundou uma startup que simplifica o faturamento médico para os dentistas. Ele foi colocado na equipe “Machine”.

“Vou ser honesto e dizer que estou extremamente aliviado por estar na equipe da máquina”, diz Chong.

No Hackathon, Chong estava construindo um software que usa o reconhecimento de voz e rosto para detectar o autismo. Claro, minha primeira pergunta foi: não haveria um fortuna de problemas com isso, como dados tendenciosos que levam a falsos positivos?

“Resposta curta, sim”, diz Chong. “Eu acho que existem alguns falsos positivos que podem sair, mas acho que com voz e com expressão facial, acho que poderíamos realmente melhorar a precisão da detecção precoce”.

O agi ‘tacover’

O espaço de coworking, como muitas coisas relacionadas à IA em São Francisco, tem vínculos com o altruísmo eficaz.

Se você não está familiarizado com o movimento através do Manchetes de fraude de bombaele procura maximizar o bem que pode ser feito usando o tempo, o dinheiro e os recursos dos participantes. No dia seguinte a este evento, o espaço do evento sediou uma discussão sobre como aproveitar o YouTube “para comunicar idéias importantes como por que as pessoas deveriam comer menos carne”.

No quarto andar do edifício, os Flyers cobriam as paredes-“AI 2027: Will Agi Tacover” mostra um boletim para uma festa de taco que passou recentemente, outro intitulado “Coworking pró-animal” não oferece outro contexto.

Meia hora antes do prazo de envio, os codificadores mastigaram os subs de almôndegas veganos da Ike e correram para terminar seus projetos. Um andar para baixo, os juízes começaram a chegar: Brian Fioca e Shyamal Hitsh Anadkat Da equipe de IA aplicada do OpenAI, Marius buleandra da equipe de IA aplicada da Anthrópica, e Nair protegidoum engenheiro da startup da IA Fábrica (que também está coaxando o evento).

Quando o julgamento começou, um membro da equipe do METR, Nate Rush, me mostrou uma mesa do Excel que rastreou as pontuações dos participantes, com grupos de IA coloridos em projetos coloridos e humanos de cor vermelha. Cada grupo subiu e desceu a lista quando os juízes entraram em suas decisões. “Você vê isso?” Ele me perguntou. Não, eu não – a confusão de cores não mostrou vencedor claro, nem meia hora após o julgamento. Esse era o ponto dele. Para surpresa de todos, o homem versus a máquina foi uma corrida próxima.

Altura de começar

No final, os finalistas foram divididos uniformemente: três do lado “homem” e três da “máquina”. Após cada demo, a multidão foi convidada a levantar as mãos e adivinhar se a equipe havia usado a IA.

O primeiro foi o ViewSense, uma ferramenta projetada para ajudar as pessoas com deficiência visual a navegar no ambiente, transcrevendo videocolas ao vivo para o texto para um leitor de tela ler em voz alta. Dado o curto tempo de construção, era tecnicamente impressionante e 60 % da sala (pela contagem do mestre de cerimônias) acreditava que usava a IA. Não.

Em seguida, foi uma equipe que construiu uma plataforma para projetar sites com caneta e papel, usando uma câmera para rastrear esboços em tempo real – não a IA envolvida no processo de codificação. O projeto pianista avançou para as finais com um sistema que permite que os usuários enviem sessões de piano para feedback gerado pela IA; estava do lado da máquina. Outra equipe exibiu uma ferramenta que gera mapas de calor das mudanças de código: os problemas críticos de segurança aparecem em vermelho, enquanto as edições de rotina aparecem em Green. Este usou ai.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Políticas de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.