David Ferrucci, CEO da empresa de IA Cognição Elemental e anteriormente líder do projeto Watson da IBM, diz que os modelos de linguagem eliminaram grande parte da complexidade da construção de assistentes úteis. A análise de comandos complexos anteriormente exigia uma enorme quantidade de codificação manual para cobrir as diferentes variações de linguagem, e os sistemas finais eram muitas vezes irritantemente frágeis e propensos a falhas. “Grandes modelos de linguagem proporcionam um grande impulso”, diz ele.

Ferrucci diz, no entanto, que como os modelos de linguagem não são adequados para fornecer informações precisas e confiáveis, tornar um assistente de voz verdadeiramente útil ainda exigirá muita engenharia cuidadosa.

Assistentes de voz mais capazes e realistas talvez possam ter efeitos sutis nos usuários. A enorme popularidade do ChatGPT tem sido acompanhada por confusão sobre a natureza da tecnologia por trás dele, bem como sobre seus limites.

Motahhare Eslami, professor assistente da Universidade Carnegie Mellon que estuda as interações dos usuários com ajudantes de IA, diz que grandes modelos de linguagem podem alterar a forma como as pessoas percebem seus dispositivos. A impressionante confiança demonstrada por chatbots como o ChatGPT faz com que as pessoas confiem neles mais do que deveriam, diz ela.

As pessoas também podem ser mais propensas a antropomorfizar um agente fluente que tenha voz, diz Eslami, o que poderia turvar ainda mais a sua compreensão do que a tecnologia pode ou não fazer. Também é importante garantir que todos os algoritmos utilizados não propaguem preconceitos prejudiciais em torno da raça, o que pode acontecer em maneiras sutis com assistentes de voz. “Sou fã da tecnologia, mas ela traz limitações e desafios”, diz Eslami.

Tom Gruberque cofundou a Siri, startup que a Apple adquiriu em 2010 para sua tecnologia de assistente de voz de mesmo nome, espera que grandes modelos de linguagem produzam saltos significativos nas capacidades dos assistentes de voz nos próximos anos, mas diz que eles também podem introduzir novas falhas.

“O maior risco – e a maior oportunidade – é a personalização baseada em dados pessoais”, diz Gruber. Um assistente com acesso aos e-mails, mensagens do Slack, chamadas de voz, navegação na web e outros dados de um usuário pode ajudar a recuperar informações úteis ou descobrir insights valiosos, especialmente se um usuário puder se envolver em uma conversa natural. Mas este tipo de personalização também criaria um novo repositório potencialmente vulnerável de dados privados sensíveis.

“É inevitável construirmos um assistente pessoal que será sua memória pessoal, que poderá rastrear tudo o que você vivenciou e aumentar sua cognição”, diz Gruber. “A Apple e o Google são as duas plataformas confiáveis ​​e poderiam fazer isso, mas precisam dar algumas garantias bastante fortes.”

Hsiao diz que sua equipe certamente está pensando em maneiras de aprimorar ainda mais o Assistente com a ajuda de Bard e da IA ​​generativa. Isso pode incluir o uso de informações pessoais, como as conversas no Gmail de um usuário, para tornar as respostas às perguntas mais individualizadas. Outra possibilidade é o Assistant assumir tarefas em nome de um usuário, como fazer uma reserva em um restaurante ou um voo.

Hsiao sublinha, no entanto, que o trabalho nestas características ainda não começou. Ela diz que vai demorar um pouco para que um assistente virtual esteja pronto para realizar tarefas complexas em nome de um usuário e manejar seu cartão de crédito. “Talvez dentro de alguns anos, esta tecnologia se torne tão avançada e tão confiável que sim, as pessoas estarão dispostas a fazer isso, mas teríamos que testar e aprender o caminho a seguir”, diz ela.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *