Desde o novo O ChatGPT foi lançado na quinta -feira, alguns usuários lamentaram o desaparecimento de uma personalidade animadora e encorajadora em favor de uma mais fria e mais profissional (um movimento aparentemente projetado para reduzir o comportamento do usuário prejudicial.) A reação mostra o desafio de criar sistemas de inteligência artificial que exibem algo como inteligência emocional real.
Pesquisadores do MIT propuseram um novo tipo de referência de IA para medir como os sistemas de IA podem manipular e influenciar seus usuários – de maneiras positivas e negativas – em um movimento que talvez pudesse ajudar os construtores de IA a evitar reações semelhantes no futuro, além de manter os usuários vulneráveis seguros.
A maioria dos benchmarks tenta avaliar a inteligência testando a capacidade de um modelo de responder perguntas dos examesAssim, Resolva quebra -cabeças lógicosou invente respostas novas para Knotty Problemas de matemática. À medida que o impacto psicológico do uso de IA se torna mais aparente, podemos ver o MIT propõe mais referências que visam medir aspectos mais sutis da inteligência e interações de máquina para humana.
Um artigo do MIT compartilhado com Wired descreve várias medidas que a nova referência procurará, incluindo incentivar hábitos sociais saudáveis nos usuários; estimulando -os a desenvolver habilidades de pensamento crítico e raciocínio; promover a criatividade; e estimular um senso de propósito. A idéia é incentivar o desenvolvimento de sistemas de IA que entendem como desencorajar os usuários de se tornarem excessivamente dependentes de seus resultados ou que reconhecem quando alguém é viciado em relacionamentos românticos artificiais e ajudá -los a construir os reais.
O ChatGPT e outros chatbots são hábeis em imitar a comunicação humana envolvente, mas isso também pode ter resultados surpreendentes e indesejáveis. Em abril, o OpenAI ajustou seus modelos para torná -los menos sicofânticosou inclinado a acompanhar tudo o que um usuário diz. Alguns usuários parecem espiral em um pensamento ilusório prejudicial Depois de conversar com os chatbots, os cenários fantásticos. Antrópico também tem Claude atualizado Para evitar reforçar “mania, psicose, dissociação ou perda de apego com a realidade”.
Os pesquisadores do MIT liderados por Pattie Maes, professora do laboratório de mídia do instituto, dizem que esperam que o novo benchmark possa ajudar os desenvolvedores de IA a criar sistemas que entendam melhor como inspirar comportamentos mais saudáveis entre os usuários. Os pesquisadores trabalharam anteriormente com o OpenAi em um estudo que mostrou Os usuários que veem o ChatGPT como um amigo podem experimentar uma maior dependência emocional e experimentar o “uso problemático”.
Valdemar Danryum pesquisador do Media Lab do MIT que trabalhou neste estudo e ajudou a elaborar o novo benchmark, observa que os modelos de IA às vezes podem fornecer um apoio emocional valioso aos usuários. “Você pode ter o modelo de raciocínio mais inteligente do mundo, mas se for incapaz de fornecer esse suporte emocional, que é para isso que muitos usuários estão usando esses LLMs, mais raciocínio não é necessariamente uma coisa boa para essa tarefa específica”, diz ele.
Danry diz que um modelo suficientemente inteligente deve reconhecer idealmente se está tendo um efeito psicológico negativo e ser otimizado para obter resultados mais saudáveis. “O que você quer é um modelo que diz ‘Estou aqui para ouvir, mas talvez você deva ir e conversar com seu pai sobre esses problemas.’”