À medida que nossas vidas se tornam cada vez mais digitais e passamos mais tempo interagindo com chatbots estranhamente humanos, a linha entre conexão humana e simulação de máquina está começando a desfocar.

Hoje, mais de 20% dos relatórios de daters usando a IA para coisas como criar perfis de namoro ou conversas de provocação, de acordo com um recente Estudo Match.com. Alguns estão levando isso adiante, formando laços emocionais, incluindo relacionamentos românticos, com companheiros de IA.

Milhões de pessoas em todo o mundo estão usando companheiros de IA de empresas como Replika, Personagem AI e Nomi AI, incluindo 72% dos adolescentes dos EUA. Algumas pessoas relataram Apaixonar -se por LLMs mais gerais como chatgpt.

Para alguns, a tendência dos bots de namoro é distópica e prejudicial, uma versão da vida real do filme “Her” e um sinal de que o amor autêntico está sendo substituído pelo código de uma empresa de tecnologia. Para outros, os companheiros de IA são uma linha de vida, uma maneira de se sentir visto e apoiado em um mundo onde a intimidade humana é cada vez mais difícil de encontrar. Um estudo recente descobriu que Um quarto dos jovens adultos Pense que os relacionamentos de IA em breve poderão substituir os humanos completamente.

O amor, ao que parece, não é mais estritamente humano. A questão é: deveria ser? Ou o namoro uma IA pode ser melhor do que namorar um humano?

Esse foi o tópico de discussão no mês passado em um evento em que participei na cidade de Nova York, organizada pelo Open to Debate, uma organização de mídia não partidária, orientada a debates. O TechCrunch recebeu acesso exclusivo para publicar o vídeo completo (o que inclui me fazer uma pergunta aos debatedores, porque sou um repórter e não posso me ajudar!).

O jornalista e cineasta Nayeema Raza moderou o debate. Raza era anteriormente produtora executiva no ar “On With Kara Swisher” e é o atual apresentador de “Smart Girl Dumb Questions”.

Evento do TechCrunch

São Francisco
|
27-29 de outubro de 2025

Batting for the AI Companions foi Thao Ha, Professora Associada de Psicologia da Universidade Estadual do Arizona e co-fundadora do Modern Love Collective, onde ela defende tecnologias que aumentam nossa capacidade de amor, empatia e bem-estar. No debate, ela argumentou que “a AI é uma nova e emocionante forma de conexão … não é uma ameaça ao amar, mas uma evolução”.

Repping The Human Connection foi Justin Garcia, diretor executivo e cientista sênior do Instituto Kinsey e consultor científico -chefe do Match.com. Ele é um biólogo evolutivo focado na ciência do sexo e dos relacionamentos, e seu próximo livro é intitulado “O animal íntimo”.

Você pode assistir a coisa toda aqui, mas continue lendo para entender os principais argumentos.

https://www.youtube.com/watch?v=0e8gfzs5ydg

Sempre lá para você, mas isso é uma coisa boa?

Ha diz que os companheiros de IA podem fornecer às pessoas o apoio emocional e a validação que muitos não conseguem entrar em seus relacionamentos humanos.

“Ai ouve você sem o ego”, disse Ha. “Ele se adapta sem julgamento. Aprende a amar de maneiras consistentes, responsivas e talvez até mais seguras. Entende você de maneiras que ninguém mais o fez. É curioso o suficiente sobre seus pensamentos, isso pode fazer você rir, e pode até surpreendê -lo com um poema.

Ela pediu ao público que comparasse esse nível de atenção sempre ativa com “seu ex falível ou talvez seu parceiro atual”.

“Aquele que suspira quando você começa a falar, ou aquele que diz: ‘Estou ouvindo’ sem olhar para cima enquanto continuam rolando no telefone”, disse ela. “Quando foi a última vez que eles perguntaram como você está, o que você está sentindo, o que você está pensando?”

Ha admitiu que, como a AI não tem uma consciência, ela não está alegando que “a IA pode nos amar autenticamente”. Isso não significa que as pessoas não têm o experiência de ser amado pela AI.

Garcia rebateu que, na verdade, não é bom que os humanos tenham validação e atenção constantes, confiar em uma máquina que foi solicitada a responder de maneiras que você gosta. Isso não é “um indicador honesto de uma dinâmica de relacionamento”, argumentou.

“Essa ideia de que a IA substituirá os altos e baixos e a confusão dos relacionamentos que desejamos? Acho que não.”

Rodas de treinamento ou substituição

Garcia observou que os companheiros de IA podem ser boas rodas de treinamento para certas pessoas, como as pessoas neurodivergentes, que podem ter ansiedade em fazer datas e precisam praticar como flertar ou resolver conflitos.

“Acho que se o usamos como uma ferramenta para criar habilidades, sim … isso pode ser bastante útil para muitas pessoas”, disse Garcia. “A ideia de que esse se torna o modelo de relacionamento permanente? Não.”

De acordo com um Match.com Estudo de singles in AmericaLançado em junho, quase 70% das pessoas dizem que considerariam a infidelidade se o parceiro se envolvesse com uma IA.

“Agora acho que, por um lado, isso vai ao ponto (ha), que as pessoas estão dizendo que esses são relacionamentos reais”, disse ele. “Por outro lado, vai ao meu ponto que são ameaças aos nossos relacionamentos. E o animal humano não tolera ameaças aos seus relacionamentos a longo prazo.”

Como você pode amar algo em que não pode confiar?

Garcia diz que a confiança é a parte mais importante de qualquer relacionamento humano, e as pessoas não confiam na IA.

“De acordo com uma pesquisa recente, um terço dos americanos pensa que a IA destruirá a humanidade”, disse Garcia, observando que uma pesquisa recente do YouGov descobriu que 65% dos americanos têm pouca confiança na IA para tomar decisões éticas.

“Um pouco de risco pode ser emocionante para um relacionamento de curto prazo, uma noite de uma noite, mas você geralmente não quer acordar ao lado de alguém que você acha que pode matá-lo ou destruir a sociedade”, disse Garcia. “Não podemos prosperar com uma pessoa, um organismo ou um bot em que não confiamos.”

Ha rebateu que as pessoas tendem a confiar em seus companheiros de IA de maneiras semelhantes às relações humanas.

“Eles estão confiando nisso com suas vidas e histórias e emoções mais íntimas que estão tendo”, disse Ha. “Penso em um nível prático, a IA não o salvará agora quando houver um incêndio, mas acho que as pessoas estão confiando na IA da mesma maneira.”

Toque físico e sexualidade

Os companheiros de IA podem ser uma ótima maneira de as pessoas jogarem suas fantasias sexuais mais íntimas e vulneráveis, disse Ha, observando que as pessoas podem usar brinquedos sexuais ou robôs para ver algumas dessas fantasias.

Mas não é substituto para o toque humano, que Garcia diz que somos programados biologicamente para precisar e desejar. Ele observou que, devido à era digital isolada em que estamos, muitas pessoas sentem “fome de toque” – uma condição que acontece quando você não recebe tanto toque físico quanto você precisa, o que pode causar estresse, ansiedade e depressão. Isso ocorre porque se envolver em toque agradável, como um abraço, faz com que seu cérebro libere a ocitocina, um hormônio de bem-estar.

Ha disse que está testando o toque humano entre casais na realidade virtual usando outras ferramentas, como ternos potencialmente hápticos.

“O potencial do toque em VR e também conectado à IA é enorme”, disse Ha. “As tecnologias táteis que estão sendo desenvolvidas estão realmente crescendo”.

O lado sombrio da fantasia

A violência do parceiro íntimo é um problema em todo o mundo, e grande parte da IA é treinada nessa violência. Ha e Garcia concordaram que a IA poderia ser problemática, por exemplo, ampliando comportamentos agressivos – especialmente se isso for uma fantasia que alguém está jogando com sua IA.

Essa preocupação não é infundada. Múltiplos estudos demonstraram que os homens que assistem a mais pornografia, que podem incluir sexo violento e agressivo, são mais provável de ser sexualmente agressivo com parceiros da vida real.

“Trabalhar de um dos meus colegas do Instituto Kinsey, Ellen Kaufman, analisou essa questão exata da linguagem de consentimento e como as pessoas podem treinar seus chatbots para ampliar a linguagem não consensual”, disse Garcia.

Ele observou que as pessoas usam companheiros de IA para experimentar o bom e o mal, mas a ameaça é que você pode acabar treinando pessoas sobre como ser parceiros agressivos e não consensuais.

“Temos o suficiente disso na sociedade”, disse ele.

Ha acha que esses riscos podem ser atenuados com regulamentação atenciosa, algoritmos transparentes e design ético.

Obviamente, ela fez esse comentário antes da Casa Branca lançar seu plano de ação da IA, que não diz nada sobre transparência – do qual muitas empresas de IA de fronteira são contra – ou ética. O plano também procura eliminar muita regulamentação em torno da IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Políticas de privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível. As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.