A Perplexity não respondeu aos pedidos de comentários.
Em comunicado enviado por e-mail à WIRED, o presidente-executivo da News Corp, Robert Thomson, comparou o Perplexity desfavoravelmente ao OpenAI. “Aplaudimos empresas de princípios como a OpenAI, que entende que integridade e criatividade são essenciais se quisermos concretizar o potencial da Inteligência Artificial”, diz o comunicado. “A Perplexity não é a única empresa de IA que abusa da propriedade intelectual e não é a única empresa de IA que perseguiremos com vigor e rigor. Deixámos claro que preferíamos cortejar a processar, mas, para o bem dos nossos jornalistas, dos nossos escritores e da nossa empresa, temos de desafiar a cleptocracia do conteúdo.”
No entanto, a OpenAI enfrenta suas próprias acusações de diluição de marcas registradas. Em New York Times x OpenAIos tempos alega que ChatGPT e Bing Chat atribuirão citações inventadas ao Times e acusa OpenAI e Microsoft de prejudicar sua reputação por meio da diluição de marca registrada. Num exemplo citado no processo, o Times alega que o Bing Chat alegou que o Times chamava o vinho tinto (com moderação) de um alimento “saudável para o coração”, quando na verdade não o fazia; o Times argumenta que as suas reportagens reais desmentiram as alegações sobre a salubridade do consumo moderado de álcool.
“Copiar artigos de notícias para operar produtos de IA generativos comerciais substitutos é ilegal, como deixamos claro em nossas cartas à Perplexity e em nosso litígio contra a Microsoft e a OpenAI”, disse o diretor de comunicações externas do NYT, Charlie Stadtlander. “Aplaudimos este processo da Dow Jones e do New York Post, que é um passo importante para garantir que o conteúdo do editor esteja protegido contra este tipo de apropriação indébita.”
Se os editores prevalecerem no argumento de que as alucinações podem violar a lei de marcas registradas, as empresas de IA poderão enfrentar “imensas dificuldades”, de acordo com Matthew Sag, professor de direito e inteligência artificial na Emory University.
“É absolutamente impossível garantir que um modelo de linguagem não terá alucinações”, diz Sag. Na sua opinião, a forma como os modelos de linguagem funcionam ao prever palavras que soam correctas em resposta a estímulos é sempre um tipo de alucinação – por vezes soa apenas mais plausível do que outras.
“Só chamamos isso de alucinação se não corresponder à nossa realidade, mas o processo é exatamente o mesmo, gostemos ou não do resultado.”