O Google acredita que há uma oportunidade de transferir mais tarefas de saúde para modelos generativos de IA – ou pelo menos uma oportunidade de recrutar esses modelos para ajuda profissionais de saúde no preenchimento deles tarefas.
Hoje, a empresa anunciou o MedLM, uma família de modelos aprimorados para a indústria médica. Baseado no Med-PaLM 2, um modelo desenvolvido pelo Google que funciona em “nível especializado” em dezenas de questões de exames médicos, o MedLM está disponível para clientes do Google Cloud nos EUA (está em versão prévia em alguns outros mercados) que foram incluído na lista de permissões por meio da Vertex AI, a plataforma de desenvolvimento de IA totalmente gerenciada do Google.
Existem dois modelos MedLM disponíveis atualmente: um modelo maior projetado para o que o Google descreve como “tarefas complexas” e um modelo menor e ajustável, melhor para “escalonamento entre tarefas”.
“Ao testar nossas ferramentas com diferentes organizações, aprendemos que o modelo mais eficaz para uma determinada tarefa varia dependendo do caso de uso”, diz um postagem no blog escrito por Yossi Matias, vice-presidente de engenharia e pesquisa do Google, fornecido ao TechCrunch antes do anúncio de hoje. “Por exemplo, resumir conversas pode ser melhor feito por um modelo, e pesquisar medicamentos pode ser melhor feito por outro.”
O Google diz que um dos primeiros usuários do MedLM, a operadora de instalações com fins lucrativos HCA Healthcare, tem testado os modelos com médicos para ajudar a redigir anotações de pacientes em hospitais de departamentos de emergência. Outro testador, BenchSci, incorporou o MedLM em seu “mecanismo de evidências” para identificar, classificar e classificar novos biomarcadores.
“Trabalhamos em estreita colaboração com profissionais, investigadores, organizações de saúde e ciências da vida e com os indivíduos que estão diariamente na vanguarda dos cuidados de saúde”, escreve Matias.
O Google – junto com os principais rivais Microsoft e Amazon – está correndo desesperadamente para dominar um mercado de IA de saúde que poderia valer a pena. dezenas de bilhões de dólares até 2032. Recentemente, a Amazon lançou o AWS HealthScribe, que usa IA generativa para transcrever, resumir e analisar anotações de conversas entre pacientes e médicos. A Microsoft está testando vários produtos de saúde baseados em IA, Incluindo aplicativos de “assistentes” médicos sustentados por grandes modelos de linguagem.
Mas há motivos para ter cuidado com essa tecnologia. A IA na área da saúde, historicamente, teve sucesso misto.
A Babylon Health, uma startup de IA apoiada pelo Serviço Nacional de Saúde do Reino Unido, tem sido alvo de repetidos escrutínios por fazer alegações de que a sua tecnologia de diagnóstico de doenças pode ter um desempenho melhor do que os médicos. E a IBM foi forçada a vender sua divisão Watson Health, focada em IA, com prejuízo, depois que problemas técnicos levaram à deterioração das parcerias com clientes.
Pode-se argumentar que modelos generativos como os da família MedLM do Google são muito mais sofisticados do que os anteriores. Mas a investigação mostrou que os modelos generativos não são particularmente precisos quando se trata de responder a questões relacionadas com a saúde, mesmo as mais básicas.
Um estudo de coautoria de um grupo de oftalmologistas fez perguntas ao ChatGPT e ao chatbot Bard do Google sobre condições e doenças oculares e descobriu que a maioria das respostas de todas as três ferramentas foram totalmente fora do alvo. Bate-papoGPT gera planos de tratamento do câncer cheios de erros potencialmente mortais. E modelos incluindo ChatGPT e Bard vomitar ideias médicas racistas e desmascaradas em resposta a perguntas sobre função renal, capacidade pulmonar e pele.
Em Outubro, a Organização Mundial da Saúde (OMS) alertou para os riscos da utilização de IA generativa nos cuidados de saúde, observando o potencial dos modelos para gerar respostas erradas prejudiciais, propagar desinformação sobre questões de saúde e revelar dados de saúde ou outras informações sensíveis. (Como os modelos ocasionalmente memorizam dados de treinamento e retornam partes desses dados quando solicitados corretamente, não está fora de questão que modelos treinados em registros médicos possam inadvertidamente vazar esses registros.)
“Embora a OMS esteja entusiasmada com o uso apropriado de tecnologias, incluindo (IA generativa), para apoiar profissionais de saúde, pacientes, investigadores e cientistas, existe a preocupação de que a cautela que normalmente seria exercida para qualquer nova tecnologia não esteja a ser exercida de forma consistente com (generativa). AI)”, afirmou a OMS em comunicado. “A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes, minar a confiança na IA e, assim, minar ou atrasar os potenciais benefícios e utilizações a longo prazo de tais tecnologias em todo o mundo.”
O Google afirmou repetidamente que está sendo excepcionalmente cauteloso no lançamento de ferramentas generativas de saúde de IA – e não está mudando de tom hoje.
“(Estamos) focados em capacitar os profissionais para um uso seguro e responsável desta tecnologia”, continuou Matias. “E estamos comprometidos não apenas em ajudar outras pessoas a melhorar os cuidados de saúde, mas também em garantir que esses benefícios estejam disponíveis para todos.”