Com publicação científica

Summit Art Creations via Shutterstock
Por Redação SciAdvances
Fonte
Áreas
Compartilhar
Atualmente, muitas pessoas buscam esclarecimentos sobre problemas de saúde nos chatbots de Inteligência Artificial (IA) disponíveis – as interfaces conversacionais que usam grandes modelos de linguagem (LLMs) – que pretensamente poderiam indicar alguma solução ou alívio imediato para sintomas ou doenças.
Porém, tomar decisões e agir apenas de acordo com as respostas da IA ainda pode ser perigoso, podendo atrasar o início de um tratamento, induzir a tratamentos errados ou mesmo atrasar a consulta a um profissional da saúde, o que pode levar a desfechos ruins.
De qualquer modo, faltam grandes estudos que avaliem o uso desses chatbots, sua confiabilidade e os resultados de seu uso pela população em geral.
Um novo estudo liderado por pesquisadores da Universidade de Oxford, no Reino Unido, mostrou uma grande discrepância entre a promessa dos chatbots de IA e sua utilidade para pessoas que buscam aconselhamento médico e soluções de saúde.
Os pesquisadores realizaram um estudo randomizado com quase 1.300 participantes online, que tentaram identificar possíveis problemas de saúde e as condutas recomendadas, com base em cenários médicos pessoais. Os cenários detalhados, elaborados por médicos, variaram desde um jovem com forte dor de cabeça após uma noite com amigos até uma mãe recente com falta de ar constante e exaustão.
Um grupo utilizou chatbots de IA para identificar condições de saúde e decidir sobre ações apropriadas, como consultar um clínico geral ou ir ao hospital, enquanto um grupo de controle utilizou outras fontes tradicionais de informação.
Uma descoberta fundamental foi que os chatbots de IA não se mostraram melhores do que os métodos tradicionais. Os participantes que usaram os modelos de IA não tomaram decisões melhores do que os participantes que se basearam em métodos tradicionais, como pesquisas online ou seu próprio julgamento.
No estudo, os cientistas identificaram três grandes problemas: primeiro, os usuários frequentemente não sabiam quais informações deveriam fornecer à IA; segundo, os modelos de IA forneceram respostas muito diferentes com base em pequenas variações nas perguntas; e, finalmente, a IA frequentemente forneceu uma mistura de informações boas e ruins que os usuários tiveram dificuldade em distinguir.
A Dra. Rebecca Payne, coautora do estudo e pesquisadora da Universidade de Oxford, destacou a dificuldade de construir sistemas de IA que possam realmente apoiar as pessoas em áreas sensíveis e de alto risco, como a saúde. Segundo a especialista, as pessoas precisam compreender que apenas consultar chatbots de IA pode ser perigoso, levando a diagnósticos errados e impedindo o reconhecimento de quando é necessário buscar ajuda urgente.
O Dr. Andrew Bean, primeiro autor do estudo e doutorando na Universidade de Oxford, ressaltou que é fundamental desenvolver testes robustos para grandes modelos de linguagem para se compreender como essa tecnologia poderia ser usada com segurança.
Os resultados do estudo foram publicados na revista científica Nature Medicine.
Autores/Pesquisadores Citados
Instituições Citadas
Publicação
Acesse o artigo científico completo (em inglês).



