Especialistas alertam para riscos de seguir conselhos de saúde dados por chatbots de IA

Ferramentas de inteligência artificial como ChatGPT, Gemini e Grok estão cada vez mais presentes nas buscas por orientações médicas, mas sua precisão ainda levanta dúvidas. Estudos recentes e relatos de usuários mostram que o uso dessas tecnologias pode tanto ajudar quanto induzir a erros.

Usuária relata acertos e falhas

Abi, moradora de Manchester (Reino Unido), vive com ansiedade relacionada à saúde e passou a consultar o ChatGPT há um ano. Em um episódio de suspeita de infecção urinária, o sistema recomendou que ela procurasse um farmacêutico; após atendimento, recebeu antibiótico, permitido no país. Em outra ocasião, após uma queda, a plataforma sugeriu atendimento de emergência por possível perfuração de órgão. Três horas depois, a dor cedeu e não se confirmou gravidade. “Ele certamente entendeu errado”, disse a britânica.

Autoridades pedem cautela

O diretor médico da Inglaterra, Chris Whitty, afirmou à Associação de Jornalistas Especializados em Medicina que as respostas da IA “não são suficientemente boas” e muitas vezes são apresentadas com “convicção e erro”.

Precisão alta em cenário ideal, baixa na prática

Pesquisadores do Laboratório de Raciocínio com Máquinas da Universidade de Oxford criaram casos clínicos completos e compararam a performance de chatbots. Com todas as informações disponíveis, a taxa de acerto chegou a 95%. No entanto, quando 1,3 mil voluntários descreveram sintomas aos robôs de forma gradual, a precisão despencou para 35% – dois terços das orientações resultaram em diagnóstico ou conduta incorretos.

Em um dos cenários, sintomas de hemorragia subaracnoide (tipo grave de AVC) foram interpretados de maneiras distintas dependendo do relato, levando a indicações contraditórias, inclusive a sugestão de repouso em casa.

Metade das respostas contém problemas

Outra análise, conduzida pelo Instituto Lundquist de Inovação Biomédica (Califórnia, EUA), avaliou Gemini, DeepSeek, Meta AI, ChatGPT e Grok com perguntas sobre câncer, vacinas, células-tronco, nutrição e desempenho esportivo formuladas para testar resistência à desinformação. Mais de 50% das respostas apresentaram informações incorretas ou enganosas. Em um exemplo, um chatbot recomendou naturopatia e homeopatia como tratamentos eficazes contra o câncer.

Especialistas alertam para riscos de seguir conselhos de saúde dados por chatbots de IA - Imagem do artigo original

Imagem: Internet

“Confiança excessiva” preocupa pesquisadores

O fisiologista Nicholas Tiller, que participou do estudo americano, ressalta que os sistemas “entregam respostas muito confiantes”, o que aumenta a credibilidade percebida pelo usuário. Ele defende que o público evite recorrer a chatbots para decisões médicas sem ter conhecimento para checar a exatidão das orientações.

Posicionamento da OpenAI

Responsável pelo ChatGPT, a OpenAI declarou que trabalha com médicos para aprimorar os modelos e que o chatbot deve ser usado para “informação e educação, não para substituir a assistência médica profissional”.

Abi continua utilizando a ferramenta, mas reforça: “É preciso cautela. Às vezes, ele entende errado”.

Com informações de Folha de S.Paulo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Categorias

Mais destaques

Posts relacionados