IA ERRA 80% DOS DIAGNÓSTICOS INICIAIS, MOSTRA ESTUDO - CHATBOTS DE IA DÃO CONSELHOS ENGANOSOS EM 50% DAS VEZES
/i.s3.glbimg.com/v1/AUTH_1f551ea7087a47f39ead75f64041559a/internal_photos/bs/2026/4/k/0qazGBQKq7Y7K4odtcbQ/close-up-doctor-typing-laptop-keyboard-medical-cabinet.jpg)
IA erra 80% dos diagnósticos iniciais, mostra
estudo
Pesquisa americana testou 21 modelos,
incluindo ChatGPT e Gemini, em casos clínicos reais
Por
João Assad
14/04/2026 12h05 Atualizado há 4 dias
A inteligência artificial ainda não está pronta para atender pacientes sozinha: é o que conclui um estudo publicado nesta segunda-feira (13) no JAMA Network Open.
A pesquisa mostrou que os principais modelos de inteligência artificial ainda não conseguem diagnosticar, com confiabilidade, pacientes nas etapas iniciais do diagnóstico: a taxa de erro, nesse estágio, é acima de 80%.
O estudo americano testou a racionalização de 21 modelos de LLM (Large Language Model) diferentes — incluindo ChatGPT, Deep Seek, Gemini e Claude, os quatro mais conhecidos — em 29 casos clínicos usados para treinamento de médicos, com sintomas, resultados de exames e histórico médico.
As IAs foram testadas da mesma forma que seriam testados alunos de medicina: em etapas. Primeiramente uma lista de hipóteses de diagnósticos, depois indicar exames, chegar ao diagnóstico final, e então propor um tratamento.
A taxa de falha no diagnóstico diferencial, a primeira fase — quando se listam hipóteses — foi acima de 80%: alguns modelos chegaram a ter 90 e até 100% de taxa de erro. Já no diagnóstico final, com todos os exames e informações possíveis, a taxa de falha foi abaixo de 40%, com alguns chegando a errarem em apenas 9% dos casos.
Até mesmo o melhor modelo, o Grok 4, da xAI, empresa do bilionário Elon Musk, teve uma taxa de desempenho baixa: 22% menor que o ideal; o pior, o Gemini 1.5 Flash, teve uma taxa 36% abaixo.
Para os cientistas, o estudo mostra que, embora as empresas tentem vender as IAs médicas como uma solução e alternativa para pacientes em estágios iniciais de tratamento, os modelos ainda têm um ponto cego importante: a fase da consulta em que o médico ainda não tem certeza do diagnóstico e precisa manter várias hipóteses abertas. É justamente nessa fase que erros podem custar mais caro para o paciente.
Fonte:https://extra.globo.com/economia/tecnologia/noticia/2026/04/ia-erra-80percent-dos-diagnosticos-iniciais-mostra-estudo.ghtml
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2026/q/C/co6Y8JRUG0pAUwty5d8A/bucharest-romania-july-30th-2024-man-typing-prompts-into-ai-powered-chat.jpg)
Chatbots de IA
dão conselhos médicos enganosos em 50% das vezes, aponta estudo
Os chatbots tiveram um desempenho
melhor em perguntas fechadas e relacionadas a vacinas e câncer, e pior em
perguntas abertas e em áreas como nutrição
Por
Karoline
Kan
, Em Bloomberg
15/04/2026 10h48 Atualizado há 4 dias
Chatbots baseados em inteligência artificial (IA) estão fornecendo conselhos médicos problemáticos aos usuários em cerca de metade das vezes, de acordo com um novo estudo, destacando os riscos à saúde dessa tecnologia que está se tornando cada vez mais essencial no dia a dia.
Pesquisadores dos EUA, Canadá e Reino Unido avaliaram cinco plataformas populares — ChatGPT, Gemini, Meta AI, Grok e DeepSeek — fazendo a cada uma delas 10 perguntas em cinco categorias de saúde. Das respostas totais, cerca de 50% foram consideradas problemáticas, incluindo quase 20% que foram altamente problemáticas, de acordo com as descobertas publicadas esta semana no periódico médico BMJ Open.
Os chatbots tiveram um desempenho relativamente melhor em perguntas fechadas e relacionadas a vacinas e câncer, e pior em perguntas abertas e em áreas como células-tronco e nutrição, de acordo com o estudo.
As respostas foram frequentemente dadas com confiança e certeza, embora nenhum chatbot tenha produzido uma lista de referência totalmente completa e precisa em resposta a qualquer pergunta, disseram os pesquisadores. Houve apenas duas recusas em responder a uma pergunta, ambas da Meta AI.
Os resultados destacam a crescente preocupação sobre como as pessoas estão usando plataformas de IA generativa, que não são licenciadas para fornecer aconselhamento médico e não possuem o discernimento clínico necessário para fazer diagnósticos.
O crescimento explosivo dos chatbots de IA os tornou uma ferramenta popular para pessoas que buscam orientação sobre seus problemas de saúde, e a OpenAI afirmou que mais de 200 milhões de pessoas fazem perguntas sobre saúde e bem-estar ao ChatGPT todas as semanas. A plataforma anunciou em janeiro ferramentas de saúde tanto para usuários comuns quanto para profissionais de saúde, e a Anthropic anunciou no mesmo mês o lançamento de seu produto Claude, uma nova oferta para a área da saúde.
Um dos principais riscos da implementação de chatbots sem educação e supervisão pública é a possibilidade de amplificar a desinformação, afirmaram os autores do estudo publicado no BMJ Open
As descobertas "destacam importantes limitações comportamentais e a necessidade de reavaliar como os chatbots de IA são implementados na comunicação pública sobre saúde e medicina", escreveram eles. Esses sistemas podem gerar "respostas com aparência de autoridade, mas potencialmente falhas", concluíram.
Fonte:https://oglobo.globo.com/saude/noticia/2026/04/15/chatbots-de-ia-dao-conselhos-medicos-enganosos-em-50percent-das-vezes-aponta-estudo.ghtml
Comentários
Postar um comentário