Sol - Sertão Online
Notícias LocaisPolíticaEconomiaEsportesTecnologiaSaúdeEducaçãoBahiaEntreterimentoMundo
Fale ConoscoPara seu Negócio

Sobre o Sol

Portal dedicado a conectar informação, inovação e desenvolvimento regional, promovendo o crescimento sustentável através do conhecimento.

Contatos

  • →Fale Conosco
  • →Para seu Negócio
  • ✉contato@sertaonline.com

Redes Sociais

→Instagram

© 2025 Sol. Todos os direitos reservados.

Sol - Sertão Online
/

Sobre o Sol

Portal dedicado a conectar informação, inovação e desenvolvimento regional, promovendo o crescimento sustentável através do conhecimento.

Contatos

  • →Fale Conosco
  • →Para seu Negócio
  • ✉contato@sertaonline.com

Redes Sociais

→Instagram

© 2025 Sol. Todos os direitos reservados.

Início/Saúde
IA na saúde: pesquisas alertam para riscos de diagnósticos errados e desinformação
Saúde
Pesquisadores estão começando a desvendar os pontos positivos e as fraquezas dos chatbots — Foto: Getty Images

IA na saúde: pesquisas alertam para riscos de diagnósticos errados e desinformação

SS

Sol Sertão Online

Colunista

25 de abril de 2026
5 min de leitura

A crescente popularidade de chatbots de inteligência artificial (IA), como ChatGPT, Gemini e Grok, tem levado milhares de pessoas a buscarem diagnósticos e orientações de saúde de forma instantânea. No entanto, estudos recentes revelam que a confiança cega nessas ferramentas pode representar riscos graves à saúde do usuário.

A armadilha da interação humana

Pesquisas conduzidas pelo Laboratório de Raciocínio com Máquinas da Universidade de Oxford, no Reino Unido, mostram um contraste alarmante na precisão da IA. Quando alimentados com quadros clínicos completos e detalhados, os chatbots atingiram 95% de precisão. Contudo, em simulações de conversas reais — onde as pessoas fornecem informações de forma gradual e fragmentada — a precisão despencou para apenas 35%.

Isso significa que, em dois terços das consultas simuladas, os usuários receberam orientações ou diagnósticos incorretos, evidenciando que a IA falha ao processar a comunicação humana natural, marcada por distrações e omissões de dados.

Confiança excessiva e desinformação

Um dos maiores perigos apontados por especialistas é a forma como a IA entrega as respostas. O diretor médico da Inglaterra, Chris Whitty, alerta que as respostas são frequentemente apresentadas com convicção, mesmo quando estão erradas, o que pode induzir o paciente ao erro.

Análises do Instituto Lundquist de Inovação Biomédica, na Califórnia, reforçam essa preocupação. Testes com diversas IAs sobre temas como câncer, vacinas e nutrição mostraram que mais da metade das respostas continham problemas. Em alguns casos, as ferramentas chegaram a sugerir terapias naturais e homeopatia para o tratamento de câncer, em vez de negar a eficácia de tais métodos para a cura da doença.

Ferramenta de apoio, não substituta

Especialistas explicam que a tecnologia é projetada para prever padrões de linguagem e não para exercer a medicina. A sensação de "relacionamento pessoal" criada pelo tom motivador do chatbot pode alterar a forma como o usuário interpreta a informação, fazendo-a parecer mais confiável do que uma busca tradicional em sites médicos oficiais.

A OpenAI, desenvolvedora do ChatGPT, enfatiza que a ferramenta deve ser utilizada para fins informativos e educacionais, e jamais para substituir a assistência médica profissional. A recomendação final de pesquisadores e médicos é a de que qualquer orientação recebida via IA seja rigorosamente verificada com um profissional de saúde qualificado.


Referência: Informações adaptadas de G1.

Comentários (...)

Carregando autenticação...

Carregando comentários...

← Voltar para início

Sobre o Sol

Portal dedicado a conectar informação, inovação e desenvolvimento regional, promovendo o crescimento sustentável através do conhecimento.

Contatos

  • →Fale Conosco
  • →Para seu Negócio
  • ✉contato@sertaonline.com

Redes Sociais

→Instagram

© 2025 Sol. Todos os direitos reservados.

Sol - Sertão Online