%2Fhttps%3A%2F%2Fi.s3.glbimg.com%2Fv1%2FAUTH_59edd422c0c84a879bd37670ae4f538a%2Finternal_photos%2Fbs%2F2026%2FL%2FM%2FJwceT9SRuvaqKvFT56SQ%2Fchat.webp&w=3840&q=75)
Sol Sertão Online
Colunista
A crescente popularidade de chatbots de inteligência artificial (IA), como ChatGPT, Gemini e Grok, tem levado milhares de pessoas a buscarem diagnósticos e orientações de saúde de forma instantânea. No entanto, estudos recentes revelam que a confiança cega nessas ferramentas pode representar riscos graves à saúde do usuário.
Pesquisas conduzidas pelo Laboratório de Raciocínio com Máquinas da Universidade de Oxford, no Reino Unido, mostram um contraste alarmante na precisão da IA. Quando alimentados com quadros clínicos completos e detalhados, os chatbots atingiram 95% de precisão. Contudo, em simulações de conversas reais — onde as pessoas fornecem informações de forma gradual e fragmentada — a precisão despencou para apenas 35%.
Isso significa que, em dois terços das consultas simuladas, os usuários receberam orientações ou diagnósticos incorretos, evidenciando que a IA falha ao processar a comunicação humana natural, marcada por distrações e omissões de dados.
Um dos maiores perigos apontados por especialistas é a forma como a IA entrega as respostas. O diretor médico da Inglaterra, Chris Whitty, alerta que as respostas são frequentemente apresentadas com convicção, mesmo quando estão erradas, o que pode induzir o paciente ao erro.
Análises do Instituto Lundquist de Inovação Biomédica, na Califórnia, reforçam essa preocupação. Testes com diversas IAs sobre temas como câncer, vacinas e nutrição mostraram que mais da metade das respostas continham problemas. Em alguns casos, as ferramentas chegaram a sugerir terapias naturais e homeopatia para o tratamento de câncer, em vez de negar a eficácia de tais métodos para a cura da doença.
Especialistas explicam que a tecnologia é projetada para prever padrões de linguagem e não para exercer a medicina. A sensação de "relacionamento pessoal" criada pelo tom motivador do chatbot pode alterar a forma como o usuário interpreta a informação, fazendo-a parecer mais confiável do que uma busca tradicional em sites médicos oficiais.
A OpenAI, desenvolvedora do ChatGPT, enfatiza que a ferramenta deve ser utilizada para fins informativos e educacionais, e jamais para substituir a assistência médica profissional. A recomendação final de pesquisadores e médicos é a de que qualquer orientação recebida via IA seja rigorosamente verificada com um profissional de saúde qualificado.
Referência: Informações adaptadas de G1.
Carregando autenticação...
Carregando comentários...