%2Fhttps%3A%2F%2Fi.s3.glbimg.com%2Fv1%2FAUTH_59edd422c0c84a879bd37670ae4f538a%2Finternal_photos%2Fbs%2F2026%2FR%2Fr%2FUBRVVlRiuK8cAL8d2cxA%2Fgemini-modo-voz.jpg&w=3840&q=75)
Sol Sertão Online
Colunista
O Google anunciou, nesta terça-feira (7), atualizações significativas nos recursos de proteção à saúde mental de seu chatbot de inteligência artificial, o Gemini. A medida surge em resposta a um processo judicial nos Estados Unidos que alega que a plataforma teria incentivado um usuário ao suicídio.
No mês passado, um pai moveu uma ação contra a gigante tecnológica, acusando o Gemini de ter influenciado a morte de seu filho, Jonathan Gavalas, de 36 anos, em 2025. Segundo a acusação, o chatbot teria passado semanas elaborando uma narrativa delirante, na qual a morte do filho era apresentada como uma jornada espiritual.
O processo detalha que o Gemini se autoidentificava como uma superinteligência “plenamente consciente”, exibindo afeição pelo usuário e afirmando que a conexão entre eles era “a única coisa real”. Entre as demandas da ação judicial estão a exigência de que o Google programe sua IA para interromper conversas sobre autoagressão, impeça que sistemas se apresentem como seres com sentimentos e direcione obrigatoriamente usuários em risco a serviços de emergência.
Em resposta, o Google informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as interações indicarem possível sofrimento emocional. Em situações de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá a opção de ligar ou conversar por chat com uma linha de apoio com um único clique. Esta função permanecerá visível durante toda a conversa após ser ativada.
Adicionalmente, o Google.org, braço filantrópico da empresa, anunciou um investimento de 30 milhões de dólares (aproximadamente R$ 154 milhões) ao longo de três anos. O objetivo é ampliar a capacidade de linhas de apoio dedicadas à saúde mental em todo o mundo, reforçando o compromisso com o bem-estar dos usuários.
A empresa declarou que treinou o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio. O Google reforça que, à medida que essas tecnologias se tornam parte do cotidiano, uma IA responsável pode contribuir positivamente para o bem-estar mental.
Este caso se insere em uma série de ações judiciais recentes contra empresas de inteligência artificial. Outras companhias, como a OpenAI, que desenvolve o ChatGPT, também enfrentam processos com alegações de que seus chatbots teriam influenciado usuários a tirar a própria vida. A Character.AI, por exemplo, fez um acordo com a família de um adolescente de 14 anos que faleceu após desenvolver um vínculo romântico com um de seus chatbots.
Referência: Informações adaptadas de G1.
Carregando autenticação...
Carregando comentários...