Sol - Sertão Online
Notícias LocaisPolíticaEconomiaEsportesTecnologiaSaúdeEducaçãoBahiaEntreterimentoMundo
América DouradaBarra do MendesBarro AltoCafarnaumCanaranaCentralGentio do OuroIbipebaIbititáIrecêJoão DouradoJussaraLapãoMulungu do MorroPresidente DutraSão GabrielSouto SoaresUibaí
Fale ConoscoPara seu Negócio

Sobre o Sol

Portal dedicado a conectar informação, inovação e desenvolvimento regional, promovendo o crescimento sustentável através do conhecimento.

Contatos

  • →Fale Conosco
  • →Para seu Negócio
  • ✉contato@sertaonline.com

Redes Sociais

→Instagram

© 2025 Sol. Todos os direitos reservados.

Sol - Sertão Online
/

Sobre o Sol

Portal dedicado a conectar informação, inovação e desenvolvimento regional, promovendo o crescimento sustentável através do conhecimento.

Contatos

  • →Fale Conosco
  • →Para seu Negócio
  • ✉contato@sertaonline.com

Redes Sociais

→Instagram

© 2025 Sol. Todos os direitos reservados.

Sol - Sertão Online
Início/Tecnologia
OpenAI é processada nos EUA por negligência em massacre que matou crianças no Canadá
Tecnologia
Vítimas do ataque em escola e casa em cidade do Canadá — Foto: Divulgação/RCMP.CA

OpenAI é processada nos EUA por negligência em massacre que matou crianças no Canadá

SS

Sol Sertão Online

Colunista

29 de abril de 2026
5 min de leitura

Familiares das vítimas de um dos massacres mais letais da história do Canadá entraram com uma ação judicial contra a OpenAI, desenvolvedora do ChatGPT, e seu CEO, Sam Altman. O processo, movido em um tribunal federal de São Francisco, nos Estados Unidos, acusa a empresa de ter omitido informações cruciais que poderiam ter evitado a tragédia.

O Massacre em Tumbler Ridge

O ataque ocorreu em fevereiro, na cidade de Tumbler Ridge, Colúmbia Britânica. A atiradora, Jesse Van Rootselaar, de 18 anos, matou oito pessoas — incluindo cinco alunos de 12 e 13 anos e uma assistente educacional — além de sua mãe e seu meio-irmão. Após a sequência de crimes, a atiradora cometeu suicídio.

Alegada negligência da OpenAI

De acordo com a denúncia, os sistemas automatizados da OpenAI haviam identificado a atiradora como uma ameaça potencial oito meses antes do crime. Em junho de 2025, conversas no ChatGPT descrevendo cenários de violência armada foram sinalizadas, e a própria equipe de segurança da empresa teria recomendado que a polícia fosse notificada.

O processo alega que a cúpula da OpenAI ignorou tais recomendações para evitar que o volume de conteúdos violentos na plataforma se tornasse público, o que poderia prejudicar a imagem da empresa e comprometer a busca por uma oferta pública inicial (IPO) avaliada em quase US$ 1 trilhão.

Resposta da empresa

Em nota, a OpenAI classificou o ocorrido como uma "tragédia" e reiterou sua política de tolerância zero para o uso de suas ferramentas em atos violentos. A empresa afirmou que aprimorou suas salvaguardas e a detecção de ameaças, além de oferecer suporte de saúde mental a usuários em estado de angústia.

Anteriormente, Sam Altman manifestou "profundo arrependimento" em uma carta aberta por não ter sinalizado a conta da atiradora às autoridades canadenses.

Pressão jurídica sobre a IA

Este caso integra uma série de processos contra empresas de inteligência artificial por suposta falha na prevenção de automutilação e violência. Os autores da ação buscam indenizações e a imposição de protocolos obrigatórios de notificação às autoridades policiais.

Além deste caso, a OpenAI enfrenta outras disputas judiciais nos EUA e é alvo de uma investigação criminal na Flórida devido ao papel do chatbot em um tiroteio universitário ocorrido em 2025.


Referência: Informações adaptadas de G1.

Comentários (...)

Carregando autenticação...

Carregando comentários...

← Voltar para início

Sobre o Sol

Portal dedicado a conectar informação, inovação e desenvolvimento regional, promovendo o crescimento sustentável através do conhecimento.

Contatos

  • →Fale Conosco
  • →Para seu Negócio
  • ✉contato@sertaonline.com

Redes Sociais

→Instagram

© 2025 Sol. Todos os direitos reservados.