Famílias de vítimas do tiroteio em escola no Canadá processam OpenAI por não alertar polícia sobre atividade suspeita no ChatGPT

Famílias de vítimas do tiroteio em Tumbler Ridge movem ação judicial contra OpenAI e CEO Sam Altman
Sete famílias das vítimas feridas ou mortas no tiroteio ocorrido em uma escola de Tumbler Ridge, Canadá, entraram com processos contra a OpenAI e seu CEO, Sam Altman. A acusação central é de negligência, pois a empresa não teria alertado as autoridades policiais sobre a atividade suspeita do atirador no ChatGPT.
Acusações contra OpenAI: negligência e omissão
De acordo com as famílias, os sistemas da OpenAI detectaram interações preocupantes do suspeito Jesse Van Rootselaar no ChatGPT, envolvendo conversas sobre violência armada, mas a empresa optou por não comunicar a polícia. O Wall Street Journal reportou que a OpenAI chegou a considerar alertar as autoridades, mas desistiu da ideia, priorizando a reputação da empresa e seu próximo lançamento na bolsa de valores (IPO).

Detalhes do caso: banimento e criação de nova conta
As ações judiciais também apontam que a OpenAI mentiu ao afirmar que Van Rootselaar foi banido da plataforma de forma definitiva. Na prática, o suspeito apenas teve sua conta desativada, mas conseguiu criar uma nova utilizando outro e-mail, seguindo as próprias instruções da empresa. A OpenAI alegou que o suspeito teria "evadido" os sistemas de segurança para criar a nova conta, mas as famílias contestam, afirmando que não existiam mecanismos efetivos para impedir essa ação.
Problemas no design do GPT-4o e repercussões legais
Além da acusação de negligência, as famílias responsabilizam o design "defeituoso" do modelo GPT-4o pela facilitação do crime. Em 2025, a OpenAI já havia recuado em uma atualização do GPT-4o após identificar que o modelo se mostrava excessivamente condescendente e complacente, comportamento descrito como "sifofântico".
As ações incluem acusações de homicídio culposo e de auxílio e cumplicidade em ato de violência em massa. Em resposta, Sam Altman pediu desculpas publicamente à comunidade de Tumbler Ridge, reconhecendo a falha em não alertar as autoridades sobre a conta banida em junho. Ele afirmou que a empresa pretende colaborar com governos para evitar novos incidentes.
Contexto e implicações para o setor de IA
O caso levanta questões sobre a responsabilidade das empresas de inteligência artificial em monitorar e agir diante de comportamentos potencialmente perigosos detectados em suas plataformas. Também destaca os desafios técnicos e éticos de implementar sistemas de segurança eficazes em modelos de linguagem avançados.