A família de uma das vítimas do atentado na Universidade Estadual da Flórida (Estados Unidos), ocorrido em abril de 2025, abriu processo contra a OpenAI, alegando que o ChatGPT ajudou o atirador a planejar o ataque. Na ocasião, duas pessoas morreram e seis ficaram feridas.
Conforme a denúncia registrada na justiça da Flórida, na segunda-feira (11), a empresa de IA falhou em detectar ameaça nas "extensas conversas" que o acusado dos disparos, Phoenix Ikner, manteve com o chatbot antes do atentado. A startup nega qualquer responsabilidade no crime.
Nossos vídeos em destaque
Como o ChatGPT teria ajudado o atirador?
Na ação, a família de Tiru Chabba, um dos mortos no atentado, afirma que o acusado compartilhou imagens de armas de fogo com o bot e recebeu orientações detalhadas sobre como usá-las. Além disso, a tecnologia teria dado outras sugestões para a ação.
- A IA comentou que o tiroteio ganharia destaque nacional "se crianças estiverem envolvidas, mesmo duas ou três vítimas podem atrair mais atenção", como diz o texto;
- O processo alega, também, que o ChatGPT incentivou os delírios do acusado, reforçando a visão de que ele era uma pessoa sã e racional, convencendo-o de que suas ações eram necessárias para provocar mudanças;
- Em outro momento, a denúncia aponta que Ikner obteve dicas sobre o melhor horário para realizar o ataque, junto ao bot, para atingir mais pessoas;
- O suspeito ainda teria consultado a ferramenta sobre as penalidades legais que enfrentaria, após cometer o atentado.
)
Viúva de Chabba, Vandana Joshi lembrou que a startup já enfrentou outros processos semelhantes, por suposto envolvimento da IA em atos ilícitos. Para ela, a empresa sabia que isso aconteceria novamente.
"Mas eles escolheram priorizar o lucro em detrimento da nossa segurança, e isso matou meu marido. Eles precisam ser responsabilizados antes que outra família tenha que passar por isso", argumentou Joshi durante coletiva de imprensa.
O que diz a OpenAI?
Em comunicado enviado à NBC News, a dona do ChatGPT negou as acusações. Segundo a empresa, o bot apenas forneceu respostas factuais disponíveis em várias fontes públicas na internet.
"O massacre do ano passado na Universidade Estadual da Flórida foi uma tragédia, mas o ChatGPT não é responsável por esse crime terrível", diz a nota. A startup apontou, ainda, que a IA "não incentivou nem promoveu atividades ilegais ou prejudiciais".
A OpenAI também declarou que vem contribuindo com as investigações policiais desde que tomou conhecimento do crime. Além disso, tem tomado medidas para detectar intenções maliciosas e responder imediatamente a eventuais riscos de segurança.
Continue no TecMundo e relembre outros processos enfrentados pela empresa por mortes relacionadas ao bot inteligente.
)
)
)
)
)
)
)