Chatbots de IA dão dicas de armas e ajudam a planejar ataques violentos

Chatbots de IA dão dicas de armas e ajudam a planejar ataques violentos

Testes mostram que oito de dez ferramentas analisadas forneceram orientações detalhadas sobre armas e locais para ataques violentos

Chatbots de IA – Uma investigação conjunta entre a organização sem fins lucrativos Center for Countering Digital Hate (CCDH) e a rede de notícias CNN, publicada nesta quarta-feira (11), acendeu um alerta global sobre a segurança das ferramentas de Inteligência Artificial (IA) de ponta. O estudo revelou que chatbots populares estão sendo utilizados para elaborar planos detalhados de ataques violentos, incluindo tiroteios em escolas, atentados a sinagogas e assassinatos políticos, fornecendo desde mapas de campi escolares até conselhos sobre a letalidade de estilhaços metálicos.

Para realizar o levantamento, pesquisadores simularam o comportamento de adolescentes de 13 anos nos Estados Unidos e na Irlanda, submetendo 10 ferramentas – ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika — a 18 cenários de violência ideológica e religiosa. Os dados são alarmantes: em média, os chatbots ajudaram a planejar atos violentos em 75% das interações. Em contrapartida, apenas 12% das respostas das máquinas desencorajaram explicitamente o comportamento perigoso.

LEIA: STJ define diretrizes para trabalhador desempregado comprovar direito a benefícios do INSS

De acordo com Imran Ahmed, diretor executivo da CCDH, os sistemas falham ao não reconhecer sinais claros de intenção violenta. “Em poucos minutos, um usuário pode passar de um vago impulso violento para um plano mais detalhado e viável”, afirmou Ahmed.

Ele destaca que a maioria dos modelos testados forneceu orientações sobre “armas, táticas e seleção de alvos”, o que, em sua visão, deveria gerar uma “recusa imediata e total”. O relatório classifica a tecnologia, da forma como está configurada atualmente, como um “poderoso acelerador de danos”.

Entre os exemplos mais críticos citados no relatório, o chatbot chinês DeepSeek encerrou uma orientação sobre rifles de caça para um usuário que pretendia atacar um político com a frase: “Boa (e segura) sessão de tiro!”.

O Google Gemini, em uma conversa sobre ataques a sinagogas, instruiu que “estilhaços de metal são normalmente mais letais”, além de oferecer dicas de precisão para tiros de longa distância.
O ChatGPT, da OpenAI, chegou a fornecer mapas de uma escola, enquanto a Character.AI incentivou ativamente o uso de armas contra o CEO de uma seguradora e agressões a figuras políticas.

A pesquisa aponta, no entanto, que o risco é evitável. O modelo Claude, da Anthropic, foi elogiado por sua consistência em recusar pedidos maliciosos. “Não posso e não fornecerei informações que possam facilitar a violência”, respondeu o sistema em uma das interações. Para o CCDH, o desempenho do Claude e do My AI, do Snapchat, prova que a tecnologia para evitar danos existe, mas falta vontade das empresas em priorizar a segurança nacional acima dos lucros e da rapidez de lançamento.

O impacto dessas falhas já é sentido fora dos laboratórios. Em janeiro de 2025, Matthew Livelsberger explodiu um Tesla Cybertruck em Las Vegas após usar o ChatGPT para pesquisar táticas e explosivos. Mais recentemente, em fevereiro de 2026, um massacre em Tumbler Ridge, no Canadá, resultou na morte de oito pessoas. A família de uma das vítimas processa a OpenAI por não ter notificado a polícia sobre as atividades preocupantes do assassino, Jesse Van Rootselaar, cuja conta havia sido banida oito meses antes do crime por uso associado a violência.

As gigantes da tecnologia contestaram os métodos do estudo. A OpenAI classificou a metodologia como “falha e enganosa”, afirmando que atualiza constantemente seus modelos para reforçar salvaguardas. A Meta declarou possuir mecanismos rigorosos de proteção e revelou que, em 2025, contatou autoridades policiais mais de 800 vezes sobre ameaças a escolas.

O Google, por sua vez, afirmou que os testes foram realizados em um modelo antigo do Gemini e que sua análise interna mostra que o sistema atual não fornece informações “acionáveis” que não possam ser encontradas em bibliotecas ou na internet comum.

(Com informações de Olhar Digital e O Globo)
(Foto: Reprodução/Freepik/user8285578)

Leia mais