A Anthropic afirmou que não tem capacidade técnica para sabotar o funcionamento do Claude enquanto o chatbot está em uso. A declaração foi feita em documento judicial encaminhado na sexta-feira (20), em resposta às acusações do Departamento de Guerra dos Estados Unidos (DoW, na sigla em inglês).
O governo norte-americano argumenta que a empresa não seria confiável para integrar operações sensíveis. Segundo o DoW, permitir que a Anthropic mantenha acesso à infraestrutura técnica e operacional de combate poderia representar um risco à cadeia de suprimentos.
Nossos vídeos em destaque
“Os sistemas de IA são extremamente vulneráveis à manipulação, e a Anthropic poderia tentar desativar sua tecnologia ou alterar preventivamente o comportamento de seu modelo antes ou durante operações de combate em andamento, caso considere que seus ‘limites’ corporativos estejam sendo ultrapassados”, argumentou o governo.
)
A Anthropic rebateu diretamente a acusação. “A Anthropic nunca teve a capacidade de fazer com que Claude parasse de funcionar, alterasse sua funcionalidade, bloqueasse o acesso ou, de qualquer forma, influenciasse ou colocasse em risco as operações militares”, escreveu o chefe do setor público da empresa, Thiaygu Ramasamy.
Segundo o executivo, a companhia não possui acesso necessário para desativar a tecnologia ou alterar o comportamento do modelo durante operações em andamento. Ele também destacou que não há backdoors, mecanismos de controle remoto – tampouco acesso aos prompts – capazes de interferir no funcionamento do sistema.
“Os funcionários da Anthropic não podem, por exemplo, logar em sistemas do DoW para modificar ou desativar modelos durante uma operação. A tecnologia simplesmente não funciona dessa forma”, pontuou.
Troca de acusações na justiça
A disputa acontece no âmbito de uma ação judicial movida pela Anthropic contra o governo dos Estados Unidos. A empresa busca reverter o banimento de suas ferramentas em agências governamentais após ser classificada como um “risco para a cadeia de suprimentos”.
Além de perder acesso a contratos com o governo, a Anthropic afirma que o rótulo também prejudicou sua base de clientes no setor privado.
Governo dos EUA usava Anthropic rotineiramente
Antes do impasse, o uso do Claude pelo governo era frequente. Segundo a Wired, o assistente era empregado para analisar dados, redigir memorandos e até gerar planos de batalha.
Em fevereiro deste ano, a Anthropic se recusou a permitir determinados usos do chatbot pelo DoW. De acordo com a empresa, o Pentágono buscava autorização para empregar a IA em vigilância em massa e no desenvolvimento e operação de armas autônomas.
Mesmo após o rompimento, o Pentágono teria utilizado a tecnologia para auxiliar em um ataque ao Irã. Posteriormente, a OpenAI anunciou um acordo com o DoW, o que gerou repercussão pública e aumento no número de desinstalações do ChatGPT.
Fique ligado no TecMundo para acompanhar os desdobramentos do uso de inteligência artificial em governos e siga nossas redes sociais para não perder nenhuma atualização.
)
)
)
)
)
)
)