EUA usaram inteligência artificial Claude, rival do ChatGPT, em ataque ao Irã, diz jornal

  • 02/03/2026
(Foto: Reprodução)
Entenda o que levou Israel e EUA a atacarem o Irã Os Estados Unidos usaram a ferramenta de inteligência artificial Claude na ofensiva militar contra o Irã no último sábado (28), revelou o jornal The Wall Street Journal. A informação foi confirmada pelo site Axios e pela agência de notícias Reuters. 💡 O Claude é um aplicativo parecido com o ChatGPT que responde a perguntas e comandos feitos por usuários. Para funções mais complexas, é possível conectar os sistemas que "raciocinam", chamados de modelos de linguagem, a outros programas. O Comando Central dos EUA no Oriente Médio (Centcom), principal base do Exército americano na região, utiliza o Claude, mas se recusou a comentar como o assistente foi usado no ataque ao Irã, segundo o Wall Street Journal. Ainda de acordo com a reportagem, o Centcom integrou inteligência artificial em suas operações e costuma usar o Claude para fazer avaliações de inteligência, identificar alvos e simular cenários de batalha. Ataque ao Irã: entenda o que aconteceu e o que pode vir agora Irã tem novo apagão de internet em meio a conflito com EUA e Israel Ataques dos EUA e Israel contra o Irã AP O Claude foi usado na operação contra o território iraniano enquanto os EUA travam há meses uma batalha contra a Anthropic, empresa americana que criou a ferramenta. O presidente Donald Trump ordenou na última sexta-feira (27) que órgãos federais dos EUA deixassem de usar programas da Anthropic imediatamente. "O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça", afirmou Trump na sexta, em sua rede social. O governo americano está insatisfeito com a decisão da empresa de impedir o uso irrestrito de seus modelos de IA pelo Departamento de Guerra, também conhecido como Pentágono. A Anthropic tem desde 2025 um contrato de US$ 200 milhões (cerca de R$ 1 bilhão) com o Pentágono para fornecer modelos de IA para aplicações militares. Mas há limites: eles não podem ser usados na vigilância em massa de cidadãos e em sistemas de armamento autônomos, por exemplo. Entenda como EUA e Israel infiltraram o espaço aéreo do Irã e neutralizaram as defesas do país em poucas horas A empresa disse na quinta-feira (26) que, apesar da pressão, não permitiria o uso irrestrito de suas ferramentas pelo Departamento de Guerra. "Essas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação". O diretor-executivo da Anthropic, Dario Amodei, disse que os modelos foram usados pelos órgãos federais para defender o país, mas que a companhia estabelece uma linha ética em relação ao uso para a vigilância em massa de cidadãos americanos e para armas totalmente autônomas. Ele afirmou ainda que os sistemas de IA de vanguarda ainda não são confiáveis o bastante para lidar com armas letais sem haver um ser humano com o controle final. O Pentágono também usou o Claude na operação que capturou o então presidente da Venezuela, Nicolás Maduro, informou em fevereiro o Wall Street Journal. A reportagem não detalhou como a inteligência artificial foi utilizada, mas disse que ela foi adotada em uma parceria do Pentágono com a empresa de dados americana Palantir Technologies. LEIA TAMBÉM: Data center da Amazon é atingido nos Emirados Árabes, e serviços ficam instáveis no Oriente Médio 'Não dá pra viver sem VPN': como brasileiros na Rússia driblam restrições às redes sociais 'Crise da memória' deve fazer venda de celulares ter maior queda da história em 2026

FONTE: https://g1.globo.com/tecnologia/noticia/2026/03/02/eua-inteligencia-artificial-claude-ira.ghtml


#Compartilhe

Aplicativos


Locutor no Ar

Peça Sua Música

Anunciantes