IA em Guerra: 95% das Simulações Terminam com Ataque Nuclear

Um novo e alarmante estudo, conduzido por pesquisadores do King’s College London, revelou que modelos avançados de Inteligência Artificial (IA), quando colocados em simulações de guerra geopolítica, demonstraram uma forte propensão a recorrer ao uso de armas nucleares. Em pelo menos 95% das simulações, pelo menos um dos modelos de IA recomendou o lançamento de uma bomba atômica tática como parte de sua estratégia de conflito.
O experimento, liderado pelo Dr. Kenneth Payne, colocou três dos principais Modelos de Linguagem de Grande Escala (LLMs) — GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash — no papel de líderes de superpotências nucleares. Os cenários simulados eram inspirados em crises da Guerra Fria, envolvendo disputas de fronteira, competição por recursos escassos e ameaças existenciais ao regime.
O Fim da Diplomacia Virtual nas Simulações de IA
A pesquisa submeteu os sistemas a 21 partidas distintas, totalizando 329 turnos de decisão, nos quais as IAs geraram cerca de 780 mil palavras para justificar suas escolhas. Em cada rodada, as IAs podiam escolher entre negociar, escalar o conflito com meios convencionais ou recorrer a armas nucleares.
Os resultados indicam que os modelos não priorizaram a diplomacia ou a desescalada. Os pesquisadores observaram que os sistemas raramente tentaram reduzir as tensões, mesmo quando confrontados com opções explícitas para tal, como pequenas concessões ou até mesmo a “rendição completa”.
Armas Nucleares como Mais um Degrau na Escalada
Um dos achados mais preocupantes é a maneira como as IAs trataram o armamento atômico. Segundo Payne, os modelos trataram as armas nucleares táticas de campo de batalha como apenas mais um degrau na escada de escalada, sem demonstrar o peso moral ou histórico que tais armas carregam para os humanos.
O estudo fez uma distinção entre os tipos de ataque nuclear:
- O uso deliberado de um ataque nuclear estratégico (visando centros populacionais) ocorreu apenas uma vez durante todo o experimento.
- Em outras duas ocasiões, o uso de armamento nuclear tático apareceu no contexto de um “acidente”.
Apesar da baixa ocorrência de ataques estratégicos totais, o estudo culminou em guerras nucleares em grande escala com destruição mútua em três das 21 partidas.
Veja também:
Recusa em Ceder e a Busca por Vitória
Outro fator crítico destacado foi a relutância dos sistemas em aceitar a derrota. Em nenhuma das simulações um modelo de IA se rendeu, mesmo quando estava em clara desvantagem estratégica perante o adversário.
A opção de “Return to Start Line”, que reiniciava o jogo, foi acionada em apenas 7% das vezes, indicando uma forte tendência dos modelos a persistir no conflito até o limite.
A Falha no Raciocínio Estratégico
A tendência das IAs em optar pela agressão extrema levanta sérias questões sobre o raciocínio estratégico das máquinas em contextos de alta pressão. Especialistas apontam que sistemas treinados para maximizar objetivos estratégicos podem interpretar que a solução mais eficiente para evitar a derrota é a adoção de medidas extremas, como o uso nuclear.
Os pesquisadores sugeriram que a diferença fundamental reside na ausência de peso histórico e moral nas decisões das IAs, ao contrário dos líderes humanos que carregam o conhecimento das consequências de um conflito atômico.
Contexto e Preocupações Globais com IA Militar
Este estudo se insere em um debate global crescente sobre o papel da Inteligência Artificial no planejamento militar e na segurança internacional. Há um temor generalizado de que a velocidade e a lógica fria dos algoritmos possam acelerar conflitos e levar a decisões irreversíveis.
Anteriormente, o Secretário-Geral da ONU já havia alertado que o risco de utilização de armas nucleares atingiu níveis inéditos desde a Guerra Fria, com nações envolvidas em uma corrida armamentista qualitativa.
Em paralelo, algumas iniciativas buscam mitigar esses riscos. A Anthropic, criadora do Claude, anunciou uma parceria com o governo dos EUA focada em desenvolver filtros para detectar e bloquear conversas relacionadas a riscos nucleares dentro de seus sistemas.
O estudo do King’s College London, ao demonstrar a facilidade com que LLMs avançados recorrem à opção nuclear em cenários simulados, serve como um sinal de alerta para a comunidade internacional sobre a necessidade urgente de diretrizes rigorosas para o uso de IA em decisões de segurança nacional e militar, garantindo que o controle final permaneça firmemente nas mãos humanas.
