Home

Mission

Contents

News

Links

Authors

About Us

Publications

Harmony Forum

Peace from Harmony
Zachary Burdette et al. Six ways AI could cause the next big war

Six (aggressive) ways AI could cause the next big war,

and why it probably won't

By
Zachary Burdette, Karl Mueller, Jim Mitre, Lily Hoak
July 15, 2025

https://thebulletin.org/premium/2025-07/six-ways-ai-could-cause-the-next-big-war-and-why-it-probably-wont /

Русский перевод Л. Семашко - ниже

 

Historically, most technological breakthroughs do not fundamentally affect the risk of conflict. There have been notable exceptions. The invention of printing helped fuel the social and religious upheavals in Europe that later contributed to the outbreak of the Thirty Years’ War in 1618. By contrast, nuclear weapons have significantly dampened the risk of great power war since World War II.

Because advanced artificial intelligence (AI) could create far-reaching social, economic, and military disruptions, it could be another exceptional technology with important implications for international security (Kissinger, Schmidt, and Mundie 2024). Analysts need to seriously consider the possibility that AI may cause changes in the international security landscape that could lead to the outbreak of wars that would not otherwise happen (Mitre and Predd 2025).

Drawing o­n decades of research about what conditions make wars more or less likely throughout history, we examine six hypotheses about how AI might increase the potential for major interstate war (Van Evera 1994). The hypotheses reflect different ways that AI’s effects o­n militaries, economies, and societies might undermine international stability, with a focus o­n the pathways that appear most plausible and concerning. We evaluate these hypotheses by identifying what key conditions are needed for them to be valid and then assessing the likelihood that those conditions will align in ways that would make conflict more likely.

Exploring the consequences of advanced artificial intelligence that is much more sophisticated than what exists today, the analysis assumes that AI could eventually become capable of reliably matching human performance across a wide range of cognitive tasks, which some technologists refer to as “artificial general intelligence” (Kahl 2025).

Overall, the risk that AI will directly trigger a major war appears low, especially if governments take steps to manage the technology’s use. But AI could create destabilizing shifts in the balance of power or negatively influence human strategic judgment in ways that fuel misperceptions. Fortunately, prudent government policies can help limit these risks.

 

                             Will AI disrupt the balance of power and create new opportunities for aggression?

Advances in artificial intelligence could lead to war if AI-enabled military capabilities produce changes in the balance of power that persuade decision makers that previously unachievable aims are now within reach (Cronin and Cronin 2024). There are several key conditions that influence the likelihood of this scenario: the extent to which countries perceive large-enough military advantages to change their political calculus about using force, whether leaders believe they have fleeting windows of opportunity for military action, if their newfound advantages in the balance of power could enable them to achieve their goals through coercive diplomacy short of war, and whether they have objectives that require the use of force. The likelihood of all these conditions converging, however, appears relatively low in the near term.

First, AI would need to give the prospective aggressor an apparently large military advantage that changes its leaders’ decision-making calculus about the odds of victory. This includes the likelihood of not suffering a catastrophic retaliatory strike if they are considering attacking a nuclear-armed major power. The source of this advantage could be a breakthrough that leads to a “wonder weapon” (such as an incapacitating first-strike cyber capability or hyper-intelligent drone swarms) or, more likely, the institutional adoption of AI for many different military tasks that collectively offer transformational advantages. For AI to disproportionately benefit o­ne side in the balance of power, it would likely need a first-mover advantage in AI innovation and adoption, otherwise its rival could use AI-enhanced defenses to offset its new AI-enabled capabilities (Plumb and Horowitz 2025). Alternatively, AI could shift the balance of power by transforming a state’s economic productivity. If o­ne state can vastly increase its defense spending due to an AI-driven economic boom, it might achieve a decisive military advantage through sheer scale rather than novel capabilities (Aschenbrenner 2024).

The magnitude of the economic and military advantages that AI may provide remains an open question. The risks of significant first-mover advantages are greatest in scenarios where the pace of AI innovation is faster rather than slower, the performance gains are a transformational leap rather than an incremental evolution in military capabilities, and the technology’s complexity or cost means that other countries are slow to develop advanced AI themselves—or at least take a long time to successfully integrate the technology into their military forces.

Second, in addition to the size of the military edge, the risks of conflict would be greatest if the advantage appears temporary. This could pressure leaders to believe they have a closing “window of opportunity” to strike before their advantage fades and the adversary closes the capability gap (Van Evera 2001). Leaders would most likely perceive fleeting windows of opportunity if they expected AI to diffuse rapidly. However, a very rapid rate of diffusion might make it unlikely that a leading state would have enough time to develop a large first-mover advantage in the first place.

Third, to result in a war, the advantage must not be so great that the weaker country seeks a political solution and offers concessions to avoid suffering a costly military defeat by a more powerful adversary (Fearon 1995). Enhanced military power could provide coercive leverage enabling a state to achieve its objectives through explicit or tacit threats without ultimately needing to use force. If both sides share the assessment that AI has decisively shifted the balance of power, that clarity could make warfare less likely, though it would not make the military advantage less significant.

Finally, the country with the advantage would need to have goals that merit going to war—states do not attack each other simply because they expect to win (Blainey 1988). Countries like China or Russia could undermine global stability if they increased their relative power. This is because both nations have made territorial claims that require using force to achieve (like controlling Taiwan or Ukraine). But stability could increase if states that support the territorial status quo—such as the United States and its European and Asian allies—benefit more from AI than their challengers. This is because the military advantages they would gain from AI could reinforce deterrence by persuading revisionist powers who want to seize new territory, such as China and Russia, that their prospects for forcible conquest had become worse rather than better. While countries like Russia and North Korea lag with respect to this technology, China has made significant progress with AI and its position in the balance of power is already much stronger than other revisionist states. This makes the prospect that China will achieve first-mover advantages in integrating AI into its military capabilities before the United States the most likely and concerning variant of this hypothesis.

 

Will fear of enemy AI development lead to preventive wars?

The corollary of the first hypothesis—AI will empower states with new military advantages that facilitate aggression—is that countries may resort to war to prevent their rivals from acquiring advanced AI capabilities (Hendrycks, Schmidt, and Wang 2025). If leaders believe that AI will result in explosive economic growth and decisive military advantages, they may fear that a rival acquiring advanced AI first could enable that state to coerce or attack them in the future. Faced with a “fight now or later” dilemma, preventive attacks to slow a rival’s AI development may seem like the lesser of two evils compared to defending against a rival’s AI-enabled attacks in the future (Edelstein 2017).

Several conditions would heighten these risks, but they are relatively unlikely in combination (Burdette and Demelash 2025).

First, leaders would need to expect advanced AI will produce a large shift in the balance of power. This is plausible because leaders may buy into transformative visions of AI’s potential. But leaders would still face significant uncertainty about what exactly an AI future looks like and what level of advanced AI would trigger a major crisis.

Second, leaders would need to expect that AI offers large first-mover advantages such that it will be difficult for them to catch up. But, historically, being a fast follower and adopting a new technology more effectively or efficiently is often more important than being the first to innovate (Ding 2024). For example, while Britain was the first to develop tanks, Germany achieved key doctrinal breakthroughs in how to use tanks effectively.

Third, leaders would need to expect that preventive military attacks would meaningfully slow down the rival’s AI development (Mueller et al. 2006). In the US-China context, that would entail conducting strikes against large numbers of sensitive civilian and scientific targets, such as AI labs and data centers, in the homeland of a nuclear-armed great power. That would be difficult from a military perspective, and leaders would likely face large uncertainty about how long doing so would set back their rival’s technological development (Rehman, Mueller, and Mazarr 2025).

Finally, leaders would need to believe the costs and risks of the attacks would be worth the benefits. As with AI-empowered aggression under the first hypothesis, nuclear, conventional, and cyber retaliatory capabilities might deter strikes, especially when coupled with uncertainties about how much attacks could realistically achieve.

A variant of this hypothesis is that o­ne country might achieve a breakthrough in advanced AI and then use force to preserve its monopoly. If early signs suggest that the technology is living up to its revolutionary promise, leaders may want to preserve those benefits for themselves and deny them to a rival. That stronger and more confident motive coupled with potential AI-enabled military advantages might make leaders more likely to use preventive attacks to try to preserve a monopoly than to derail a rival’s progress in the initial race for advanced AI. However, launching even limited preventive attacks against a capable rival to protect exclusive control of advanced AI might entail serious escalation risks or other political costs. If AI appears so transformative that states need it to ensure their future economic prosperity and national security, leaders of targeted states may view being denied access to the technology as a dire or even existential threat.

 

This file is in the public domain because it is the work of a computer algorithm or artificial intelligence and does not contain sufficient human authorship to support a copyright claim. ImagecourtesyWikimediaCommons

         Этот файл находится в общественном достоянии, поскольку является работой компьютерного алгоритма или искусственного интеллекта и не содержит достаточных данных о человеческом авторстве, чтобы служить основанием для заявления о нарушении авторских прав. Изображениепредоставлено Wikimedia Commons.

 

Will AI reduce the expected costs of going to war?

This hypothesis rests o­n the belief that AI can substantially mitigate or remove many of the traditional factors that make war a costly and difficult undertaking. These include human casualties, cost, and political resistance. Countries with advanced AI-enabled militaries might be more willing to use force in pursuit of political aims if these barriers were not holding them back.

For this premise to be true, several conditions would need to hold.

First, AI-enabled drones and robots would need to replace human soldiers in dangerous roles to such an extent that the expected casualties from going to war would drop dramatically. As Ukraine’s experience suggests, drones and robots appear more likely to supplement than replace humans in combat roles for the foreseeable future (Watling and Reynolds 2025). While human casualties might decrease if militaries make drones more central to their force structures, that does not equate to human personnel becoming obsolete and casualties falling to such a low level that war will become something leaders undertake lightly.

Second, AI-enabled systems would need to be inherently cheaper than relying o­n humans. For AI to have physical capabilities, it needs to be paired with robotics. Drones and robots can offer valuable cost advantages over manned systems in some circumstances, but they are not cheap in absolute terms, especially when procured at the massive scale that many defense planners envision. If AI-enabled military capabilities led to shorter wars in place of costly protracted conflicts, it could make military actions less costly in both human and material terms. However, the ability to manufacture more, cheaper robotic systems using AI-enhanced automated production could increase countries’ capacity to continue fielding new forces to sustain long wars. And the cumulative human and economic costs could grow as wars protract.

A special but particularly salient case of this hypothesis is advanced AI undermining nuclear deterrence (Aschenbrenner 2024). While nuclear deterrence is not a panacea and does not always prevent limited aggression, it exerts a stabilizing force o­n the international system that AI is unlikely to eliminate. AI may enhance capabilities for offensive action against enemy nuclear arsenals, but it can also help defenders improve the survivability of their nuclear arsenals (Geist 2023). Similarly, while AI could make future air and missile defense systems more effective, it is unlikely to provide immunity against nuclear retaliation by major powers. This would require stopping all of an incoming nuclear strike, not just most of it—including warheads delivered by novel means developed or acquired specifically because of their potential to penetrate AI-enhanced defenses.

Finally, while there might be concerns that AI could enable cyber-attacks to neutralize an enemy’s nuclear arsenal by paralyzing its command and control, this appears very unlikely given the emphasis major nuclear powers place o­n security for these systems.

 

Will AI cause societal chaos that leads to war?

Another potential pathway to conflict may stem from domestic upheaval. There are concerns that integrating advanced AI into a nation’s economy could destabilize society by causing mass unemployment. In theory, leaders might attack foreign enemies to distract their populations and encourage them to “rally around the flag” and support the government. Although AI causing major economic disruption appears quite plausible (Hunter et al. 2023), this diversionary war pathway to conflict appears particularly unlikely. While leaders may seek to re-direct public ire toward internal or external enemies instead of their own governments, there is little historical evidence that they tend to respond to domestic unrest by provoking foreign wars (Fravel 2010).

Starting a full-scale war might make a leader’s domestic political problems worse rather than better, especially if it is a conjured crisis rather than a real threat. Instead, domestic upheaval tends to push leaders to look inward, toward either dramatic domestic reforms or political repression. For example, during the Great Depression President Roosevelt focused o­n far-reaching economic and social policies and there was intense domestic opposition to entangling the United States even in a conflict with stakes as high as World War II.

A variant of this hypothesis is that AI might prime societies to be aggressive and imperialist. Rather than the government distracting the population, the population might call o­n the government to act more belligerently. For example, as Germany became more powerful in the years before World War I, there were societal calls to take its “place in the sun” and expand internationally (Renshon 2017). If AI results in explosive economic growth, there might be public demands to use those benefits for geopolitical advantage or territorial expansion. However, military aggression is not the o­nly outlet for asserting greater status, and whether these economic advantages create new windows of opportunity for aggression depends o­n the conditions outlined in the first hypothesis—that AI will disrupt the balance of power and create new opportunities for aggression. Additionally, AI-enabled economic growth might be more stabilizing than destabilizing. If a society has fewer concerns about scarcity and has increased economic self-sufficiency, it could become less interested in international competition and conflict.

Alternatively, AI could make society more aggressive by reinforcing pathologies in public discourse rather than through its economic effects. This includes supercharging o­nline echo chambers, inflaming fear and anxiety about the future, spreading disinformation, and encouraging scapegoating. These are all real concerns, though it is unclear to what extent more advanced AI would aggravate these problems relative to what human leaders have already been able to accomplish o­n their own (Narayanan and Kapoor 2025). AI’s potential impact o­n society ultimately depends o­n many assumptions about the technology, how it is adopted, and how governments manage the transition. How AI will reshape societal preferences remains particularly uncertain, and thus so does this variant of the hypothesis.

 

Will AI take actions o­n its own that start a war?

When AI leads to wars in movies like The Terminator, it is often after leaders have delegated control over their militaries to a machine that takes deliberate, malign action. A less dystopian but more plausible hypothesis is that AI could trigger a war through accidental or unauthorized action. An AI agent might have enough control over capabilities like autonomous military systems that loss-of-control events during crises could result in escalation (Danzig 2018). For example, autonomous drones might stray into a rival’s airspace, or an autonomous undersea vehicle might attack an adversary submarine. Such loss-of-control events could occur either because an adversary manipulates the AI system or because inherent technological complexity makes it hard to predict how AI will behave in new or changing environments.

But the conditions underpinning this hypothesis are unlikely. First, AI would need to increase the rate of accidents relative to legacy technologies without AI. This is plausible because AI introduces complexity into systems, and more complexity increases the risks of accidents. o­n the other hand, sufficiently advanced AI might improve reliability and safety relative to human operation or today’s level of automation (Sagan 1993). Second, the kinds of resulting accidents would need to be events sufficient to trigger wars. The costs of most military accidents throughout history have been borne by friendly forces (Herdman 1993), and most accidental attacks against adversaries are local events with o­nly limited escalatory potential. Third, leaders would need to fail to find ways to defuse tensions following accidents that seriously harm other countries. There are encouraging signs that governments are interested in formal and informal safeguards to manage the risks of AI accidents in areas with the greatest escalatory potential. For example, despite their other differences, in 2024 the United States and China agreed to maintain human control over the decision to use nuclear weapons to reduce the risks of accidents (Renshaw and Hunnicutt 2024). There is little historical evidence that leaders stumble into wars accidentally, in part because they have generally been effective at de-escalating crises when war is not in their interest (Lin-Greenberg 2024). For example, during the Iran-Iraq War, an Iraqi aircraft attacked the USS Stark, killing 37 sailors, after allegedly mistaking the frigate for an Iranian oil tanker (Crist 2012). Despite the significant loss of American life, both sides managed to de-escalate the situation.

 

Will AI affect leaders’ decision-making, making conflict more likely?

Finally, instead of directly triggering war by its actions, AI might influence the strategic decision-making of human leaders in ways that indirectly lead to conflict. Leaders who lean heavily o­n AI for intelligence information and decision support tools could create a pathway for AI to aggravate misperceptions and fuel instability.

The most important condition that would need to hold for this pathway to lead to war is that AI provides strategic assessments or advice that make aggression or miscalculation more likely. There is no reason to believe that advanced AI agents will have inherently stronger preferences for conflicts than humans. But these support tools could still suffer from what the industry describes as “hallucinations”—that is, what happens when a large language model perceives patterns that do not exist, creating outputs that are nonsensical.

Or these support tools could simply make incorrect inferences about a situation or a rival’s behavior that create misperceptions. Leaders might exhibit “automation bias,” placing excessive trust in AI outputs and assuming inherent objectivity or accuracy when they would have been skeptical of a human adviser providing the same information. Humans might not fully consider that the AI’s biases and fallacies might still inadvertently encourage them to pursue more hardline policies or take greater risks (O’Hanlon 2025). This could lead to unwarranted confidence about a range of important assumptions regarding factors that are central to deterrence, such as a rival’s plans and intentions, the rival’s likelihood of retaliating or escalating in response to certain actions, and the probability of success in a war.

Moreover, AI systems might be tailored, deliberately or inadvertently, to reinforce a leader’s existing biases. For example, research o­n China’s DeepSeek has found that it exhibits hawkish and escalatory tendencies that are especially strong when discussing the United States (Reynolds, Jensen, and Atalan 2025). It is not difficult to imagine an AI-enabled echo chamber similar to that in Russia preceding its full-scale invasion of Ukraine in 2022 (Sonne et al. 2022) or the United States before the 2003 invasion of Iraq (Mazarr 2019) where an AI system confirms a leader’s pre-existing belief that a window of opportunity exists and can be exploited effectively, even if such assessments are unsupported in reality.

Compounding these problems with bias, leaders may feel greater time pressures to make decisions if they worry that an adversary will use its AI decision support tools to decide and act faster. The content of the information and the timeline of decision-making are interrelated: the more leaders feel pressured to make decisions quickly, the less likely they are to critically interrogate the information that AI systems provide (Husain 2021).

On the other hand, humans have well-known psychological biases that distort their decision-making, often in ways that make escalation and conflict more likely (Kahneman and Renshon 2009). With proper precautions in design and training data, AI might help ameliorate rather than aggravate bias. Sufficiently advanced AI could produce better insight than human advisers by more accurately and rapidly compiling information to help leaders understand fast-paced and confusing crises (Paterson 2008), better communicating key uncertainties and competing interpretations when there is ambiguous information (Jervis 2006), and identifying ways to achieve objectives short of using force (Plokhy 2021). AI could also inform leaders of unpleasant information that human advisers are reluctant to share, though the leaders who most need this honesty may be the least likely to have their subordinates provide them with a candid AI adviser.

Whether AI decision support tools will have overall stabilizing or destabilizing effects depend o­n a range of factors, including how mature and reliable the technology is at different points over time, variation in what safeguards governments build into their AI advisers, and how much leaders come to trust AI to help them make decisions. But this hypothesis presents a credible and concerning pathway by which AI could increase the risk of war, especially because it is easy to imagine governments that may implement this technology poorly. Humans might make much better decisions when they use AI tools with the right mindset and training, but they might make much worse decisions if the systems are designed and used negligently.

Image courtesy of Süleyman Akbulut / Pixabay.

 

Caveats and implications

Taken together, assessment of these six hypotheses suggests that dystopian visions overstate the risk that AI will ignite a new wave of international conflict. Decisions to start wars are fundamentally about politics, not technology (Lieber 2005). New technologies like advanced AI can exert political effects through the military, economic, and social pathways; but their influence competes with a range of other incentives and factors that in the absence of AI most often encourage restraint yet sometimes lead states toward war. AI could certainly play a role in the “road to war” for future conflicts, but it is unlikely to be a decisive causal factor o­n its own. Nevertheless, its potential to add fuel to the fire remains a reason that governments need to adopt precautionary policies to manage when and how they use AI.

Because AI is still an emerging technology, there are several caveats that come with these conclusions. The first is that forecasting the distant future, while always inherently difficult, is particularly so with AI given uncertainties about its developmental trajectory and the breadth of its potential effects across the world’s economies, militaries, and societies. These pathways could interact in dynamic and unpredictable ways that collectively fuel instability even if the risk associated with each individual pathway is low.

Although this analysis focused o­n the causes of major interstate conflicts, AI might pose more pronounced risks for civil wars by triggering social and economic upheaval in countries with weak state capacity. These internal conflicts can be even more lethal than interstate conflicts, and they have the potential to escalate beyond a country’s own borders (Rustad 2024).

While this analysis addressed ways that AI might undermine stability, it is important to note that AI’s net effect may tend toward strengthening rather than eroding international stability. Researchers could apply this same framework to the more positive side of the ledger: What are the hypotheses about how AI could promote stability and peace, and what conditions would need to align for that more positive vision to materialize?

Governments can manage most AI risks with prudent policy. Specifically, researchers and policy makers should pay special attention to the two hypotheses that pose the greatest challenges: the traditional risk that AI could lead to destabilizing shifts in the balance of power and the novel risk that AI could distort human strategic judgment.

To guard against shifts in the military balance that give decision makers newfound or exaggerated confidence in their ability to win a war, governments should first seek to avoid technological surprise. However, this will entail more than building AI expertise into intelligence organizations and observing the technical capabilities of adversary AI models. Recognizing emerging risks to deterrence involves tracking and anticipating the wider effects of AI o­n rivals’ perceptions and the military capabilities advanced AI might unlock. Governments should also consider what countermeasures might offset an adversary’s AI-enabled capabilities, including concepts such as an AI “fog-of-war machine” that plans deceptive tactics and orchestrates robotic decoys to offset a competitor’s advances in AI sensor fusion (Geist 2023). Militaries will need to ensure they are fast followers in AI adoption if not the leaders, though this could create tradeoffs with safety and readiness if not carefully managed.

Decision makers also need policies to hedge against the risks of how AI might aggravate misperceptions and fuel escalation. At the individual level, it will be critical for leaders to approach AI-generated information with the same innate caution and skepticism they should apply to assessments they receive from human advisers. At the institutional level, governments can design AI systems to manage these risks. For example, every strategic output that AI decision support tools produce could be required to include not o­nly supporting factual evidence but also an assessment of uncertainty and potential adversary reactions, there could be human decision-making Red Teams tasked with critically evaluating and critiquing AI outputs, and part of the AI’s tasking could be to develop courses of action that buy additional time and flexibility to avoid rushing the decision-making process.

Enhancing communication measures, such as hotline arrangements between governments whose interests might collide in future crises—most notably the United States and China—would also be useful to provide recourse if the reliability of 21st-century information sources becomes more uncertain. These kinds of measures may entail sacrificing some of the decision-making speed and simplicity that today’s leaders might desire from tomorrow’s AI, but this tradeoff is worth accepting to manage risks that AI could inadvertently destabilize decision-making and make conflict more likely.

 

Funding

This research was independently initiated and conducted within the RAND Technology and Security Policy Center using income from an endowed contribution from the Ford Foundation. RAND donors and grantors have no influence over research findings or recommendations.


Disclosure Statement

No potential conflict of interest was reported by the authors.


Acknowledgments

The authors thank Salman Ahmed, Jasen Castillo, Matan Chorev, Casey Dugan, David Frelinger, Alison Hottes, Andrew Hoehn, Krista Langeland, and Joel Predd for their valuable comments o­n this article.

 

References

Aschenbrenner, Leopold. 2024. “Situational Awareness: The Decade Ahead.” Self-published essay. San Francisco, CA. https://situational-awareness.ai/

Blainey, Geoffrey. 1988. The Causes of War. New York: Free Press.

Burdette, Zachary, and Hiwot Demelash. 2025, The Risks of Preventive Attack in the Race for Advanced Artificial Intelligence. RAND Working Paper. https://osf.io/preprints/socarxiv/dx3aw_v1

Crist, David. 2012. The Twilight War: The Secret History of America’s Thirty-Year Conflict with Iran. New York: Penguin.

Cronin, Patrick M., and Audrey Kurth Cronin. 2024. “Will Artificial Intelligence Lead to War?” The National Interest. January 30. https://nationalinterest.org/feature/will-artificial-intelligence-lead-war-208958

Danzig, Richard. 2018. Technology Roulette: Managing Loss of Control as Many Militaries Pursue Technological Superiority. Washington, D.C.: Center for a New American Security.

Ding, Jeffrey 2024. Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition. Princeton, NJ: Princeton University Press.

Edelstein, David M. 2017. Over the Horizon: Time, Uncertainty, and the Rise of Great Powers. Ithaca, NY: Cornell University Press.

Fearon, James D. 1995. “Rationalist Explanations for War.” International Organization 49 (3): 379-414. https://www.jstor.org/stable/2706903?seq=1

Fravel, M. Taylor. 2010. “The Limits of Diversion: Rethinking Internal and External Conflict.” Security Studies 19 (2): 307–41. doi:10.1080/09636411003795731

Geist, Edward. 2023. Deterrence Under Uncertainty: Artificial Intelligence and Nuclear Warfare, Oxford, UK: Oxford University Press.

Hendrycks, Dan, Eric Schmidt, and Alexandr Wang. 2025. “Superintelligence Strategy: Expert Version.” SuperIntelligence – Robotics – Safety & Alignment 2(1). https://doi.org/10.48550/arXiv.2503.05628

Herdman, Roger C. 1993. Who Goes There: Friend or Foe? Washington, D.C.: Office of Technology Assessment, Congress of the United States.

Hunter, Lance Y., Craig Albert, Josh Rutland, and Chris Hennigan. 2022. “The Fourth Industrial Revolution, Artificial Intelligence, and Domestic Conflict.” Global Society 37 (3): 375–96. doi:10.1080/13600826.2022.2147812

Husain, Amir. 2021. “AI is Shaping the Future of War,” PRISM, 9:3: 51-61. https://ndupress.ndu.edu/Portals/68/Documents/prism/prism_9-3/prism_9-3_50-61_Husain.pdf?ver=7oFXHXGfGbbR9YDLrnX3Fw%3d%3d

Jervis, Robert. 2006. “Reports, Politics, and Intelligence Failures: The Case of Iraq.” Journal of Strategic Studies 29 (1): 3–52. doi:10.1080/01402390600566282

Kahl, Colin H. 2025. “America Is Winning the Race for Global AI Primacy—for Now,” Foreign Affairs. January 17.

Kahneman, Daniel, and Jonathan Renshon. 2009. “Why Hawks Win,” Foreign Policy. October 13.

Kissinger, Henry A., Eric Schmidt, and Craig Mundie. 2024. “War and Peace in the Age of Artificial Intelligence.” Foreign Affairs, November 18.

Krepinevich, Andrew. 2023. Origins of Victory. New Haven, CT: Yale University Press.

Lieber, Keir. 2005. War and the Engineers: The Primacy of Politics Over Technology. Ithaca, NY: Cornell University Press.

Lin-Greenberg, Erik. 2024. “Wars Are Not Accidents: Managing Risk in the Face of Escalation,” Foreign Affairs. November/December.

Mazarr, Michael J.. 2019. Leap of Faith: Hubris, Negligence, and America’s Greatest Foreign Policy Tragedy. New York: PublicAffairs.

Mitre, Jim, and Joel B. Predd. 2025. Artificial General Intelligence’s Five Hard National Security Problems. Santa Monica, CA: RAND.

Mueller, Karl P., Jasen J. Castillo, Forrest E. Morgan, Negeen Pegahi, and Brian Rosen. 2006. Striking First: Preemptive and Preventive Attack in U.S. National Security Policy. Santa Monica, CA: RAND.

Narayanan, Arvind, and Sayash Kapoor. 2025. “AI as Normal Technology.” Knight First Amendment Institute at Columbia University.

O’Hanlon, Michael E. 2025. How Unchecked AI Could Trigger a Nuclear War. https://www.brookings.edu/articles/how-unchecked-ai-could-trigger-a-nuclear-war/

Paterson, Pat. 2008. “The Truth About Tonkin.” Naval History Magazine. February.

Plokhy, Serhii. 2021. Nuclear Folly: A History of the Cuban Missile Crisis. New York: W.W. Norton

Plumb, Radha Iyengar, and Michael C. Horowitz. 2025. “What America Gets Wrong About the AI Race.” Foreign Affairs. April 18.

Rehman, Iskander, Karl P. Mueller, and Michael J. Mazarr. 2025. “Seeking Stability in the Competition for AI Advantage.” RAND.org. https://www.rand.org/pubs/commentary/2025/03/seeking-stability-in-the-competition-for-ai-advantage.html

Renshaw, Jarrett, and Trevor Hunnicutt. 2024. “Biden, Xi Agree That Humans, Not AI, Should Control Nuclear Arms.” Reuters. November 16. https://www.reuters.com/world/biden-xi-agreed-that-humans-not-ai-should-control-nuclear-weapons-white-house-2024-11-16/

Renshon, Jonathan. 2017. Fighting for Status: Hierarchy and Conflict in World Politics. Princeton, NJ: Princeton University Press.

Reynolds, Ian, Benjamin Jensen, and Yasir Atalan. 2025. “Hawkish AI? Uncovering DeepSeek’s Foreign Policy Biases,” Center for Strategic and International Studies. April 16.

Rustad, Siri Aas. 2024. Conflict Trends: A Global Overview, 1946–2023. Oslo, Norway: Peace Research Institute Oslo. PRIO, 2024.

Sagan, Scott D. 1993. The Limits of Safety: Organizations, Accidents, and Nuclear Weapons. Princeton, NJ: Princeton University Press.

Sonne, Paul, Ellen Nakashima, Shane Harris, and John Hudson. 2022. “Hubris and isolation led Vladimir Putin to misjudge Ukraine.” The Washington Post. April 12.

Van Evera, Stephen. 1994. “Hypotheses o­n Nationalism and War.” International Security (18) 4: 5-39. https://doi.org/10.2307/2539176

Van Evera, Stephen. 2001. Causes of War. Ithaca, NY: Cornell University Press.

Watling, Jack, and Nick Reynolds. 2025. “Tactical Developments During the Third Year of the Russo–Ukrainian War.” Royal United Services Institute. https://static.rusi.org/tactical-developments-third-year-russo-ukrainian-war-february-2205.pdf

-------------------------------------

 

Закари Бёрдетт, Карл Мюллер, Джим Митр, Лили Хоак

Шесть (агрессивныхспособов, которыми ИИ может спровоцировать следующую большую войну, и почему этого, вероятно, не произойдёт

15 июля 2025

https://thebulletin.org/premium/2025-07/six-ways-ai-could-cause-the-next-big-war-and-why-it-probably-wont /

 

(СИИ купирует все «шесть агрессивных путей ИИ», которые повышают риски превентивных атак и детально рассматриваются в данной статье. – Включить в Главу 10 для сравнения в будущем: https://peacefromharmony.org/?cat=en_c&key=1281)

 

Исторически большинство технологических прорывов не оказывают существенного влияния на риск возникновения конфликтов. Были и заметные исключения. Изобретение книгопечатания способствовало социальным и религиозным потрясениям в Европе, которые впоследствии привели к началу Тридцатилетней войны в 1618 году. Напротив, ядерное оружие значительно снизило риск возникновения войн между великими державами после Второй мировой войны.(????? А ваши 89 секунд до полуночи разве не опровергают это??)

Поскольку развитый искусственный интеллект (ИИ) способен создавать далеко идущие социальные, экономические и военные потрясения, он может стать ещё одной исключительной технологией, имеющей важные последствия для международной безопасности (Киссинджер, Шмидт и Манди, 2024). Аналитикам необходимо серьёзно рассмотреть возможность того, что ИИ может вызвать изменения в сфере международной безопасности, способные привести к возникновению войн, которые в противном случае не произошли бы (Митр и Предд, 2025).

Опираясь на многолетние исследования факторов, повышающих или снижающих вероятность возникновения войн на протяжении истории, мы рассматриваем шесть гипотез о том, как ИИ может повысить вероятность возникновения крупных межгосударственных войн (Ван Эвера, 1994). Гипотезы отражают различные способы, которыми влияние ИИ на вооружённые силы, экономику и общество может подорвать международную стабильность, уделяя особое внимание тем из них, которые представляются наиболее правдоподобными и вызывающими беспокойство. Мы оцениваем эти гипотезы, выявляя ключевые условия, необходимые для их обоснованности, а затем оценивая вероятность того, что эти условия совпадут таким образом, что конфликт станет более вероятным.

Исследуя последствия развития передового искусственного интеллекта, который гораздо сложнее существующего сегодня, анализ предполагает, что ИИ в конечном итоге сможет надёжно соответствовать человеческим возможностям в широком спектре когнитивных задач, что некоторые специалисты по технологиям называют «общим искусственным интеллектом» (Kahl, 2025).

В целом, риск того, что ИИ напрямую спровоцирует крупную войну, представляется низким, особенно если правительства предпримут шаги по контролю за использованием технологий. Однако ИИ может дестабилизировать баланс сил или негативно повлиять на стратегические суждения людей, способствуя формированию ошибочных представлений. К счастью, разумная государственная политика может помочь ограничить эти риски. (ГДЕ видна эта политика при гонке ЯО всеми странами? Разве она разумна, обещая и веля в ГВУ??)

 

                              Нарушит ли ИИ баланс сил и создаст ли новые возможности для агрессии?

Достижения в области искусственного интеллекта могут привести к войне, если военные возможности, основанные на ИИ, изменят баланс сил, убедив лиц, принимающих решения, в том, что ранее недостижимые цели теперь достижимы (CroninandCronin, 2024). Существует несколько ключевых условий, влияющих на вероятность такого сценария: степень, в которой страны ощущают достаточно большое военное преимущество, чтобы изменить свои политические расчёты относительно применения силы; считают ли лидеры, что у них есть кратковременные окна возможностей для военных действий; могут ли их новые преимущества в балансе сил позволить им достичь своих целей посредством принудительной дипломатии, не прибегая к войне; и есть ли у них цели, требующие применения силы. Однако вероятность совпадения всех этих условий в ближайшей перспективе представляется относительно низкой.

Во-первых, ИИ должен будет предоставить потенциальному агрессору кажущееся значительное военное преимущество, которое изменит расчёты его лидеров относительно шансов на победу. Это включает в себя вероятность избежать катастрофического ответного удара, если они рассматривают возможность нападения на крупную ядерную державу. Источником этого преимущества может стать прорыв, ведущий к созданию «чудо-оружия» (например, выведения из строя киберсредств первого удара или роя гиперинтеллектуальных дронов) или, что более вероятно, институциональное внедрение ИИ для решения множества различных военных задач, которые в совокупности обеспечивают трансформационные преимущества. Чтобы ИИ принес непропорционально большую пользу одной из сторон в балансе сил, ей, вероятно, потребуется преимущество первопроходца в инновациях и внедрении ИИ, в противном случае соперник мог бы использовать усовершенствованные ИИ средства защиты, чтобы компенсировать свои новые возможности, основанные на ИИ (PlumbandHorowitz, 2025). В качестве альтернативы, ИИ может изменить баланс сил, преобразуя экономическую производительность государства. Если одно государство может значительно увеличить свои расходы на оборону благодаря экономическому буму, обусловленному ИИ, оно может добиться решающего военного преимущества за счет масштаба, а не новых возможностей (Aschenbrenner, 2024). Масштабы экономических и военных преимуществ, которые может обеспечить ИИ, остаются открытым вопросом. Риски, связанные со значительными преимуществами первопроходца, наиболее высоки в сценариях, где темпы инноваций в области ИИ выше, а не ниже, прирост производительности представляет собой трансформационный скачок, а не постепенное развитие военных возможностей, а сложность или стоимость технологии означает, что другие страны медленно разрабатывают передовой ИИ самостоятельно — или, по крайней мере, требуют много времени для успешной интеграции этой технологии в свои вооруженные силы.

Во-вторых, помимо размера военного преимущества, риски конфликта будут максимальными, если преимущество появится в темпе. Это может заставить лидеров поверить в то, что у них есть закрывающееся «окно возможностей» для нанесения удара, прежде чем их преимущество сойдёт на нет, а противник сократит разрыв в возможностях (Van Evera, 2001). Лидеры, скорее всего, восприняли бы эти окна как мимолётные, если бы ожидали быстрого распространения ИИ. Однако очень высокая скорость распространения может сделать маловероятным, что у государства-лидера будет достаточно времени для достижения значительного преимущества первопроходца.

В-третьих, чтобы привести к войне, преимущество не должно быть настолько большим, чтобы более слабая страна искала политического решения и шла на уступки, чтобы избежать дорогостоящего военного поражения от более сильного противника (Fearon, 1995). Усиление военной мощи может обеспечить рычаг принуждения, позволяющий государству достигать своих целей посредством явных или неявных угроз, без необходимости применения силы. Если обе стороны разделяют мнение, что ИИ решительно изменил баланс сил, эта ясность может снизить вероятность войны, хотя и не сделает военное преимущество менее значимым. Наконец, страна, обладающая преимуществом, должна иметь цели, которые оправдывают начало войны – государства не нападают друг на друга просто потому, что рассчитывают на победу (Blainey, 1988). Такие страны, как Китай или Россия, могут подорвать глобальную стабильность, если увеличат свою относительную мощь. Это связано с тем, что обе страны выдвинули территориальные претензии, требующие применения силы (например, контроль над Тайванем или Украиной). Но стабильность может усилиться, если государства, поддерживающие территориальный статус-кво, такие как США и их европейские и азиатские союзники, получат от ИИ больше выгоды, чем их соперники. Это связано с тем, что военные преимущества, которые они получат от ИИ, могут усилить сдерживание, убедив ревизионистские державы, стремящиеся к захвату новых территорий, такие как Китай и Россия, в том, что их перспективы насильственного завоевания ухудшились, а не улучшились. Хотя такие страны, как Россия и Северная Корея, отстают в этой технологии, Китай добился значительного прогресса в области ИИ, и его позиции в балансе сил уже значительно прочнее, чем у других ревизионистских государств. Это делает перспективу того, что Китай добьётся преимущества первопроходца в интеграции ИИ в свой военный потенциал раньше Соединённых Штатов, наиболее вероятным и тревожным вариантом этой гипотезы.

 

Приведёт ли страх перед развитием ИИ противника к превентивным войнам?

Следствием первой гипотезы — ИИ предоставит государствам новые военные преимущества, облегчающие агрессию — является то, что страны могут прибегнуть к войне, чтобы помешать своим соперникам приобрести передовые возможности ИИ(Hendrycks, Schmidt, and Wang, 2025). Если лидеры полагают, что ИИ приведёт к взрывному экономическому росту и решающим военным преимуществам, они могут опасаться, что соперник, первым приобретший передовой ИИ, может позволить этому государству принуждать их к чему-либо или атаковать их в будущем. Столкнувшись с дилеммой «сражаться сейчас или позже»,превентивные атаки с целью замедлить развитие ИИ соперника могут показаться меньшим из двух зол по сравнению с защитой от будущих атак соперника с использованием ИИ (Edelstein, 2017).

Несколько условий могут усилить эти риски, но их сочетание относительно маловероятно (Burdette and Demelash, 2025).

Во-первых, лидерам следует ожидать, что передовой ИИ приведёт к существенному изменению баланса сил. Это вполне вероятно, поскольку лидеры могут поверить в преобразующее видение потенциала ИИ. Однако лидеры по-прежнему будут сталкиваться со значительной неопределенностью относительно того, каким именно будет будущее ИИ и какой уровень развития ИИ спровоцирует серьёзный кризис.

Во-вторых, лидерам придётся ожидать, что ИИ даст значительные преимущества первопроходцам, поэтому им будет сложно догнать их. Однако, как показывает история, быть быстрым последователем и более эффективно внедрять новые технологии часто важнее, чем быть первым в сфере инноваций (СИИ!!)(Ding, 2024). Например, в то время как Великобритания первой разработала танки, Германия добилась ключевых доктринальных прорывов в эффективном использовании танков.

В-третьих, лидерам придётся ожидать, что превентивные военные атаки значительно замедлят разработку ИИ соперника (Mueller et al., 2006). В контексте отношений США и Китая это повлечёт за собой нанесение ударов по большому количеству важных гражданских и научных объектов, таких как лаборатории ИИ и центры обработки данных, на территории ядерной державы. Это было бы сложно с военной точки зрения, и лидеры, вероятно, столкнулись бы с большой неопределенностью относительно того, насколько долго это задержит технологическое развитие их соперника (Rehman, Mueller, and Mazarr, 2025).

Наконец, лидерам необходимо было бы убедиться, что затраты и риски атак оправдают выгоды. Как и в случае с агрессией с использованием ИИ в рамках первой гипотезы, ядерные, обычные и кибервозможности ответного удара могут сдерживать удары, особенно в сочетании с неопределенностью относительно того, насколько масштабы атак могут быть достигнуты в реальности.

Вариант этой гипотезы заключается в том, что одна страна может достичь прорыва в области передового ИИ, а затем применить силу для сохранения своей монополии. Если первые признаки указывают на то, что технология оправдывает свой революционный потенциал, лидеры могут захотеть сохранить эти преимущества для себя и лишить их соперника. Этот более сильный и уверенный мотив в сочетании с потенциальными военными преимуществами, основанными на ИИ, может побудить лидеров с большей вероятностью использовать превентивные атаки для сохранения монополии, чем для срыва прогресса соперника в первоначальной гонке за передовым ИИ. Однако даже ограниченные превентивные атаки против эффективного соперника для защиты исключительного контроля над передовым ИИ могут повлечь за собой серьёзные риски эскалации или другие политические издержки. Если ИИ окажется настолько преобразующим, что государствам потребуется его влияние для обеспечения будущего экономического процветания и национальной безопасности, лидеры государств, подвергшихся воздействию, могут рассматривать отказ в доступе к этой технологии как серьёзную, а то и экзистенциальную угрозу.

 

Снизит ли ИИ ожидаемые расходы на ведение войны?

Эта гипотеза основана на убеждении, что ИИ может существенно смягчить или устранить многие традиционные факторы, делающие войну дорогостоящим и сложным делом. К ним относятся человеческие жертвы, затраты и политическое сопротивление. Страны с развитыми военными силами, оснащенными ИИ,могли бы более охотно применять силу для достижения политических целей, если бы эти барьеры не сдерживали их.

Для того, чтобы эта предпосылка была верна, необходимо соблюдение нескольких условий.

Во-первых, дроны и роботы с ИИ должны будут заменить солдат-людей в опасных ситуациях в такой степени, что ожидаемые потери от ведения войны резко снизятся. Как показывает опыт Украины, в обозримом будущем дроны и роботы, скорее всего, будут дополнять, а не заменять людей в боевых действиях (Watling and Reynolds, 2025). Хотя человеческие потери могут сократиться, если военные сделают беспилотники более важным элементом своих силовых структур, это не означает, что человеческий персонал станет ненужным, а потери снизятся до такого низкого уровня, что войны станут для лидеров делом несерьёзным.

Во-вторых, системы на базе ИИ должны быть изначально дешевле, чем системы, полагающиеся на людей. Чтобы ИИ обладал физическими возможностями, его необходимо сочетать с робототехникой. В некоторых случаях дроны и роботы могут обеспечить ценные преимущества по сравнению с пилотируемыми системами, но в абсолютном выражении они недешевы, особенно при закупке в таких масштабах, которые представляют себе многие специалисты по оборонному планированию. Если бы военные возможности на базе ИИ привели к сокращению продолжительности войн вместо дорогостоящих затяжных конфликтов, это могло бы сделать военные действия менее затратными как с точки зрения человеческих ресурсов, так и материальных затрат. Однако возможность производить больше и дешевле роботизированных систем с использованием автоматизированного производства на базе ИИ могла бы повысить способность стран продолжать развертывание новых сил для ведения длительных войн. А совокупные человеческие и экономические издержки могут расти по мере затягивания войн. Особым, но особенно ярким случаем этой гипотезы является подрыв ядерного сдерживания продвинутым ИИ(Aschenbrenner, 2024). Хотя ядерное сдерживание не является панацеей и не всегда предотвращает ограниченную агрессию, оно оказывает стабилизирующее воздействие на международную систему, которое ИИ вряд ли сможет устранить. ИИ может расширить возможности наступательных действий против ядерных арсеналов противника, но он также может помочь обороняющимся сторонам повысить живучесть своих ядерных арсеналов (Geist, 2023). Аналогичным образом, хотя ИИ может повысить эффективность будущих систем противовоздушной и противоракетной обороны, он вряд ли обеспечит иммунитет к ядерному возмездию со стороны крупных держав. Для этого потребуется остановить весь входящий ядерный удар, а не только большую его часть, включая боеголовки, доставленные новыми средствами, разработанными или приобретенными специально из-за их способности преодолевать защиту, усиленную ИИ.

Наконец, хотя могут существовать опасения, что ИИ может позволить кибератакам нейтрализовать ядерный арсенал противника, парализовав его систему управления, это представляется крайне маловероятным, учитывая то внимание, которое крупные ядерные державы уделяют безопасности этих систем.

 

Вызовет ли ИИ общественный хаос, который приведёт к войне?

Другим потенциальным путём к конфликту могут стать внутренние потрясения. Существуют опасения, что интеграция передового ИИ в экономику страны может дестабилизировать общество, вызвав массовую безработицу. Теоретически лидеры могут атаковать иностранных врагов, чтобы отвлечь внимание своего населения и побудить его «сплотиться вокруг флага» и поддержать правительство. Хотя ИИ, вызывающий серьёзные экономические потрясения, представляется вполне вероятным (Hunter et al. 2023), такой отвлекающий путь к конфликту представляется крайне маловероятным. Хотя лидеры могут стремиться перенаправить общественный гнев на внутренних или внешних врагов, а не на собственные правительства, мало исторических свидетельств того, что они склонны реагировать на внутренние беспорядки провоцированием войн за рубежом (Fravel 2010).

Развязывание полномасштабной войны может усугубить, а не решить внутриполитические проблемы лидера, особенно если это надуманный кризис, а не реальная угроза. Вместо этого внутренние потрясения, как правило, подталкивают лидеров к самоанализу, к радикальным внутренним реформам или политическим репрессиям. Например, во время Великой депрессии президент Рузвельт сосредоточился на далеко идущих экономических и социальных мерах, и внутри страны существовало сильное сопротивление втягиванию Соединенных Штатов даже в конфликт с такими высокими ставками, как Вторая мировая война.

Вариант этой гипотезы заключается в том, что ИИ может подталкивать общества к агрессивности и империализму. Вместо того, чтобы правительство отвлекало население, население могло призвать правительство к более агрессивным действиям. Например, по мере того, как Германия становилась все более могущественной в годы перед Первой мировой войной, в обществе раздавались призывы занять свое «место под солнцем» и расширить свое присутствие на международной арене (Renshon, 2017). Если ИИ приведет к взрывному экономическому росту, может возникнуть общественное требование использовать эти преимущества для получения геополитического преимущества или территориальной экспансии. Однако военная агрессия – это экономическая позиция (??) — не единственный способ утверждения более высокого статуса, и создадут ли эти экономические преимущества новые возможности для агрессии, зависит от условий, изложенных в первой гипотезе: ИИ нарушит баланс сил и создаст новые возможности для агрессии. Кроме того, экономический рост, поддерживаемый ИИ, может быть скорее стабилизирующим, чем дестабилизирующим. Если общество меньше обеспокоено дефицитом и повысило экономическую самодостаточность, оно может стать менее заинтересованным в международной конкуренции и конфликтах.

В качестве альтернативы, ИИ может сделать общество более агрессивным, усиливая патологии в публичном дискурсе, а не посредством своих экономических эффектов. Это включает в себя усиление онлайн-эхо-камер, разжигание страха и тревоги о будущем, распространение дезинформации и поощрение поиска козлов отпущения. Всё это реальные проблемы, хотя неясно, в какой степени более продвинутый ИИ усугубит эти проблемы по сравнению с тем, чего лидеры-люди уже смогли добиться самостоятельно (Narayanan and Kapoor, 2025). Потенциальное влияние ИИ на общество в конечном итоге зависит от многих предположений о самой технологии, способах её внедрения и о том, как правительства управляют этим переходом. То, как ИИ изменит общественные предпочтения, остаётся крайне неопределённым, как и этот вариант гипотезы. (СИИ делает определенными на 100% социальные изменения и предпочтения!!)

 

Будет ли ИИ предпринимать действия, которые сами по себе развяжут войну?

Когда ИИ приводит к войнам в таких фильмах, как «Терминатор», это часто происходит после того, как лидеры делегируют управление своими вооружёнными силами машине, которая совершает преднамеренные, злонамеренные действия. (Для СИИ эта возможность исключена структурно!!!) Менее антиутопическая, но более правдоподобная гипотеза заключается в том, что ИИ может спровоцировать войну случайными или несанкционированными действиями. Агент ИИ может иметь достаточный контроль над такими возможностями, как автономные военные системы, так что потеря управления во время кризисов может привести к эскалации (Danzig 2018). Например, автономные дроны могут залететь в воздушное пространство противника, а автономный подводный аппарат — атаковать подводную лодку противника. Подобные события потери контроля могут произойти либо из-за манипулирования системой ИИ противником, либо из-за того, что присущая технологическая сложность затрудняет прогнозирование поведения ИИ в новых или изменяющихся условиях.

 

Однако условия, лежащие в основе этой гипотезы, маловероятны. Во-первых, ИИ должен был бы увеличить частоту аварий по сравнению с устаревшими технологиями без ИИ. Это правдоподобно, поскольку ИИ усложняет системы, а более высокая сложность увеличивает риск аварий. С другой стороны, достаточно развитый ИИ мог бы повысить надежность и безопасность по сравнению с человеческим управлением или современным уровнем автоматизации (Саган, 1993). Во-вторых, типы возникающих аварий должны быть достаточными, чтобы спровоцировать войну. Издержки большинства военных аварий на протяжении всей истории несли дружественные силы (Хердман, 1993), и большинство случайных нападений на противников являются локальными событиями с ограниченным потенциалом эскалации. В-третьих, лидерам необходимо было бы не найти способов разрядить напряженность после аварий, наносящих серьезный ущерб другим странам. Имеются обнадеживающие признаки того, что правительства заинтересованы в формальных и неформальных гарантиях для управления рисками аварий с использованием ИИ в областях с наибольшим потенциалом эскалации. Например, несмотря на другие разногласия, в 2024 году США и Китай договорились сохранить контроль человека над решением о применении ядерного оружия для снижения риска аварий (Renshaw and Hunnicutt, 2024). Исторических свидетельств того, что лидеры случайно ввязываются в войны, мало, отчасти потому, что им обычно удавалось эффективно деэскалировать кризисы, когда война не в их интересах (Lin-Greenberg, 2024). Например, во время ирано-иракской войны иракский самолёт атаковал USS Stark, убив 37 моряков, предположительно приняв фрегат за иранский нефтяной танкер (Crist, 2012). Несмотря на значительные потери среди американцев, обеим сторонам удалось деэскалировать ситуацию.

 

                      Повлияет ли ИИ на принятие решений лидерами, повышая вероятность конфликта?
Наконец, вместо того, чтобы напрямую провоцировать войну своими действиями, ИИ может влиять на стратегические решения, принимаемые лидерами, косвенно приводя к конфликту. Лидеры, активно использующие ИИ для получения разведывательной информации и инструментов поддержки принятия решений, могут создать для ИИ условия, которые усугубят ошибочное восприятие и подстегнут нестабильность.

Важнейшим условием, необходимым для того, чтобы этот путь привел к войне, является предоставление ИИ стратегических оценок или рекомендаций, повышающих вероятность агрессии или просчета. Нет оснований полагать, что продвинутые агенты ИИ будут изначально иметь более сильные предпочтения в конфликтах, чем люди. Однако эти инструменты поддержки все равно могут страдать от того, что в отрасли называют «галлюцинациями», то есть от того, что происходит, когда большая языковая модель воспринимает несуществующие шаблоны, создавая бессмысленные результаты.

Или эти инструменты поддержки могут просто делать неверные выводы о ситуации или действиях противника. Поведение, создающее ложные представления. Лидеры могут проявлять «предвзятость автоматизации», чрезмерно доверяя результатам ИИ и предполагая их объективность или точность, в то время как они скептически отнеслись бы к человеку, предоставляющему ту же информацию. Люди могут не в полной мере осознавать, что предвзятость и заблуждения ИИ могут непреднамеренно побуждать их проводить более жёсткую политику или идти на больший риск (O’Hanlon 2025). Это может привести к необоснованной уверенности в ряде важных предположений, касающихся факторов, имеющих решающее значение для сдерживания, таких как планы и намерения противника, вероятность ответных действий или эскалации конфликта в ответ на определённые действия и вероятность успеха в войне.

Более того, системы ИИ могут быть настроены, намеренно или непреднамеренно, на усиление существующих предубеждений лидера. Например, исследование китайской системы DeepSeek показало, что она демонстрирует агрессивные и эскалационные тенденции, которые особенно ярко проявляются при обсуждении Соединённых Штатов (Reynolds, Jensen, and Atalan, 2025). Нетрудно представить себе эхо-камеру с ИИ, подобную той, что существовала в России перед её полномасштабным вторжением на Украину в 2022 году(Sonne et al., 2022) или в США перед вторжением в Ирак в 2003 году (Mazarr, 2019), где система ИИ подтверждает изначальное убеждение лидера в существовании окна возможностей, которое можно эффективно использовать, даже если такие оценки не подкреплены реальностью.

Эти проблемы усугубляются предвзятостью, поскольку лидеры могут испытывать большее давление времени при принятии решений, если опасаются, что противник воспользуется своими инструментами поддержки принятия решений на основе ИИ для более быстрого принятия решений и действий. Содержание информации и сроки принятия решений взаимосвязаны: чем больше руководители чувствуют давление, вынуждающее их принимать решения быстро, тем меньше вероятность того, что они будут критически оценивать информацию, предоставляемую системами ИИ (Husain, 2021).

С другой стороны, у людей есть хорошо известные психологические предубеждения, которые искажают процесс принятия решений, часто таким образом, что повышают вероятность эскалации и конфликта (Kahneman and Renshon, 2009). При соблюдении надлежащих мер предосторожности при проектировании и обучении данных ИИ может способствовать смягчению, а не усугублению предубеждений. Достаточно развитый ИИ может обеспечивать более глубокое понимание ситуации, чем консультанты-люди, за счет более точного и быстрого сбора информации, помогающей руководителям понимать быстро меняющиеся и запутанные кризисы (Paterson, 2008), лучшей передачи ключевых неопределенностей и противоречивых интерпретаций в условиях неоднозначной информации (Jervis, 2006) и поиска способов достижения целей без применения силы (ТАКОВ СИИ!)(Plokhy, 2021). ИИ также может информировать лидеров о неприятной информации, которой советники-люди неохотно делятся, хотя руководители, которые больше всего нуждаются в такой честности, могут быть менее склонны рассчитывать на то, что их подчиненные предоставят им откровенного ИИ-консультанта.

Окажут ли инструменты поддержки принятия решений на основе ИИ общее стабилизирующее или дестабилизирующее воздействие, зависит от ряда факторов, включая степень зрелости и надежности технологии на разных этапах развития, различия в защитных мерах, которые правительства закладывают в своих советников-ИИ, и насколько лидеры доверяют ИИ в принятии решений. Однако эта гипотеза представляет собой правдоподобный и тревожный путь, по которому ИИ может увеличить риск войны, особенно учитывая, что легко представить себе правительства, которые могут неэффективно внедрять эту технологию. Люди могут принимать гораздо более правильные решения, используя инструменты ИИ с правильным настроем и подготовкой, но они могут принимать гораздо худшие решения, если системы разработаны и используются небрежно.

Изображение предоставлено Сулейманом Акбулутом / Pixabay.

 

                                                     Предостережения и выводы

В совокупности оценка этих шести гипотез предполагает, что антиутопические видения преувеличивают риск того, что ИИ разожжет новую волну международных конфликтов. Решения о начале войн по сути своей являются политическими, а не технологическими (Lieber, 2005). Новые технологии, такие как развитый ИИ, могут оказывать политическое воздействие военным, экономическим и социальным путем; но их влияние конкурирует с рядом других стимулов и факторов, которые в отсутствие ИИ чаще всего способствуют сдержанности, но иногда подталкивают государства к войне. ИИ, безусловно, может сыграть свою роль в «пути к войне» в будущих конфликтах, но сам по себе он вряд ли станет решающим причинным фактором. Тем не менее, его потенциал подливать масла в огонь остается причиной того, что правительствам необходимо принимать меры предосторожности для управления тем, когда и как они используют ИИ.

Поскольку ИИ все еще является новой технологией, эти выводы сопряжены с рядом предостережений. Во-первых, прогнозирование отдалённого будущего, хотя оно всегда и само по себе сложно, особенно актуально в случае ИИ, учитывая неопределённость траектории его развития и масштаб его потенциального влияния на мировую экономику, вооружённые силы и общество. Эти пути могут взаимодействовать динамичным и непредсказуемым образом, что в совокупности подпитывает нестабильность, даже если риск, связанный с каждым из них в отдельности, невелик.

Хотя в анализе, (???) сосредоточенном на причинах крупных межгосударственных конфликтов, ИИ может представлять более выраженный риск гражданских войн, провоцируя социальные и экономические потрясения в странах со слабым государственным потенциалом. Эти внутренние конфликты могут быть даже более смертоносными, чем межгосударственные, и способны выйти за пределы границ страны (Rustad, 2024).

 

Хотя в этом анализе рассматривались способы, которыми ИИ может подорвать стабильность, важно отметить, что конечный эффект ИИ может, скорее, укреплять, чем разрушать международную стабильность. Исследователи могли бы применить эту же концепцию к более позитивной стороне вопроса: каковы гипотезы о том, как ИИ может способствовать стабильности и миру (ЭТО СИИ!!!), и какие условия должны совпасть для реализации этого более позитивного видения?

 

Государства могут управлять большинством рисков, связанных с ИИ, проводя разумную политику. (ГДЕ она в их вечной гонке вооружений???)В частности, исследователям и политикам следует обратить особое внимание на две гипотезы, которые представляют наибольшую сложность: традиционный риск того, что ИИ может привести к дестабилизирующим изменениям в балансе сил, и новый риск того, что ИИ может исказить стратегические решения человека. Чтобы предотвратить изменения военного баланса, которые вселяют в лиц, принимающих решения, новую или преувеличенную уверенность в своей способности выиграть войну, правительствам следует в первую очередь избегать технологических неожиданностей. Однако это потребует большего, чем просто внедрение опыта в области ИИ в разведывательные организации и изучение технических возможностей моделей ИИ противника. Распознавание возникающих рисков для сдерживания предполагает отслеживание и прогнозирование более широкого влияния ИИ на восприятие противника и военных возможностей, которые может открыть продвинутый ИИ. Правительствам также следует рассмотреть, какие контрмеры могут компенсировать возможности противника, основанные на ИИ, включая такие концепции, как «машина тумана войны» ИИ, которая планирует обманные тактики и организует роботизированные ловушки для противодействия достижениям конкурента в области объединения данных датчиков ИИ (Geist, 2023). Военным необходимо будет обеспечить, чтобы они быстро следовали за конкурентами, если не лидировали, в вопросах внедрения ИИ, хотя это может привести к компромиссам в плане безопасности и готовности, если не будет тщательно проработано. Лицам, принимающим решения, также необходимы меры, позволяющие защититься от рисков, связанных с тем, что ИИ может усугубить ошибочные представления и спровоцировать эскалацию. На индивидуальном уровне лидерам будет крайне важно относиться к информации, генерируемой ИИ, с той же внутренней осторожностью и скептицизмом, которые они должны проявлять к оценкам, получаемым от консультантов-людей. На институциональном уровне правительства могут разрабатывать системы ИИ для управления этими рисками. Например, каждый стратегический результат, создаваемый инструментами поддержки принятия решений на основе ИИ, может включать в себя не только подтверждающие фактические данные, но и оценку неопределенности и потенциальной реакции противника. Могут быть созданы «Красные команды» для принятия решений, которым будет поручена критическая оценка и критика результатов ИИ, а частью задач ИИ может быть разработка планов действий, которые позволят выиграть дополнительное время и гибкость, чтобы избежать поспешного процесса принятия решений. Укрепление мер коммуникации, таких как соглашения о горячих линиях между правительствами, чьи интересы могут столкнуться в будущих кризисах, в частности, между США и Китаем, также было бы полезно для обеспечения возможности обращения в суд в случае, если надежность источников информации XXI века станет более неопределенной. Подобные меры могут повлечь за собой пожертвование скоростью и простотой принятия решений, которые сегодняшние лидеры, возможно, ожидают от завтрашнего ИИ, но на этот компромисс стоит пойти ради снижения рисков, связанных с тем, что ИИ может непреднамеренно дестабилизировать процесс принятия решений и повысить вероятность конфликта.

 

Финансирование

Данное исследование было инициировано и проведено независимо в Центре политики технологий и безопасности RAND с использованием средств, полученных от целевого взноса Фонда Форда. Доноры и грантодатели RAND не влияют на результаты или рекомендации исследования.

 

Заявление о раскрытии информации

Авторы не сообщали о потенциальном конфликте интересов.

Благодарности

Авторы выражают благодарность Салману Ахмеду, Джасену Кастильо, Матану Хореву, Кейси Дугану, Дэвиду Фрелингеру, Элисон Хоттес, Эндрю Хоэну, Кристе Лангеланд и Джоэлу Предду за их ценные комментарии к этой статье.

--------------------------------------------

 

 







Up
© Website author: Leo Semashko, 2005; © designed by Roman Snitko, 2005