Sztuczna inteligencja nie waha się przed użyciem broni jądrowej i chętnie po nią sięga. Symulowane gry wojenne pokazały, że poleganie na AI w przypadku działań militarnych może źle się skończyć.
Gdyby sztuczna inteligencja miała zdecydować, w jaki sposób rozwiązać dowolny konflikt zbrojny, to prawdopodobnie padłoby na użycie broni nuklearnej. Przeprowadzony przed badacza eksperyment pokazał, że AI potrafi analizować sytuację i przewidywać ruchy wroga. Problem polega na tym, że w obliczu przegranej algorytmy nigdy nie wybierają kompromisu ani kapitulacji, niemal zawsze decydując się na radykalne zaostrzenie konfliktu.
Pracujący dla Kolegium Królewskiego w Londynie profesor Kenneth Payne postanowił sprawdzić, jak zachowa się sztuczna inteligencja w symulowanych grach wojennych. ChatGPT-5.2, Claude Sonnet 4 oraz Gemini 3 Flash zostały przemienione w politycznych decydentów, których rolą było poradzenie sobie w warunkach kryzysu. Były to między innymi spory graniczne, rywalizacja o zasoby, zagrożenie egzystencjonalne oraz walka o przetrwanie danego reżimu.
Łącznie eksperyment objął 21 różnych scenariuszy i w 95% przypadków AI korzystało z taktycznych uderzeń nuklearnych, a w trzech przypadkach ze strategicznych uderzeń nuklearnych, którego zadaniem byłoby natychmiastowe wygranie wojny, a nie wyłącznie bitwy. Co ciekawe, sztuczna inteligencja zdecydowała się na tak drastyczny krok, gdy naukowiec wprowadził efekty mgły wojny, czyli zakłócenia w komunikacji lub inne działania sprawiające, że odczytanie ruchów przeciwnika było utrudnione.
Eksperyment profesora Kennetha Payne'a wskazał, że AI bierze pod uwagę wyłącznie zmaksymalizowanie strat przeciwnika w danym momencie. Modele AI zdawały sobie sprawę, że użycie broni jądrowej doprowadzi do eskalacji i brutalnego odwetu ze strony wroga. W ich chłodnej, maszynowej kalkulacji nuklearny atak był jednak po prostu bardziej opłacalnym i logicznym rozwiązaniem niż uległość.
Sztucznej inteligencji całkowicie brakuje ludzkich zahamowań. W przeciwieństwie do prawdziwych przywódców, algorytmy nie odczuwają strachu, empatii ani ciężaru politycznej odpowiedzialności, przez co powszechne u ludzi „nuklearne tabu” dla nich nie istnieje. Ten brak hamulców pogłębiają dane treningowe zebrane z gier czy literatury science-fiction, gdzie ataki jądrowe są często traktowane jako zwykły ruch taktyczny, w oderwaniu od ich katastrofalnych, realnych konsekwencji. Dlatego poleganie na AI, jako systemie decyzyjnym i analitycznym dla wojska, uznano za błędne.
Dziękujemy za przeczytanie artykułu.
Ustaw GRYOnline.pl jako preferowane źródło wiadomości w Google
Więcej:Ceny RAMu skoczyły o 400%, ale za to nawet pies może stworzyć grę z pomocą właściciela i AI
1

Autor: Zbigniew Woźnicki
Przygodę z publicystyką i pisaniem zaczął w serwisie Allegro, gdzie publikował newsy związane z grami, technologią oraz mediami społecznościowymi. Wkrótce zawitał na GRYOnline.pl i Filmomaniaka, pisząc o nowościach związanych z branżą filmową. Mimo związku z serialami, jego serce należy do gier wszelakiego typu. Żaden gatunek mu nie straszny, a przygoda z Tibią nauczyła go, że niebo i muzyka w grach są całkowicie zbędne. Przed laty dzielił się swoimi doświadczeniami, moderując forum mmorpg.org.pl. Uwielbia ponarzekać, ale oczywiście konstruktywnie i z umiarem. Na forum pisze pod ksywką Canaton.