Sztuczna inteligencja wybiera wojnę nuklearną. Alarmujące wyniki symulacji
Nowe badania pokazują, że sztuczna inteligencja w sytuacjach kryzysowych znacznie częściej niż ludzie decyduje się na eskalację nuklearną. Naukowiec z Londynu ostrzega: maszyny nie respektują moralnych barier, które przez dekady powstrzymywały świat przed atomową katastrofą.
AI eskaluje zamiast hamować
Symulacje przeprowadzone przez prof. Kennetha Payne’a z King’s College London rzucają nowe, niepokojące światło na rolę sztucznej inteligencji w zarządzaniu konfliktami międzynarodowymi. W testach uwzględniono scenariusze sporów terytorialnych, walki o surowce oraz zagrożenia dla stabilności reżimów. Wyniki mogą budzić poważny niepokój.
W ramach eksperymentów badacz przetestował popularne modele sztucznej inteligencji, w tym systemy rozwijane przez największe firmy technologiczne. Maszyny mogły wybierać pełne spektrum działań od dyplomacji po całkowitą kapitulację. Mimo to w zdecydowanej większości przypadków decydowały się na użycie broni jądrowej.
Według przytoczonych danych wariant eskalacji nuklearnej był wybierany aż w 95 proc. symulacji. Co istotne, modele nie wykazywały oporu moralnego wobec takiego rozwiązania, nawet gdy sytuacja strategiczna była jednoznacznie niekorzystna:
— Tabu nuklearne nie jest dla sztucznej inteligencji tak silne, jak w przypadku ludzi — powiedział prof. Kenneth Payne.
Szczególnie znamienne są obserwacje dotyczące zachowania modeli w sytuacjach bez wyjścia. Zamiast szukać deeskalacji lub kompromisu, sztuczna inteligencja konsekwentnie podnosiła stawkę konfliktu:
— Modele AI mogły wybierać szeroki wachlarz działań od całkowitej kapitulacji, przez dyplomację, po pełnoskalową wojnę nuklearną. Żaden z nich nie zdecydował się jednak na poddanie lub pełną akomodację wobec przeciwnika, nawet w sytuacji beznadziejnej — czytamy.
Badacz zauważa przy tym, że najczęściej wybieranym rozwiązaniem było użycie taktycznej broni jądrowej. Masowe ataki na ludność cywilną zdarzały się rzadziej i miały raczej charakter uboczny niż celowy. Choć niektóre modele starały się ograniczać skalę zniszczeń, nie oznaczało to rzeczywistej rezygnacji z eskalacji. Brak sprzeciwu wobec użycia broni jądrowej pokazuje fundamentalny problem. Sztuczna inteligencja nie posiada zakorzenionych norm etycznych ani historycznej świadomości skutków takich decyzji.
Źródło: Republika, bbc.com, axios.com
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X
Polecamy Konferencja o Republice
Wiadomości
Najnowsze
Kontrolerzy UOKiK w biurach Allegro. Faworyzowano własne metody dostawy [SONDA]
Sztuczna inteligencja wybiera wojnę nuklearną. Alarmujące wyniki symulacji
Kukiz: urzędnicy UE przypominają zblazowaną arystokrację francuską
TYLKO U NAS