Sztuczna inteligencja zmienia wojnę. Coraz bliżej "Terminatora"
Armia USA coraz śmielej wykorzystuje sztuczną inteligencję w operacjach bojowych – Claude od Anthropic pomógł w planowaniu zatrzymania Nicolása Maduro w Wenezueli oraz działań przeciwko ajatollahowi Alemu Chameneiemu w Iranie, budząc poważne obawy o niezawodność AI i ryzyko powstania autonomicznej broni.
Stany Zjednoczone przyspieszają wdrażanie sztucznej inteligencji w działaniach wojskowych, przechodząc od eksperymentów do zastosowań w operacjach o najwyższej stawce. Według doniesień amerykańskich mediów chatbot Claude stworzony przez Anthropic odegrał istotną rolę w przygotowaniu operacji, która w styczniu 2026 roku doprowadziła do zatrzymania prezydenta Wenezueli Nicolása Maduro. Kilka tygodni później pojawiły się informacje, że ten sam model wspierał planowanie działań wymierzonych w byłego najwyższego przywódcę Iranu, ajatollaha Alego Chameneiego.
Tak szybkie użycie generatywnych modeli AI – takich jak Claude, ChatGPT od OpenAI czy Gemini od Google – wpisuje się w ambitną wizję administracji Trumpa, która chce stworzyć armię „AI na pierwszym miejscu”, by nie zostać w tyle za Chinami. Technologie automatyczne pojawiają się w siłach zbrojnych USA już od ponad dekady (logistyka, utrzymanie sprzętu, tłumaczenia), jednak obecna administracja wyraźnie przyspiesza ich przenoszenie także do dziedzin ofensywnych i wywiadowczych.
Eksperci biją na alarm: duże modele językowe nadal produkują błędy i halucynacje, co w warunkach militarnych może prowadzić do katastrofalnych konsekwencji. Heidy Khlaaf z AI Now Institute podkreśla, że takie systemy nie są jeszcze gotowe do podejmowania decyzji w sytuacjach życia i śmierci. Jednocześnie rośnie niepokój związany z perspektywą broni w pełni autonomicznej, która samodzielnie rozpoznaje, wybiera i niszczy cele bez udziału człowieka – napędzana obawą, że Chiny mogą jako pierwsze stworzyć taką technologię.
Choć wojsko USA pozostaje w dużej mierze w fazie testowania i eksperymentowania z różnymi dostawcami AI, ostatnie operacje uznano za skuteczne, co zwiększa presję na dalsze ograniczanie kontroli ludzkiej. Pentagon uruchomił platformę genai.mil dającą dostęp do najpopularniejszych modeli AI, a w najnowszym budżecie wojskowym (tzw. „Big Beautiful Bill”) na projekty związane z AI przeznaczono setki milionów dolarów – m.in. na systemy zwalczania dronów, rozbudowę wywiadu i przyspieszenie analizy danych w Cyber Command oraz w programach nuklearnych.
Sytuację komplikują też tarcia między Pentagonem a Anthropic – firma potwierdziła, że Claude był używany w tajnych sieciach i laboratoriach jądrowych, jednak kontrakt został zerwany, a OpenAI szybko zajęło jego miejsce. Wszystkie te wydarzenia pokazują trudną, ale niemal nieuniknioną transformację: sztuczna inteligencja staje się centralnym elementem nowoczesnej wojny, wywołując gorącą debatę o etyce, bezpieczeństwie i stabilności międzynarodowej.
Źródło: Republika
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X