Miliarderzy szykują się na apokalipsę. Budują bunkry

Liderzy technologiczni, w tym Mark Zuckerberg, inwestują miliony dolarów w luksusowe bunkry i fortece na wypadek apokalipsy. Obawy dotyczą głównie rozwoju sztucznej inteligencji ogólnej (AGI), która może osiągnąć poziom ludzkiej inteligencji, a nawet ją przewyższyć. Eksperci są podzieleni – jedni przewidują pojawienie się AGI w ciągu kilku lat, inni uważają te prognozy za przesadzone.
Liderzy branży technologicznej, tacy jak Mark Zuckerberg, założyciel Facebooka, czy Reid Hoffman, współtwórca LinkedIn, inwestują w luksusowe bunkry i ufortyfikowane posiadłości w egzotycznych lokalizacjach, takich jak Hawaje czy Nowa Zelandia. Według Hoffmana połowa najbogatszych ludzi na świecie posiada takie podziemne „fortece” na wypadek globalnej katastrofy.
Zuckerberg od 2014 roku rozwija kompleks Koolau Ranch na hawajskiej wyspie Kauai, który obejmuje 5,6 km² terenu i podziemny schron o powierzchni ponad 450 m², wyposażony w niezależne źródło energii i zapasy. Własność otoczona jest wysokim murem, a pracownicy podpisują umowy o poufności. Zuckerberg zaprzecza, by był to bunkier, określając go jako „mały schron, jak piwnica”. Podobne inwestycje poczynił w Palo Alto w Kalifornii, gdzie zakupił 11 nieruchomości z dodatkowymi 650 m² przestrzeni podziemnej, przez niektórych nazywanej „Batcave”.
Głównym źródłem obaw liderów technologicznych jest rozwój sztucznej inteligencji ogólnej (AGI), czyli maszyn dorównujących ludzkiej inteligencji. Ilia Suțkever, współzałożyciel OpenAI, twórcy ChatGPT, sugerował konieczność budowy schronów dla naukowców przed ujawnieniem AGI. Szef OpenAI, Sam Altman, przewiduje, że AGI pojawi się szybciej, niż sądzi większość ludzi, a Dario Amodei z Anthropic wskazuje nawet rok 2026. Demis Hassabis z DeepMind szacuje ten moment na 5-10 lat.
Nie wszyscy podzielają te obawy. Prof. Wendy Hall z Uniwersytetu w Southampton uważa, że obecna technologia AI jest daleka od ludzkiej inteligencji. Vince Lynch z IV.AI oraz Neil Lawrence z Uniwersytetu Cambridge nazywają wizję AGI „marketingową przesadą” i porównują ją do absurdalnej idei „uniwersalnego pojazdu”. Lawrence podkreśla, że firmy technologiczne powinny skupić się na praktycznych zastosowaniach AI, np. w medycynie, zamiast spekulować o superinteligencji (ASI), która mogłaby przejąć kontrolę nad społeczeństwem.
Były ochroniarz jednego z miliarderów ujawnił, że w razie apokalipsy zespoły ochrony mogłyby przejąć kontrolę nad bunkrami, co pokazuje, że nawet takie inwestycje nie gwarantują bezpieczeństwa. Eksperci sugerują, że zamiast koncentrować się na apokaliptycznych scenariuszach, firmy technologiczne powinny priorytetowo traktować poprawę jakości życia ludzi.
Źródło: Republika
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X