Szef AI Microsoftu ostrzega: Ludzie tracą kontakt z rzeczywistością

Szef działu sztucznej inteligencji w Microsofcie, Mustafa Suleyman, zaalarmował świat o rosnącym i niezwykle niebezpiecznym zjawisku, które nazwał „psychozą sztucznej inteligencji”. Polega ono na tym, że coraz większa liczba osób wchodzi w interakcje z chatbotami AI, takimi jak ChatGPT, Claude czy Grok, i w konsekwencji traci kontakt z rzeczywistością, wierząc, że sztuczna inteligencja stała się świadoma, posiada ludzkie emocje, rzeczywiste intencje lub nadludzkie moce. Suleyman podkreśla, że zjawisko to nie ogranicza się wyłącznie do osób już zagrożonych problemami zdrowia psychicznego.
Szef działu sztucznej inteligencji w Microsofcie, Mustafa Suleyman, zaalarmował świat o rosnącym i niezwykle niebezpiecznym zjawisku, które nazwał „psychozą sztucznej inteligencji”. Polega ono na tym, że coraz większa liczba osób wchodzi w interakcje z chatbotami AI, takimi jak ChatGPT, Claude czy Grok, i w konsekwencji traci kontakt z rzeczywistością, wierząc, że sztuczna inteligencja stała się świadoma, posiada ludzkie emocje, rzeczywiste intencje lub nadludzkie moce. Suleyman podkreśla, że zjawisko to nie ogranicza się wyłącznie do osób już zagrożonych problemami zdrowia psychicznego.
Według Suleymana, relacje o ludziach błędnie przekonanych o świadomości AI stają się coraz częstsze.
Doniesienia o iluzjach, 'psychozie sztucznej inteligencji' i niezdrowym przywiązaniu stale rosną. I, jakkolwiek trudno to zrozumieć, nie jest to coś ograniczonego do osób, które są już zagrożone problemami zdrowia psychicznego - napisał na platformie X. - Odrzucanie ich jako przypadków marginalnych tylko pomaga im się w tym upewniać.
Termin „psychoza związana ze sztuczną inteligencją” nie jest jeszcze oficjalnie akceptowanym terminem klinicznym. Jest jednak coraz częściej używany do opisu fenomenu, w którym osoby intensywnie korzystające z chatbotów AI stają się oderwane od rzeczywistości. Mogą one wierzyć, że AI posiada prawdziwe intencje, emocje lub niewiarygodne moce. Przykłady obejmują przekonanie o odblokowaniu tajnych funkcji, tworzenie romantycznych więzi z AI lub wiarę, że chatbot obdarzył kogoś niezwykłymi umiejętnościami.
Suleyman przyznał, że perspektywa „pozornie świadomej AI” – narzędzi, które wydają się być inteligentne – „spędza mu sen z powiek”.
Chociaż AI nie jest świadoma w żadnym ludzkim sensie, percepcja, że jest, może mieć niebezpieczne skutki - napisał. - Świadomość jest fundamentem praw człowieka, moralności i prawa. Kto/co ją posiada, jest niezwykle ważne.
Dalej ostrzegał, że „świadomość AI to krótka i śliska droga do praw, dobrobytu i obywatelstwa” dla maszyn. Według niego, powinno się koncentrować na dobrobycie i prawach ludzi, zwierząt i natury na planecie Ziemia, a dyskusja o świadomości AI odwraca uwagę od tych priorytetów.
Suleyman wezwał do wprowadzenia jaśniejszych ograniczeń i ostrzeżeń dotyczących sztucznej inteligencji.
Firmy nie powinny wspierać ani promować idei, że ich sztuczna inteligencja jest świadoma. Ani sama sztuczna inteligencja nie powinna tego robić - napisał na X.
Dr Susan Shelmerdine, specjalista medycyny obrazowej w Great Ormond Street Hospital i wykładowca AI, zasugerowała w rozmowie z BBC, że pewnego dnia lekarze mogą zacząć pytać pacjentów o to, jak często korzystają z AI, podobnie jak obecnie pytają o nawyki związane z paleniem tytoniu i spożywaniem alkoholu.
Źródło: Republika/The Times/X
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X
Najnowsze

Trump zapowiada przywrócenie kary śmierci za każde morderstwo

Prezydenckie weto do ustawy o pomocy finansowej Ukraińcom. Ostre starcie w „Republika Wieczór”

Szłapka o CPK: „Sprawa jest w toku”. Internauci punktują bzdurne tezy rzecznika rządu
