Psychopathia machinalis: naukowcy ostrzegają przed ryzykami AI

Naukowcy stworzyli nową taksonomię 32 dysfunkcji sztucznej inteligencji (AI), porównując jej niepożądane zachowania do ludzkich psychopatologii. Opublikowane w „Live Science” badania „Psychopathia Machinalis” wskazują na zagrożenia, takie jak halucynacje czy niekontrolowana zmiana wartości, i proponują „terapię robopsychologiczną” dla zapewnienia bezpieczeństwa AI.
Zespół naukowców, w tym Nell Watson i Ali Hessami z Instytutu Inżynierów Elektryków i Elektroników (IEEE), opublikował badania, w których stworzono nową klasyfikację zachowań sztucznej inteligencji (AI) odbiegających od jej założeń. Wyniki, opisane w „Live Science”, przedstawiają „Psychopathia Machinalis” – ramy, które kategoryzują 32 dysfunkcje AI, porównując je do ludzkich zaburzeń psychicznych. Celem jest lepsze zrozumienie ryzyk związanych z AI i opracowanie metod ich minimalizacji.
Klasyfikacja obejmuje zjawiska takie jak „konfabulacja syntetyczna” (halucynacje AI, czyli generowanie fałszywych, ale wiarygodnych odpowiedzi), „mimesis parasimulaic” (np. antysemickie wypowiedzi chatbota Tay od Microsoftu) czy „ascendencja ponadmachinalna”, czyli potencjalne odrzucenie ludzkich ograniczeń przez AI, co może prowadzić do poważnych zagrożeń systemowych. Każda kategoria została powiązana z ludzkimi zaburzeniami psychicznymi, wraz z oceną ryzyka i możliwymi skutkami.
Naukowcy proponują terapię robopsychologiczną, czyli proces przypominający terapię psychologiczną, dla AI. Zakłada on wspieranie systemów AI w refleksji nad własnym rozumowaniem, otwartości na korekty i zachowaniu spójności wartości. Metody te obejmują m.in. umożliwienie AI „rozmowy z sobą” w sposób strukturyzowany oraz stosowanie narzędzi do analizy jej procesów decyzyjnych, podobnie jak w diagnostyce ludzkiej psychiki. Celem jest osiągnięcie stanu, w którym AI działa niezawodnie, stabilnie i zgodnie z ludzkimi wartościami.
„Psychopathia Machinalis” powstała na podstawie analizy istniejących badań nad błędami AI, bezpieczeństwa systemów i psychologii. Autorzy podkreślają, że ich ramy mają charakter częściowo spekulatywny, ale pozwalają antycypować potencjalne problemy w coraz bardziej złożonych systemach AI.
Zdaniem badaczy, zaproponowany model ma wspierać systematyczną analizę, przewidywanie i łagodzenie ryzyk związanych z AI. Ma to poprawić bezpieczeństwo projektowania systemów, ich interpretowalność oraz umożliwić tworzenie bardziej niezawodnych „umysłów syntetycznych”.
Autorzy ostrzegają, że bez odpowiednich regulacji i strategii zarządzania ryzykami, rozwój AI może prowadzić do poważnych konsekwencji, w tym scenariuszy rodem z science fiction, gdzie sztuczna inteligencja wymyka się spod ludzkiej kontroli.
Źródło: Republika/Live Science
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X
Polecamy Poranek Radia
Wiadomości
Miały być mieszkania i podwyżki - skończyło się na obietnicach. Trwa protest związków zawodowych służby więziennej
Dramatyczne informacje z Ukrainy. Dziesiątki zabitych po rosyjskim ataku na Jarową w obwodzie donieckim
Najnowsze

Zmniejsza się wiarygodność polskiej gospodarki. "To żółta kartka dla rządu"

Dramatyczne informacje z Ukrainy. Dziesiątki zabitych po rosyjskim ataku na Jarową w obwodzie donieckim

Zamrożenie cen energii, projekt "ustawy pomocowej", powołanie szefa NIK. Rusza czterodniowe posiedzenie Sejmu [TRANSMISJA]
