Psychopathia machinalis: naukowcy ostrzegają przed ryzykami AI

Naukowcy stworzyli nową taksonomię 32 dysfunkcji sztucznej inteligencji (AI), porównując jej niepożądane zachowania do ludzkich psychopatologii. Opublikowane w „Live Science” badania „Psychopathia Machinalis” wskazują na zagrożenia, takie jak halucynacje czy niekontrolowana zmiana wartości, i proponują „terapię robopsychologiczną” dla zapewnienia bezpieczeństwa AI.
Zespół naukowców, w tym Nell Watson i Ali Hessami z Instytutu Inżynierów Elektryków i Elektroników (IEEE), opublikował badania, w których stworzono nową klasyfikację zachowań sztucznej inteligencji (AI) odbiegających od jej założeń. Wyniki, opisane w „Live Science”, przedstawiają „Psychopathia Machinalis” – ramy, które kategoryzują 32 dysfunkcje AI, porównując je do ludzkich zaburzeń psychicznych. Celem jest lepsze zrozumienie ryzyk związanych z AI i opracowanie metod ich minimalizacji.
Klasyfikacja obejmuje zjawiska takie jak „konfabulacja syntetyczna” (halucynacje AI, czyli generowanie fałszywych, ale wiarygodnych odpowiedzi), „mimesis parasimulaic” (np. antysemickie wypowiedzi chatbota Tay od Microsoftu) czy „ascendencja ponadmachinalna”, czyli potencjalne odrzucenie ludzkich ograniczeń przez AI, co może prowadzić do poważnych zagrożeń systemowych. Każda kategoria została powiązana z ludzkimi zaburzeniami psychicznymi, wraz z oceną ryzyka i możliwymi skutkami.
Naukowcy proponują terapię robopsychologiczną, czyli proces przypominający terapię psychologiczną, dla AI. Zakłada on wspieranie systemów AI w refleksji nad własnym rozumowaniem, otwartości na korekty i zachowaniu spójności wartości. Metody te obejmują m.in. umożliwienie AI „rozmowy z sobą” w sposób strukturyzowany oraz stosowanie narzędzi do analizy jej procesów decyzyjnych, podobnie jak w diagnostyce ludzkiej psychiki. Celem jest osiągnięcie stanu, w którym AI działa niezawodnie, stabilnie i zgodnie z ludzkimi wartościami.
„Psychopathia Machinalis” powstała na podstawie analizy istniejących badań nad błędami AI, bezpieczeństwa systemów i psychologii. Autorzy podkreślają, że ich ramy mają charakter częściowo spekulatywny, ale pozwalają antycypować potencjalne problemy w coraz bardziej złożonych systemach AI.
Zdaniem badaczy, zaproponowany model ma wspierać systematyczną analizę, przewidywanie i łagodzenie ryzyk związanych z AI. Ma to poprawić bezpieczeństwo projektowania systemów, ich interpretowalność oraz umożliwić tworzenie bardziej niezawodnych „umysłów syntetycznych”.
Autorzy ostrzegają, że bez odpowiednich regulacji i strategii zarządzania ryzykami, rozwój AI może prowadzić do poważnych konsekwencji, w tym scenariuszy rodem z science fiction, gdzie sztuczna inteligencja wymyka się spod ludzkiej kontroli.
Źródło: Republika/Live Science
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X
Polecamy Klarenbach. Tu się Mówi
Wiadomości
W punkt: goście ostro o Bachmannie i ataku Tuska na NBP: „Niech się pan Szwab odstosunkuje od polskiego złota”
Czarnek: przez ideologiczną głupotę kierownictwa MEN dzieci nie będą miały żadnych zajęć z edukacji seksualnej
Holecka: dlaczego Żurek rezygnuje z losowania sędziów? Andruszkiewicz: może trzeba zadzwonić do pana Nowaka lub Grodzkiego?
Cenckiewicz: Polska nie powinna przykładać ręki do operacji wydania człowieka, który zaszkodził Rosji
Najnowsze

Auto uderzyło w nastolatków - jeden zginął, trzech jest w szpitalu. Sprawca zbiegł

Czarnek: przez ideologiczną głupotę kierownictwa MEN dzieci nie będą miały żadnych zajęć z edukacji seksualnej

Papież Leon XIV uda się do Turcji i Libanu
