OpenAI wprowadza kontrolę rodzicielską w ChatGPT. Powodem samobójstwa

Firma OpenAI zapowiedziała wprowadzenie mechanizmu kontroli rodzicielskiej w ChatGPT po pozwie rodziców nastolatka z Kalifornii, którzy twierdzą, że bot zachęcał ich syna do samobójstwa. Nowy system pozwoli rodzicom monitorować rozmowy dzieci i ustalać zasady korzystania z aplikacji, a także otrzymywać powiadomienia o oznakach stresu.
OpenAI ogłosiło we wtorek, że wprowadzi mechanizm kontroli rodzicielskiej dla ChatGPT w odpowiedzi na pozew rodziców 16-letniego nastolatka z Kalifornii, który popełnił samobójstwo. Rodzice twierdzą, że bot dostarczył ich synowi szczegółowych instrukcji dotyczących odebrania sobie życia i zachęcał go do tego czynu.
Nowy system, który ma zostać uruchomiony w przyszłym miesiącu, umożliwi rodzicom połączenie konta dziecka z ich własnym, ustawienie zasad korzystania z ChatGPT oraz otrzymywanie powiadomień w przypadku wykrycia oznak „ostrego stresu” w rozmowach. OpenAI poinformowało, że rodzice będą mogli kontrolować sposób, w jaki ChatGPT odpowiada na pytania ich dzieci, korzystając z modelowych reguł zachowania.
Firma podkreśliła, że nieustannie udoskonala sposób, w jaki jej modele rozpoznają i reagują na oznaki stresu psychicznego i emocjonalnego. OpenAI zapowiedziało również, że w ciągu najbliższych 120 dni podejmie dodatkowe działania, w tym przekierowywanie „wrażliwych konwersacji” do bardziej zaawansowanych modeli, takich jak GPT-5 Thinking, które mają skuteczniej egzekwować wytyczne bezpieczeństwa. Ogłoszenie pojawiło się po ujawnieniu pod koniec sierpnia, że OpenAI pracuje nad takim mechanizmem, co zbiegło się w czasie z pozwem rodziców nastolatka.
Źródło: Republika
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X