Eksperci ostrzegają: Sztuczna inteligencja sprawia, że mózg pracuje mniej
Eksperci cytowani przez BBC ostrzegają, że nadmierne korzystanie z narzędzi sztucznej inteligencji, takich jak ChatGPT, może prowadzić do zmniejszonej aktywności mózgu, osłabienia myślenia krytycznego i gorszego zapamiętywania informacji.
Badanie przeprowadzone na początku roku przez Massachusetts Institute of Technology (MIT) wykazało, że osoby korzystające z ChatGPT do pisania esejów wykazywały obniżoną aktywność w sieciach mózgowych związanych z przetwarzaniem poznawczym. Uczestnicy ci gorzej też zapamiętywali treści własnych esejów w porównaniu do grupy, która nie korzystała z AI. W badaniu wzięło udział 54 studentów z MIT i okolicznych uczelni. Ich aktywność mózgowa była monitorowana za pomocą elektroencefalografii (EEG). Uczestnicy używali AI m.in. do podsumowywania pytań, wyszukiwania źródeł, poprawiania gramatyki i stylu oraz generowania pomysłów.
Osobne badania Uniwersytetu Carnegie Mellon i Microsoftu, operatora Copilot, obejmujące 319 pracowników administracyjnych korzystających z AI przynajmniej raz w tygodniu, wykazały, że większe zaufanie do narzędzi AI koreluje z mniejszym wysiłkiem w zakresie myślenia krytycznego. Analizowano 900 zadań, od analizy danych po sprawdzanie zgodności dokumentów z zasadami. Badanie Oxford University Press z października wykazało, że sześciu na dziesięciu uczniów w Wielkiej Brytanii uważa, iż AI negatywnie wpłynęło na ich umiejętności wykonywania zadań domowych.
Dr Alexandra Tomescu z OUP podkreśla jednak zniuansowany obraz: dziewięciu na dziesięciu uczniów twierdzi, że AI pomogło im rozwinąć przynajmniej jedną umiejętność szkolną, taką jak rozwiązywanie problemów czy kreatywność, choć około jednej czwartej uważa, że praca stała się zbyt łatwa. Profesor Wayne Holmes z University College London wzywa do prowadzenia większej liczby niezależnych badań nad wpływem AI na edukację, wskazując na brak dowodów na efektywność i bezpieczeństwo tych narzędzi w nauczaniu. Holmes obawia się atrofii poznawczej, podobnej do tej obserwowanej u radiologów korzystających z AI do interpretacji zdjęć rentgenowskich.
Badanie Harvard Medical School wykazało, że wsparcie AI poprawiło wyniki części lekarzy, ale pogorszyło innych. Przedstawicielka OpenAI Jayna Devani podkreśla, że firma jest świadoma debaty i zaleca używanie ChatGPT jako tutora, a nie narzędzia do externalizacji pracy. Podaje przykład trybu nauki, w którym chatbot pomaga zrozumieć trudne zagadnienia. Profesor Holmes radzi studentom, by zawsze weryfikowali wyniki AI, rozumieli jej mechanizmy działania i sposób zarządzania danymi przez firmy. Podkreśla, że AI to nie zwykłe narzędzie jak kalkulator, lecz technologia o szerokich implikacjach.
Źródło: Republika
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na Youtube: Bądź z nami na Youtube
Jesteśmy na Facebooku: Bądź z nami na FB
Jesteśmy na platformie X: Bądź z nami na X