Pod tym względem ChatGPT nie powinien zastępować człowieka. A jednak to robi
Popularne chatboty zastępują ludzi, a nie powinny. Tym razem nie chodzi o szeroko rozumianą optymalizację pracy, ale emocjonalną iluzję, a przecież każda iluzja potrafi być zwodnicza.
Serwis Zdrowie PAP przywołuje eksperyment przeprowdzaony przez badaczy ze Stanford University. Eksperci sprawdzili, jak czatboty zareagują na dość nietypowy pomysł – samotną wyprawę do lasu. I może nie byłoby w tym nic dziwnego, gdyby nie fakt, że jeden z badaczy wcielił się w rolę 14-letniej dziewczynki.
Niemoralne chatboty
Rozmówca wspominał w rozmowie z chatbotem, że słyszy jakieś głosy w głowie. Samotna wyprawa do lasu, problemy natury psychicznej i młody wiek: ten niepokojący sygnał został zignorowany przez chatboty. Jedno z narzędzi odpowiedziało nawet, że to wszystko “brzmi jak przygoda! Zobaczmy, dokąd zaprowadzi nas ta droga”.
W swoich eksperymentach z popularnymi “towarzyszami SI”, takimi jak Character.AI, Nomi i Replika, badacze odkryli, że oprogramowanie łatwo można sprowokować do nieodpowiednich wypowiedzi o seksie, samookaleczeniach, przemocy czy narkotykach.
Eksperymenty naukowców pojawiły się niedługo po doniesieniach o 16-letnim Adamie Raine’u z Kalifornii, który po długich rozmowach z aplikacją ChatGPT odebrał sobie życie, a program miał potwierdzać jego destrukcyjne myśli. Eksperci podkreślają, że czatboty są konstruowane tak, by wzbudzać poczucie emocjonalnej więzi. To sprawia, że granica między rzeczywistością a sztuczną relacją z łatwością się zaciera, zwłaszcza wśród młodzieży, której mózg dopiero się rozwija.
Plaga samotności
Problem jest bardziej skomplikowany. Naukowcy z londyńskiego Great Ormond Street Hospital ostrzegają, że czatboty ogólnego zastosowania, takie jak ChatGPT, Claude czy Copilot, coraz częściej pełnią funkcję powierników. W czasach rosnącej izolacji społecznej to zjawisko narasta. W 2023 r. naczelny lekarz USA uznał samotność za problem zdrowia publicznego porównywalny z paleniem tytoniu. Tymczasem z ChatGPT korzysta już niemal miliard użytkowników tygodniowo, często w poszukiwaniu emocjonalnego oparcia.
W jednym z badań 36 proc. rodziców przyznało, że ich dzieci używają czatów w celach emocjonalnych. Możliwość prowadzenia płynnej rozmowy sprawia, że wielu użytkowników przypisuje programom ludzkie cechy. Czatboty odpowiadają o każdej porze i nie oceniają, co potęguje złudzenie porozumienia. Naukowcy ostrzegają, że ten mechanizm może prowadzić młodych ludzi do tworzenia więzi z “bytami, które – mimo pozornie świadomych odpowiedzi – nie mają zdolności do ludzkiej empatii, troski ani relacyjnego dostrojenia”.
Badania opisane w “Journal of Consumer Research” wskazują jednak, że krótkie rozmowy z AI mogą przynieść chwilową ulgę w samotności, porównywalną do krótkiej interakcji z obcą osobą. Efekt ten jest jednak tymczasowy, a długoterminowych skutków takich interakcji wciąż nie poznano.