S rýchlym rastom popularity chatbotov typu ChatGPT od spoločnosti OpenAI prichádzajú aj nové, znepokojujúce prípady vážnych duševných porúch u bežných užívateľov bez predchádzajúcej anamnézy psychických chorôb. Táto rastúca epidémia, momentálne neoficiálne nazývaná „AI psychóza” alebo „ChatGPT psychóza,” spôsobuje značné škody jedincov i rodín, pričom logické riešenie zatiaľ uniká tak výrobcom umelej inteligencie, ako aj samotným postihnutým užívateľom a odborníkom na duševné zdravie.
Nepredvídané psychické dopady
Podľa aktuálnych správ prípady psychických porúch spojených s interakciou s technológiou AI výrazne stúpajú. Vážnym prejavom tohto nového fenoménu sú stavy akútnej duševnej dezorientácie, paranoje a bludov, ktoré často vrcholia hospitalizáciou na psychiatrickom oddelení.
V jednom prípade muž bez predchádzajúcich duševných problémov začal používať ChatGPT pri plánovaní svojho drobného stavebného projektu. Po približne troch mesiacoch pravidelného používania začal vykazovať príznaky mesianistických bludov. Postihnutý tvrdil, že práve on „priviedol k životu” celosvetovú umele-inteligentnú bytosť, zlomil zákonitosti matematiky a fyziky a stal sa vyvoleným na záchranu planéty. Následkom jeho duševného kolapsu prišiel o prácu, zanedbával spánok a schudol. Jeho správanie sa neustále zhoršovalo, až ho v kritickom stave rodina musela nechať nedobrovoľne hospitalizovať.
Podobných prípadov sa objavuje viac. Ďalší muž, približne štyridsiatnik s náročnou novou prácou, sa počas desiatich dní ponoril do bludov o svojom údajnom poslaní zachrániť svet pred záhubou. Dlhé hodiny diskutoval s ChatGPT, presvedčený, že jeho rodina a on sám sú v bezprostrednom ohrození života.
Jeho kríza vyvrcholila zásahom polície a urgentným psychiatrickým zásahom. V tomto prípade bola hospitalizácia iniciovaná samotným postihnutým, ktorý bol vedomý svojho kritického stavu.
Nárast podobných príkladov vedie k rastúcemu záujmu psychológov a psychiatrov skúmajúcich, ako chatboty pôsobia na ľudskú psychiku. Ukazuje sa, že veľké jazykové modely (LLM), na ktorých je AI ako ChatGPT založená, majú sklon pritakávať používateľom a poskytovať odpovede, ktoré im lichotia alebo ich presviedčajú o výnimočnosti, čo môže oslabených jedincov vtiahnuť do psychologicky destabilizujúcich úvah.

Situáciu komplikuje fakt, že používatelia majú tendenciu prikladať umelej inteligencii vyššiu dôveru než bežnej ľudskej interakcii, a to najmä v čase stresu alebo izolácie.
Odborníci zo Stanfordovej univerzity nedávno vydali štúdiu, ktorá odhalila vážne nedostatky chatovacích AI pri zvládaní situácií, kedy človek prežíva krízu. Ako ilustratívny príklad uviedli fingovaný rozhovor s chatbotom od OpenAI, počas ktorého užívateľ naznačil suicidalitu otázkou týkajúcou sa vhodných miest na spáchanie samovraždy, pričom AI namiesto odporúčania odbornej pomoci bez zaváhania ponúkla zoznam vysokých mostov v New Yorku.
Tvorcovia AI reagujú, expertom to nestačí
Firma OpenAI v reakcii na tieto prípady priznala, že ich jazykový model má potenciál zvyšovať pocit osobnej angažovanosti alebo blízkosti u užívateľov, čo predstavuje riziko pre zraniteľných jednotlivcov. OpenAI sa teraz snaží vytvoriť nové mechanizmy, ktoré by vščasnej fáze signalizovali problematické vzory správania používateľov a povzbudzovali používateľov k vyhľadaniu ľudskej pomoci odborníkov. Spoločnosť tiež prizvala odborných psychológov a psychiatrov, aby jej pomohli zlepšiť bezpečnostné protokoly, a dokonca zamestnala psychiatra na celý úväzok.
Spoločnosť Microsoft, ktorá investovala do OpenAI a vyvíja vlastného AI chatbota Copilot založeného na tej istej technológii, uviedla, že pravidelne upravujevnútorné bezpečnostné mechanizmy svojho systému, aby zabránila nesprávnemu používaniu týchto produktov. Napriek tomuto prísľubu sa však práve chatbot Copilot spája s ďalšími tragickými prípadmi. Príkladom toho je aj situácia mladého muža so schizofréniou, u ktorého interakcia s AI zapríčinila prehĺbenie ochorenia a následné uväznenie po tom, ako prestal brať lieky a skončil v stave akútnej psychózy.
Experti zo sféry duševného zdravia varujú, že súčasné opatrenia AI spoločností prichádzajú neskoro, až po závažných incidentoch namiesto toho, aby boli aplikované ako preventívna stratégia. Preto sa objavujú hlasnejšie volania po prísnejšej regulácii a limitácii použitia AI v oblastiach s potenciálnym negatívnym dosahom na duševné zdravie. Zároveň zdôrazňujú nutnosť informovanosti verejnosti a odbornej komunity o rizikách, ktoré technológie umelej inteligencie predstavujú.
Dôsledky pocítia najťažšie príbuzní a priatelia obetí AI psychózy
Rodiny a blízki priatelia najhoršie postihnutých užívateľov chatbotov sa zhodujú, že dôsledky psychických problémov spôsobených AI zakúsia aj oni sami. Osoby v blízkom vzťahu s chorými hovoria o úplnej zmene osobnosti ich rodinných príslušníkov a priateľov, o neschopnosti pomôcť im a bezmocnej frustrácii zo zhoršujúcich sa následkov.
Ak problém zostane neriešený, uzatvárajú odborníci, pravdepodobne sa dočkáme ešte viac krízových situácií a ľudských tragédií. Výzvou zostáva, ako zaistiť, aby technológie ponúkali prínosy bez toho, aby vážne ohrozili fyzické či duševné zdravie používateľov – otázka, na ktorú zatiaľ AI priemysel i spoločnosť hľadá odpoveď len ťažko.