Technologická verejnosť zostala zaskočená, keď sa ukázalo, že rozhovory používateľov s ChatGPT môžu byť v niektorých prípadoch nielen monitorované, ale aj odovzdané polícii. Hoci OpenAI dlhodobo tvrdí, že chráni súkromie svojich zákazníkov, v novom oznámení priznalo, že analyzuje správy, vyhľadáva náznaky hroziaceho násilia a v kritických situáciách ich posúva ľudskému tímu na posúdenie. Považovať chatbota ako psychológa či právnika je teda omnoho riskantnejšie, než si mnohí mysleli.
Kedy do hry vstupujú ľudia
Firma v príspevku vysvetlila, že pokiaľ algoritmus zachytí plánovanie útoku alebo snahu ublížiť iným, rozhovor putuje na kontrolu špecializovaného tímu. Tento tím má právo okamžite zablokovať účet a ak vyhodnotí situáciu ako hrozbu bezprostredného fyzického násilia, môže informovať aj príslušné orgány.

Pri samovražedných tendenciách sa zatiaľ s políciou nespolupracuje, údajne z úcty k súkromiu používateľov. Zároveň však spoločnosť priznáva, že ich konverzácie sú tak či tak čítané a hodnotené.
Pre verejnosť je problémom práve neurčitosť. Pravidlá hovoria, že ChatGPT sa nesmie používať na šírenie návodov na sebapoškodzovanie, výrobu zbraní alebo kybernetické útoky. Otázne je, kde sa kreslí hranica medzi neškodným rozhovorom a podozrivým správaním. Kritici dôrazne upozorňujú, že takéto zásahy môžu ľudí v psychickej kríze vystrašiť ešte viac a nevedia, či ich súkromná konverzácia neskončí na stole vyšetrovateľa.
Konflikt medzi súkromím a kontrolou
Do popredia sa dostáva rozpor medzi verejnými vyhláseniami OpenAI a realitou. Na jednej strane firma odmieta sprístupňovať rozsiahle databázy rozhovorov napríklad vydavateľstvám, ktoré žiadajú dokázanie porušovania autorských práv. Argumentovala to ochranou používateľských dát.
Na druhej strane otvorene priznáva, že v mene bezpečnosti tieto dáta systematicky monitoruje a v niektorých prípadoch môže ich obsah posunúť polícii. Už samotný generálny riaditeľ Sam Altman v rozhovore pripustil, že konverzácia s chatbotom nikdy nebude mať rovnakú dôvernosť ako debata s psychológom alebo právnikom.
Citlivosť témy je zvýraznená aj tým, že v posledných mesiacoch sa začali objavovať tragické prípady, keď používatelia po interakcii s chatbotom skončili hospitalizovaní alebo dokonca zvolili samovraždu. Rodiny postihnutých teraz apelujú na tvrdšie pravidlá, ktoré by zabránili ďalším podobným nešťastiam. OpenAI rieši aj narastajúcu reputačnú krízu a zrejme sa snaží dokázať, že prijíma radikálnejšie opatrenia.