ChatGPT denne spracuje približne 2,5 miliardy otázok. Vďaka tomu, že konverzačný štýl pripomína písanie si s človekom majú tisíce ľudí nutkanie zdôveriť sa mu aj s tým, s čím by nikdy nemali.
Na rozdiel od klasického vyhľadávača sú odpovede četbotov plynulé, osobné a presvedčivé. Odborníci preto upozorňujú, že pri komunikácii s AI platia rovnaké, prípadne ešte prísnejšie pravidlá digitálnej hygieny ako kdekoľvek inde na internete. Existuje päť oblastí, v ktorých by si mal každý používateľ dávať mimoriadny pozor na to, čo do konverzácie zadáva.
Bezpečnostné incidenty z minulosti
AI systémy pracujú s obrovským objemom dát a napriek zabudovaným ochranným mechanizmom nie sú bezchybné. Začiatkom roka 2025 opravovala Meta AI chybu, ktorá umožňovala používateľom nahliadnuť do cudzích súkromných konverzácií. Staršie verzie ChatGPT zas čelili útokom typu „prompt injection“, pri ktorých mohli útočníci získať citlivé údaje z prebiehajúcich četov.
Prompt injection je technika, pri ktorej útočník vloží do vstupu špeciálne formulovaný text, ktorým prinúti AI ignorovať pôvodné inštrukcie a prezradiť informácie, ktoré by za normálnych okolností nezobrazila.
Ďalším problémom bolo indexovanie zdieľaných chatov vyhľadávačmi. Konverzácie sa tak objavovali vo verejných výsledkoch vyhľadávania. Všetky tieto prípady sú dôvodom, prečo by mal používateľ starostlivo zvažovať, čo do četu napíše.
1. Meno, adresa a prihlasovacie údaje
Nezdieľať údaje umožňujúce jednoznačnú identifikáciu je základné pravidlo. Bezpečnostní experti zo Safety Detectives analyzovali tisíc verejne dostupných četov a zistili, že ľudia bežne uvádzali celé mená, adresy bydliska, telefónne čísla, e-mailové adresy aj prihlasovacie údaje k rôznym službám. Rozsah zdieľaných informácií bol prekvapivo široký.
Pri tvorbe životopisu, motivačného listu či akéhokoľvek formulára úplne postačia zástupné údaje, napríklad „Ján Vzorový“ namiesto skutočného mena. Používatelia síce môžu v nastaveniach ChatGPT vypnúť využívanie konverzácií na tréning modelu, no ani táto možnosť nezaručuje, že zdieľané citlivé informácie zostanú v bezpečí.
2. Čísla účtov a údaje o kartách
ChatGPT sa často využíva na zostavovanie rozpočtov či všeobecné finančné plánovanie. To je v poriadku. Problém nastáva vo chvíli, keď niekto zadá reálne čísla bankových účtov, údaje o platobných kartách, informácie o investíciách alebo celé daňové dokumenty.
Četboty nefungujú v zabezpečených bankových systémoch a raz zadané údaje sa môžu ocitnúť mimo kontrolovaného prostredia, nad ktorým používateľ nemá žiadnu moc. Rizikom je napríklad finančný podvod, krádež identity alebo cielený phishing, teda podvodné e-maily či správy, ktoré sa tvária ako komunikácia od banky alebo inej dôveryhodnej inštitúcie. Aj pri finančnom plánovaní s AI postačia modelové príklady s fiktívnymi sumami a číslami.
3. Diagnózy a výsledky vyšetrení
Stále viac ľudí sa obracia na AI pri otázkach o zdraví. Podľa prieskumov využíva četboty na zdravotné informácie aspoň raz mesačne každý šiesty dospelý. Medzi mladými je to dokonca každý štvrtý. Všeobecné vysvetlenia medicínskych pojmov sú v poriadku, no zadávanie konkrétnych diagnóz, výsledkov laboratórnych testov či detailnej anamnézy už predstavuje citlivé dáta úplne inej kategórie.
Tieto informácie nie sú chránené zdravotníckymi systémami, ktoré podliehajú prísnym reguláciám o ochrane údajov pacientov. Používateľ nad nimi po zadaní do chatu stráca kontrolu a nemá možnosť overiť, ako s nimi bude naložené.
4. Interné firemné dokumenty
Využívanie ChatGPT pri práci je lákavé. Úprava e-mailov, zhrnutie dlhých dokumentov, prepis odborných textov. Ak však ide o interné materiály obsahujúce údaje o klientoch, obchodné tajomstvá alebo duševné vlastníctvo, riziko je značné a dôsledky môžu zasiahnuť nielen jednotlivca, ale celú organizáciu.
Ak by ste daný dokument nezverejnili na webe alebo sociálnej sieti, nepatrí ani do konverzácie s AI. Mnohé firmy preto zavádzajú interné smernice, ktoré používanie generatívnej AI na pracovné účely regulujú alebo úplne zakazujú pri práci s dôvernými podkladmi.
5. Obsah v rozpore so zákonom
Zdieľanie čohokoľvek nelegálneho je poslednou, no nie menej dôležitou oblasťou, ktorej sa treba vyhnúť. OpenAI spolupracuje s orgánmi činnými v trestnom konaní a prevádzkuje systémy na odhaľovanie pokusov o trestnú činnosť. ChatGPT má zabudované filtre proti navádzaniu na násilie, podvody či iné škodlivé správanie.
Pokusy tieto obmedzenia obchádzať môžu viesť k označeniu účtu. Používateľ by si mal uvedomiť, že konverzácie nie sú anonymné a pri podozrení z protiprávnej činnosti môžu byť sprístupnené príslušným orgánom.
Odporúčanie do budúcnosti
AI je silný nástroj, no rozhodne nie dôverník bez pamäte. Ak ho používame s rozumom a zdržanlivosťou, môže výrazne uľahčiť každodenné úlohy. Do žiadnej AI aplikácie by ste však nemali písať nič, čo by ste nechceli vidieť zverejnené na internete.

