ChatGPT sa stal bežnou súčasťou digitálneho života. Denne spracuje približne 2,5 miliardy otázok, pričom len v USA ide asi o 330 miliónov promptov. Na rozdiel od klasického vyhľadávača pôsobí konverzácia s AI skôr ako rozhovor s človekom. Odpovede sú plynulé, osobné a často veľmi presvedčivé.
No a práve táto „ľudskosť“ môže viesť k neopatrnosti. Odborníci upozorňujú, že pri používaní chatbotov platia rovnaké, prípadne ešte prísnejšie, pravidlá digitálnej hygieny ako všade inde na internete.
Pozor, čo zdieľate s ChatGPT
AI systémy sa neustále vyvíjajú a pracujú s obrovským množstvom dát. Hoci sú vybavené bezpečnostnými mechanizmami, minulosť ukázala, že nie sú neomylné.
Začiatkom roka 2025 napríklad Meta AI opravovala chybu, ktorá umožňovala používateľom vidieť cudzie súkromné konverzácie. Staršie verzie ChatGPT zas čelili útokom typu „prompt injection“, pri ktorých mohli útočníci získať citlivé údaje. Problémom bolo aj to, že niektoré vyhľadávače indexovali zdieľané chaty a zobrazovali ich vo verejných výsledkoch vyhľadávania. To všetko je dôvod, prečo by mal používateľ dobre zvážiť, čo do chatu napíše. Na tému upozornil portál SlashGear. A toto je 5 oblastí, pri ktorých zdieľaní si treba dávať pozor.
Osobné identifikačné údaje
Základným pravidlom je nezdieľať údaje, podľa ktorých vás možno jednoznačne identifikovať. Výskum bezpečnostných expertov zo Safety Detectives, ktorý analyzoval tisíc verejne dostupných chatov, ukázal, že ľudia bežne uvádzali celé mená, adresy, telefónne čísla, e-maily či dokonca prihlasovacie údaje.
Pritom pri tvorbe životopisu, motivačného listu či formulára úplne postačia zástupné údaje. Používatelia síce môžu v nastaveniach vypnúť využívanie konverzácií na tréning dát, no ani to neznamená, že je bezpečné zdieľať citlivé informácie.
Finančné informácie
ChatGPT sa často využíva na rozpočty či všeobecné finančné plánovanie. Problém nastáva, keď doň niekto zadá reálne čísla účtov, údaje o kartách, investíciách alebo daňové dokumenty.
Chatboty nefungujú v zabezpečených bankových systémoch a raz zadané údaje sa môžu ocitnúť mimo kontrolovaného prostredia. Rizikom je finančný podvod, krádež identity alebo phishing. Aj tu platí, že modelové príklady sú úplne postačujúce.
Zdravotné údaje
Stále viac ľudí sa obracia na AI pri otázkach o zdraví. Podľa prieskumov aspoň raz mesačne využíva chatboty na zdravotné informácie každý šiesty dospelý, medzi mladými dokonca každý štvrtý. Všeobecné vysvetlenia pojmov sú v poriadku, no zadávanie diagnóz, výsledkov testov či detailnej anamnézy už predstavuje citlivé dáta. Tieto informácie nie sú chránené zdravotníckymi systémami a používateľ nad nimi stráca kontrolu.
Pracovné a dôverné materiály
Lákavé je tiež využívanie ChatGPT pri práci, napríklad na úpravu e-mailov, zhrnutie dokumentov či prepis odborných textov. Ak však ide o interné materiály, údaje o klientoch, obchodné tajomstvá alebo duševné vlastníctvo, riziko je značné. Platí tu jednoduché pravidlo, ak by ste daný dokument nezverejnili verejne, nepatrí ani do chatu s AI.
Nelegálny obsah
Zdieľanie čohokoľvek, čo je v rozpore so zákonom, je poslednou vecou, ktorej sa treba vyhnúť. OpenAI spolupracuje s orgánmi činnými v trestnom konaní a má systémy na odhaľovanie pokusov o trestnú činnosť. ChatGPT má zabudované filtre proti navádzaniu na násilie, podvody či iné škodlivé správanie a pokusy tieto hranice obchádzať môžu viesť k označeniu účtu.
ChatGPT nie je váš dôverník
Umelá inteligencia ChatGPT je silný nástroj, no nie dôverník bez pamäti. Ak ho používame s rozumom a zdržanlivosťou, môže výrazne pomôcť. Základné pravidlo však znie jasne. Do AI aplikácie nikdy nepíšte nič, čo by ste nechceli vidieť na verejnosti.

