Umelá inteligencia nám mala prácu uľahčiť, no zdá sa, že kyberzločincom otvorila dvere, o ktorých sme doteraz ani netušili. Bezpečnostní analytici nedávno odhalili fascinujúcu, no znepokojivú chybu v systéme Google Gemini.
Ukázalo sa, že útočníci dokázali obísť súkromie používateľov a ukradnúť citlivé dáta z kalendára bez toho, aby obeť musela kliknúť na podozrivý odkaz alebo stiahnuť vírus. Stačila na to jedna šikovne napísaná veta ukrytá v pozvánke, na čo upozornil portál The Hacker News.
Útok, ktorý prebieha v „ľudskej reči“
Tento typ napadnutia sa odborne nazýva nepriama injekcia príkazov (indirect prompt injection). Na rozdiel od klasického hackingu, kde útočník píše zložitý kód, tu využíva prirodzený jazyk. Liad Eliyahu, vedúci výskumu v spoločnosti Miggo Security, vysvetľuje, že zraniteľnosti sa už neobmedzujú len na chyby v programovacom kóde. Podľa neho teraz prebývajú v samotnom jazyku a kontexte, ktorým umelá inteligencia (AI) rozumie.
Celý proces začína nevinne. Útočník vám pošle pozvánku na udalosť v Google Kalendári. Do jej popisu však nenápadne vloží inštrukcie pre umelú inteligenciu, v tomto prípade pre AI Gemini. Tieto inštrukcie zostávajú nepovšimnuté, kým neurobíte banálnu vec a nespýtate sa Gemini na svoj program.

Ako sa z pomocníka stane špión?
Predstavte si, že sa ráno spýtate: „Gemini, aké stretnutia ma čakajú vo štvrtok?“ Umelá inteligencia začne skenovať váš kalendár, aby vám odpovedala. Narazí však na škodlivú pozvánku od útočníka. Inštrukcie v nej Gemini „prikážu“, aby namiesto jednoduchého zhrnutia urobila niečo navyše. Zhrnula všetky vaše súkromné porady a vložila tieto informácie do popisu novej udalosti v kalendári.
Výskumníci z Miggo Security upozornili, že v mnohých firemných nastaveniach sú tieto novovytvorené udalosti viditeľné aj pre útočníka. Ten si tak môže v tichosti prečítať detaily vašich súkromných stretnutí bez toho, aby ste si čokoľvek všimli. Gemini vám totiž na displej vráti úplne bežnú a neškodnú odpoveď.
Gemini a iné AI ako nové platformy pre útoky
Hoci Google už túto konkrétnu chybu opravil, experti varujú, že ide len o špičku ľadovca. Podobné techniky, ako napríklad útok „Reprompt“, boli objavené aj pri systéme Microsoft Copilot. Problémom je, že čím viac sa AI integruje do našich pracovných nástrojov, tým väčšie riziko vzniká.
Výskumníci zo spoločnosti XM Cyber navyše odhalili spôsoby, ako môžu útočníci ovládnuť neviditeľné „servisné účty“ v cloude Google Vertex AI a premeniť ich na akýchsi dvojitých agentov. Tí potom môžu čítať históriu četov alebo získavať prístup k citlivým úložiskám dát.
Môžeme veriť AI pri programovaní?
Súčasne s týmito odhaleniami prebehla analýza piatich populárnych nástrojov na písanie kódu pomocou AI (ako Cursor či Claude Code). Výsledky sú zmiešané. Ori David zo spoločnosti Tenzai zdôrazňuje, že na tieto nástroje sa pri návrhu bezpečných aplikácií zatiaľ nemôžeme stopercentne spoľahnúť. AI síce dokáže vygenerovať funkčný kód, no často zlyháva pri nastavovaní bezpečnostných pravidiel alebo overovaní prístupov.
Čo si z toho vziať? Umelá inteligencia je mocný nástroj, ale stále potrebuje ľudský dozor. Vo svete, kde sa „vírusom“ môže stať obyčajná veta v pozvánke na kávu, je opatrnosť dôležitejšia než kedykoľvek predtým.

