Google podpísal s Pentagónom tajnú dohodu, ktorá americkému ministerstvu obrany umožňuje využívať umelú inteligenciu firmy na utajovaných serveroch, a to na akýkoľvek zákonný vládny účel. Táto formulácia sa môže zdať neutrálna, no v kontexte modernej vojny a spravodajských operácií v sebe ukrýva jeden z najzávažnejších technologicko-etických posunov za posledné roky. Google sa tak pridal k spoločnostiam OpenAI a xAI, ktoré majú s americkou armádou podobné dohody, píše Tech Startups.
Projekt Maven
Mnohí o tom vôbec nevedia, no vzťah Googlu k vojenskému využitiu umelej inteligencie má celkom dlhú a hlbokú históriu, ktorá prispieva ku kontroverznej povahe posledného diania.
V roku 2018 gigant vstúpil do Projektu Maven, teda vojenského programu amerického letectva, ktorý využíval AI na analýzu videozáznamu z dronovej kamery a identifikáciu cieľov. Zamestnanci no nevzali na ľahkú váhu, viac ako 4-tisíc z nich podpísalo interný protestný list so slovami „veríme, že Google by nemal podnikať vo vojnovom biznise,“ a asi tucet na protest rezignovalo.
Vedenie firmy nakoniec ustúpilo, nechalo zmluvu vypršať už v marci nasledujúceho roku a prijalo Etické princípy AI, čiže záväzok, že technológia spoločnosti nebude používaná pre zbrane ani masové sledovanie. O sedem rokov neskôr, v apríli tohto roku, The Information odhalil, že tieto princípy dostali novú interpretáciu a Google sa znovu vrátil k Pentagónu. Tentokrát však cez utajovanú zmluvu s omnoho širšou pôsobnosťou.

Akýkoľvek zákonný vládny účel
Toto je kľúčová veta celej dohody. A to, že nie je úplne smerodajná, je cieľ, nie náhoda. Nie je to formulácia, ktorá obmedzuje využitie AI na konkrétne operácie, úlohy alebo systémy. Naopak, otvára dvere k celému spektru vojenských a spravodajských využití, od analýzy spravodajských informácií cez strategické plánovanie až po priamu podporu rozhodovacích procesov v bojových situáciách.
Ako referuje The Verge, nedlho pred podpisom zmluvy vyše 580 zamestnancov Googlu podpísalo list, v ktorom vedenie firmy žiadali, aby odmietlo vojenské využitie AI ako „neľudské a mimoriadne škodlivé“.
Organizátori protestu použili priame prepojenie na rok 2018: „Maven nie je za nami. Boj pokračuje.“ Tentokrát ide podľa nich o oveľa väčšie riziko; nie o jeden konkrétny kontrakt, ale o to, či sa celý technologický stack Googlu, vrátane modelov Gemini, výskumného oddelenia DeepMind a čipov TPU, stane súčasťou vojenskej infraštruktúry na utajovaných sieťach, kde nikto mimo Pentagonu nevidí, čo sa s ňou robí, píše The Next Web.
Tri rôzne prístupy
Ako sme už spomenuli, Google nie je jedinou AI firmou, ktorá je v aktívnom kontakte s americkou vládou. AI sektor ako celok prechádza hlbokou transformáciou vzťahu k armáde.
OpenAI v júni minulého roku podpísala zmluvu s americkým ministerstvom obrany v hodnote 200 miliónov dolárov, na základe ktorej budú jej modely nasadené na utajovanej vojenskej sieti, hoci výlučne cez cloud, nie priamo na bojových zariadeniach.
Spoločnosť si pritom vyhradila dve kľúčové hranice: zákaz využitia na masové domáce sledovanie a zachovanie ľudskej zodpovednosti pri rozhodovaní o použití sily, vrátane autonómnych zbraní. Upozornil na to priamo CEO Sam Altman na sieti X.
Anthropic zvolil ešte prísnejší postup a odmietol požiadavky Pentagónu na odstránenie ochranných mechanizmov týkajúcich sa zbraní a sledovania, čo viedlo k verejným sporom s ministerstvom obrany. Spor viedol k tomu, že americká vláda označila Anthropic za bezpečnostné riziko, o čom sme vás informovali v samostatnom článku na tomto odkaze.
xAI Elona Muska má s Pentagónom tiež uzavretú utajovanú zmluvu, pričom Japan Times uvádza, že zmluvy úradu s kľúčovými AI firmami dosahujú hodnotu až 200 miliónov dolárov za každú jednu.
V čom je vlastne problém?
Tí, ktorí podporujú myšlienku vojenského využitia AI, sa zvyknú oháňať argumentom, že lepšia spravodajská analýza a rýchlejšie spracovanie informácií znižujú neistotu. Dokonca nezriedka tvrdía, že v niektorých prípadoch môžu zabrániť zbytočným stratám na životoch.
Kritici však poukazujú na špecifické vlastnosti jazykových modelov, ktoré ich robia pre bojové nasadenie mimoriadne nebezpečnými. Ako asi všetci vieme, modely generatívnej AI, nech už za nimi stojí ktokoľvek, často produkujú vierohodne znejúce odpovede, ktoré sú však fakticky nesprávne. A čo navyše, pôsobia sebaisto aj vtedy, keď by mali byť opatrné.

Výskum, ktorý cituje TechRadar ukázal, že AI modely nasadené do simulácií vojnových hier volili jadrové hrozby ako štandardnú stratégiu v 95 percentách prípadov. Ďalším problémom je otázka zodpovednosti: model poskytne analýzu, operátor ju interpretuje, inštitúcia na základe nej koná. Každý krok je prepojený, no žiaden z nich plne nevlastní výsledok, čo komplikuje akúkoľvek ex post analýzu zlyhaní.
Cesta von nebude ľahká, ak vôbec možná
Vzorec, ktorý sa pomaly rystuje naprieč Googlom, OpenAI a Anthropicom, naznačuje, že ďalšia fáza vývoja AI bude definovaná nielen algoritmami, ale aj veľkými zmluvami. Keď jeden veľký hráč akceptuje formuláciu ako „akýkoľvek zákonný vládny účel,“ ostatní čelia tlaku buď to slepo nasledovať svojho “kolegu”, alebo riskovať stratu pozície na kľúčovom trhu. Výsledkom tak môže byť postupná normalizácia vojenských AI partnerstiev aj medzi firmami, ktoré sa kedysi prezentovali ako nezaujaté.
Google stavia na tom, že účasť mu poskytuje viac kontroly nad tým, ako sú jeho modely nasadené, než keby zostal bokom. Rizikom však zostáva, že keď raz otvoríte takéto dvere, zavrieť ich je veľmi ťažké, ba až nemožné.
Kde je tá hranica?
Hoci je stále reč o technológii, dôležitejšia otázka má skôr filozofický a politický charakter. Doposiaľ platilo, že hranice etického využitia AI stanovovali samotné firmy, zvyčajne prostredníctvom interných smerníc a etických princípov. Tieto hranice sa teraz prenášajú do zmlúv s vládou, kde ich obsah určuje ministerstvo obrany a americký Kongres.
Výsledkom je, že slovo „zákonný“ nahrádza slovo „etický.“ Nie sú to synonymá. To, čo je zákonné, sa mení. A práve to, čo je etické, zostáva predmetom sporu.

