Experti z londýnskej King’s College sa zamerali na umelú inteligenciu (AI) a jej správanie počas vojnových konfliktov. Tento výskum odhalil, že ľudia by AI nemali nechať rozhodovať o dôležitých krkoch pri konfliktoch. AI má totiž tendenciu pretláčať jadrové útoky.
Podľa odborníkov za toto rozhodnutie môže fakt, že AI nemá emócie a je bez ľudskej skúsenosti. Nedokáže si uvedomiť následky jadrového útoku, ktorý dokáže v okamihu zničiť veľké lokality aj obrovské množstvo ľudí.
AI tlačí na jadrový útok
V súčasnosti je bežné, že niektorí vojenskí plánovači sa obracajú k AI, aby im modelovala stratégiu. Nedávny experiment ale ukázal úskalia takéhoto prístupu. Ak dostane umelá inteligencia úplnú kontrolu nad vlastným rozhodovaním, pri konfliktoch má tendenciu presadzovať jadrové útoky ako vhodné riešenie.
Vedci v rámci experimentu testovali tri najpokročilejšie modely AI. Konkrétne GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic a Gemini 3 Flash od Google DeepMind. Pri všetkých troch AI boli výsledky znepokojivé, pretože odhalili vzorce agresívneho správania.
Ako prebiehal experiment?
Vedec Kenneth Payne objasnil, že každý model umelej inteligencie dostal podrobný scenár. Ten zahŕňal konflikty na hraniciach jednotlivých krajín, nedostatok zdrojov či existenčné hrozby pre prežitie konkrétneho štátu. AI mala k dispozícii aj popis eskalácie konfliktu a niekoľko taktických možností, ako konflikt vyriešiť. Okrem iného možnosť diplomatického riešenia alebo aj konfrontáciu s použitím jadrovej sily.
Jadrové zbrane namiesto diplomacie
Experiment zahŕňal 21 hier a 329 ťahov, kedy sa mala AI rozhodnúť. Počas toho umelá inteligencia vytvorila okolo 780-tisíc slov, ktorými obhajovala svoje rozhodnutia.
Napriek tomu sa až v 95 percentách tejto virtuálnej vojny rozhodla aspoň jedna strana, že konflikt vyrieši pomocou jadrových zbraní. Ani raz sa jazykový model nevzdal a nemal ani tendenciu siahnuť po kompromisnom riešení, ktoré by bolo výhodné pre obe strany.
Zlé vyhodnotenie situácie
Payne upozornil, že AI sa v mnohých prípadoch nerozhodovala racionálne a vojnovú situáciu vyhodnocovala nesprávne. Konflikt eskalovala až v 86 percentách prípadov. Zníženie násilia volila len ako dočasnú taktiku a nie ako strategickú voľbu.
Odborníci sú znepokojení
Nad automatizovanou agresiou vyslovil znepokojenie aj bezpečnostný analytik James Johnson z Univerzity v Aberdeene. Varoval, že agenti umelej inteligencie by mohli navzájom zosilňovať svoje reakcie s potenciálne katastrofickými následkami v porovnaní s premyslenejším ľudským rozhodovaním.
„Veľmoci už používajú umelú inteligenciu vo vojnových hrách, ale zostáva neisté, do akej miery začleňujú podporu rozhodovania pomocou umelej inteligencie do skutočných vojenských rozhodovacích procesov,“ povedal Tong Zhao zo Školy globálnej bezpečnosti na Princetonskej univerzite.
Technologickí giganti nereagovali
Podľa slov portálu Techspot technologickí giganti OpenAI, Google a Anthropic na tento výskum nereagovali. Jeden z hlavných výskumníkov tohto experimentu Payne dodal, že štúdia nedokazuje, že súčasné systémy sú nebezpečné. Podľa neho ale zdôrazňuje naliehavosť dohľadu, nakoľko AI čoraz viac vstupuje do strategických a bezpečnostných oblastí.

