TECHBYTE.skTECHBYTE.sk
  • Domov
  • Tech
  • Recenzie
  • Veda
  • Elektromobilita
  • Domácnosť
  • Gaming
Čítaš: Umelá inteligencia má pri vojnových konfliktoch tendenciu tlačiť na jadrové útoky
Zdieľať
TECHBYTE.skTECHBYTE.sk
  • Domov
  • Tech
  • Recenzie
  • Veda
  • Elektromobilita
  • Domácnosť
  • Gaming
Hľadať
  • Domov
  • Tech
  • Recenzie
  • Veda
  • Elektromobilita
  • Domácnosť
  • Gaming
Sleduj TECHBYTE
© 2026 BYTE Media s.r.o. Všetky práva vyhradené.

Umelá inteligencia má pri vojnových konfliktoch tendenciu tlačiť na jadrové útoky

Experiment ukázal, že pri vojnových konfliktoch si AI volí radšej radikálne riešenie cez jadrový útok. Diplomaciu dáva bokom.

Posledná aktualizácia: 27. februára 2026 18:00
Lucia Bihuncová
Publikované 27. februára 2026
Zdieľať
3 min
AI, umelá inteligencia, deepfake, kybernetická hrozba
Ilustr. obr. | Zdroj: DALL-E
Zdieľať
V skratke
  • Simulované vojnové scenáre odhalili, že AI sa prikláňa ku agresii
  • Vedci hovoria, že ľudia by sa na AI nemali spoliehať v oblasti vojnovej stratégie
  • Do testu bola zapojená AI od gigantov OpenAI, Anthropic a Google

Experti z londýnskej King’s College sa zamerali na umelú inteligenciu (AI) a jej správanie počas vojnových konfliktov. Tento výskum odhalil, že ľudia by AI nemali nechať rozhodovať o dôležitých krkoch pri konfliktoch. AI má totiž tendenciu pretláčať jadrové útoky.

Podľa odborníkov za toto rozhodnutie môže fakt, že AI nemá emócie a je bez ľudskej skúsenosti. Nedokáže si uvedomiť následky jadrového útoku, ktorý dokáže v okamihu zničiť veľké lokality aj obrovské množstvo ľudí.

AI tlačí na jadrový útok

V súčasnosti je bežné, že niektorí vojenskí plánovači sa obracajú k AI, aby im modelovala stratégiu. Nedávny experiment ale ukázal úskalia takéhoto prístupu. Ak dostane umelá inteligencia úplnú kontrolu nad vlastným rozhodovaním, pri konfliktoch má tendenciu presadzovať jadrové útoky ako vhodné riešenie.

Vedci v rámci experimentu testovali tri najpokročilejšie modely AI. Konkrétne GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic a Gemini 3 Flash od Google DeepMind. Pri všetkých troch AI boli výsledky znepokojivé, pretože odhalili vzorce agresívneho správania.

Ako prebiehal experiment?

Vedec Kenneth Payne objasnil, že každý model umelej inteligencie dostal podrobný scenár. Ten zahŕňal konflikty na hraniciach jednotlivých krajín, nedostatok zdrojov či existenčné hrozby pre prežitie konkrétneho štátu. AI mala k dispozícii aj popis eskalácie konfliktu a niekoľko taktických možností, ako konflikt vyriešiť. Okrem iného možnosť diplomatického riešenia alebo aj konfrontáciu s použitím jadrovej sily.

Jadrové zbrane namiesto diplomacie

Experiment zahŕňal 21 hier a 329 ťahov, kedy sa mala AI rozhodnúť. Počas toho umelá inteligencia vytvorila okolo 780-tisíc slov, ktorými obhajovala svoje rozhodnutia.

Napriek tomu sa až v 95 percentách tejto virtuálnej vojny rozhodla aspoň jedna strana, že konflikt vyrieši pomocou jadrových zbraní. Ani raz sa jazykový model nevzdal a nemal ani tendenciu siahnuť po kompromisnom riešení, ktoré by bolo výhodné pre obe strany.

Zlé vyhodnotenie situácie

Payne upozornil, že AI sa v mnohých prípadoch nerozhodovala racionálne a vojnovú situáciu vyhodnocovala nesprávne. Konflikt eskalovala až v 86 percentách prípadov. Zníženie násilia volila len ako dočasnú taktiku a nie ako strategickú voľbu.

Odborníci sú znepokojení

Nad automatizovanou agresiou vyslovil znepokojenie aj bezpečnostný analytik James Johnson z Univerzity v Aberdeene. Varoval, že agenti umelej inteligencie by mohli navzájom zosilňovať svoje reakcie s potenciálne katastrofickými následkami v porovnaní s premyslenejším ľudským rozhodovaním.

„Veľmoci už používajú umelú inteligenciu vo vojnových hrách, ale zostáva neisté, do akej miery začleňujú podporu rozhodovania pomocou umelej inteligencie do skutočných vojenských rozhodovacích procesov,“ povedal Tong Zhao zo Školy globálnej bezpečnosti na Princetonskej univerzite.

Technologickí giganti nereagovali

Podľa slov portálu Techspot technologickí giganti OpenAI, Google a Anthropic na tento výskum nereagovali. Jeden z hlavných výskumníkov tohto experimentu Payne dodal, že štúdia nedokazuje, že súčasné systémy sú nebezpečné. Podľa neho ale zdôrazňuje naliehavosť dohľadu, nakoľko AI čoraz viac vstupuje do strategických a bezpečnostných oblastí.

Zdieľaj tento článok
Facebook Kopírovať odkaz Vytlačiť

Najčítanejšie

Peniaze, príspevok
26-tisíc Slovákov si má od januára 2027 prilepšiť o vyše 280 €, a to každý mesiac
11. apríla 2026
tankovanie, benzín, nafta
Prvá krajina zakázala tankovať naftovým autám
12. apríla 2026
Operátor Towercom, Plustelka, Stanica
Veľká zmena pre divákov TV: Slovenské TV stanice prestanú fungovať, musíte preladiť
11. apríla 2026
Windows, Linux
Prvá vláda zakáže Windows: Počítače má výlučne poháňať Linux
11. apríla 2026

Najnovšie články

  • Nová značka desí vodičov. Kto ju nepozná zaplatí pokutu až 200 €
  • Volga sa oficiálne vracia. Dva nové modely vyrábajú v bývalej fabrike Škody
  • EÚ schválila prísnu povinnosť: Týka sa aj Slovenska, hrozia devastačné pokuty (platné od augusta 2026)
  • V Pekingu budú humanoidi bežať polmaratón. Bežia už tak rýchlo, ako ľudia
  • Rusi sa ho boja ako čert kríža: Ukrajinský dron Marťan využíva AI, cieľ trafí aj bez GPS signálu

Bude sa vám páčiť

Slovensko, EÚ, mimoriadne

EÚ schválila prísnu povinnosť: Týka sa aj Slovenska, hrozia devastačné pokuty (platné od augusta 2026)

13. apríla 2026
Google Gemini

Google Gemini dokáže generovať interaktívne simulácie dát, a to priamo v chate a v reálnom čase (+ video)

10. apríla 2026
ChatGPT

OpenAI zlacnilo jedno svoje predplatné: Ušetriť viete aj 1 200 eur ročne

10. apríla 2026

Uľahčenie každodenných činností s Galaxy AI

10. apríla 2026

 

Spájame vedu, technológie a internetovú kultúru.

Dôležité odkazy

  • Kontakt
  • Reklama
  • O nás
  • Redakcia
  • Zásady používania cookies
  • Podmienky používania
  • Používanie AI

Spoj sa s nami

© 2026 BYTE Media s.r.o. Všetky práva vyhradené.
Vitaj späť!

Prihlás sa do svojho účtu

Username or Email Address
Password

Zabudol si heslo?