Jensen Huang, generálny riaditeľ spoločnosti Nvidia a zároveň jeden z hlavných reprezentantov globálneho AI priemyslu, si tento týždeň neodpustil pomerne ostrú kritiku voči osobám, ktorých nazýva “katastrofisti”. Konkrétne týmto pojmom označuje lídrov technologického sektora a politických analytikov, ktorí podľa jeho názoru šíria prehnanú či dokonca škodlivú rétoriku o tom, aké riziká predstavuje rozmach umelej inteligencie.
Huang v poslednom čase hovoril na konferencii GTC 2026 v San Jose, v podcaste All-In aj v rozhovore pre Stratechery, pričom vo všetkých troch prípadoch odovzdal rovnaké posolstvo. Varovanie je podľa neho legitímne a na mieste, no vyvolávanie strachu je jednoducho zbytočné a nebezpečné.
Servítku si pred ústa nedával, aspoň nie vždy
Najpriamejší bol Huang v rozhovore pre Stratechery, počas ktorého uviedol, že ho prekvapilo, „ako hlboko sú katastrofisti integrovaní vo Washingtone D.C. a ako správy katastrofistov ovplyvnili psychológiu tvorcov politík.“
V podcaste All-In bol ešte konkrétnejší. AI podľa neho „nie je biologická bytosť, nie je to mimozemšťan, nie je to vedomie. Je to počítačový softvér.“ Portál CyberNewsCenter, ktorý sledoval celý priebeh GTC 2026, uvádza, že Huang tieto myšlienky rozvíjal v kontexte širšieho preformulovania celých “AI pretekov”, ktoré sa postupne odkláňajú od čísel z benchmarkov a zveličených hrozieb v prospech infraštruktúry, agentickej AI a fyzickej inteligencii.

Počas GTC 2026 reagoval aj na otázku o tom, ako mohla spoločnosť Anthropic lepšie zvládnuť svoj spor s Pentagónom, ktorý ju označil za bezpečnostné riziko. Huang poznamenal v podstate len to, že rozdiel medzi skutočnou obavou a rétorikou, ktorá len straší ľudí, je zásadný. Práve ten druhý typ komunikácie (zastrašovanie) považuje za priveľmi škodlivý, pretože AI je mimoriadne dôležitá pre budúcnosť.
Zastáva názor, že najväčším rizikom pre národnú bezpečnosť USA v oblasti AI nie samotná technológia, ale spomalenie jej šírenia vyvolané verejným strachom.
Znepokojujúce čísla
Huang sa však neopiera len o vlastné postrehy. Alarmujúce sú aj oficiálne čísla, ktoré naznačujú, že zastrašovanie má skutočný vplyv. Správa od Axios, na ktorú sa odvolával počas GTC, uvádza, že len 26 percent amerických voličov má na AI priaznivý pohľad. Naproti tomu v Číne má k tejto technológii pozitívny postoj viac ako 80 percent respondentov.
Pre šéfa firmy, ktorej celý obchodný model stojí na raste dopytu po AI výpočtovom výkone, je to veľmi vážny varovný signál. Huang tento rozdiel nepovažuje za kultúrnu kuriozitu, ale za priamy dôkaz toho, že americká verejná diskusia o AI je značne deformovaná rétorikou strachu.
Portál Quartz v analýze GTC 2026 keynote píše, že Huang otvoril konferenciu práve touto témou a prirovnal súčasnú situáciu k historickým momentom, keď ľudia odmietali prijať elektrinu, elektrické motory či spaľovacie motory.
Tí, ktorí tieto technológie neprijali, podľa neho zaplatili ekonomickú cenu na generácie dopredu. Konkrétne Európa, ktorá zaostala počas poslednej priemyselnej revolúcie, je pre Huanga najlepším príkladom toho, čo čaká krajiny, ktoré sa z obavy pred technológiou rozhodnú spomaliť.
Spor Anthropicu a Pentagónu
Táto téma je dôležitá aj v kontexte spomínaného sporu, ktorý vedie spoločnosť Anthropic, tvorca AI Claude, a americkým ministerstvom obrany. Pôvodne sa rokovania medzi týmito dvoma subjektmi niesli v pomerne neškodnej rovine, no problém nastal po tom, ako minister obrany Pete Hegseth požiadal o odstránenie etických obmedzení z podmienok používania modelov Claude v klasifikovaných vojenských systémoch.
Anthropic odmietla formulácie, ktoré by umožňovali vojenské nasadenie bez záruky ľudského dohľadu a už vôbec pri rozhodnutiach o použití sily. Hegseth následne označil Anthropic za riziko v dodávateľskom reťazci a nariadil kľúčovým dodávateľom prerušiť obchodné vzťahy s touto firmou.
Prezident Donald Trump následne nariadil väčšine federálnych agentúr prestať využívať AI od Anthropic, pričom Pentagón dostal šesťmesačnú lehotu na postupné vyradenie tejto technológie zo svojich systémov. Anthropic medzitým spochybňuje právomoc ministra obrany zasahovať do komerčných vzťahov firmy s inými súkromnými partnermi a naznačuje, že celý spor má skôr politický než bezpečnostný charakter.
Huang verí, že Anthropic napriek tomu uspeje
Napriek závažnosti tohto konfliktu Huang verí, že Anthropic to veľmi neuškodí. V podcaste All-In predpovedal, že ročné príjmy spoločnosti by mohli do roku 2030 presiahnuť 1 bilión dolárov, pričom súčasné prognózy samotného generálneho riaditeľa Daria Amodeia označil za príliš skromné.
Pre porovnanie, Pentagón plánoval s Anthropic zmluvu v hodnote do 200 miliónov dolárov, čo je pri takýchto odhadoch budúcich príjmov marginálna suma. Axios uvádza, že celkové príjmy Anthropic dosiahli v roku 2025 zhruba 14 miliárd dolárov.

Stojí pritom za zmienku, že Nvidia má v Anthropic investičný záväzok vo výške 5 miliárd dolárov, takže optimizmus Huanga smerom k jeho partnerovi sa dá pochopiť. Zároveň to ale naznačuje, že jeho záujem nie je len akademický. Huang to však priznal len nepriamo, keď naznačil, že niektorí lídri využívajú rétoriku strachu na získavanie investícií alebo na ovplyvňovanie regulačného prostredia, čo je odkaz, ktorý mnohí pozorovatelia čítajú ako nepriamu kritiku práve Anthropic.
Aj vlastný záujem
Samozrejme, Huangov optimizmus voči AI treba hodnotiť aj v súvislosti s jeho vlastnou pozíciou. Nvidia v poslednom fiškálnom roku dosiahla tržby 215,9 miliardy dolárov, čo predstavuje medziročný nárast o 65 percent a zároveň historický rekord. Príjmy z dátových centier, ktoré sú takmer výlučne spojené s AI infraštruktúrou, dosiahli za celý rok 197,3 miliardy dolárov.
Fortune k tomu dodáva, že Nvidia v priebehu fiškálneho roka vrátila akcionárom viac ako 41 miliárd dolárov formou spätného odkupu akcií a dividend. Akékoľvek spomalenie adopcie AI by teda tieto čísla priamo ohrozilo.
To však automaticky neznamená, že jeho argument je nesprávny. Otázka, kde leží hranica medzi zodpovedným varovaním a kontraproduktívnym šírením strachu, je legitímna a v AI komunite čoraz naliehavejšia.

