Geopolitika a umělá inteligence ve vojenství: Cesta k regulaci a bezpečnosti
Dynamický rozvoj umělé inteligence výrazně mění povahu současných i budoucích konfliktů a stává se klíčovým prvkem geopolitické rivality. Tato technologie dnes hraje stále významnější roli ve vojenském plánování, zpravodajství a autonomních vojenských systémech. Její nástup zároveň odhaluje absenci jednotného globálního rámce, jenž by reflektoval důsledky jejího obranného využití. Ve světě rostoucího velmocenského soupeření se umělá inteligence může stát nejen prostředkem posilování dominance, ale i zdrojem nové globální nestability.

Využití umělé inteligence (AI – Artificial Intelligence) ve vojenských technologiích vyvolává mimořádně složité otázky. První z nich představují chybějící globální pravidla. Fenomén známý jako AI Power Paradox spočívá v rozdílné rychlosti vývoje umělé inteligence a schopností států vytvářet odpovídající regulační a etické normy. Rychlý technologický pokrok, zvláště v oblasti zboží dvojího (civilního i vojenského) užití, vytváří prostor pro rostoucí nejistotu, neprůhlednost a zvyšující se asymetrii mezi světovými mocnostmi.
Druhou složitou otázkou se stala multiplikace snah o regulaci AI. V roce 2024 existovalo nejméně osm paralelních mezinárodních iniciativ (např. GGE on LAWS, REAIM, OSN, NATO, CARICOM, Belen Communiqué, Freetown Communiqué), které se vojenskému využití umělé inteligence věnovaly. Tyto aktivity vedou k roztříštěnosti, přetížení aktérů a tzv. „forum shoppingu“, kdy si státy vybírají platformy podle vlastního národního zájmu namísto hledání univerzálního řešení. Výsledkem je nepřehledné množství různých přístupů, které postrádají efektivní vedení.
Tento vývoj nahrává vzniku menších aliancí zaměřených na technologickou a obrannou spolupráci, jako je AUKUS (Austrálie, Spojené království a USA). Jeho druhý pilíř se soustředí právě na vznikající technologie, včetně AI. Objevují se však i bilaterální či regionální spolupráce, například mezi Čínou a Ruskem. Státy proto hledají partnery spíše mezi názorově spřízněnými spojenci, což však dále komplikuje dosažení globálního konsenzu pro využití umělé inteligence ve vojenství.
Navzdory této fragmentaci lze pozorovat slaďování užívaných výrazů, jež se na mezinárodních fórech začaly ustálovat. Výrazy jako „responsible AI“ (odpovědná umělá inteligence) a „meaningful human control“ (smysluplná lidská kontrola) se objevují napříč iniciativami a shoda na jejich užívání začíná fungovat jako prostředek k budování vzájemné důvěry. Přestože jejich význam není pevně definován, napomáhají utvářet základní terminologický a normativní rámec, bez nějž bude obtížné s regulací vojenské umělé inteligence začít.
Významný impuls k institucionalizaci AI přinesla Evropská unie prostřednictvím legislativy EU AI Act, přijaté v roce 2024. Tento právní rámec, zaměřený na civilní sektor, stanovuje čtyřstupňový model pro kategorizaci rizik spojených s umělou inteligencí – nepřijatelné, vysoké, omezené a minimální riziko. K jeho klíčovým částem patří důraz na transparentnost, odpovědnost a lidský dohled, které se velmi pravděpodobně budou týkat i vojenského nasazení AI.

Evropský akt má ovšem již nyní zásadní dopad na zboží dvojího užití. Podle švédského think tanku SIPRI tato regulace později poslouží jako ustálená praxe (best practices) pro obranu. Unijní principy se v praxi stanou povinností dokumentovat vývoj, testování a použití AI systémů. To umožní zpětné dohledání chyb, určení odpovědnosti a v případě mezinárodní bezpečnosti i posílení důvěry mezi státy. V současnosti však chybí globální orgán, který by tuto agendu koordinoval. Vytvoření nezávislého dozorového orgánu, inspirovaného Evropskou radou pro AI (EAIB – European Artificial Intelligence Board) může sehrát klíčovou roli v normalizaci odpovědného používání AI a zároveň sloužit jako věrohodný arbitr v mezinárodních sporech.
Význam EU v roli globálního normotvůrce dále podporují ambiciózní investice do výzkumu a vývoje umělé inteligence. V letošním roce Evropská komise oznámila investiční plán (InvestAI) ve výši 200 miliard eur zaměřený na inovace v oblasti AI. Ten je doplněn o 800 miliard eur v rámci plánu ReArm Europe, který podporuje evropskou autonomii v oblasti AI, kvantových technologií a obranného výzkumu. EU tak vysílá jasný signál, že nechce být pouze pasivním příjemcem pravidel, ale též aktivním tvůrcem globálních standardů.
Vedle EU jako celku je však třeba zmínit i význam menších a středně velkých států, jako jsou Nizozemsko či Rakousko, které se při tvorbě pravidel pro AI hlásí o slovo. Nizozemsko v roce 2023 iniciovalo summit REAIM (Responsible Artificial Intelligence in the Military Domain) a přispělo k přijetí historicky první rezoluce OSN o vojenském užití umělé inteligence. Rakousko se dlouhodobě profiluje jako zastánce zákazu autonomních zbraní a podporuje začlenění fráze „meaningful human control“ do všech relevantních dokumentů. Tyto příklady ukazují, že i menší státy mohou pomocí diplomacie, morální autority a spolupráce s občanskou společností prosazovat regulační agendu na globální úrovni.
Do této skupiny států se řadí i Česká republika, která loni v červenci aktualizovala svou Národní strategii umělé inteligence ČR 2030. Strategie se opírá o sedm pilířů: výzkum, vzdělávání, dovednosti a dopady AI na trh práce, etiku a právo, bezpečnost, průmysl a veřejnou správu. V bezpečnostní oblasti usiluje o zavedení AI s důrazem na spolehlivost, odolnost vůči kybernetickým hrozbám a posílení obranyschopnosti. Podle strategie je zapotřebí větší propojení civilního a obranného sektoru a zavedení jasných právních a etických standardů i pro vojenské aplikace umělé inteligence.
Česká strategie navíc zdůrazňuje nezbytnost budovat veřejnou důvěru v AI prostřednictvím transparentních postupů, včetně auditovatelnosti automatizovaných rozhodnutí. Zároveň počítá s regulačním rámcem pro civilní umělou inteligenci jako základem pro podobné standardy ve vojenském prostředí – zejména v oblastech, kde dochází k překryvu, například v oblastech kyberbezpečnosti, ochrany hranic nebo krizového řízení.
Globální regulace vojenského užití AI, o kterou stojí mnohé členské státy Evropské unie, z pohledu mezinárodních vztahů nicméně naráží na technologické kapacity a geopolitické ambice velmocí. USA nebo Čína vnímají umělou inteligenci jako prostředek k posílení vojenské převahy, což vede k neochotě uzavírat omezující regulační dohody. Naproti tomu evropské státy – zejména ty menší – vnímají AI spíše jako hrozbu, kterou je třeba kontrolovat. Tento rozdíl v postojích vytváří asymetrické prostředí, kde jsou některé státy ochotny přistoupit na přísné normy, zatímco jiné usilují o co největší flexibilitu. Právě v tomto kontextu je důležité, aby EU a její členové vystupovali jednotně a spojovali oba přístupy. Nabídnout mohou „zlatou střední cestu“ v podobě rizikově orientované a hodnotově zakotvené regulace.
Využití umělé inteligence ve vojenském sektoru představuje zásadní výzvu pro současnou geopolitiku. Její rychlý rozvoj nutí mezinárodní společenství k rychlé a koordinované reakci. Fragmentace regulačních iniciativ, rozdílné zájmy velmocí a neustávající technologický pokrok však komplikují dosažení globálního konsenzu. Na druhé straně otevírají prostor pro inovativní přístupy a vznik regionálních aliancí zaměřených na spolupráci v oblasti AI. Evropská unie svým právním rámcem a investicemi do výzkumu dokáže nastavit solidní standard, který se možná stane vzorem pro ostatní a podpoří sjednocení přístupů na mezinárodní úrovni. Pro Českou republiku a další menší státy představuje aktivní zapojení do tvorby pravidel příležitost prosadit hodnotově podložené a pragmatické principy regulace.
Zdroj:
SIPRI, Česká vláda, Evropská komise