Jak rizikový kapitál a umělá inteligence mění etiku a strategii moderního boje

 16. 04. 2026      kategorie: Téma

Současný způsob vedení válek otevírá prostor pro dynamický rozvoj, v němž se technologický pokrok propojuje se startupovou ekonomickou logikou, která tento pokrok pohání. Vstup rizikového kapitálu do obranného sektoru přináší změnu uvažování, zejména přesvědčení o nekonečném růstu a kulturu rychlých experimentů. Tradiční obranný průmysl, charakterizovaný dlouhodobými státními zakázkami a desetiletími vývoje, se zde střetává s dravostí Silicon Valley. Zatímco starý model kladl důraz na fyzickou odolnost a mechanickou spolehlivost, nový akcentuje agilitu kódu a schopnost neustále zlepšovat výrobky. Bojiště již není jen fyzickým prostorem, kde se střetávají kinetické síly, ale vrstvený informační prostor, kde digitální dominance předchází té fyzické.

Foto: Umělá inteligence se stává důležitou technologií, která mění zaběhnuté uvažování o vedení války | Pixabay / Public domain
Foto: Umělá inteligence se stává důležitou technologií, která mění zaběhnuté uvažování o vedení války | Pixabay / Public domain

Základní znak této proměny tvoří vnímání války jako workflow procesu. Moderní systémy řízení boje převádějí bojovou činnost do sekvence digitálně řízených kroků od detekce cíle přes jeho identifikaci až po zásah. Konflikt se tak převádí na výpočetní úlohu, v níž lidský cíl ztrácí konkrétní podobu a mění se v datový objekt. Když se nepřítel stane pouhým bodem v grafu, psychologická bariéra pro použití smrtící síly se radikálně snižuje. Workflow proces zvyšuje efektivitu a zároveň působí jako kognitivní filtr, který pomáhá strukturovat komplexní realitu do přehledných datových vizualizací. Tím vzniká nebezpečná iluze kontroly, kde se válka jeví jako čistě technický problém řešitelný lepším algoritmem.

Umělá inteligence se stává důležitou technologií, která mění zaběhnuté uvažování o vedení války. Vojenské operace přejímají jazyk technologického sektoru: data fusion, sensor to shooter chain, autonomous targeting… Komplexní situace se redukuje na model upřednostňující efektivitu a kvantifikovatelné ukazatele před kontextem a širšími politickými důsledky. Morální dilemata, kulturní specifika zasažených oblastí nebo dlouhodobé sociální dopady jsou chápány jako „šum“ bránící hladkému průběhu operace. Algoritmická logika tak silně ovlivňuje strategické cíle: vítězství již není definováno politickým uspořádáním po válce, ale dosažením určitých parametrů v digitálním modelu.

Strojové učení nicméně pracuje s pravděpodobností, nikoli s jistotou, a každý model obsahuje míru nepřesnosti, která v reálném konfliktu roste. V startupovém prostředí tvoří tato logika přijatelný kompromis, pád aplikace pro doručování jídla nikoho nezabije. V oblasti použití síly má však stejná logika zcela odlišný význam. Nedávný nálet na školu v íránském Minabu ukázal, jak kombinace chybných dat a automatizovaného workflow může vyústit v masivní ztráty na civilních životech. Pokud systém předloží operátorovi „řešení“ s vysokou mírou pravděpodobnosti, schopnost kritického úsudku jednotlivce se v časovém presu může přiblížit nule. Tuto dynamiku potvrzují i testy v americké armádě: experimentální nástroj pro automatizované cílení dosahoval v reálných podmínkách přesnosti kolem 25 %, přičemž interně vyhodnocoval vlastní jistotu na úrovni 90 %. Problémem není jen technická chyba, ale psychologický efekt zvaný „automation bias“, kdy lidé nekriticky důvěřují výstupům automatizovaných systémů i tehdy, jsou-li v rozporu s jejich vlastním pozorováním.

Rizikový kapitál v posledních letech intenzivně vstupuje do obranných startupů, zejména do společností vyvíjejících umělou inteligenci (např. americký Palantir nebo německý Helsing). Obvykle operuje s portfoliem, kde velká část projektů selže a malá část přinese mimořádné výnosy. V obranném sektoru ovšem nesou hlavní riziko státy. Ozbrojené síly a civilní obyvatelstvo se ocitají v roli subjektů, na nichž probíhá testování nových systémů. Vzniká tak asymetrie mezi těmi, kdo profitují ze zhodnocení technologií, a těmi, kdo nesou následky jejich selhání. V logice rizikového kapitálu přitom reálné použití představuje nejhodnotnější formu posouzení ceny produktu. Úspěšná demonstrace na bojišti může zvýšit bonitu firmy a otevřít cestu k dalším vládním kontraktům. Konflikt se tak mění v globální showroom, kde selhání není mrtvý civilista, ale nevyužitá datová příležitost opravitelná v příští aktualizaci firmwaru.

Firmy jako Anduril, Helsing, Palantir nebo Shield AI budují ekosystémy spojující software, autonomní systémy a datovou analytiku. Jejich produkty fungují jako modulární platformy pro různé domény, čímž vytvářejí závislost zákazníka na konkrétním dodavateli. Tato závislost, v komerční sféře známá jako „vendor lock-in“, má v obraně hluboké důsledky pro suverenitu státu: pokud je národní obrana postavena na uzavřeném kódu soukromé firmy, stát ztrácí schopnost samostatně řídit své vojenské kapacity. Z dynamiky neustálého růstu pak vyrůstá strukturální potřeba permanentního napětí. Narativy o soupeření velmocí nebo nutnosti vyhrát závod v AI získávají výrazný ekonomický rozměr. Výrok nejmenovaného investora, podle nějž by ozbrojený střet v oblasti Tchaj-wanu mohl jeho firmám zvýšit hodnotu desetkrát (v investorském žargonu „10x“) přes noc, ilustruje tento způsob uvažování s neobvyklou přímočarostí.

Technologické firmy prezentují své produkty jazykem přesnosti a minimalizace vedlejších škod. Vzniká obraz čisté války, kde data a algoritmy nahrazují chaos kontrolovaným procesem. Je to však nebezpečná utopie ignorující fakt, že válka je interakcí dvou živých vůlí, nikoli technickou kalkulací. Automatizace rizika neodstraňuje, pouze je přesouvá z úrovně jednotlivých lidských chyb do podoby selhání systému. Jednotlivé chyby se šíří skrze propojené systémy a znásobují dopad jednoho mylného vstupu. V podmínkách, kde se protivník aktivně snaží manipulovat senzorové vnímání, je představa hladce fungujícího workflow spíše narativním mýtem.

Rozšiřování umělé inteligence v rozhodovacích procesech také zásadně mění roli vojáka. „Tradiční“ důstojník, který vyhodnocuje přicházející informace a nese za své rozkazy morální odpovědnost, ustupuje modelu, v němž algoritmus sestavuje návrhy a člověk je pouze potvrzuje. Odpovědnost se rozptyluje mezi vývojáře kódu, poskytovatele datových sad a vojenské struktury. V případě tragické chyby neexistuje jasný viník. Debata o člověku v rozhodovací smyčce sice působí uklidňujícím dojmem, ale rutinní potvrzování strojových rozhodnutí neznamená skutečnou kontrolu. Vzniká návyk tzv. „deskillingu", při němž se postupně vytrácí schopnost rozlišovat mezi chybou a reálnou hrozbou. Přítomnost člověka tak funguje jako pouhý etický a právní štít zakrývající faktickou závislost na algoritmu.

Souběžně dochází k přenastavení vztahu mezi armádou a technologickými firmami. Společnosti vyvíjející vojenskou umělou inteligenci najímají bývalé vysoké důstojníky a manažeři technologických firem naopak vstupují do poradních orgánů ministerstev obrany. Propojování výkonné moci s logikou soukromého sektoru vytváří obrovský střet zájmů. Regulace přitom reaguje s obrovským zpožděním a demokraticky odpovědné instituce se ocitají v defenzivě vůči narativu spojujícímu technologický optimismus, geopolitickou úzkost a příslib ekonomického růstu. Případy firem snažících se omezit využití svých modelů pro vojenské aplikace ukazují nové napětí: otázka nezní pouze, kdo vlastní licenci na software, ale kdo určuje etické hranice jeho nasazení.

Tato proměna má drtivé důsledky pro stabilitu demokratických systémů. Rozhodování o použití síly se posouvá z veřejné sféry do uzavřeného prostoru soukromých firem a investičních fondů. Válka přestává být „pokračováním politiky jinými prostředky“, stává se součástí globálního ekonomického ekosystému, který vytváří nové „pobídky“ pro udržování konfliktů v „horké“ fázi. Mír v této logice totiž znamená stagnaci datových toků i zisků. Kdo ovládne pravidla pro užití umělé inteligence ve válce, ten rozhodne o tom, jestli budou o zabíjení stále rozhodovat lidé a veřejné instituce, nebo algoritmy zaměřené na efektivitu a zisk. Bez přísných pravidel se může stát, že o válkách přestanou rozhodovat politici, a začnou o nich rozhodovat spekulanti jen proto, aby jejich firmy víc vydělaly.

Zdroj: NUPI, Defense News

 Autor: Jan Buchar

Spolupracujeme sCZ- LEXCZ - AOBPCZ -VOP