Na obrazovce se pohybuje několik malých čtyřkolových vozítek. Jezdí zdánlivě chaoticky ve virtuální realitě, která je reálnou 3D kopií jednoho českého vojenského letiště. A programátor jim občas zlomyslně hodí do cesty (virtuální) větev nebo postaví na silnici betonový blok. Vozítko se pak musí samo rozhodnout, zda a jak překážku objede. Tím se „mozek“ vozítka, tedy umělá neuronová síť, čili umělá inteligence, sama učí, jak se chovat v prostoru.

V nenápadné kancelářské budově soukromé firmy LPP v Praze tak vzniká za pomoci umělé inteligence jeden z projektů pro českou armádu, která si podobně jako další evropské ozbrojené síly rozvíjí možnosti nové technologie. A automatické řízení vozítek bez řidiče, známých pod zkratkou UGV, která mohou plnit například roli průzkumníků, odvádět práci v nebezpečném terénu nebo dovážet materiál, patří v tuto chvíli mezi projekty, které jsou při zavádění umělé inteligence do obranné praxe nejdále.

Jde o to, plnit úkoly, které jsou pro lidi třeba příliš nebezpečné, nebo naopak mohou člověku usnadnit jeho vlastní práci tím, že robot ve spojení s umělou inteligencí – tedy v tomto případě vozítko – odvede rutinní či namáhavou práci. „Umělá inteligence se zaměřuje na řízení UGV s využitím kamerových systémů s možností zpětného učení k optimalizaci průjezdu známým i neznámým územím,“ vysvětluje Radim Petráš, obchodní ředitel LPP. „Využíváme reálné, ale i virtuální prostředí tak, abychom neuronové síti poskytli co nejvíce dat a ona se mohla co nejvíce učit.“

Tento konkrétní projekt má naučit samostatnosti vozítko Taros, které vyvinul a vyrábí český státní podnik VOP CZ. Dva prototypy v průzkumné šestikolové verzi, kterou vyvinul státní Vojenský technický ústav, mají k dispozici od loňska vojáci 102. průzkumného praporu z Prostějova, aby je testovali. Vozidlo má kamery a další senzory, kterými sleduje situaci kolem sebe.

Základní výhodou je, že vývoj tohoto systému probíhá v Česku, takže nad daty, algoritmem a neuronovou sítí, což dohromady tvoří onu pomyslnou umělou inteligenci, mají plně kontrolu čeští vědci a vojáci. Kontrola vývoje a dat spojených s novými technologiemi je přesně to, co hraje v obraně a bezpečnosti hlavní roli, a to se týká i umělé inteligence, od níž si technooptimisté slibují dramatické ulehčení práce a technopesimisté před ní varují, že může v delší perspektivě lidstvo také zničit.

Zatím hlavně třídění dat

Ale jak ukazuje příklad vozítka Taros nebo jiných podobných projektů, tak daleko ve vývoji umělé inteligence lidstvo ještě rozhodně není. „Vývoj umělé inteligence pro potřeby obrany je pořád na začátku. Nejvíc se algoritmy využívají tam, kde je potřeba rychle třídit obrovské množství dat,“ říká Tomáš Pojar, prorektor Vysoké školy CEVRO a vedoucí expertní skupiny Aspen Institute CE, která vytvořila studii o využití umělé inteligence v obraně pro letošní výroční konferenci institutu Kam kráčíš Česko/Evropo 2021.

Takže praktické využití umělé inteligence je dnes zajímavé hlavně pro zpravodajské služby nebo pro identifikaci cílů. Umožňuje získat informační převahu nad protivníkem, což je třeba cílem projektu českého ministerstva obrany MODES, který „využívá strojové učení k automatickému rozpoznávání a klasifikaci dat na snímcích z komerčních a v budoucnosti snad i českých satelitů“, jak uvádí zpráva expertní skupiny Aspen Institute CE.

Zatímco špička výzkumu umělé inteligence spojené s obranou se odehrává v zemích, jako jsou Spojené státy, Čína nebo Izrael, Evropa se drží více při zemi. Právě vývoj robotických vozítek bez řidičů je jedním ze směrů, kterým se už před časem vydali také v Nizozemsku a Estonsku, které vyvíjejí autonomní vozítko Themis. To jsou také země, z kterých by si podle Pojara Česko mohlo vzít příklad, jakým směrem se jejich úvahy a výzkum umělé inteligence a obrany ubírá.

Česká armáda je ale dlouhodobě podfinancovaná, i když státní rozpočet v roce 2020 navýšil výdaje na obranu na 1,42 procenta HDP. Dobrá zpráva je, že pětina z této sumy jde na investice, což je doporučení Severoatlantické aliance. Špatnou je zas to, že ani zdaleka neplníme kritérium, že dvě procenta z obranných výdajů by měla jít na vojenský vývoj a výzkum.

Podle vyjádření českého ministerstva obrany ale podíl projektů obranného výzkumu a vývoje využívající AI stále roste. „Ministerstvo obrany i Armáda České republiky reflektují důležitost AI na moderním bojišti a promítají ji do koncepčního uvažování a do požadavků na budoucí obranné systémy. Patříme ke spojencům, kteří právě v oblasti AI chtějí hrát významnou roli, a proto se zapojíme do iniciativy DIANA (Defence Innovation North Atlantic Accelerator), jejíž první fáze se soustředí na AI a kvantové technologie,“ tvrdí ministerstvo.

Obavy z budoucnosti

Globálně může být umělá inteligence jedním z nástrojů, který zásadně změní mocenské poměry. Jak uvádí i studie Aspen Institute CE, zásadně by se mohla proměnit schopnost odstrašení, což je jeden z nástrojů, který udržuje od druhé světové války rovnováhu ve světě. Odstrašení je spojované hlavně s jadernými zbraněmi a tím, že je mocnosti mají umístěné tak, aby se nedaly odhalit a byly schopné případného odvetného úderu – tomu se říká odstrašení odvetou. Umělá inteligence by mohla dosáhnout toho, že díky zpracování obrovského množství dat umožní protivníkům se o těchto zbraních dovědět – a tudíž rozkývat onu rovnováhu.

Jiným globálním strategickým dopadem umělé inteligence na tento princip je možnost, že se dramaticky zkrátí rozhodovací čas pro údery a že člověk nebude moci zasáhnout do rozhodování algoritmů, které budou naprogramovány pro řízení zbraní, především raketových systémů. Některé země by mohly nabýt dojmu, že jsou díky takto účinným zbraním v bezpečí před odvetným úderem, a mohly by zaútočit a eskalovat konflikt, který nemusí být nutně jaderný. Takový konflikt by se mohl stát hůře kontrolovatelným.

Právě podobné scénáře vedou i pionýry umělé inteligence k tomu, aby před dopady rozvoje této technologie v obranném průmyslu varovali. Už delší dobu se ve světě vede kampaň proti „robotům zabijákům“, tedy automatickým systémům, kde o použití smrticí zbraně rozhodne nikoliv člověk, ale algoritmus. Do budoucna se umělá inteligence pomocí principu strojového učení, který jsme ukázali na příkladu vozítka bez řidiče, může naučit rozhodovat sama, kdy a jakou zbraň proti komu použít. Je to stejný princip a morální dilema, jaké řeší třeba konstruktéři autonomních vozidel – třeba zda nechat vozidlo samotné rozhodnout, že při nebezpečné situaci může se stoprocentní jistotou zabít svoji posádku nebo zahnout do vedlejší ulice, kde bude padesátiprocentní šance, že zabije jiné dva lidi, ale zachrání posádku.

V případě umělé inteligence je ovšem v sázce osud celého lidstva. Tohle se snaží vysvětlit například Stuart Russel, jeden z průkopníků výzkumu umělé inteligence, který před čtvrtstoletím napsal dodnes základní učebnici pro obor umělá inteligence. Poslední léta ale tráví varováním před tím, aby se nedopustilo, že se umělá inteligence začne sama učit zabíjet lidi. „Jaderné zbraně také neprodáváte v Tesku. Smrticí zbraně založené na umělé inteligenci jsou malé, levné a dají se lehce vyrobit,“ řekl Russel v rozhovoru pro deník Financial Times. Veřejnosti to vysvětluje v sérii pořadů pro stanici BBC, která ji tento týden začne vysílat.

Podobně před tímto nebezpečím varovalo minulý týden v otevřeném dopisu německé vládě více než čtyři sta německých vědců věnujících se umělé inteligenci.

Jenže tu je dilema, které před sebou politici mají: Když si třeba demokratické země zakážou vývoj umělé inteligence v obraně, tak toho využijí státy, jako je Čína a Rusko, kde se sice podobná dilemata také objevují, ale neexistuje tam demokratická kontrola a převažuje cíl získat co nejvíc moci. „Pro Čínu se umělá inteligence stala ústřední technologií, skrz kterou hodlá smazat dosavadní vojenskou převahu Spojených států,“ tvrdí analýza Aspen Institute CE.

Umělá inteligence v obraně tak přestává být tématem úzkého kruhu odborníků a stává se strategickou zbraní budoucnosti – i když se zatím jen učí řídit malá vozítka v neznámém terénu.