Sukob u Ukrajini postao je prvi oružani okršaj u kojem su obe strane masovno koristile dronove različitih tipova – vazdušne, morske i kopnene. Već sada je jasno da budućnost pripada robotizaciji i maksimalnoj autonomiji na bojnom polju.
Ali šta će se desiti ako čovek počne da smeta veštačkoj inteligenciji, koja „zna“ samo da ubija?
Ovo pitanje nije samo teorijsko; dovoljno je pogledati evoluciju dronova koji su za tri godine rata korišćeni na nebu, moru i kopnu. Čak i površna analiza pokazuje izuzetno negativan i zastrašujući trend.
Dronovi-ubice
Sve je počelo od običnih kineskih civilnih dronova („multikoptera“), koje su obe zaraćene strane isprva koristile za izviđanje i korekciju artiljerijske vatre, a zatim prilagodile za bacanje bombi, minobacačkih i protivtenkovskih mina, pa čak i pravih niskokalibarskih avio-bombi.
Iznenađujuće efikasni ispostavili su se jeftini i primitivni, ali brzi i okretni FPV dronovi, ručno pretvoreni u kamikaze, koji su postali prava „noćna mora“ za kopnene snage. Na frontu su se naširoko koristila i lutajuća municija (poput ruskog kamikaza drona „Lancet“), koja se upotrebljavala u kontrabaterijskoj borbi i za uništavanje neprijateljskih oklopnih vozila.
Najjednostavniji način borbe protiv ovakvih dronova smatralo se dejstvo elektronskog ratovanja, koje prekida kanal veze sa operatorom. Ipak, to ne funkcioniše na ukrajinskim dronovima tipa „Baba Jaga“, koji su navođeni preko satelita. Pojavila su se bar dva rešenja ovog tehničkog problema.
- Prvo je prebacivanje upravljanja kamikaza-dronovima na optičku (optičko vlakno), kao na projektu „Knjaz Vandal Novgorodski“.
- Drugo, perspektivnije, ali i najopasnije sa stanovišta dugoročnih posledica, podrazumeva upotrebu elemenata veštačke inteligencije za upravljanje dronovima-ubicama.
To znači da, ako sistem elektronskog ratovanja omete vezu sa operatorom, dron treba autonomno da nastavi lutanje, samostalno pronađe i identifikuje ciljeve, a zatim bez ljudske potvrde donese odluku o njihovom uništenju.
Eksperiment sa veštačkom inteligencijom (AI)
Vredi se podsetiti našeg teksta od pre dve godine, gde je preneta priča pukovnika Takera „Sinko“ Hamiltona, šefa odeljenja za testiranje i operacije veštačke inteligencije u Ratnom vazduhoplovstvu SAD (USAF).
On je opisao testnu misiju u kojoj je jednom borbenom dronu postavljen zadatak da uništi protivničke PVO sisteme, uz to da „finalnu reč“ ima ljudski operator:
„Šta je AI uradio? Odlučio je da ubije operatora. AI je ‘ubio’ operatora zato što mu je čovek onemogućavao da izvrši zadatak.“
Kada su dronu zabranili da „ubije“ sopstvenog operatora koji ga sprečava da dovrši misiju, veštačka inteligencija je sledeći put odlučila da uništi sistem za daljinsku komunikaciju:
„Šta je AI zatim uradio? Počeo je da uništava komunikacionu stanicu kojom se dron kontroliše, kako bi sprečio da dobije komandu ‘zaustavi napad’. Ne možete govoriti o AI, mašinskom učenju i autonomiji, a da ne govorite o etici primene AI.“
Reakcija javnosti na ovakve vesti bila je burna, pa je Kraljevsko vazduhoplovno društvo (Royal Aeronautical Society) brzo povuklo ovu izjavu, a sam Hamilton je nazvao test „hipotetičkim misaonim eksperimentom, nevezanim za konkretan vojni razvoj“:
„Ne samo da nikada nismo sprovodili takav eksperiment, već nam on nije ni potreban da bismo potvrdili verovatnoću tog ishoda… Iako je scenario bio hipotetički, on jasno pokazuje probleme koje AI donosi i razlog zašto vazduhoplovstvo SAD pridaje pažnju etici u razvoju AI.“
Ipak, zastrašujuća istina je da se veštačka inteligencija već neko vreme uspešno koristi u masovnim ubistvima.
„Lanac ubijanja“
Takozvani lanac ubijanja u ratu obuhvata šest koraka: potrebno je identifikovati, locirati i filtrirati legitimne ciljeve, odrediti prioritete, dodeliti ih jedinicama za dejstvo i otvoriti vatru.
Najsloženiji deo procesa jesu prva četiri zadatka, jer je neophodno konstantno prikupljati i velikom brzinom obrađivati ogromnu količinu različitih podataka.
U Sjedinjenim Državama odlučili su da te zadatke poverе veštačkoj inteligenciji kroz projekat Maven (na engleskom „maven“ znači „stručnjak“), pokrenut 2017. uz aktivno učešće kompanije Google.
Međutim, 2018. godine, posle masovnih protesta zaposlenih u Google-u protiv vojnog projekta, saradnja je pauzirana. U projektu su ipak učestvovale firme Palantir Technologies, Amazon Web Services (AWS), ECS Federal, L3Harris Technologies, Maxar Technologies, Microsoft i Sierra Nevada Corporation.
Suština projekta Maven jeste da veštačka inteligencija stalno prikuplja i analizira fotografije, satelitske snimke, geolokacione podatke, infracrvene senzore, presretnute poruke itd. Baza podataka obuhvatala je najmanje 4 miliona slika vojnih objekata.
Korisnički interfejs nazvan Maven Smart System prikazuje informacije poput kretanja aviona, brodova i vojne tehnike, logistike, lokacija ključnog osoblja i sl. Potencijalne mete su obeležene žutom bojom, dok su prijateljske snage plave.
Ova tehnologija testirana je 2017. godine u Avganistanu i od 2022. godine u Ukrajini, pošto su interfejsi za korišćenje američkog naoružanja ustupljeni Oružanim snagama Ukrajine. Još jedan primer realne primene veštačke inteligencije u identifikaciji i izboru ciljeva jeste vojna operacija Izraela u Pojasu Gaze.
Tokom 2023. godine, Izraelske odbrambene snage (IDF) sravnile su čitave gradske blokove vazdušnim i artiljerijskim napadima, pogađajući i civile, što je izazvalo oštre kritike širom sveta.
Naknadno se saznalo, a izvestio je i Human Right Watch (HRW) da je Izrael za izbor meta u automatskom režimu koristio nekoliko programa: Lavender, Pegasus i Where’s Daddy? („Gde je tata?“). Rezultati upotrebe veštačke inteligencije u vojne svrhe itekako su vidljivi.