Cyberataki, propaganda i autonomiczne systemy uzbrojenia coraz groźniejsze


Rozwój technologiczny taki jak cyberataki, cyber operacje, sztuczna inteligencja i systemy autonomiczne wyprzedzają zasady mające na celu ich regulację i cywilizowanie. Zacierają się granice między cywilami a kombatantami, zagrażając kluczowym zasadom wojny i ochrony ludności cywilnej.

Obawy dotyczące rozwoju technologii i wykorzystania cyber operacji zostawiają w tyle dyskusje normatywne ws rozwoju AI i cyberataków. Cieszę się również, że nowy dokument „Wyzwania” (Międzynarodowy Komitet Czerwonego Krzyża) podkreśla ten wymiar. Od poprzedniego takiego dokumentu (2019) w który miałem wkład,  wiele się zmieniło. Dziś  standardem jest codzienne wykorzystanie cyber operacji w konfliktach zbrojnych o wysokiej intensywności, ale także zjawisko nowe w tej skali: zaangażowanie cywilów i zacieranie się granic między cywilami a kombatantami. Naraża to na szwank kluczowy filar prawa konfliktów zbrojnych – rozróżnianie między tymi, którzy walczą, a tymi, którzy muszą być chronieni.

Jest także kwestia namacalnych zagrożeń wynikających z operacji informacyjnych (propaganda, wojna informacyjna itp.), które mogą być wysoce destabilizujące,  nawet nie wspominam o zagrożeniach związanych z propagacją nienawiści, przemocy lub działań sabotażowych i inspirowanie takich. Choć trudno jest udowodnić bezpośrednią przyczynowość w tym kontekście, to istotnie, operacje informacyjne są uznawane za mogące przyczyniać się do przemocy, powodować szkody psychiczne, ograniczać dostęp do podstawowych usług i zakłócać działania humanitarne. Przykładem tego jest wykorzystanie deepfake’ów w operacjach wojskowych, gdzie ICRC podkreśla, że strony konfliktu muszą konsekwentnie zapewniać ochronę ludności cywilnej i obiektów cywilnych.

W najnowszym raporcie „Wyzwania" (2024) Międzynarodowy Komitet Czerwonego Krzyża stwierdza też, że cyber operacje mogą zabijać. Zgadzam się.

Także dlatego po wyjściu z MKCK podkreślałem te nowe zagrożenia również w  książkach

Jest także inny problem. Kiedy cywilne firmy technologiczne (IT, cyber threat intelligence, centra danych itp.) są angażowane do zapewniania cyberbezpieczeństwa lub innych usług ICT dla sił zbrojnych (łączność, komunikacja, przetwarzanie w chmurze, zdalne czujniki itp.), istnieje ryzyko, że ich zasoby, infrastruktura, a nawet pracownicy mogą utracić ochronę przed atakiem ze strony strony konfliktu zbrojnego i być traktowane jako uzasadnione cele wojskowe. Stania się uzasadnionym celem wojskowym nie polecam,

Oprócz tych zagrożeń związanych, wzrost wykorzystania sztucznej inteligencji i autonomicznych systemów broni (LAWS) dodaje kolejny poziom złożoności. Te technologie budzą obawy dotyczące odpowiedzialności, zgodności z międzynarodowym prawem humanitarnym oraz potencjalnego kolejnego, niekontrolowanego zagrożenia. W miarę jak systemy AI nabierają na znaczeniu i wpływają na decyzje, ryzyko ofiar cywilnych i naruszenia praw wojny staje się coraz bardziej widoczne.