Zasady prawa humanitarnego kiedyś były jasne: cywilom, niezależnie od strony frontu, po której się znajdują, przysługuje ochrona życia i zdrowia oraz poszanowanie ich praw osobistych. Ludność cywilna i infrastruktura inna niż wojskowa nie powinna być celem ataku. Należy zapobiegać zbędnym cierpieniom, a więc nie używać broni, które niepotrzebnie zwiększałyby cierpienia ludzi już niezdolnych do walki albo powodowały ich śmierć.
Wojna w Gazie zweryfikowała te podstawy na wiele sposobów.
Jednym z nich, który może okazać się najtrwalszym w skutkach, było wykorzystanie w walce technologii sztucznej inteligencji.
Izrael wykorzystał konflikt do wypróbowania nowych rodzajów broni, które zmieniły sposób podejmowania przez żołnierzy kluczowych decyzji. I które, jak wiele na to wskazuje, mogą zostać z nami na dłużej.
Sztuczna inteligencja naciska na spust
Lista aplikacji, z których korzystają żołnierze, jest bardzo długa i rozbudowana. Kluczowa – The Gospel – to napędzana AI platforma wyznaczająca cele. Jak podawał „The Guardian”, żołnierze porównywali go do taśmowej pracy w fabryce, w której liczba zleceń wciąż rośnie i nigdy się nie kończy.
Z kolei Fire Factory poprzez analizę danych historycznych kalkuluje wymaganą ilość amunicji, czas i obiekty do zestrzelenia. Depth of Wisdom służy do mapowania podziemnej sieci tuneli. Alchemist ma ostrzegać żołnierzy przed obecnością Hamasu i przewidywać prawdopodobne ataki.
Owiana najmroczniejszą sławą Lavender na podstawie olbrzymiej bazy danych pochodzących z masowej inwigilacji identyfikuje ludzi, których trzeba zabić. Where’s Daddy wykorzystuje dane lokalizacyjne telefonu do poinformowania żołnierzy o tym, że cel znajduje się w obiekcie, w którym może zostać zastrzelony. Human Rights Watch podaje, że bardzo często obiektem tym był dom rodzinny, a wykorzystywane pociski powodowały zniszczenia całego budynku i zabicie wszystkich osób znajdujących się w środku. Czasem, z powodu opóźnionego działania systemu notyfikacji, strzał padał, zanim podejrzana osoba znalazła się w środku, w efekcie powodując jedynie straty wśród innych.
Zadaniem tych systemów jest ułatwienie i przyspieszenie decyzji o wystrzeleniu tak, by żołnierze jak najmniej czasu spędzali na wahaniu się, czy trzeba nacisnąć na spust.
Są obecne na każdym etapie dowodzenia i podejmowania kluczowych decyzji na froncie. Priorytetem jest przede wszystkim szybkość i liczba generowanych celów. W praktyce, jak ujawniały kolejne dziennikarskie śledztwa, doprowadzało to do grywalizacji działań wojennych. Żołnierze zeznawali, że są oceniani na podstawie liczby wygenerowanych celów, więc „dla oszczędzenia czasu” strzelali w skupiska ludzi – także cywilów – bez czekania na uchwycenie konkretnej osoby. Po ataku aplikacja od razu kierowała do kolejnego celu.
Wydaje się pozornie, że wykorzystanie sztucznej inteligencji powinno pomóc zawężać liczbę ofiar i prowadzić do skalibrowania ataków w taki sposób, by ofiarami padały tylko osoby biorące udział w walkach. Niestety, technologie te nie są jeszcze na tyle zaawansowane ani dostosowane do walki w gęsto zabudowanych przestrzeniach miejskich, takich jak Gaza.
Przykładowo, w momencie wdrażania skuteczność Lavender oceniono na 90 procent, co oznacza korzystanie z nich z pełną świadomością tego, że 1 na 10 ofiar nie będzie rzeczywistym celem militarnym, tylko cywilem. Algorytm, na którym działa Lavender, przewiduje, kto jest bojownikiem Hamasu albo dżihadystą na podstawie różnych danych – na przykład tego, że osoba często zmienia numer telefonu, co w realiach wojennych może być powodowane także innymi okolicznościami.
Jak ujawniło śledztwo magazynu „+972”, Lavender akceptowała „szkody uboczne” w postaci 15–20 cywilnych ofiar śmiertelnych na każdego bojownika niskiej rangi, a ponad 100 w przypadku wyżej postawionych dowódców. Żołnierzom podjęcie decyzji o ataku zajmowało średnio 20 sekund.
Technologie AI zwiększają też dystans pomiędzy osobą podejmującą decyzję a czynem. Eksperci mówią o „spowszednieniu” przemocy, a także o zbytnim poleganiu na algorytmie. Pojawia się także pytanie o odpowiedzialność za czyn, jeżeli został popełniony w wyniku decyzji zasugerowanej przez system AI. W przypadku zastosowań militarnych algorytmy muszą być szkolone ze zwiększonym wyczuleniem na proporcjonalność i dbałość o jakość danych. Decyzje o podejmowaniu ataku tym bardziej nie powinny być rutynowym odhaczeniem tego, co wskazała maszyna.
Algorytmy na froncie propagandy
Izrael wykorzystywał też szeroko nowe technologie w walce informacyjnej. Jeszcze w październiku 2023 roku Komisja Europejska ostrzegała Google’a i YouTube’a przed ryzykiem rozprzestrzeniania się dezinformacji i szkodliwych treści, a platformie X przedstawiła nawet 24-godzinne ultimatum.
Już wtedy media donosiły, że część tych materiałów, w tym wiele o bardzo dosadnym i brutalnym charakterze, to reklamy finansowane przez Ministerstwo Spraw Zagranicznych Izraela.
Zdjęcia zamordowanych noworodków zdominowały X i YouTube’a, targetując głównie użytkowników znajdujących się w Unii Europejskiej, w Stanach Zjednoczonych i Wielkiej Brytanii.
Rok później, kiedy skala działań wojennych zaostrzyła się, Izrael prowadził za pomocą Google’a kampanię wymierzoną w agencję ONZ do spraw Pomocy Uchodźcom Palestyńskim na Bliskim Wschodzie, nazywając ją „grupą terrorystyczną”. Z podobnych metod korzystał też Hamas, w tym również korzystając z deepfake’ów oraz treści wygenerowanych przez sztuczną inteligencję.
Wszystko to działo się w cieniu wchodzenia w życie nowych regulacji w UE. W tym Aktu o Usługach Cyfrowych (DSA), który reguluje zasady moderacji treści na platformach społecznościowych. Jedno z pierwszych postępowań podjętych przez Komisję Europejską na jego podstawie dotyczyło właśnie rozprzestrzeniania się dezinformacji na platformie X tuż po 7 października. Nie przeszkodziło to jednak w rozprzestrzenianiu się wojny informacyjnej, która tylko się rozpędzała.
Nie tak dawno, bo we wrześniu 2025, roku polski NASK wezwał YouTube’a do zdjęcia z platformy finansowanych przez Izrael reklam propagandowych, które zaprzeczały kryzysowi głodu w Gazie i które przedstawiały ciężarówki wiozące żywność. NASK, co należy zaznaczyć, nie jest jednak koordynatorem do spraw cyfrowych na podstawie DSA. W Polsce funkcję tę pełnić będzie Urząd Komunikacji Elektronicznej. Na pełną ustawę wdrażającą DSA wciąż czekamy.
Co dalej?
Nie wydaje się, żeby wojna w Gazie była ostatnią, w której technologie wykorzystywane są na taką skalę.
Co bardziej możliwe, konflikt był poligonem doświadczalnym dla przemysłu zbrojeniowego i technologicznego.
Rozwiązania wykorzystujące sztuczną inteligencję w sektorze militarnym już teraz stosowane są w innych krajach i na pewno nie znikną wraz z zawieszeniem broni przez Hamas i Izrael. Podobnie praktyki dezinformacyjne i propagandowe, na równie szeroką skalę prowadzone na wojnie w Ukrainie, będą dalej się szerzyć i usprawniać.