Zasady prawa humanitarnego kiedyś były jasne: cywilom, niezależnie od strony frontu, po której się znajdują, przysługuje ochrona życia i zdrowia oraz poszanowanie ich praw osobistych. Ludność cywilna i infrastruktura inna niż wojskowa nie powinna być celem ataku. Należy zapobiegać zbędnym cierpieniom, a więc nie używać broni, które niepotrzebnie zwiększałyby cierpienia ludzi już niezdolnych do walki albo powodowały ich śmierć.
Wojna w Gazie zweryfikowała te podstawy na wiele sposobów.
Jednym z nich, który może okazać się najtrwalszym w skutkach, było wykorzystanie w walce technologii sztucznej inteligencji.
Izrael wykorzystał konflikt do wypróbowania nowych rodzajów broni, które zmieniły sposób podejmowania przez żołnierzy kluczowych decyzji. I które, jak wiele na to wskazuje, mogą zostać z nami na dłużej.
Sztuczna inteligencja naciska na spust
Lista aplikacji, z których korzystają żołnierze, jest bardzo długa i rozbudowana. Kluczowa – The Gospel – to napędzana AI platforma wyznaczająca cele. Jak podawał „The Guardian”, żołnierze porównywali go do taśmowej pracy w fabryce, w której liczba zleceń wciąż rośnie i nigdy się nie kończy.
Z kolei Fire Factory poprzez analizę danych historycznych kalkuluje wymaganą ilość amunicji, czas i obiekty do zestrzelenia. Depth of Wisdom służy do mapowania podziemnej sieci tuneli. Alchemist ma ostrzegać żołnierzy przed obecnością Hamasu i przewidywać prawdopodobne ataki.
Owiana najmroczniejszą sławą Lavender na podstawie olbrzymiej bazy danych pochodzących z masowej inwigilacji identyfikuje ludzi, których trzeba zabić. Where’s Daddy wykorzystuje dane lokalizacyjne telefonu do poinformowania żołnierzy o tym, że cel znajduje się w obiekcie, w którym może zostać zastrzelony. Human Rights Watch podaje, że bardzo często obiektem tym był dom rodzinny, a wykorzystywane pociski powodowały zniszczenia całego budynku i zabicie wszystkich osób znajdujących się w środku. Czasem, z powodu opóźnionego działania systemu notyfikacji, strzał padał, zanim podejrzana osoba znalazła się w środku, w efekcie powodując jedynie straty wśród innych.
Zadaniem tych systemów jest ułatwienie i przyspieszenie decyzji o wystrzeleniu tak, by żołnierze jak najmniej czasu spędzali na wahaniu się, czy trzeba nacisnąć na spust.
Są obecne na każdym etapie dowodzenia i podejmowania kluczowych decyzji na froncie. Priorytetem jest przede wszystkim szybkość i liczba generowanych celów. W praktyce, jak ujawniały kolejne dziennikarskie śledztwa, doprowadzało to do grywalizacji działań wojennych. Żołnierze zeznawali, że są oceniani na podstawie liczby wygenerowanych celów, więc „dla oszczędzenia czasu” strzelali w skupiska ludzi – także cywilów – bez czekania na uchwycenie konkretnej osoby. Po ataku aplikacja od razu kierowała do kolejnego celu.
Wydaje się pozornie, że wykorzystanie sztucznej inteligencji powinno pomóc zawężać liczbę ofiar i prowadzić do skalibrowania ataków w taki sposób, by ofiarami padały tylko osoby biorące udział w walkach. Niestety, technologie te nie są jeszcze na tyle zaawansowane ani dostosowane do walki w gęsto zabudowanych przestrzeniach miejskich, takich jak Gaza.
Przykładowo, w momencie wdrażania skuteczność Lavender oceniono na 90 procent, co oznacza korzystanie z nich z pełną świadomością tego, że 1 na 10 ofiar nie będzie rzeczywistym celem militarnym, tylko cywilem. Algorytm, na którym działa Lavender, przewiduje, kto jest bojownikiem Hamasu albo dżihadystą na podstawie różnych danych – na przykład tego, że osoba często zmienia numer telefonu, co w realiach wojennych może być powodowane także innymi okolicznościami.
Jak ujawniło śledztwo magazynu „+972”, Lavender akceptowała „szkody uboczne” w postaci 15–20 cywilnych ofiar śmiertelnych na każdego bojownika niskiej rangi, a ponad 100 w przypadku wyżej postawionych dowódców. Żołnierzom podjęcie decyzji o ataku zajmowało średnio 20 sekund.
Technologie AI zwiększają też dystans pomiędzy osobą podejmującą decyzję a czynem. Eksperci mówią o „spowszednieniu” przemocy, a także o zbytnim poleganiu na algorytmie. Pojawia się także pytanie o odpowiedzialność za czyn, jeżeli został popełniony w wyniku decyzji zasugerowanej przez system AI. W przypadku zastosowań militarnych algorytmy muszą być szkolone ze zwiększonym wyczuleniem na proporcjonalność i dbałość o jakość danych. Decyzje o podejmowaniu ataku tym bardziej nie powinny być rutynowym odhaczeniem tego, co wskazała maszyna.
Algorytmy na froncie propagandy
Izrael wykorzystywał też szeroko nowe technologie w walce informacyjnej. Jeszcze w październiku 2023 roku Komisja Europejska ostrzegała Google’a i YouTube’a przed ryzykiem rozprzestrzeniania się dezinformacji i szkodliwych treści, a platformie X przedstawiła nawet 24-godzinne ultimatum.
Już wtedy media donosiły, że część tych materiałów, w tym wiele o bardzo dosadnym i brutalnym charakterze, to reklamy finansowane przez Ministerstwo Spraw Zagranicznych Izraela.
Zdjęcia zamordowanych noworodków zdominowały X i YouTube’a, targetując głównie użytkowników znajdujących się w Unii Europejskiej, w Stanach Zjednoczonych i Wielkiej Brytanii.
Rok później, kiedy skala działań wojennych zaostrzyła się, Izrael prowadził za pomocą Google’a kampanię wymierzoną w agencję ONZ do spraw Pomocy Uchodźcom Palestyńskim na Bliskim Wschodzie, nazywając ją „grupą terrorystyczną”. Z podobnych metod korzystał też Hamas, w tym również korzystając z deepfake’ów oraz treści wygenerowanych przez sztuczną inteligencję.
Wszystko to działo się w cieniu wchodzenia w życie nowych regulacji w UE. W tym Aktu o Usługach Cyfrowych (DSA), który reguluje zasady moderacji treści na platformach społecznościowych. Jedno z pierwszych postępowań podjętych przez Komisję Europejską na jego podstawie dotyczyło właśnie rozprzestrzeniania się dezinformacji na platformie X tuż po 7 października. Nie przeszkodziło to jednak w rozprzestrzenianiu się wojny informacyjnej, która tylko się rozpędzała.
Nie tak dawno, bo we wrześniu 2025, roku polski NASK wezwał YouTube’a do zdjęcia z platformy finansowanych przez Izrael reklam propagandowych, które zaprzeczały kryzysowi głodu w Gazie i które przedstawiały ciężarówki wiozące żywność. NASK, co należy zaznaczyć, nie jest jednak koordynatorem do spraw cyfrowych na podstawie DSA. W Polsce funkcję tę pełnić będzie Urząd Komunikacji Elektronicznej. Na pełną ustawę wdrażającą DSA wciąż czekamy.
Co dalej?
Nie wydaje się, żeby wojna w Gazie była ostatnią, w której technologie wykorzystywane są na taką skalę.
Co bardziej możliwe, konflikt był poligonem doświadczalnym dla przemysłu zbrojeniowego i technologicznego.
Rozwiązania wykorzystujące sztuczną inteligencję w sektorze militarnym już teraz stosowane są w innych krajach i na pewno nie znikną wraz z zawieszeniem broni przez Hamas i Izrael. Podobnie praktyki dezinformacyjne i propagandowe, na równie szeroką skalę prowadzone na wojnie w Ukrainie, będą dalej się szerzyć i usprawniać.
This issue was published as part of PERSPECTIVES – the new label for independent, constructive and multi-perspective journalism. PERSPECTIVES is co-financed by the EU and implemented by a transnational editorial network from Central-Eastern Europe under the leadership of Goethe-Institut. Find out more about PERSPECTIVES: goethe.de/perspectives_eu.
Co-funded by the European Union. Views and opinions expressed are, however, those of the author(s) only and do not necessarily reflect those of the European Union or the European Commission. Neither the European Union nor the granting authority can be held responsible.

