
Jeśliby posłuchać najgłośniejszych proroków nowej ery technologicznej, to ludzkość jest o krok od zagłady. Zgubę naszemu gatunkowi przyniesie nie wojna nuklearna, kryzys klimatyczny czy uderzenie asteroidy, ale samomulitplikujący się spinacz. Raymond Kurzweil prorokuje nieodzowne nadejście tak zwanej osobliwości technologicznej [ang. singularity] – momentu, w którym postęp technologiczny osiągnie taki stopień, że ludzie nie będą już w stanie kontrolować maszyn ani odwrócić negatywnych skutków ich działań. Wynalezienie generalnej sztucznej inteligencji [w skrócie AGI, od ang. artificial general intelligence], o które ścigają się teraz Stany Zjednoczone z Chinami, miałoby znacząco przyspieszyć ten proces. Dla efektywnych altruistów i longtermistów to właśnie nieposłuszna sztuczna inteligencja jest największym ryzykiem egzystencjalnym ludzkości, które może nastąpić w ciągu następnych lat. Dopiero w dalszej kolejności są to pandemie spowodowane przez ludzi, wojny nuklearne i zmiany klimatyczne. I nic to głosy krytyczne, że na obecnym etapie „sztuczna inteligencja” dość umiarkowanie sprawdza się jako generatywny duży model językowy, nie mówiąc już o funkcjach predyktywnych. Ani że taka wizja AGI odzwierciedla rozumienie inteligencji i technologii przez osoby z bardzo ograniczonego kręgu kulturowego.
Madhumita Murgia w książce „W cieniu AI. Jak sztuczna inteligencja ingeruje w nasze życie?” schodzi na ziemię. Zbiera historie ludzi, których życie już teraz zostało radykalnie zmienione przez algorytmy i którzy starają się odnaleźć w nowej rzeczywistości. Na całym świecie nowe technologie wpływają na nas we wszystkich dziedzinach życia: w pracy, szkole, związkach, w działalności społecznej i na ulicy. Wielu rozmówcom i rozmówczyniom brakuje wciąż właściwych słów na to, jak przekazać innym to, co ich spotkało: jak pisarka, która padła ofiarą pornograficznego deepfake’u z jej udziałem; holenderska matka, której dziecko zostało sprofilowane przez algorytm jako potencjalnie niebezpieczne; albo czarnoskóry amerykański przedsiębiorca aresztowany za kradzież zegarka tylko na podstawie wadliwego systemu rozpoznawania twarzy. We wszystkich tych przypadkach prawo okazywało się z początku bezsilne, a rozmiar poniesionej krzywdy niezrozumiały i trudny do zmierzenia.
W cieniu AI: annotatorzy danych
Najbardziej odległy od bajdurzeń o samoświadomej AI jest rozdział pierwszy, w którym autorka odwiedza w Nairobi kenijskich trenerów algorytmów. Ich praca polega na całodniowym, mechanicznym etykietowaniu danych: obrazków i zdjęć fragmentów opon, części ciała, roślin czy czegokolwiek innego, w zależności od życzenia klientów. To dzięki nim system uczy się, jak rozpoznawać automatycznie poszczególne elementy. Paradoks tej pracy polega na tym, że nieuchronnym celem jest jej zlikwidowanie. Firmy, które się tym zajmują, są kontraktorami największych globalnych korporacji, a swoich pracowników rekrutują ze slumsów najbiedniejszych rejonów świata. Nie mają tu znaczenia kompetencje językowe osób etykietujących ani fakt, że w różnych kulturach różnie można rozumieć te same terminy. By zrozumieć zadanie, nieanglojęzyczni pracownicy korzystają z tłumaczy automatycznych, bez możliwości weryfikacji prawidłowości tłumaczenia. Liczy się tylko szybkość i sprawność w przemielaniu kolejnych obrazków do analizy.
Co szczególnie zaskakujące, działalność firm oferujących takie stanowiska pracy na globalnym Południu jest dość często przedstawiana jako misja społeczna. Annotatorzy danych, z którymi rozmawia Murgia, chwalą sobie stabilność i monotonnię, a także to, że ochroniła ich od alternatywy, jaką jest drobna przestępczość i „łapanie się” prac dorywczych. Ich zarobki pozwalają na utrzymanie się w biednych dzielnicach i życie na wyższym poziomie niż sąsiedzi. Praca przy rozwoju AI przynosi również prestiż, nawet jeżeli annotatorzy często nie wiedzą nawet, dla jakich produktów ani dla których konkretnie firm trenują algorytmy. Dla niemówiącej po bułgarsku Hiby, uchodźczyni z Iraku, praca w start-upie Humans in the Loop to wybawienie – może pogodzić pracę z wychowywaniem dzieci, a pensja (po dodaniu dochodów innych członków rodziny) pozwala utrzymać się w Sofii. Chociaż, jak sama przyznaje, zdarzyło się, że po popełnieniu błędu firma odcięła ją od platformy na cały miesiąc, pozbawiając pensji.
Paradoksalne jest też to, że użytkownicy produktu końcowego nie będą mieli świadomości ani wiedzy, że algorytm został specjalnie dla nich wytrenowany przez osoby najprawdopodobniej z innego kontynentu i żyjące w radykalnie innych warunkach. Ikonki gwiazdek albo różdżek potęgować będą „magiczne” i „nieludzkie” wrażenie. Tymczasem rzeczywistość może być zupełnie prozaiczna. Albo wręcz dosłownie przyziemna, jak w przypadku start-upu Builder.ai, który w czerwcu tego roku ogłosił bankructwo po tym, jak wyszło na jaw, że ich „system AI” był w rzeczywistości grupą siedmiuset programistów z Indii, którzy na bieżąco rozwiązywali zgłaszane pytania.
Algorytmy, nie ludzie
Algorytmy, zamiast niwelować nierówności, utrwalają je i dehumanizują. Holandia już kilkukrotnie stała się europejskim poligonem doświadczalnym negatywnych skutków wykorzystania technologii w administracji publicznej. W głośnym skandalu wokół dodatków pieniężnych na dziecko holenderski urząd podatkowy zmuszał rodziny, często o imigranckim pochodzeniu, do oddawania rzekomo niesłusznie przyznanej pomocy, oskarżając je o wyłudzenie, działając przy tym wyłącznie na podstawie decyzji, jak się później okazało, błędnie działającego algorytmu. Z kolei sprawa list młodocianych kryminalistów przyczyniła się do wpisania na nie i obserwacji nie tylko nastolatków z przestępczymi historiami, ale i członków ich rodzin czy sąsiadów bez podobnych doświadczeń. Jak relacjonuje Murgii jedna z matek, wpisanie na listę spowodowało wzmożoną i skrupulatną obserwację przez policję oraz służby społeczne, które na długo rozbiły życie rodziny. Zdaniem jednej z rozmówczyń to właśnie „wyrok” w postaci wpisania na listę sprawił, że niesprawiający wcześniej kłopotów syn zaczął kraść.
W najbardziej ekstremalnej formie sztuczna inteligencja wykorzystywana jest w działaniach wojennych. Izrael od dawna wykorzystuje technologie rozpoznawania twarzy i nadzoru biometrycznego do masowej inwigilacji Palestyńczyków. Wybuch wojny spowodował rozwój narzędzi służących do mapowania celów atakowania. I tak „Gospel” ma wskazywać budynki i obiekty strategiczne. „Lavender” wybiera konkretnych ludzi do zastrzelenia. „Where is Daddy?” śledzi podejrzane osoby. Algorytmy te działają w oparciu o predykcję. I tak jak inne tego typu narzędzia do tej pory wdrażane na szerszą skalę – jak amerykańskie systemy rozpoznawania twarzy czy holenderskie decyzje administracyjne – są wadliwe. Jak wykazało śledztwo dziennikarskie „+972 Magazine”, „Lavender” potrafił wskazać jako cel osoby, które na przykład miały takie samo nazwisko jak członek Hamasu, albo – co dość częste w realiach Gazy – często zmieniali telefon. Żołnierze mają tylko dwadzieścia sekund na weryfikację, czy strzelić do takiego człowieka.
Kiedy za człowieka decyzję podejmuje algorytm, to niezależnie od tego, czy będzie to dotyczyć przyznania pomocy społecznej, aresztowania czy nawet zastrzelenia, poczucie odpowiedzialności za podjęte działanie spada. Mimo że wiele badań udowodniło już, że często jesteśmy skłonni wierzyć algorytmom bardziej niż samym sobie, nadal nie udało się znaleźć skutecznego sposobu na niwelowanie tych uprzedzeń. Tym gorzej, jeżeli znajdziemy się po drugiej stronie, a decyzja algorytmu zaważy na naszym życiu.
Człowiek przeciwko maszynie
W książce Murgii nie brak na szczęście przykładów na to, jak walczyć z algorytmami lub wykorzystywać nowe narzędzia z rozwagą i świadomością zagrożeń. Kierowca Ubera po wykryciu nieprawidłowości w aplikacji stworzył wtyczkę UberCheats, która pozwalała dostawcom przeliczyć i naprawić wyniki narzędzia, które bardzo często nie doszacowało należności oraz źle obliczało dystanse. Pracownikom kenijskiej Samy udało się nagłośnić złe warunki pracy przy moderacji treści, co przyczyniło się do częściowej poprawy. Aktywistki i aktywiści na całym świecie dokumentują i walczą z przypadkami naruszeń, lukami prawnymi i nadużyciami firm technologicznych, pokazując, że wobec maszyn i algorytmów człowiek nie jest całkowicie bezbronny.
Jest więc trochę nadziei w tej dość ponurej wizji przyszłości. To właśnie w lokalnych, często niedostrzeganych historiach kryje się alternatywa wobec wielkich narracji o technologicznej osobliwości czy nadchodzącej zagładzie. Zamiast pytać o to, kiedy maszyny przejmą władzę, Murgia zachęca, byśmy zapytali: kto dziś płaci cenę za rozwój sztucznej inteligencji, kto na tym zyskuje, a kto zostaje zepchnięty na margines? Odpowiedź na te pytania nie wymaga futurologii – wystarczy uważnie spojrzeć na świat wokół nas.
Książka:
Madhumita Murgia, „W cieniu AI. Jak sztuczna inteligencja ingeruje w nasze życie?”, tłum. Michał Lipa, Wydawnictwo Port, Warszawa 2025.