Sztuczna inteligencja jest dla nas trochę jak obca cywilizacja. Dlatego budzi równocześnie ogromne nadzieje i ogromne lęki. W skrajnych scenariuszach mogą się one łatwo materializować, przynosząc utopię i zagładę. W skrócie możemy określić owe kierunki myślenia jako technooptymizm i technopesymizm.
Technooptymizm vs. technopesymizm
Nic dziwnego, że podobne reakcje powoduje pytanie o relacje między najnowszymi technologiami a państwem. Z jednej strony, można snuć wizję totalitarnej kontroli nad społeczeństwem z pomocą komputerów. Z drugiej, mamy wizję „w pełni zautomatyzowanego luksusowego komunizmu”, by nawiązać do tytułu popularnej książki.
Przyjęcie każdego z tych kierunków myślenia naraża nas na wyrobienie sobie spojrzenia cierpiącego na pewne ślepe plamki. Jeśli zgodzimy się na opowieść technopesymistyczną, możemy wykazywać nadmierną ostrożność wobec rozwoju technologicznego. Tym samym pojawi się ryzyko, że znajdziemy się na przegranej pozycji w technologicznym wyścigu zbrojeń, co w konsekwencji negatywnie wpłynie zarówno na nasz potencjał gospodarczy, jak i potęgę polityczną.
Z drugiej strony, jeśli przyjmiemy technooptymistyczną wizję lepszej przyszłości, w której sztuczna inteligencja rozwiązuje nasze problemy społeczne, ryzykujemy tym, że przecenimy jej możliwości tu i teraz. Z powodu wyczekiwania sukcesu będzie nam się wydawało, że jest ona w stanie zrobić więcej niż w rzeczywistości. Natomiast w wyniku pozorów wygody, która płynie z automatyzacji, trudniej będzie nam dostrzec, co utraciliśmy po drodze.
Trzy ograniczenia AI
W niedawnym tekście dla „Kultury Liberalnej” wskazałem na trzy istotne ograniczenia AI, o których warto pamiętać.
Po pierwsze, sztuczna inteligencja potrzebuje materialnej infrastruktury – a zatem trudności pojawiają się wszędzie tam, gdzie zadanie wykracza poza przetwarzanie danych.
Po drugie, AI może posiadać kompetencję do wykonania pewnej czynności (a przynajmniej poziom zdolności, którego przy pobieżnym spojrzeniu nie potrafimy odróżnić od kompetencji), ale nie oznacza to, że będziemy skłonni przypisać programowi odpowiedzialność czy prawo decyzji – to bowiem należy do człowieka, który uczestniczy w relacjach społecznych.
Po trzecie, w wielu kontekstach społecznych liczy się nie tyle czysty produkt, który możemy uzyskać w drodze automatyzacji, lecz sam proces, udział w grze – performans.
Jeśli technologia nie jest odpowiedzią na wszystkie problemy świata, ale luddyzm się nie opłaca, to mogłoby kusić, żeby rozwiązać ten dylemat, przyjmując stanowisko pośrednie między optymizmem i pesymizmem – i określić je mianem „technorealizmu”, który unika zwodniczych namiętności ujawniających się w tych postawach, na rzecz twardej analizy faktów.
Ale prawda jest taka, że nie do końca wiadomo, co takie posunięcie miałoby oznaczać. Istnieje bowiem wiele możliwych scenariuszy przyszłości i żadne teoretyczne przesądzenie nie zwolni nas z myślenia.
Sztuczna inteligencja, realne patologie
Jeśli więc chodzi o relację między technologią a organizacją państwa, o którą pyta w tekście wyjściowym aktualnego wydania „Spięcia” Klub Jagielloński, mam w tym kontekście trzy krótkie uwagi.
Po pierwsze, istotne jest określenie, w jakim zakresie ma sens mówienie o wyborze. Jeśli dynamika sytuacji jest taka, że inni robią X, tymczasem X zwiększa ich przewagi konkurencyjne, to my również będziemy robić X. A zatem nie ma sensu walczyć z X, tylko należy wpisać je w instytucje w sposób możliwie najlepszy do pogodzenia z innymi ważnymi wartościami.
Po drugie, jeśli spojrzeć na monitoring wizyjny w mieście, dostrzegamy, że z pewnością wpływa on na podniesienie poziomu bezpieczeństwa – ale wpływa również na obniżenie poziomu prywatności. Istnieje zatem ryzyko wykorzystania powszechnego monitoringu w celach politycznych, choćby dla umocnienia się władzy centralnej. Aby do patologii w użyciu technologii dochodziło w możliwie ograniczonym zakresie, potrzebne jest nie tylko odpowiednie prawo, lecz również liberalno-demokratyczna kultura polityczna, w której standardem jest to, że nie wolno nadużywać władzy. Jeśli zaś dojdzie do nadużyć, zostaną one rozliczone.
Wreszcie, po trzecie, największym problemem naszych instytucji – zarówno społecznych, jak i państwowych – jest niska zdolność koordynacji społecznej. Rozumiem przez to całą wiązkę problemów na styku organizacji, komunikacji oraz indywidualnych emocji, takich jak praca w dobrze zarządzanym zespole, planowanie strategiczne i realizowanie jasno określonych celów, jak również budowanie licznych i opierających się na zaufaniu relacji między ludźmi. Z tego wynikają rozmaicie nazywane w Polsce problemy administracyjno-polityczne, takie jak „państwo teoretyczne”, „Polska resortowa”, „niedasizm”, „opór materii urzędniczej”, „grupy nacisku” i wiele innych.
Technologia dla ludzi, nie ludzie dla państwa
Z pewnością automatyzacja pewnych czynności czy procedur, do których wykonania może brakować odpowiednich kompetencji w sferach organizacji i kontaktu emocjonalnego, może służyć uzyskiwaniu lepszych wyników w projektach społecznych. Wskazywała na to niedawno Joanna Erbel w czasie debaty w Fundacji Batorego z okazji wręczenia nagród im. Marcina Króla.
Jest natomiast ciekawe, czy głębsza integracja technologii w procesy instytucjonalne będzie miała wpływ na jakość i rodzaj naszych relacji społecznych – będzie prowadzić do alienacji obywateli i wypłukiwać znaczenie relacji społecznych czy może raczej wpływać na ich polepszenie, umożliwiając prostsze i pełniejsze wyrażenie własnych myśli i uczuć?
Takie pytanie wydaje się szczególnie istotne również w kontekście politycznym – w demokracji czy republice, która opiera się przecież nie tyle na abstrakcyjnie rozumianych prawach i wolnościach, lecz na uczestnictwie obywateli we wspólnym projekcie politycznym. Ostatecznie to instytucje mają być dla ludzi, a nie ludzie dla państwa.
Tekst powstał dzięki finansowaniu projektu Macieja Kuziemskiego w ramach 2022 Landecker Democracy Fellowship.