Czytam nagłówek w „Gazecie Wyborczej”: „Sztuczna inteligencja zastąpi dziennikarstwo”. Jako że pracuję w mediach, ale w papierach mam napisane „filozof”, to myślę sobie: cóż, może przetrwają przynajmniej filozofowie. Niewiele później widzę jednak artykuł naukowy, według którego nauczyciele filozofii są niemal pierwsi na liście do odstrzału przez AI. Co prawda mam też papiery na prawnika – no ale tu wszyscy tylko czekają, aż sztuczna inteligencja wysiuda tych cwaniaków od paragrafów i przygotuje bezpłatnie pismo do sądu, a może nawet zajmie się wydawaniem algorytmicznie bezstronnych wyroków.
Czy zatem wszyscy ustawimy się wkrótce w kolejce do pośredniaka? Bo przecież lista zawodów, o których pisze się ostatnio, że znikną z powodu AI, nie jest krótka. Mówi się o tym nawet w kontekście profesji kreatywnych czy sztuki – AI ma pisać przedstawienia teatralne, tworzyć obrazy i komponować muzykę. Odpowiedź krótka brzmi: nie. Odpowiedzią pełniejszą jest całość tego tekstu.
Zabić pośrednika
Wydaje się, że wypatrujemy pomocy czy zagrożenia ze strony AI wszędzie tam, gdzie występuje jakiś pośrednik – taki jak nauczyciel albo tłumacz – między podmiotem a obiektem pragnienia, klientem a produktem. Weźmy pracę grafika. Firma chce mieć banner reklamowy. Jeśli AI będzie zdolna do generowania dobrej jakości grafik, to jego praca wydaje się zbędna. Podobnie jest w przypadku poszukiwania informacji – zamiast sprawdzać w książkach albo w Google’u, można zadać pytanie czatbotowi, który poda nam odpowiedź.
Zwykle okazuje się jednak, że AI mogłaby usunąć danego pośrednika tylko na pierwszy rzut oka – i że wpływa przede wszystkim na sposób wykonania zadania. Wystarczy wspomnieć, że klient nie zawsze wie, czy dana grafika wygląda dobrze, bo nie posiada kompetencji, żeby to ocenić – kompetencja grafika jest w tym kontekście wciąż potrzebna. Być może zatem praca grafika zmieni się, podobnie jak zmieniła się praca fotografa od czasu upowszechnienia Photoshopa, a może jej częścią zajmie się dział marketingu, który będzie samodzielnie wytwarzać niektóre potrzebne obrazy. Byłaby to zmiana modelu działania, chociaż nie usunięcie instancji odpowiedzialnej za wykonanie i zatwierdzenie projektu.
Jak podsumowują Aleksandra Przegalińska i Dariusz Jemielniak w nowej pracy „Strategizing AI in Business and Education”, „chociaż opinii publicznej mówi się, że AI zabierze ludziom pracę, prawdziwy obraz jest znacznie bardziej zniuansowany. Wiemy, że AI nie zastąpi większości pracowników. Będzie natomiast prowadzić do znaczącego przekwalifikowania pracowników, tworzenia nowych miejsc pracy, niektóre zajęcia stracą zaś rację bytu”.
Czego nie może AI – trzy wskazówki
Jak zatem przydać sprawie właściwą miarę, zanim wpadniemy w panikę, że AI opanuje świat i odbierze nam chleb? W tym celu warto może zastanowić się nad tym, czego AI nie może zrobić, a co ma dla nas znaczenie w życiu społecznym – takie posunięcie mogłoby nadać naszemu myśleniu odpowiednie ramy. W tym kontekście proponuję zwrócić uwagę na trzy zasadnicze sprawy.
Po pierwsze: jak wszystko, co cyfrowe, AI może istnieć jedynie na podstawie materialnej infrastruktury – w tym właśnie kontekście ujawniają się jej różnorodne ograniczenia. Jeśli spojrzeć ponownie na pracę dziennikarzy: niech ta sztuczna inteligencja wykryje najpierw jakąś aferę w rządzie albo napisze reportaż z Ukrainy. Nie może tego uczynić. W istocie nie jest nawet w stanie zdać relacji z otwarcia lokalnej szkoły czy szpitala – ktoś musi tam pójść. Owa materialna infrastruktura to nie tylko serwery, ale i ludzie, którzy w tym przypadku pełnią funkcję źródła informacji.
Sztuczna inteligencja nie może zatem zastąpić dziennikarzy. Może ewentualnie zastąpić część pracowników portali, których działanie polega na przepisywaniu artykułów z innych portali. Może również pomóc w wykonywaniu niektórych czynności – na przykład sprawdzić gramatykę w tekście albo przyspieszyć tworzenie standardowych komunikatów, opartych na bazach danych. Jednak ostatecznie AI nie posiada wiedzy o świecie, lecz raczej przetwarza dane przygotowane przez ludzi. A nawet wyniki tego przetworzenia ktoś musi potem sprawdzić – i tu dochodzimy do następnego punktu.
Po drugie: filozof nauki Daniel Dennett zwracał uwagę, że w sprawie AI trzeba odróżnić kompetencję i odpowiedzialność (albo decyzyjność: authority). Może być tak, że oprogramowanie posiada zdolność zrobienia czegoś, ale nie oznacza to, że będziemy skłonni przekazać programowi prawo do podejmowania decyzji, ponieważ w domenie społecznej odpowiedzialność zawsze należy ostatecznie do człowieka. Dlatego właśnie o AI lepiej myśleć jak o narzędziu działania, które daje nowy sposób wykonywania różnych czynności, a nie jako o podmiocie działania, który „zastępuje” pracownika czy człowieka.
Po trzecie: w życiu społecznym w wielu kontekstach liczy się nie czysta treść czy produkt, lecz gra, wykonanie – performans. A zatem fakt, że AI potrafi coś zrobić, nie oznacza z definicji, że zastępuje w tym ludzi. AI wygra z ludźmi w szachy, ale mimo to gra w szachy nigdy nie była bardziej popularna niż obecnie. Często interesuje nas nie tylko treść komunikatu, lecz również to, jakim człowiekiem jest mówca i jaką historię ma do opowiedzenia. Interesują nas nie tylko nuty w utworze, lecz również emocje wykonawcy w czasie koncertu, gdy nawiązuje relację z publicznością. Interesuje nas nawet to, jak zmieniła się wrażliwość owego twórcy w ostatnich latach – dlaczego teraz gra inaczej niż kiedyś. Oczywiście, wykonanie symfonii skomponowanej przez AI również może być znaczącym wydarzeniem społecznym – ale właśnie o to chodzi, performans jest sprawą relacji społecznych.
Ten tekst mógłby być w całości lub części napisany przez AI (i nie możecie wiedzieć, czy nie jest), ale ma znaczenie społeczne, ponieważ został podpisany imieniem i nazwiskiem. Jeśli spotkamy się przy jakiejś okazji, to zawsze możecie mnie zapytać, dlaczego w danej sprawie przyjąłem takie, a nie inne stanowisko. Możecie wręcz wymagać ode mnie wyjaśnienia, ponieważ mówiąc w pewien sposób, przyjmuję na siebie odpowiedzialność za wypowiedziane słowa i podejmuję zobowiązanie wobec odbiorców – biorę udział w społecznej grze w racjonalność, w której ze słów wypowiedzianych wcześniej można następnie wyciągnąć konsekwencje; w demokratycznej grze, w której uzasadniamy własne działanie przed innymi. Z kolei AI produkuje treść, ale owa treść – przepływ danych – jest domyślnie martwa. Dopiero materialny i odpowiedzialny performans nadaje jej znaczenie.