Listopad to dla mnie czas sprawdzania prac zaliczeniowych studentów i studentek, którzy uczestniczyli w moim kursie ochrony danych osobowych. W tym roku mieli oni za zadanie napisać esej odpowiadający na pytanie prejudycjalne zadane przez belgijski sąd Trybunałowi Sprawiedliwości Unii Europejskiej („Czy apostazja powinna skutkować permanentnym wykreśleniem danych z ksiąg kościelnych?”). Ponadto w ramach zaliczenia obowiązywał egzamin pisemny online z otwartą książką (kazus oraz dwa pytania otwarte).
Nie ma tu odpowiedzi bezwzględnie poprawnych. W nauce prawa bardziej niż końcową odpowiedź (którą najczęściej będzie odwieczne mecenasowskie „to zależy”) oceniamy przekonującą argumentację, odpowiednią wykładnię przepisów i umiejętne aplikowanie orzecznictwa. Dotychczas nasze metody egzaminacyjne wydawały się w miarę skutecznym sposobem na sprawdzenie, czy osoby uczestniczące w zajęciach rzeczywiście zrozumiały dyskutowany materiał oraz czy potrafią odpowiednio wyrazić i uzasadnić swoje stanowisko. Ostatnio jednak zaczynam w nie wątpić. Głównym powodem tej zmiany jest nagminne pojawianie się w sprawdzanych przeze mnie pracach mniej i bardziej wyraźnych śladów korzystania z narzędzi sztucznej inteligencji.
Między autorem a algorytmem
Ani ja, ani zdecydowana większość moich studentów nie jesteśmy rodzimymi użytkownikami języka angielskiego. Z tego powodu niemal wszyscy korzystamy z popularnego Grammarly. To program, który na bieżąco koryguje nasze nieuważne błędy, wstawia tak często pomijane albo mylone przez Słowian przedimki i uzgadnia czasy. Moja alma mater, Europejski Instytut Uniwersytecki we Florencji, zapewnia nam dostęp do wersji premium tego narzędzia – co, w istocie, na ostatnim etapie pisania pracy doktorskiej okazało się dla mnie zbawienne. Tyle tylko, że nawet pozornie niewinne Grammarly zawiera w sobie szarości, które mogą wychodzić poza korektę językową.
Przykładowo, może odpowiednio zmodyfikować ton wypowiedzi albo dostosować go tak, żeby brzmiał bardziej przekonująco, akademicko albo pozytywnie. Może zaproponować brakujące słowo, skrócić akapit, dopisać efektowne zakończenie. Wówczas zaczyna rodzić się we mnie niewygodne pytanie: Czy to wciąż ja jestem autorką takiego tekstu, czy już raczej algorytm, który dopisuje i wygładza go za mnie?
Z życia wykładowczyni: student tłumaczy się, że jego praca wygląda jak wygenerowana przez AI, bo zapamiętał osiemset konstrukcji w języku angielskim, których (jak twierdzi) używa naprzemiennie. Inny przyłapany wyjaśnia, że tekst został wygenerowany wyłącznie na podstawie załączonego pliku notatek z zajęć. Studentka na jedno pytanie egzaminacyjne odpowiedziała wyjątkowo szczegółowo, w formie zdecydowanie odstającej pod względem językowym od reszty – ponoć zainteresował ją ten temat na zajęciach, więc przygotowała się akurat pod tym względem (jednocześnie nie potrafi udzielić odpowiedzi, gdy pytana o prawnicze szczegóły).
W eseju zaliczeniowym pojawiają się tajemnicze pogrubienia i bardzo ogólne stwierdzenia; w przypisach figurują nieistniejący autorzy, poprzekręcane tytuły publikacji i linki prowadzące donikąd.
Aplikacja Turnitin, stworzona do wykrywania fragmentów napisanych przez modele językowe, choć nieidealna, zaznacza przypadkowo akurat wstęp i zakończenie ogólnie rzecz biorąc dobrego eseju. Rzeczywiście, jak przyznaje studentka, zostały wygenerowane przez ChatGPT po tym, jak zauważyła, że wyszła poza limit słów. Magistrant przysyła prowizoryczną strukturę pracy w całości wygenerowaną przez AI.
Adaptacja do nowej rzeczywistości
Można by pomyśleć, że to tylko leniwi studenci, którzy jak świat światem, a uniwersytet uniwersytetem poszukują sposobów na jak najlżejsze przetrwanie studiów. Tyle że artykuły naukowe, które dostaję do peer review [określenie procesu recenzowania, który opiera się na zapoznaniu się z tekstem specjalistów z danej dziedziny – przyp. red.], oraz notki przysyłane na naukowego bloga, w którego jestem redakcji, nagle przestały być upstrzone błędami językowymi. Zniknęły składnie zdań, które kiedyś mogły sugerować tożsamość językową osób autorskich (przydługie i potoczyste – najpewniej ktoś z południa Europy, metafory – Polacy); coraz mniej widać pisarską swadę, dużo bardziej bezpieczne wybory. Choć język akademicki prawa europejskiego nigdy nie szczycił się zbytnim przyzwoleniem na poetyckość, to jednak daleko mu było do schematycznych artykułów wymaganych przez nauki ścisłe.
Moja uczelnia, uniwersytet w Maastricht, podjęła próbę adaptacji do nowej rzeczywistości. Jako jedna z pierwszych zaproponowała wytyczne, w których, ogólnie rzecz biorąc, z AI korzystać można, ale tylko pod określonymi warunkami. Czyli, przykładowo, do korekty językowej czy researchu – tak, ale do pisania (nawet redagowania i przepisywania, na przykład w celu skrócenia eseju) – już nie. Od moich studentów zaczęłam w pracach pisemnych wymagać przejrzystości. W części metodologicznej muszą wskazać, z jakich urządzeń korzystali, w jaki sposób i w jakim celu, najlepiej aż do poziomu promptu. Pozwala to chociaż trochę zorientować się w tym, jak używana jest AI, nawet nie przez osoby, które są otwarcie niechętne do nauki i szukają drogi na skróty, ale przez tych, dla których jest to wyraźnie całkiem niezła pomoc edytorsko-naukowa.
Bo fakt, że Grammarly i ChatGPT pomagają ominąć najważniejszą przeszkodę na drodze do publikacji własnego tekstu: język. Wspierają osoby, dla których angielski – język w nauce dominujący – nie jest pierwszym językiem i z którym mają kłopoty.
AI może być wykorzystywana w kierunku wspomagania naukowej różnorodności i inkluzywności i pomagać osobom, których przeszkody w dotarciu do szerszej publiczności nie są związane z jakością ich badań.
Taka argumentacja nie przekonuje sceptyków – zamiast wspierać istniejącą przewagę języka angielskiego, można by zamiast tego skupić się na zmianie systemu publikacji naukowych, któremu już od dawna należałoby się przewietrzenie i odnowa. Podobnie dla studentów korzystanie z ChataGPT, nawet w celach korekty językowej, mija się z celem, dla którego są na uniwersytecie: żeby się nauczyć samemu, jak dobrze pisać, w tym również poprzez popełnianie błędów.
Fikcyjne przypisy, wygenerowane ilustracje
O ile jednak na uczelniach obecność śladów ChataGPT w pracach nie dziwi i budzi głównie pedagogiczno-dydaktyczne rozterki, o tyle dużo mniej złudzeń i empatii można mieć do książek i publikacji, które wychodzą na rynku komercyjnym.
A spraw tego typu jest coraz więcej. Najczęściej wyłapywane są przez czytelników i blogerów, których kolejne skandale plagiatowe i konfabulacje nauczyły dokładnie sprawdzać przypisy i zadawać pytania.
I tak, Karolina Opolska, autorka „Teorii spisku, czyli prawdziwej historii świata”, wydanej w wydawnictwie Harde, w książce odwołuje się do nieistniejących publikacji i autorów. Zauważył to Artur Wójcik, historyk i bloger, z początku wskazując na trzy wymyślone źródła. Wydawca i autorka zaprzeczyli, że przy pracy nad książką korzystali z narzędzi AI, tłumacząc się błędem technicznym. Serwis Demagog udowodnił jednak, że w książce znajduje się przypis, który zawiera bezpośrednie odniesienie do ChataGPT. Dziennikarka przeprosiła; zapowiedziano erratę.
Chwilę później furorę na Instagramie i Tiktoku zrobiło wideo autorstwa @szymonmowi o książce kucharskiej „Air Fryer” Pawła Porocha – w całości zilustrowanej przez marne, wygenerowane przez AI pseudozdjęcia. Jedno z nich, czarno-białe, pokazuje dwie biedne dziewczynki stojące na rzekomo warszawskim podwórku kamienicy z kartką „Śledzie po warszawsku”. Data towarzysząca wpisowi: 1 sierpnia 1944 rok.
Wojciech Kardyś, PR-owiec i ekspert od cyfrowego marketingu, skomentował sprawę, pisząc, że „to, co obserwujemy ostatnio na rynku wydawniczym […], zaczyna przypominać zalewanie naszej przestrzeni kulturowej wygenerowanym ściekiem”. Kardyś wydał w tym roku książkę w prestiżowym wydawnictwie Znak – „Homo Digitalis” o korzystaniu z internetu przez nastolatków. Bartłomiej Kluska, recenzując ją, wskazał, że przynajmniej w kilku przypisach można było znaleźć frazę z odnośnikiem do ChataGPT. Autor to potwierdził, tłumacząc się, że każdy link został sprawdzony i że w podkastach ujawnił swoje metody pracy. Szkoda jednak, że nie ma o tym wzmianki w samej książce – przejrzystość od początku z pewnością wzmocniłaby jej wiarygodność. Wydaje się także, że uzgodnione przypisy to zadanie dla redakcji, a pozostawianie ogonków z researchu świadczy o niechlujności – co nie zachęca do zakupu.
Znak wpadł również na innej książce – polskim wydaniu „Kairos” Jenny Erpenbeck. Powieść ta w 2024 roku wygrała międzynarodową nagrodę literacką Bookera i zbierała świetne recenzje. W polskich przypisach, jak wykryła Eliza Pieciul-Karmińska, badaczka baśni braci Grimm i blogerka prowadząca stronę „Rumpelsztyk”, znajduje się odwołanie do nieistniejącego tłumacza nieistniejącego tomu baśni braci Grimm.
Tłumaczenie bazuje na tym, które stworzyła Pieciul-Karmińska, ale nie ma o tym informacji.
I znowu – kto zawinił i co właściwie się wydarzyło? Tego często już nie da się precyzyjnie ustalić.
Te przykłady to i tak tylko wierzchołek góry lodowej rynku zalewanego książkami w całości napisanymi przez AI i takich będących wygenerowanymi streszczeniami innych. Najwięcej sytuacje te mówią o chronicznie niedofinansowanym rynku książki, w których nie ma czasu na dokładne korekty, a przypisów, nawet tych właściwych, najczęściej można ze świecą szukać.
Kto jest autorem, a kto narzędziem?
Gdzieś w tle pozostaje też świadomość tego, skąd generatywne AI ma dostęp do informacji, które pozwalają mu na generowanie treści. Jak już wykazano, pochodzą one z masowego ściągania książek dostępnych w pirackich bazach internetowych i tekstów umieszczanych na stronach internetowych (nawet takich jak ten).
AI jest zbudowana w oparciu o pracę osób, które nie zostały za to wynagrodzone.
Jest nośnikiem pamięci ludzkiej kreatywności, ale sama nic nie stworzy – będzie, jak twierdzą niektórzy, jedynie zombie zbudowanym z przeszłych zdań.
Są wśród pisarzy osoby, które podejmują się gry ze sztuczną inteligencją. Vauhini Vara skorzystała z AI najpierw do przepracowania śmierci siostry i napisania o tym eseju. Następnie do napisania książki „Searches: Selfhood in the Digital Age” – o tym, czym jest tożsamość w czasach sztucznej inteligencji i na ile to, co „wypluwa” z siebie maszyna, jest wciąż nami. Pisząc w otwartym dialogu z AI (a także innymi narzędziami, takimi jak wyszukiwarka Google), autorka wyrusza na bardzo ciekawą, introspekcyjną podróż w głąb swojej internetowej tożsamości. Taka gra może się udać – i na pewno warto budować pomosty pomiędzy cyfrowymi a analogowymi rzeczywistościami. Jednak powinno pozostać jasne, kto jest tutaj autorem, a kto narzędziem.
This issue was published as part of PERSPECTIVES – the new label for independent, constructive and multi-perspective journalism. PERSPECTIVES is co-financed by the EU and implemented by a transnational editorial network from Central-Eastern Europe under the leadership of Goethe-Institut. Find out more about PERSPECTIVES: goethe.de/perspectives_eu.
Co-funded by the European Union. Views and opinions expressed are, however, those of the author(s) only and do not necessarily reflect those of the European Union or the European Commission. Neither the European Union nor the granting authority can be held responsible.
