W nauce nowożytnej rozwinęła się grupa dyscyplin zwanych zbiorczo naukami pomocniczymi historii. Większość z nich dotyczy materialnych nośników zapisów tekstowych, jakie powstawały w przeszłości i stanowią podstawę źródeł historycznych. Historyk zajmujący się jakimkolwiek tematem nienależącym do dziejów najnowszych prędzej czy później staje wobec problemów, do których rozwiązania musi stosować wiedzę z zakresu którejś z tych nauk.
Jednak historycy, którzy wejdą do branży w drugiej połowie naszego stulecia i zechcą zająć się tym, co się działo w jego pierwszej połowie, będą zmuszeni do kształcenia się w zupełnie innych naukach pomocniczych. Będą one miały związek głównie z informatyką i zaawansowanymi metodami obróbki danych cyfrowych. Już dziś większość informacji wytwarzanych przez ludzkość w stale rosnącym tempie ma postać prymarnie cyfrową. Będzie to zresztą powodowało nieznane dziś jeszcze kłopoty. Nawet z bardzo zniszczonego kawałka papirusu da się wyczytać jakieś informacje, ale co będzie można wyczytać z dysku magnetycznego lub optycznego, który przeleżał kilka dekad w glebie, albo z serwera, który przez lata nie był konserwowany ani zasilany?
Często zadawane pytanie, czy zmiany technologii kulturowych są „dobre” czy też „złe” – dla nauki, dla kultury, dla człowieka itd. – jest pytaniem źle postawionym, ponieważ tkwi w nim założenie, że ewolucja ludzkiego świata ma określony kierunek i zmierza do jakiegoś celu. Uznanie takiego założenia wymaga zaś z kolei fideistycznego fundamentu myślenia o świecie. Innymi słowy, totalna cyfryzacja, której jesteśmy świadkami, wraz z jej wpływami na kształt naszej kultury, jest „dobra” lub „zła” tylko wtedy, kiedy żywimy przekonanie co do tego, dokąd zmierza świat. Jeśli powstrzymujemy się od wydawania sądu na ten trudny temat, wówczas świat mediów cyfrowych nie jest ani dobry, ani zły; jest kolejną fazą naszej historii. Właśnie takie stanowisko prezentuje niemiecki medioznawca Henning Lobin w książce „Marzenie Engelbarta. Czytanie i pisanie w świecie cyfrowym”.
Douglasowi Engelbartowi (1925–2013), którego nazwisko pojawia się w tytule tej książki, zawdzięczamy uczłowieczenie komputera. To on wynalazł mysz oraz wpadł na pomysł, aby użytkownik komputera mógł posługiwać się nim inaczej niż poprzez wpisywanie informacji w kodzie binarnym – czego rezultatem stał się interfejs. Niewielu z nas pamięta, że do końca lat 70. XX wieku „komputer” był maszyną służącą głównie do przeprowadzania skomplikowanych obliczeń w celach naukowych, a dostęp do „mózgów elektronowych” nie był łatwy nawet dla naukowców, którzy musieli często, zwłaszcza w mniejszych ośrodkach, zapisywać się do kolejki chętnych. Użytkowanie tych wczesnych komputerów wymagało specjalistycznej wiedzy posiadanej przez wąskie grona ekspertów. Wynalazkom Engelbarta ludzkość w dużej mierze zawdzięcza powstanie komputerów osobistych i wszystko, co nastąpiło później w związku z nimi. Już choćby dlatego warto było nazwać jego nazwiskiem książkę, której autor przedstawia niektóre z najważniejszych zjawisk kultury cyfrowej związane z pisaniem tekstów i ich czytaniem.
Trudno byłoby streścić tę książkę o wielu wątkach, bogatą w treść i porządkującą wiele faktów. Jej wstępne rozdziały to rekapitulacja tematów opracowanych już dawno – dziejów pisma i jego wpływów na kultury i cywilizacje ludzkie. Ale kiedy Lobin przystępuje do omawiania przemian pisma i lektury w kulturze cyfrowej, robi się dużo ciekawiej – zwłaszcza dla słabo obytych technicznie humanistów. To zresztą zabawne, że w czasach przedcyfrowych niewielu literatów wiedziało, jak się robi książki, a w czasach cyfrowych niewielu humanistycznych użytkowników komputera zna zasady działania tego urządzenia oraz jego pochodnych – laptopa, tabletu, smartfonu. Odkryciem dla nich może być choćby opis zestawu Unicode, kodującego jednolicie wszystkie rodzaje zapisów, jakie powstały w dziejach ludzkości, od znaków pisma klinowego i hieroglifów egipskich przez najbardziej egzotyczne dla Europejczyka alfabety i sylabariusze aż po notacje matematyczne i muzyczne oraz diakryty we wszystkich językach stosujących pismo łacińskie. Fascynujące – ale i nieco przerażające – jest to, że Unicode sprowadza pięć tysięcy lat dziejów pisma do homogenicznego schematu bitowego, w którym zaciera się cała historyczność systemów pisma i ich dziejowe konteksty. To właśnie jeden ze skutków cyfryzacji kultury. Jego mniej zauważalnym aspektem jest fakt, że dla układu przetwarzającego dowolny z tych zapisów nie ma znaczenia, czy jest to pismo chińskie, arabskie, czy staroegipskie – bo wszystkie mają w tym układzie postać zerojedynkową.
Nie wdając się w szczegóły analiz Lobina dotyczących nowych form pisania, czytania i obiegu treści słownych w kulturze cyfrowej, warto wspomnieć o najbardziej dyskusyjnej z jego propozycji. Lobin rozszerza mianowicie koncepcję samolubnego genu na pojęcie memu i twierdzi, że memy krążące w uniwersum kultury posługują się ludźmi w celach replikacyjnych. Tak, jak w epoce druku ich „sługami” byli ludzie zwani „molami książkowymi”, tak teraz funkcję tę pełnią „nerdzi”. Pomijając problematyczność samej koncepcji memu, pogląd ten na pewno uderza w humanistyczne uroszczenia podmiotu ludzkiego i można go potraktować jako konstruktywną prowokację intelektualną.
Niestety, Lobin przejawia chwilami upraszczające rozumienie literatury, często spotykane u lingwistów o nachyleniu „maszynowym”. Metoda twórcza Jamesa Joyce’a na pewno nie polegała na „splataniu ze sobą tekstów różnych autorów” (jak pisze na s. 197), a to, co w tym miejscu ma na myśli, dotyczy raczej antycznego centonu. Jeśli czegoś w tej książce brakuje, to wyczucia, jak zabójcze jest pisanie i czytanie cyfrowe dla literatury nowożytnej i nowoczesnej, która (przynajmniej w tych swoich odmianach, które do niedawna uważano za najbardziej wartościowe) opierała się przeważnie na zindywidualizowaniu cech formalnych tekstu w taki sposób, aby zadziałał on wbrew oczekiwaniom czytelnika. „Styl to człowiek” – ale nie przy kompie podłączonym do netu, gdzie algorytmy dobierają treść i styl informacji tak, że ostatecznie użytkownik dostaje wyłącznie albo to, co już wie, albo to, czego się spodziewa. W takiej sytuacji trudno będzie o nowe pomysły.
Modernistyczna „oryginalność” na pewno ulega destrukcji w obiegu cyfrowym. Ale może ta „oryginalność” była w końcu tylko jedną z faz ewolucji kultury, która po prostu skończyła się tak, jak skończyła się XVII-wieczna „dworność”? Obieg, w którym wytwórca tekstów literackich dostarcza dokładnie takiego produktu, jakiego oczekuje odbiorca, może razić osoby wychowane na „starych mistrzach”, którzy wciąż szukali nowych form wyrazu – lecz przecież nie odbiega daleko od zasad obiegu piśmiennictwa przednowoczesnego. Jeśli literatura XVI czy XVII w. (poza wyjątkami z kanonu formowanego w XIX i XX w.) nuży nas swoją jednostajnością i schematycznością, to właśnie dlatego, że również była tworzona/wytwarzana według oczekiwań swoich odbiorców. W kulturach ustnych modernistycznie rozumianej „nowości” nie było prawie wcale – i w tym sensie kultura cyfrowa jednak jest „wtórną oralnością”, jak nazwał ją kiedyś Walter Ong.
Ten cyfrowy obieg literatury i innych treści nie jest jednak jednoznaczny i kwitowanie go hasłem „Zwycięża nijaka przeciętność” byłoby naiwne, ponieważ wewnątrz tej przeciętności zachodzi wiele złożonych procesów. Dlaczego w 2017 r. piosenki Eda Sheerana i Luisa Fonsiego miały po kilka miliardów odsłon na Youtube? Dlaczego to właśnie ci wykonawcy uzyskali taką popularność? Dlaczego od początku stulecia książki J. K. Rowling i G. R. R. Martina sprzedały się w wielu milionach egzemplarzy? Dlaczego właśnie ci pisarze? Czy decyduje tu jedynie statystyka procesów masowych? Na takie pytania będzie już niebawem odpowiadać humanistyka akademicka.
Pewne jest, że pisanie i czytanie cyfrowe znosi wywodzący się z poprzednich epok podział literatury na „kanon arcydzieł”, „piśmiennictwo popularne” oraz „obszary trzecie”, w których bytują „marginalia”. Podział ten ulega zatarciu nie dlatego, że w środowisku cyfrowym arcydzieło i szmira są takimi samymi ciągami zer i jedynek (w środowisku druku są przecież – analogicznie – takimi samymi ciągami liter na papierze), lecz dlatego, że zupełnemu ujednoliceniu ulegają w nim formy obiegu tekstów. Biblioteka – świątynia i bazar odpustowy – stają się jednym. Inteligent pytający o „Trędowatą” wzbudzał niesmak w księgarzu, ale klient Amazona zostanie obsłużony tak samo, bez względu na to, czy kupuje dzieła zebrane Dostojewskiego w oryginale, czy najnowszą powieść Danielle Steel. A przecież poza książkami i ebookami w sieci istnieje ogromny obszar twórczości oddolnej, spontanicznej i nieprofesjonalnej. Najdłuższy fanfik jest znacznie obszerniejszy od „W poszukiwaniu straconego czasu” i podobno wciąż się powiększa.
Już na początku lat 80. „Spiegel” opublikował kpiarski tekst, w którym proces cyfryzacji wiedzy i kultury (wówczas dopiero się rozpoczynający) miał ostatecznie, gdzieś około 2040 r., doprowadzić do redukcji wszystkich niecyfrowych elementów – aż po ludzkiego czytelnika. Maszyny same wytwarzały teksty, gromadziły je, ewidencjonowały i czytały. Lobin, pisząc przeszło trzy dekady później, zbliża się do tej wizji już poważnie, kiedy analizuje metody maszynowego przetwarzania tekstów (na poziomie ich kreacji i odbioru) oraz opisuje sugestywnie gmach nowojorskiej biblioteki publicznej, której użytkownicy nie czytają już w ogóle książek i korzystają wyłącznie z multimediów.
Ten opis z autopsji uświadamia zresztą coś jeszcze, czego autor chyba nie dostrzegł. Architektura i wystrój wielkich bibliotek z epoki triumfującej nowoczesności, ich programy ikonograficzne – miały pełnić tę samą rolę, jaką pełniły gmachy oper i filharmonii oraz niektórych muzeów. Miały to być świeckie świątynie kultury i wiedzy. Miały od progu informować przebywających w nich ludzi o tym, że znajdują się oni w najważniejszych miejscach cywilizacji – tam, gdzie jest serce i mózg całej ludzkości. Resztki tego programu ideologicznego widać jeszcze nawet w gmachu Biblioteki Uniwersyteckiej w Warszawie otwartym w 1999 r. – nad głównym wejściem widnieje ogromna otwarta księga z napisem „Hinc omnia” (Stąd wszystko). Ale to jest już przeszłość.
W wizjach XX-wiecznych futurologów maszyny miały zastąpić człowieka. Możliwe, że w XXI wieku to faktycznie się zdarzy, ale nie do końca tak, jak oni sobie wyobrażali. Maszyny mogą nas bowiem w pewnym momencie zastąpić w wyższych funkcjach społecznych i kulturowych, a nie w niższych. Ludzie będą wykonywać tylko proste prace fizyczne. Jest nas dziś siedem miliardów. Licząc po 50 kg średniej masy na osobnika (mało, ale 1/4 populacji to dzieci), wychodzi nam, że ludzkość waży 350 milionów ton. Szkoda byłoby zmarnować tyle żywca.
Możliwe jest jednak i to, że historia jeszcze raz albo jeszcze kilka razy dokona niespodziewanego zwrotu. Kiedy Engelbart wprowadzał mysz i przyjazny interfejs, mało kto zdawał sobie sprawę z tego, jak ogromnie te wynalazki odmienią świat człowieka. Dziś, w powodzi nowych aplikacji i tak zwanych funkcjonalności, którymi co dnia, nie pytając, czy chcemy, obdarzają nas twórcy Windowsa, Androida czy Google’a, możemy przegapić coś prawdziwie nowego, co ujawni swoją moc za dwie dekady; i wcale niekoniecznie będzie to start-up. Innymi słowy – jest nadzieja, że uda nam się raz jeszcze pozytywnie zaskoczyć samych siebie, bez względu na to, czym właściwie, do cholery, jesteśmy – myślącym mięsem, pakietami informacji, futerałami na geny i memy itd., itd.
Książki:
Henning Lobin, „Marzenie Engelbarta. Czytanie i pisanie w świecie cyfrowym”, przeł. Łukasz Musiał, Biblioteka Myśli Współczesnej, PIW, Warszawa 2017.