Jakub Bodziony: Kilka dni temu Alex Karp z Palantir Technologies opublikował na X manifest, w którym stawia tezę: połączenie AI i twardej siły gwarantuje przetrwanie zachodniej cywilizacji. Czy to moment, który będziemy wspominać jako początek technofaszyzmu?

Karen Hao: To nie jest początek, tylko najbardziej wyraźna artykulacja obecnych trendów. W samej branży technologicznej, wśród pracowników, te idee są omawiane i normalizowane od dawna.

Zgodnie z nimi ostatecznym zadaniem tych firm jest połączyć się z państwem i go bronić — ale w taki sposób, który ostatecznie doprowadzi do osłabienia władzy państwa na rzecz branży technologicznej.

Palantir jest pod tym względem dość wyrafinowany: używa języka „służby państwu”, żeby ukryć fakt, że władza faktycznie już przesunęła się w stronę branży. Ten manifest ma uspokoić państwo, żeby nie zorientowało się zbyt szybko, że nierównowaga sił się zmieniła — i żeby firmy mogły dalej zakorzeniać się w infrastrukturze krytycznej, aż będzie za późno na wycofanie się.

Kluczowym momentem był konflikt na linii Anthropic — Departament Obrony USA. Firma dostarczająca modele AI wykorzystywane w systemach analizy i wsparcia decyzji dla wojska weszła w spór z resortem o to, jak szeroko technologia może być stosowana w systemach masowej analizy danych i nadzoru. To był precedens, który jasno pokazał, że Dolina Krzemowa ma przewagę nad rządem.

A nie na odwrót?

Pete Hegseth zasadniczo zrozumiał, że stracił kontrolę — i było to dla departamentu pewnego rodzaju egzystencjalne zagrożenie. Firma dostarczająca krytyczną infrastrukturę technologiczną była gotowa wyjść z układu z rządem. Dlatego pojawiła się groźba opcji nuklearnej: wpisania Anthropica na listę firm stanowiących ryzyko dla amerykańskiego łańcucha dostaw. Przedsiębiorstwo na takiej liście jest właściwie pozbawione możliwości funkcjonowania w USA. Mimo to nie udało się zmusić Anthropica do ustępstw — co jest po prostu niesamowicie kompromitujące dla Hegsetha.

Ale ważniejsze jest co innego: zobaczyliśmy, że te firmy mają wystarczająco dużo władzy, żeby po prostu ignorować to, czego państwo faktycznie chce. A państwo nie ma wobec nich żadnego środka odwoławczego.

Od dawna było jasne, że wielu ludzi w branży technologicznej nie uważa rządu za wartościową strukturę. Sam Altman w swoich wpisach blogowych sprzed ponad dziesięciu lat pisał wprost o efektywności rządu w porównaniu z rynkami.

Tak, ale jednocześnie apelują, że regulacje są konieczne. Czasami wręcz o nie proszą.

To wszystko jest ściema. Tak długo, jak mogą mówić rzeczy bez realnych konsekwencji, będą to robić.

Jako pierwszy tę strategię zastosował Mark Zuckerberg. Przepraszał i zapewniał, że „zrobimy lepiej”, a Facebook funkcjonował dokładnie tak samo. To stało się podręcznikową metodą dla CEO w Dolinie Krzemowej. Gadka o tym, że „naprawdę chcemy regulacji”, połączona z generowaniem dużej aktywności wśród władz i zmuszaniem ich do dyskusji, zajmuje czas — a oni w tym czasie robią to, co i tak zamierzali. Rok później, gdy decydenci skończą swoje rozmowy, rzeczywistość jest już zmieniona. Stąd przekonanie Doliny Krzemowej, że to oni powinni kierować światem — nie pozbawieni kompetencji politycy.

Jeśli — jak twierdzą Sam Altman, Dario Amodei czy Peter Thiel — AI jest technologią o znaczeniu porównywalnym do internetu czy nawet Projektu Manhattan, a więc de facto częścią infrastruktury krytycznej, to czy w pewnym momencie pojawi się konieczność jej uspołecznienia w imię dobra publicznego?

Hegseth ma rację w jednym: prywatne firmy, które nie ponoszą odpowiedzialności, nie powinny podejmować decyzji o sprawach tak krytycznych jak technologia używana przez wojsko. To powiedziawszy, w tym konkretnym momencie państwo amerykańskie również zawodzi na całej linii — co z kolei pokazuje wady podejścia, w którym całą odpowiedzialność i decyzyjność oddaje się państwu.

Jednak przekazanie zbyt dużej władzy prywatnym firmom jest bardziej niebezpieczne niż przekazanie jej państwu — bo państwo wciąż podlega wyborom i mechanizmom kontroli ze strony obywateli. Firm nie da się w ten sposób rozliczyć. Są więc znacznie większym i długoterminowym zagrożeniem, nawet jeśli dziś niektórym mogą się wydawać bardziej odpowiedzialnymi podmiotami niż rządy.

Nie oznacza to koniecznie nacjonalizacji. Chodzi raczej o stworzenie mechanizmów dających ludziom realny wpływ na rozwój i wykorzystanie AI w obszarach istotnych publicznie. W przeszłości, gdy wojsko nabywało nowe technologie, istniały procedury konsultacyjne — mechanizm, dzięki któremu eksperci i opinia publiczna mogli wyrazić swoje zdanie. Administracja Trumpa całkowicie z tego zrezygnowała.

Nie ma wezwania do składania ofert. Nie ma procedur zakupowych. Po prostu oddaje się przysługi znajomym z branży: jesteście naszym preferowanym dostawcą. Nie wyeliminowali wyborów, ale wyeliminowali zdolność obywateli do natychmiastowej reakcji.

Mówimy o Palantirze, bo to firma jawnie związana z sektorem militarnym. Ale w narracjach innych graczy — OpenAI czy Anthropic — widać podobny schemat: AGI (Artificial General IntelligenceOgólna Sztuczna Inteligencja) przedstawiana jest jako najwyższy cel, niemal w kategoriach religijnych. Peter Thiel mówił wręcz o AGI jako o figurze quasi-religijnej. W takim ujęciu sprzeciw wobec AGI czy próby jego regulowania zaczynają być traktowane jak herezja — jakbyś stawał się antychrystem.

Modus operandi tych firm jest taki sam, różnice są głównie PR-owe. Dlatego Anthropic tak rozgrywał wspomniany wcześniej konflikt z Departamentem Obrony — próbując wykazać się rzekomą moralnością i troską o dobro obywateli.

Altman operuje podobną logiką, ale dostosowuje narrację do sytuacji — tu niemal natychmiast przeszedł do otwartej współpracy z Pentagonem. Zadeklarował, że OpenAI uzyskała wszystkie niezbędne zapewnienia od Departamentu Obrony co do stosowania tych technologii przez wojsko. 

Wygląda to tak, że OpenAI to węgiel, a Anthropic to „czysty węgiel”.

Sam Altman wciąż pozostaje najbardziej wpływową osobą w tej branży. Zastanawiam się, na ile jest on produktem swojego środowiska, a na ile kimś wyjątkowo sprawczym, kto potrafił to środowisko wykorzystać. W twoim opisie San Francisco uderzający jest kontrast: z jednej strony świat luksusu i technologicznej utopii, z drugiej — skrajna nierówność, widoczna na co dzień. Czy ten kontekst w jakiś sposób kształtuje sposób myślenia o AGI i ambicje ludzi, którzy nad nim pracują?

Jest produktem swojego środowiska — i jednocześnie je współkształtuje. Całą karierę spędził w Dolinie Krzemowej, nasiąkając zarówno fizycznym krajobrazem San Francisco, gdzie nierówności są skrajne i stale rosną, jak i kulturą startupów: logiką monopolu, „zwycięzca bierze wszystko”, bezwzględnego wypierania konkurencji i obsesją wykładniczego wzrostu.

Tak prowadzi biznes — i widać to konsekwentnie we wszystkim, co robił.

Zanim został CEO OpenAI, kierował Y Combinator — jednym z najważniejszych na świecie akceleratorów startupów. Mówił: będziemy dziesięciokrotnie zwiększać liczbę startupów, które finansujemy każdego roku, aż będziemy finansować wszystkie startupy na świecie. Co właściwie znaczy finansować wszystkie startupy na świecie? Większość startupów upada, więc po co finansować wszystkie? To nieustanne pragnienie przechwycenia wszystkiego, co możliwe, stanowi etos Doliny Krzemowej. A Altman wyróżnia się na tym tle szczególną zdolnością rozumienia ludzkich pragnień i lęków — i wykorzystywania ich do osiągania swoich celów.

To właśnie czyni go naprawdę świetnym rekruterem talentów, niezwykłym fundraiserem i mistrzowskim sprzedawcą oraz negocjatorem. Przez długi czas właśnie dlatego cieszył się tak dobrą reputacją — bo potrafi wyczuć, co musi powiedzieć w danym momencie, żeby uśmierzyć twoje lęki i skusić cię czymś, czego głęboko pragniesz. I sprawić, że poczujesz, że możesz to dostać — jeśli w zamian powierzysz mu swój kapitał, czas i zasoby.

W pewnym sensie jest taki sam jak każdy inny CEO z branży — jego ambicje są identyczne: dominować, rozszerzać się, budować firmę, która dotknie każdego zakątka ziemi. Ale jego taktyki i osobowość są nieco inne. Bardziej niż ktokolwiek inny intensywnie wykorzystuje zdolność do opowiadania historii i perswazji. Dziś jednak jego reputacja zmieniła się na tyle, że nawet ta umiejętność nie pozwala mu już odzyskać kontroli nad narracją o AI.

Główną metaforą twojej książki jest „imperium”. Na początku myślałem, że lepiej pasowałby „kult”, bo ten wymaga ludzi oddanych jednej idei. A kiedy opisujesz początki tej idei, widać, że motywacje tych osób były bardzo różne — co ostatecznie doprowadziło do podziału w OpenAI. Więc pojawia się pytanie: czy Sam Altman naprawdę wierzy w to, co mówi? Czy jest cynikiem, czy kimś, kto sam zaczyna wierzyć we własną narrację?

Moja hipoteza jest taka, że Altman faktycznie zmienia to, w co wierzy, w zależności od kontekstu, w którym się znajduje. I być może właśnie dlatego przez całą jego karierę powraca zarzut dwulicowości — że mówi różne rzeczy różnym ludziom. Problem w tym, że on w tych momentach prawdopodobnie naprawdę myśli różne rzeczy.

Czyli nie jest cyniczny?

Cóż — jest cyniczny w tym sensie, że nie ma żadnego kluczowego zestawu wartości poza pragnieniem sukcesu. I właśnie dlatego może tak płynnie wchodzić w różne systemy przekonań w zależności od tego, z kim rozmawia. Kiedy rozmawia z pracownikami i musi zebrać ich wokół idei, że wszyscy pracują na rzecz fundamentalnie dobrej sprawy — myślę, że naprawdę w to wierzy. Narracja jest wtedy prosta: tak, budujemy coś wspaniałego i wszystko zmierza w dobrym kierunku. Ale kiedy siada z inwestorami i rozmowa schodzi na deale, pieniądze i zyski — dostosowuje się do audytorium. Narracja zmienia się na: myślę, że zarobisz fortunę, niezależnie od tego, czy to wszystko ostatecznie zadziała. Upewnia się, że każdy poczuje się zaopiekowany.

Cel uświęca środki.

Świat AI trochę przypomina mi uniwersum Diuny. Paul Atreides od początku wie, że istnieje mit, który może wykorzystać do kontrolowania ludzi — mit mesjasza przybyłego na Arrakis. Wchodzi w tę rolę świadomie, instrumentalnie. Ale ponieważ żyje tym mitem dzień po dniu, oddycha nim, ucieleśnia go — zaczyna tracić z oczu granicę między mitem a rzeczywistością. Może jest mesjaszem? Może mit stał się prawdziwy właśnie dlatego, że w niego uwierzył? Traci racjonalny ogląd sytuacji. I myślę, że dokładnie to samo dzieje się z wieloma ludźmi w świecie AI.

Prawdopodobnie przydarzyło się to też samemu Altmanowi. Ilya Sutskever, w przeszłości główny naukowiec firmy, był tym wierzącym. I być może Altman zobaczył: hej, ten mit, w który Ilya naprawdę wierzy, ma ogromną użyteczność — jak mogę go ucieleśnić? Ale może, ucieleśniając go, sam się w nim zagubił. I po prostu zaczął wierzyć.

Myślę, że jego wiara w ten mit naprawdę się waha — w zależności od tego, czy jest otoczony innymi wierzącymi, czy ludźmi myślącymi w zupełnie innym schemacie. On nigdy nie zgodził się ze mną porozmawiać, ale jego wzorzec interakcji z innymi jest dobrze udokumentowany.

Altman miał powiedzieć zarządowi firmy, że nie jest w stanie zmienić swojej osobowości — co zostało odebrane jako pośrednie przyznanie się do kłamstw. Rozmawiałaś z osobami obecnymi przy tych rozmowach. Jak to faktycznie wyglądało?

Altman jest takim kameleonem, że mówi jednej osobie jedno o swoich przekonaniach, a drugiej coś zupełnie innego. I wtedy ta druga osoba może powiedzieć: kłamałeś tamtej. Ale faktycznie w tamtym momencie Altman w to wierzył — bo nie ma żadnego stałego rdzenia przekonań.

Mechanizm jest taki: staje się tak przyzwyczajony do perswazji, tak przyzwyczajony do myślenia w trybie — co muszę teraz powiedzieć, żeby przekonać tę osobę — że po prostu rzuca stwierdzenie bardziej związane z tym, czego rozmówca potrzebuje usłyszeć, niż z tym, co jest prawdą.

W wielu przypadkach po prostu kłamał. Nie o swoim systemie przekonań, ale o rzeczywistości: rozmawiałem z tą osobą — podczas gdy nigdy z nią nie rozmawiał. Tego nie da się już niczym usprawiedliwić.

I jakie to ma konsekwencje? Pracownicy wciąż dla niego pracują, a inwestorzy wciąż w niego inwestują.

On jest naprawdę skuteczny w bezpośrednim kontakcie. Potrafi uśpić czujność wywołaną złą prasą, gdy już znajdzie się z kimś w jednym pokoju. Słyszałam od wielu osób, że dostawały ostrzeżenia: nie idź do OpenAI, Sam kłamie. A potem spotykały Altmana i mówiły: chyba wszyscy się mylą, on wcale taki nie jest. To jest zdumiewające.

Inwestorzy wciąż wierzą, że zdążą wyjść z tej relacji z zyskiem. Niezależnie od jego moralności i osobowości — myślą, że coś na tym zarobią. I dlatego nadal mu dają pieniądze.

Ale czas mu ucieka. Deklarował, że w ChatGPT nie będzie reklam, bo to byłby desperacki krok. I nagle reklamy są. 

Tak samo jak słyszeliśmy, że AI ma przynieść lekarstwo na raka — tymczasem Altman wprowadza do modelu wtyczki z treściami pornograficznymi. Dominująca narracja przez lata była prosta: przełom to kwestia skali — więcej mocy obliczeniowej, więcej danych, lepsze efekty. Stąd boom na centra danych. Tyle że dziś ta opowieść wydaje się znacznie mniej przekonująca niż jeszcze kilka lat temu.

Myślę, że to dlatego, iż firmy te straciły kontrolę nad narracją publiczną. Wracając do analogii z imperium — jedną z jego cech jest to, że wymaga ogromnych zasobów, które do niego nie należą. Jednym z najskuteczniejszych mechanizmów imperium jest przekonanie innych, że ich zasoby są w istocie naszymi. Ale kiedy imperium traci narrację — społeczeństwo przestaje godzić się na tę logikę. I nagle dociera do ludzi: chwila, to są nasze zasoby i możemy po prostu odmówić ich oddawania.

Stąd protesty przeciwko budowie kolejnych centrów danych. Dawniej firmy z Doliny Krzemowej wchodziły do lokalnych społeczności i realizowały takie projekty praktycznie bez oporu. Dziś to się zmieniło. W efekcie wstrzymano inwestycje warte setki miliardów dolarów, w tym wiele projektów OpenAI.

Podobnie jest z danymi, które firmy traktowały jak zasób do swobodnego wykorzystania — bo były „dostępne”. Teraz artyści i twórcy protestują i pozywają te firmy w obronie praw autorskich. W momencie, gdy społeczeństwo zaczyna odzyskiwać kontrolę nad własnymi zasobami i blokować do nich dostęp — imperium zaczyna się kruszyć, bo bez niego nie jest w stanie funkcjonować.

I dlatego właśnie Sora — coś na kształt TikToka opartego wyłącznie na materiałach generowanych przez AI — została zamknięta. Firma nie była w stanie zapewnić sobie wystarczającej mocy obliczeniowej, właśnie z powodu rosnącego oporu wobec budowy centrów danych. Równolegle toczą się procesy sądowe z artystami, na których twórczości trenowano modele. Firmy napotykają coraz silniejszy opór społeczny — nie są w stanie przekonać ludzi do korzystania z technologii, która miałaby generować kolejne strumienie przychodów.

Coraz częściej pojawia się określenie „slop”, a korzystanie z AI zaczyna podlegać społecznemu napiętnowaniu. Część potencjalnych użytkowników rezygnuje nie z powodów technicznych, tylko reputacyjnych — żeby nie narazić się swojemu środowisku. 

Jeszcze kilka lat temu znajomi podekscytowani mówili o tym, że będą mieć dzieło sztuki na ścianie stworzone za pomocą własnego promptu. Teraz taki pomysł wydaje się obciachowy.

Imperia zawsze sprawiają wrażenie niepokonanych, a tymczasem są zaskakująco kruche — bo ich istnienie zależy od ciągłej ekstrakcji, eksploatacji i milczącej zgody tych, od których czerpią zasoby.

Jest opór wobec imperium, ale jest też inna narracja — związana z figurą Oppenheimera, twórcy bomby atomowej. Zgodnie z nią AI ma być technologią o porównywalnym znaczeniu, więc jeśli nie my, to oni. Możesz być artystą czy dziennikarzem, którego praca została wykorzystana do trenowania modeli — ale kogo to obchodzi, kiedy stawką jest rywalizacja z Chinami czy Rosją?

Myślę, że ta narracja kiedyś skutecznie rozbijała wszelki opór, ale dziś traci swoją siłę. Czy ty w to wierzysz?

Nie wiem. Na pewno nie wierzę bogaczom z Doliny Krzemowej. Ale będąc w Ukrainie widziałem, na jak ogromną skalę wykorzystuje się już teraz sztuczną inteligencję na froncie. I kiedy patrzę na budżety wojskowe Chin czy Rosji, myślę, że zagrożenie może być realne. To jest realny dylemat — z jednej strony nie można go lekceważyć, z drugiej nie można bezrefleksyjnie przyjmować tej narracji.

Myślę, że z tą opowieścią jest kilka problemów. Po pierwsze, istnieje wiele jej wersji. Jedna brzmi: AGI samo w sobie stanie się świadomą, odczuwającą istotą, więc musimy zbudować tę dobrą świadomą istotę, zanim zrobi to ktoś inny. A to jest całkowicie pozbawione podstaw naukowych. Nie ma żadnych dowodów na to, że: A) jesteśmy na drodze do AGI, B) AGI w ogóle istnieje jako spójny koncept, C) AGI stałoby się świadome.

Problem polega też na tym, że AGI nie ma jednej definicji — co Altman sprawnie wykorzystuje.

Więc jeśli dasz mi konkretną, mogę ci powiedzieć, czy w nią wierzę.

Czy powstanie AGI rozumiana jako technologia, która wykona dowolne zadanie intelektualne na poziomie ludzkim lub wyższym?

Nie. To sprowadza się do pytania o to, co uważam za rdzenną cechę ludzkich możliwości — a czego maszyny nie są w stanie zreplikować. Ludzie mają zdolność do empatii i interakcji społecznych, do adaptacji, do kreatywności i rodzenia fundamentalnie nowych idei — nie tylko miksowania starych. Komputery ostatecznie po prostu obliczają. Oznacza to, że można uzyskać naprawdę niezwykłe miraże tych wszystkich rzeczy, ale to nie są te rzeczy. Dlatego zawsze będą obszary, w których ludzie robią coś lepiej niż maszyny — i to wiele takich obszarów.

W ten sposób firmy świetnie próbują sprzedawać swoją technologię. Idą do przedsiębiorstw i mówią: to będzie tak dobre, że nie będziesz już potrzebować pracowników.

Mówią to do kierownictwa, któremu chcą sprzedać oprogramowanie zamiast zatrudniania ludzi. To po prostu obietnica redukcji kosztów pracy.

Anthropic testuje ograniczenia w tańszych modelach, m.in. wyłączając część funkcji w aplikacji mobilnej. W branży IT pojawiły się od razu głosy: okej, to może jednak wrócimy do zatrudniania juniorów, których wcześniej odstawiliśmy na bok, bo AI było „tańsze”.

Tak, to dokładnie ten trend. Ekonomia zastępowania ludzi AI zaczyna się rozjeżdżać. I będzie się rozjeżdżać jeszcze bardziej — bo gdy firmy uzależnią klientów od swoich narzędzi, naturalnym ruchem będzie podnoszenie cen. To klasyczny schemat firm platformowych.

Wracając do twojego wcześniejszego pytania: podział na „dobre AGI” i „złe AGI” jest w gruncie rzeczy fałszywy. Nie istnieje żadna świadoma AI, która się „obudzi” i zacznie działać moralnie albo niemoralnie w zależności od tego, kto ją stworzył.

Jest natomiast inna wersja tego argumentu: AI wykorzystywana w armii — dobre wojsko kontra złe wojsko.

I zgodnie z tym argumentem armia USA to ci dobrzy…

… albo przynajmniej „lepsi od tamtych”?

Trudno mi zrozumieć tę logikę, patrząc na ostatnie dekady amerykańskich wojen i to, co dzieje się w Iranie.

Ale ten argument jest słaby z co najmniej dwóch zasadniczych powodów. Po pierwsze, duże modele językowe i systemy rozwijane dziś przez firmy technologiczne nie zwiększą skuteczności wojska w dłuższej perspektywie — są po prostu zbyt niedokładne. To nie jest tylko moja ocena. Paul Scharre, który służył w armii i zajmuje się AI w kontekście militarnym, argumentuje wprost: wyścig o wdrażanie tego typu systemów to w istocie wyścig na dno — zwiększanie ryzyka operacyjnego przez przyspieszone wdrażanie technologii, które są z natury zawodne.

Po drugie, ten argument pomija kluczową kwestię: systemy AI, które realnie mogłyby zwiększyć skuteczność militarną, to zupełnie inna kategoria niż ta, którą rozwijają dziś największe firmy. Chodzi o wyspecjalizowane, wąskie systemy — technologie istniejące od ponad dekady. Ich ograniczone wykorzystanie nie wynikało z braku możliwości technicznych, tylko z obowiązujących norm. Dopiero wojna w Ukrainie zaczęła te normy przesuwać.

Czyli narracja firm — że trzeba „skalować za wszelką cenę”, zużywać ogromne zasoby i rozwijać coraz większe modele, bo to przesądzi o przewadze militarnej — nie ma solidnych podstaw?

W praktyce oznacza to analizę dużych zbiorów danych wywiadowczych i generowanie na ich podstawie propozycji celów. W jednym z przypadków — podczas wczesnej fazy kampanii bombardowań Iranu — trafiono w obiekt cywilny, szkołę. Pentagon tłumaczył to błędną identyfikacją celu jako wojskowego. Później pojawiła się hipoteza, że źródłem błędu mogły być systemy AI, które błędnie sklasyfikowały cel. Nie ma publicznie dostępnych dowodów, które by to potwierdzały — te informacje mogłyby wyjść na jaw jedynie w ramach formalnego dochodzenia, np. przed Kongresem. 

Natomiast sam mechanizm błędu — błędna klasyfikacja na podstawie niepewnych danych — jest zgodny z dobrze opisanymi ograniczeniami tych systemów. Im większa zależność od automatycznej analizy w kontekście wysokiego ryzyka, tym większe prawdopodobieństwo takich pomyłek.

Można bombardować szybciej i więcej — pytanie, czy trafia się właściwe cele. Bo to właśnie selektywność i zgodność z prawem konfliktów zbrojnych legitymizują działania militarne. Jeśli zamiast tego rośnie liczba ofiar cywilnych — choćby w wyniku błędnych wskazań systemów — to nie tylko problem etyczny, ale też strategiczny.

Narracja „oni są gorsi, więc musimy być szybsi” coraz słabiej działa. Z rozmów z decydentami na Capitol Hill wynika, że dla wielu polityków — szczególnie po stronie demokratów — argument o wyścigu zbrojeń AI przestał być przekonujący.

Zmiana nastrojów ma też szerszy kontekst. 

To znaczy? 

W erze platform społecznościowych i wyszukiwarek firmy technologiczne posługiwały się bardzo podobną narracją: ich rozwój miał wzmacniać liberalny porządek i być narzędziem globalnej rywalizacji z Chinami. W praktyce efekt był często odwrotny — wzmocnienie procesów nieliberalnych i erozja reputacji Stanów Zjednoczonych. To doświadczenie dziś wyraźnie ciąży na ocenie kolejnej fali technologii.

W przypadku AI wraca ten sam argument: nie regulujcie nas, bo musimy dominować. Po pierwsze, rozwój tej technologii generuje realne koszty polityczne — 80% Amerykanów jest dziś wrogich wobec kierunku rozwoju AI, co staje się problemem dla decydentów. Po drugie, konkurencja nie gra według tej samej logiki: modele rozwijane poza USA osiągają podobne możliwości przy znacznie niższych kosztach. Co więcej — część startupów w Bay Area korzysta już z modeli rozwijanych w Chinach, bo są po prostu tańsze. To całkowicie podważa podstawową tezę tej narracji: że brak regulacji automatycznie daje przewagę technologiczną Stanom Zjednoczonym.

To wszystko prowadzi do pytania, czy istnieje realna alternatywa dla tego modelu — i tu pojawia się Europa. Zgodnie z używanym do znudzenia przez prawicę memem, szczytem europejskiej innowacyjności są nakrętki przytwierdzone do plastikowych butelek.

Nie sądzę, żeby Europa była w tyle. Kilka dni temu rozmawiałam w Parlamencie Europejskim i zadałam tam proste pytanie: jak właściwie definiujecie wyścig, w którym rzekomo przegrywacie? Jeśli jako budowanie coraz większych modeli — to tak, jesteście w tyle. Ale czy to rzeczywiście problem? Dlaczego mielibyście ścigać się w tworzeniu systemów, które generują ogromne koszty środowiskowe i społeczne, a przy tym tracą poparcie opinii publicznej w Stanach Zjednoczonych? Czy Europa chce powtórzyć ten scenariusz?

To jest logika imperium: jeśli nim nie jesteś, zostaniesz podporządkowany przez inne imperium.

Tymczasem chińskie firmy pokazały, że można iść inną drogą. Europa również powinna ją wypracować — nie kopiując ani modelu amerykańskiego, ani chińskiego. Zamiast tego powinna budować własne podejście, oparte na swoich fundamentach: demokracji, prawach człowieka, prawach pracowniczych, zgodzie i prywatności.

Jest analogia, która dobrze to porządkuje. AI to nie jedna technologia, tylko parasolowy termin — jak „transport”. To słowo obejmuje wszystko: od roweru po rakietę. Tak samo AI obejmuje bardzo różne klasy systemów, o zupełnie innych kosztach, zastosowaniach i ryzykach. Problem polega na tym, że dziś cała uwaga skupia się na „rakietach” — najbardziej zasobożernych, wielkoskalowych modelach. Tymczasem w praktyce bardzo rzadko potrzebujesz rakiety, żeby się przemieścić. I nie chciałbyś, żeby każdy ją posiadał. Z AI jest podobnie: nie ma sensu rozwiązywać każdego problemu najcięższą, najbardziej kosztowną technologią. Zdecydowana większość zastosowań mogłaby być obsłużona przez prostsze, bardziej wyspecjalizowane systemy — tańsze, stabilniejsze, mniej energochłonne i nieoparte na masowym wykorzystywaniu cudzych danych.

Czyli w dużej mierze europejski fatalizm to efekt skutecznej narracji Big Techów?

Giganci technologiczni konsekwentnie wbijają Europejczykom do głów przekonanie, że skoro nie ma własnych globalnych platform, to znaczy, że „nie potraficie w innowacje”. Tymczasem brak takich firm jest w dużej mierze konsekwencją regulacji — RODO i Aktu o Usługach Cyfrowych, które realnie ograniczyły modele oparte na eksploatacji danych i przewadze monopolistycznej, a więc dokładnie te mechanizmy, na których urosły amerykańskie giganty.

Problem Europy leży gdzie indziej: nie w deficycie zdolności technologicznych, tylko w braku własnej, spójnej wizji innowacji. W tej próżni łatwo przyjmują się narracje importowane z Doliny Krzemowej — zwłaszcza ta, że jedyną miarą postępu jest skalowanie i dominacja rynkowa. To prowadzi do fałszywego dylematu: albo kopiujemy model amerykański, albo „przegrywamy”. Tyle że ten model w istocie polega na budowie koncentracji władzy, a nie na neutralnie rozumianej innowacji.

W tym kontekście istotna staje się rola krajów takich jak Polska — z relatywnie silnym zapleczem technicznym, ale bez obciążenia w postaci własnych gigantów technologicznych. To może być jeden z elementów potrzebnych do zbudowania alternatywy: modelu rozwoju technologii, który nie opiera się na ekstrakcji danych i koncentracji władzy, lecz na bardziej rozproszonych, kontrolowalnych i społecznie akceptowalnych rozwiązaniach.

Równolegle funkcjonuje opowieść o Europie jako o mocarstwie regulacyjnym. Skoro nie tworzy własnych gigantów, to przynajmniej narzuca reguły — jak w przypadku standaryzacji złączy czy regulacji dotyczących wymienialnych baterii w smartfonach. Siła wspólnego rynku rzeczywiście pozwala wpływać na globalnych graczy. Problem polega na tym, że ta sprawczość okazuje się ograniczona. Przykład unijnego Aktu o AI pokazuje, jak silny pozostaje wpływ amerykańskich firm na kształt regulacji.

Tak — i tu ujawnia się głębsza słabość: przekonanie, że wystarczy stworzyć ramy prawne, podczas gdy w praktyce są one stopniowo rozmontowywane lub obchodzone przez podmioty dysponujące większymi zasobami i wpływem. Pod koniec zeszłego roku pojawiły się raporty, że Komisja Europejska rozważała zmianę przepisów RODO, aby dopuścić trenowanie modeli AI na danych osobowych. I rzeczywiście widać dziś takie myślenie: wszystko trzeba rozmiękczyć, żebyśmy mogli robić dokładnie to samo, co amerykańskie firmy. Dolina Krzemowa robi to bardzo skutecznie — lobbyści w Brukseli i w europejskich stolicach odnieśli duży sukces we wpływaniu na sposób myślenia zarówno opinii publicznej, jak i rządów.

Mój apel do UE jest prosty: utrzymajcie kurs, bo te mechanizmy realnie chroniły prawa obywateli. A jednocześnie wypracujcie nowy model — taki, który pozwoli wam nie tylko przewodzić, ale też zaproponować światu inne rozumienie innowacji. Takie, które nie opiera się na ciągłym wydobywaniu zasobów i ich eksploatacji.

No i jest jeszcze ten podział między USA a UE. Jednym z jego efektów jest to, że część państw — jak Francja — zaczyna realnie odchodzić od amerykańskich dostawców i przechodzić na rozwiązania open source. Czy ta rosnąca nieprzewidywalność partnera zza oceanu może być impulsem do budowy tego alternatywnego modelu, o którym mówisz?

Tak — ale ten zwrot będzie bardzo trudny. Zaskoczyło mnie, jak wolno reaguje Europa. I nie chodzi o proces legislacyjny, bo ten z definicji trwa. Chodzi o tempo zmiany myślenia. Debata publiczna i instytucjonalna przesuwają się znacznie wolniej niż realia technologiczne.

Wciąż słyszę od europejskich decydentów i ekspertów: „i tak musimy polegać na Big Techu”. To jest uderzające, bo te firmy zrobiły dosłownie wszystko, żeby pokazać — wręcz wykrzyczeć — że są zawodnym partnerem i że są całkowicie sprzeczne z europejskimi wartościami. A mimo to to przekonanie się utrzymuje. Nie do końca to rozumiem.

Co po latach pracy nad książką najbardziej irytuje cię w dyskusji o AI?

Głębokie niezrozumienie, w dużej mierze podsycane przez dezinformację firm technologicznych. Sprowadza się ono do przekonania, że istnieje tylko jeden rodzaj AI. A skoro ta technologia niesie ze sobą realne szkody, to trudno — akceptujemy je, bo alternatywą miałby być powrót do „ciemnych wieków”.

Tymczasem to fałszywa rama. Istnieje wiele różnych klas technologii AI — i część z nich nie generuje tych kosztów, a jednocześnie przynosi konkretne korzyści. Gdy tylko to staje się jasne, pojawia się oczywiste pytanie: dlaczego nie rozwijamy właśnie tych rozwiązań?

Dlatego firmy AI inwestują ogromne środki w utrzymanie zamieszania — przedstawiając swój model jako jedyną możliwą drogę, coś nieuchronnego, czego „nie da się zatrzymać”. Bo jeśli opinia publiczna zrozumie, że wybór istnieje, tracą podstawę swojej pozycji.

I w gruncie rzeczy o to chodziło w tej książce — i o to chodzi w tej pracy dalej: pokazać, że alternatywy są realne. A kiedy ludzie zobaczą, że wybór istnieje, znika też przekonanie o nieuchronności. I wtedy zaczyna się właściwa rozmowa — o tym, jakie technologie chcemy rozwijać i na jakich zasadach.