Europa pozostaje daleko w tyle za USA i Chinami, jeśli chodzi o liczbę globalnych firm technologicznych, skalę inwestycji, dostęp do infrastruktury obliczeniowej. W konkurencji o AI szanse na dogonienie liderów są niewielkie. To jednak nie znaczy, że Unia Europejska nie ma szans na rozwój i niezależność w tej dziedzinie. Musi po prostu przyjąć inną strategię rozwoju technologicznego niż ta, którą realizują giganci. 

Technologie jak przemysł ciężki 

Na świecie kluczowymi graczami w branży AI są amerykańskie OpenAI, Google, Microsoft czy Anthropic. Ich przewaga wynika nie tylko z rozwiniętej technologii, lecz także z całego ekosystemu, w którym działają. Globalnych platform internetowych, ogromnych zbiorów danych i centrów danych wyposażonych w tysiące wyspecjalizowanych procesorów AI. 

Jedną z największych spraw jest dostęp do infrastruktury obliczeniowej. Trening nowoczesnych modeli językowych wymaga ogromnej mocy obliczeniowej. Najbardziej zaawansowane systemy sztucznej inteligencji trenowane są dziś na klastrach wykorzystujących dziesiątki tysięcy procesorów graficznych. Najważniejszym producentem takich układów jest amerykańska firma NVIDIA.

Koszt pojedynczego procesora AI może sięgać kilkudziesięciu tysięcy dolarów, a trening dużego modelu językowego kosztuje dziesiątki milionów dolarów.

To sprawia, że rozwój sztucznej inteligencji zaczyna przypominać raczej przemysł ciężki niż klasyczny sektor IT.

Prywatne inwestycje w AI w Stanach Zjednoczonych, wielokrotnie wyższe niż w UE, przekraczają już 100 miliardów dolarów rocznie (to inwestycje prywatne oraz infrastruktura hyperscalerów, czyli globalnych systemów centrów danych i usług chmurowych budowanych przez największe firmy technologiczne).

W Chinach rozwój technologii wspierany jest przez państwo oraz wielkie firmy technologiczne, takie jak Baidu, Alibaba Group czy Tencent. Dzięki temu Chiny w ostatnich latach znacząco zmniejszyły dystans technologiczny do amerykańskich konkurentów. 

Europa na tym tle wypada blado. Nie posiada globalnych platform technologicznych porównywalnych z amerykańskimi gigantami, a znaczna część jej infrastruktury chmurowej znajduje się w rękach firm spoza kontynentu. 

A jednocześnie od dawna mówi się o tym, że nie chcąc stać się gospodarką peryferyjną, Europa musi inwestować we własną branżę technologiczną. Próbuje więc budować własną strategię rozwoju sztucznej inteligencji. Może odegrać ogromną rolę w rodzimej produkcji przemysłowej, energetyce czy transporcie. Firmy takie jak Siemens, Bosch czy ABB już dziś łączą robotykę, automatykę i sztuczną inteligencję w nowoczesnych fabrykach. 

Europa ma również potencjał w zastosowaniach AI związanych z transformacją energetyczną – na przykład w analizie danych z sieci energetycznych czy prognozowaniu produkcji energii z odnawialnych źródeł.

Jak Europa inwestuje w AI

Jeden z elementów tej strategii to budowa infrastruktury obliczeniowej potrzebnej do trenowania modeli sztucznej inteligencji.

Europa rozwija sieć superkomputerów koordynowaną przez EuroHPC Joint Undertaking [ang. European High Performance Computing Joint Undertaking – partnerstwo publiczno-prywatne z udziałem UE i państw członkowskich, a także firm i organizacji technologicznych, którego celem jest rozwijanie technologii obliczeniowych]. W ostatnich latach powstały dzięki niej jedne z najpotężniejszych komputerów na kontynencie, takie jak LUMI w Finlandii czy Leonardo we Włoszech.

„Rozwój dużych modeli językowych wiąże się z ogromnymi wymaganiami infrastrukturalnymi” – mówi dr Agnieszka Karlińska, adiunktka na UW oraz partnerka i liderka AI w Quantica Lab, polskiej firmie zajmującej się tworzeniem oprogramowania i rozwiązań opartych na AI. To tysiące GPU, czyli graphics processing units, procesorów graficznych, specjalnych układów elektronicznych zaprojektowanych do bardzo szybkiego wykonywania wielu obliczeń jednocześnie. To także sieci o bardzo dużej przepustowości i bezpiecznym środowisku chmurowym, co jest ważne szczególnie wtedy, gdy modele mają być wykorzystywane w administracji publicznej lub przy pracy z wrażliwymi danymi.

„Jeśli Europa, w tym Polska, nie będą inwestować we własną infrastrukturę obliczeniową, zależność od globalnych dostawców technologii będzie się pogłębiać” – mówi Karlińska. 

Unia rozwija sieć AI Factories – centrów technologicznych, które łączą moc obliczeniową, dostęp do danych i wsparcie dla startupów. Mają one pomóc europejskim firmom rozwijać systemy AI bez konieczności polegania wyłącznie na infrastrukturze amerykańskich gigantów.

Planowane inicjatywy inwestycyjne zakładają mobilizację nawet 200 miliardów euro inwestycji w sztuczną inteligencję, w tym budowę ogromnych centrów obliczeniowych – tak zwanych AI gigafactories. Celem tych działań jest stworzenie w Europie infrastruktury pozwalającej trenować najbardziej zaawansowane modele AI.

„Trzeba jednak realistycznie patrzeć na skalę wyścigu – mówi Karlińska. – Liderzy, tacy jak OpenAI czy Anthropic, dysponują potężnymi zasobami obliczeniowymi budowanymi przez lata przy wsparciu ogromnego kapitału. Budowa europejskich gigafabryk AI to ważny krok w kierunku suwerenności technologicznej, ale nie dogonimy w ten sposób największych firm”.

Dlaczego więc krok w kierunku suwerenności technologicznej jest tak ważny, choć nie da Europie przewagi w globalnym wyścigu? „Rozwój sztucznej inteligencji opiera się na deep techach, przede wszystkim na zaawansowanych półprzewodnikach i infrastrukturze obliczeniowej. Bez własnych fabryk GPU, klastrów HPC [klastrów High Performance Computing, czyli obliczeniowych o wysokiej wydajności – przyp. red.] i kompletnych łańcuchów dostaw pozostaniemy zależni od globalnych liderów” – mówi Max Dropiński, wiceprezes Bearlake, firmy wspierającej transformację cyfrową firm i instytucji oraz ekspert nowych technologii.

Uważa, że Polska i Europa muszą postawić na ścisłą współpracę i strategiczne inwestycje w tym obszarze. Słowem, chodzi o grę całej Europy we wspólnej orkiestrze, według jednej partytury. 

„Polskie kompetencje w dziedzinie deep tech osiągają najwyższy światowy poziom” – mówi Dropiński. – To nie opinia, lecz fakt potwierdzony realizacjami. Przez osiemnaście lat budowałem zespoły specjalizujące się w technologiach obronnych, datacenter, AI i inwestycjach strategicznych, tworząc ekosystemy od badań po produkcję. Europejskie inicjatywy suwerenności technologicznej muszą i mogą opierać się na polskich technologiach i firmach”.

Środki publiczne jako koło zamachowe 

„Wyzwaniem jest wciąż relatywnie niewielka w Europie, a szczególnie w Polsce, dostępność prywatnego kapitału skłonnego finansować bardzo kosztowne projekty badawczo-rozwojowe w obszarze sztucznej inteligencji. Drugim ograniczeniem są zasoby obliczeniowe, infrastruktura potrzebna do trenowania dużych modeli. Programy takie jak budowa europejskich «fabryk AI», które w Polsce będą dwie, są ważnym krokiem, ale jeśli chcemy realnie konkurować z liderami, skala inwestycji w infrastrukturę badawczą i współpracę nauki z biznesem musi być wyraźnie większa” – wyjaśnia Marek Magryś, szef Akademickiego Centrum Komputerowego na AGH w Krakowie. Rozwój AI w Unii w dużym stopniu opiera się na finansowaniu publicznym, zarówno na poziomie państw narodowych, jak i instytucji unijnych. To również odróżnia nas od USA, gdzie giganci AI to prywatne firmy.

Najważniejszym instrumentem jest program badawczy Horizon Europe, którego budżet na lata 2021–2027 wynosi około 95,5 miliarda euro. Program ten finansuje szeroko badania nad technologiami cyfrowymi, w tym projekty związane z rozwojem sztucznej inteligencji, infrastruktury obliczeniowej i modeli językowych.

Obok klasycznych programów infrastrukturalnych działają także projekty badawcze, które przyczyniły się do rozwoju europejskiego zaplecza obliczeniowego dla sztucznej inteligencji. Jednym z nich był Human Brain Project, jeden z największych europejskich programów naukowych o budżecie około 1 miliarda euro. Choć jego głównym celem nie był rozwój AI w sensie komercyjnych modeli czy aplikacji, lecz badania nad funkcjonowaniem ludzkiego mózgu i rozwój neuroinformatyki, projekt ten odegrał istotną rolę w budowie i integracji zaawansowanej infrastruktury obliczeniowej w Europie. Przyczynił się do wzmocnienia kompetencji w obszarze HPC [high-performance computing], które dziś stanowią jeden z fundamentów rozwoju nowoczesnych systemów sztucznej inteligencji.

W wielu krajach europejskich rozwijane są narodowe modele językowe finansowane ze środków publicznych. 

Przykładem jest szwajcarski model Apertus, opracowany przez instytucje akademickie takie jak ETH Zürich i EPFL oraz trenowany na superkomputerach państwowego centrum obliczeniowego. Model ten został udostępniony jako projekt open-source. Podobne inicjatywy pojawiają się także w innych krajach europejskich, na przykład portugalski model Amália ma wspierać administrację publiczną oraz rozwój technologii językowych w języku portugalskim.

Jeśli chodzi o publiczne inwestycje w infrastrukturę obliczeniową, to przykładowo rząd Wielkiej Brytanii ogłosił program o wartości około 1 miliarda funtów (około 1,3 miliarda dolarów). Dodatkowo uruchomiono program badawczy o wartości 1,6 miliarda funtów oraz specjalny ośrodek badań nad tak zwany frontier AI, którego budżet początkowy wynosi 40 milionów funtów.

Problem małych języków

Jednym z mniej oczywistych wyzwań – i hamulców rozwoju – jest kwestia języka, a raczej wielości języków używanych na Starym Kontynencie. Największe modele AI trenowane są głównie na danych anglojęzycznych, co sprawia, że najlepiej radzą sobie właśnie z językiem angielskim. 

Dla wielu krajów europejskich oznacza to realny problem technologiczny. Modele trenowane na anglojęzycznych danych często gorzej radzą sobie z gramatyką, idiomami czy kontekstem kulturowym innych języków. 

Dlatego w wielu krajach zaczęły powstawać projekty budowy lokalnych modeli językowych.

„Dużym wyzwaniem pozostaje dostęp do danych – mówi Agnieszka Karlińska. – Trenowanie modeli wymaga ogromnych wolumenów wysokiej jakości tekstów, liczonych w setkach miliardów czy nawet bilionach słów. W ubiegłym roku tylko 5 procent zgromadzonych danych mogliśmy wykorzystać do trenowania w pełni otwartych modeli PLLuM [ang. Polish Large Language Model – rozwiązanie AI, które używa polszczyzny i doskonale zna realia kulturowe naszego kraju – przyp. red.]. Wynikało to z konieczności bardzo rygorystycznej selekcji i filtracji zbiorów, tak aby zachować pełną zgodność z prawem polskim i europejskim. Dlatego jednym z kluczowych zadań dla rozwoju AI w Europie jest stworzenie lepszych mechanizmów prawnych służących udostępnianiu danych do badań i trenowania modeli”.

Polska nisza i własne modele AI

Polska, oczywiście, nie należy do światowej czołówki, jeśli chodzi o skalę inwestycji w sztuczną inteligencję, ale ma kilka ważnych atutów. Kraj dysponuje silnym zapleczem matematycznym i informatycznym, a sektor IT jest jednym z najszybciej rozwijających się w Europie. Według różnych szacunków, w Polsce pracuje ponad 400 tysięcy specjalistów IT – to ogromny potencjał na rynku pracy – a eksport usług informatycznych należy do najważniejszych sektorów nowoczesnej gospodarki. W ostatnich latach w Polsce zaczęły pojawiać się także pierwsze projekty związane z rozwojem dużych modeli językowych dla polszczyzny. „Nasze ośrodki naukowe i badawcze od lat kształcą wysokiej klasy specjalistów w obszarze sztucznej inteligencji, matematyki i informatyki. Mamy też coraz bardziej żywy ekosystem startupów technologicznych, który pokazuje, że kompetencji i pomysłów zdecydowanie nie brakuje. Problemem nie jest więc kapitał intelektualny ani kadry. Te są konkurencyjne w skali międzynarodowej, chociaż oczywiście musimy być w stanie zatrzymać w kraju naszych specjalistów” – potwierdza Marek Magryś z AGH. 

Jednym z najbardziej znanych jest model Bielik, rozwijany przez środowisko startupowe i społeczność technologiczną. W dużej mierze opiera się on na architekturach open source (czyli takich, których kod jest publicznie dostępny i może być dowolnie używany przez innych, bez zgody autora czy właściciela) rozwijanych przez francuską firmę Mistral AI.

„Biorąc pod uwagę statystykę, jest coś zdumiewającego w tym, jak często przy tworzeniu najważniejszych narzędzi AI na świecie pojawia się ktoś, kto urodził się w Polsce i chodził do polskiej szkoły – zauważa Dominika Grajewska, ekspertka NLP w NASK. – Choćby Wojciech Zaremba, który jest współzałożycielem OpenAI. Są też Mateusz Staniszewski i Piotr Dąbkowski, którzy założyli ElevenLabs, globalną platformę do syntezy i klonowania głosu. Polacy są również w zespołach Mistral, europejskiego lidera wśród komercyjnych modeli językowych. To brzmi imponująco, lecz prawie żadne z tych osiągnięć nie dzieje się w Polsce”.

Grajewska zastrzega jednocześnie, że coraz więcej polskich inicjatyw AI daje zdolnym inżynierom powód, żeby zostać w kraju. 

Jedną z nich jest wspomniane już tworzenie własnych modeli językowych, choć sceptycy pytają, czy ma to sens, skoro Chat GPT (Open AI) i Claude (Anthropic) czy Gemini (Google) są już liderami na międzynarodowej arenie. Grajewska odpowiada na to, że własny LLM (Large Language Model, czyli model językowy, na którym opiera się działanie AI) to narzędzie, które może rozumieć polską administrację, może działać lokalnie w urzędach, nie wysyła danych obywateli na serwery w Kalifornii i podlega polskiemu prawu. 

„Korzystanie z cudzych LLM-ów jest jak jeżdżenie taksówką zamiast posiadania własnego samochodu, wygodnie, bez zobowiązań. Tylko że taksówkarz może nie przyjechać, kiedy będzie najbardziej potrzebny. Może też w dowolnym momencie zmienić cennik – przekonuje. – Budowanie własnych LLM-ów ma jeszcze jedną niezaprzeczalną wartość. W 2025 roku przy PLLuM [Polish Language Model – przyp. red.] pracowało duże konsorcjum uczelni i instytucji.

PLLuM to polski duży model językowy opracowany na zlecenie Ministerstwa Cyfryzacji, aby poprawić jakość narzędzi AI działających w języku polskim oraz zwiększyć niezależność technologiczną kraju. Model występuje w kilku wariantach różniących się wielkością – od około 8 do 70 miliardów parametrów, czyli wartości określających liczbę połączeń w sieci neuronowej, które wpływają na zdolność modelu do rozumienia i generowania języka.

PLLuM może być wykorzystywany między innymi do analizy dokumentów, tworzenia tekstów, odpowiadania na pytania czy wspierania pracy administracji, firm i nauki. „Nasz projekt PLLuM daje administracji możliwość korzystania z LLM-u stworzonego specjalnie dla niej” – potwierdza Pamela Krzypkowska, dyrektorka departamentu badań i rozwoju w Ministerstwie Cyfryzacji.

Zamiast gonić świat – rozwijać własne zasoby

Jak przekonuje Agnieszka Karlińska, Europa nie musi więc brać udziału w wyścigu na największy i najlepszy model językowy ogólnego przeznaczenia. Trendem, na którym może skorzystać, jest specjalizacja, czyli tworzenie modeli mniejszych, ale bardzo dobrze dostosowanych do konkretnych zadań, domen czy języków. Kraje naszego kontynentu dostrzegają tę szansę. Coraz więcej krajów europejskich dostrzega to i tworzy lokalne modele językowe. Celem takich projektów, realizowanych między innymi w Hiszpanii czy Szwajcarii, jest nie tylko lepsze wsparcie dla danego języka, ale także uwzględnienie kontekstu społeczno-kulturowego oraz dostosowanie modeli do lokalnych norm i wartości.

Europa, w tym Polska, mogą więc na własnych warunkach odegrać ważną rolę w globalnym ekosystemie AI. Rozwijać sztuczną inteligencję głęboko zintegrowaną z przemysłem, usługami publicznymi i lokalnymi gospodarkami. 

„Kluczowe jest to, aby nie wybierać najprostszej strategii polegającej wyłącznie na kupowaniu gotowych rozwiązań od globalnych firm technologicznych. Potrzebujemy inwestycji, przede wszystkim w ludzi i ich kompetencje – wskazuje Karlińska. – Nawet największy superkomputer nie przyniesie efektów, jeśli nie będzie zespołów, które potrafią go wykorzystać. Kluczowe są długofalowe inwestycje w edukację, badania i rozwój własnych technologii, które pozwolą nam budować realną niezależność technologiczną” – dodaje. 

Co ważne, do prac tych należy włączyć nie tylko specjalistów IT. „Kadra w AI to nie tylko inżynierowie – mówi Dominika Grajewska. – Żaden model językowy nie jest użyteczny ani bezpieczny bez humanistów. Lingwiści nadają poprawność językową zbiorom treningowym. Bez nich model będzie mówił po polsku jak turysta z rozmówkami”.

Anotatorzy, czyli osoby, które opisują, oznaczają i porządkują dane, często filolodzy, oceniają tysiące odpowiedzi modelu, ucząc go, co jest lepsze, bardziej ludzkie. Etycy i filozofowie projektują system wartości modelu i definiują granice jego zachowań. Psychologowie czuwają nad tym, żeby chatbot nie skrzywdził kogoś w kryzysie. Socjolodzy tropią ukryte uprzedzenia w danych. A specjaliści domenowi, prawnicy, historycy, wstrzykują modelowi wiedzę, bez której pozostaje błyskotliwym, ale powierzchownym rozmówcą. A ponieważ zawody humanistyczne cieszą się dużą popularnością wśród kobiet, sektor AI ma unikalną szansę na prawdziwą różnorodność.

Prawo do bezpiecznego AI

Jednym z filarów europejskiej odpowiedzi na własną AI są też regulacje prawne. 

W 2024 roku przyjęto rozporządzenie dotyczące sztucznej inteligencji, EU AI Act, jedne z pierwszych kompleksowych regulacji na świecie w sprawie rozwoju i wykorzystania systemów AI.

„Regulacje dotyczące sztucznej inteligencji są dziś bardzo potrzebne – mówi Pamela Krzypkowska, z Ministerstwa Cyfryzacji. – Tworzenie etycznej technologii na poczet ochrony społeczeństwa obywatelskiego to jedna z ról państwa i narzędzie, z którego musi ono aktywnie korzystać. Te obowiązki dotyczą administracji krajowej i unijnej. Prawo to dotyczyć będzie także firm spoza Unii, każdorazowo, gdy będą swoje rozwiązania wprowadzać na obszarze wspólnoty”.

Nowe prawo wprowadza system klasyfikacji sztucznej inteligencji według poziomu ryzyka. Systemy uznane za szczególnie wrażliwe – na przykład wykorzystywane w rekrutacji, edukacji, medycynie czy scoringu kredytowym – będą podlegały szczególnym wymogom dotyczącym bezpieczeństwa, przejrzystości i nadzoru człowieka. Regulacja obejmuje także tak zwane modele ogólnego przeznaczenia, czyli duże modele językowe wykorzystywane w generatywnej sztucznej inteligencji. Twórcy takich systemów będą zobowiązani między innymi do dokumentowania sposobu trenowania modeli oraz zarządzania potencjalnymi zagrożeniami wynikającymi z ich działania. AI Act nie zacznie jednak działać w pełnym zakresie od razu. Pierwsze przepisy obowiązują od 2025 roku, a pełne wdrożenie regulacji planowane jest na lata 2026–2027.

„Europa buduje AI, która jest jej własna, bezpieczna prawnie, zakorzeniona kulturowo i demokratycznie kontrolowana – mówi Dominika Grajewska. – Polska ma do tego talenty. Musimy jeszcze popracować nad tym, aby najlepszych specjalistów zatrzymać w kraju czy w Unii”.