Od 2 sierpnia 2025 roku ma zastosowanie kolejna grupa unijnych przepisów „Akt o AI” (rozporządzenie 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji). W Polsce trwają natomiast prace nad ustawą mającą uzupełnić postanowienia tego rozporządzenia. Niebawem przepisy regulujące sztuczną inteligencję będą kompleksowo porządkować wykorzystanie tej technologii.
Warto zatem pochylić się nad jednym z fundamentalnych rozwiązań wprowadzanych przez „Akt o AI”, czyli nad tak zwanymi zakazanymi praktykami.
Zagrożenia związane z AI a prawo
Z uwagi na ogromny i trudny do wyobrażenia potencjał sztucznej inteligencji jednym z podstawowych założeń, które poczynili autorzy „Aktu o AI”, było to, że sztuczna inteligencja nie powinna być wykorzystywana w określonych celach i kontekstach.
W preambule do „Aktu o AI” stwierdzono, że oprócz wielu korzystnych zastosowań może się zdarzyć, że sztuczna inteligencja będzie wykorzystywana niewłaściwie. Może przez to dostarczać nowych i potężnych narzędzi do manipulacji, wyzyskiwania i kontroli społecznej.
Takie praktyki są szczególnie szkodliwe, stanowią nadużycie i powinny być zakazane. Są sprzeczne z unijnymi wartościami dotyczącymi poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności. Oraz z prawami podstawowymi, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka. Założenie, o którym mowa powyżej, zyskało realizację w rozdziale II „Aktu o AI”.
Osiem zakazów
„Akt o AI” dość szczegółowo opisuje osiem rodzajów zakazanych praktyk związanych z korzystaniem z AI.
Pierwsza to stosowanie AI używającej technik podprogowych będących poza świadomością danej osoby, manipulacyjnych lub wprowadzających w błąd.
Druga to wykorzystywanie słabości osoby lub określonej grupy osób ze względu na ich wiek, niepełnosprawność, szczególną sytuację społeczną lub ekonomiczną.
Trzecia zakazana praktyka to stosowanie AI w celu oceny lub klasyfikacji osób lub grup na podstawie ich zachowania społecznego, znanych, wywnioskowanych czy przewidywanych cech osobistych lub cech osobowości. Chodzi o to, by scoring społeczny nie prowadził do krzywdzącego lub niekorzystnego traktowania.
Czwarta to wykorzystywanie AI, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę, wyłącznie na podstawie profilowania jej lub oceny jej cech osobowości i cech charakterystycznych.
Piąta – stosowanie AI tworzących bazy danych służące rozpoznawaniu twarzy poprzez tak zwane untargeted scraping.
Szósta – korzystanie z AI do wyciągania wniosków na temat emocji w miejscu pracy lub instytucjach edukacyjnych.
Siódma – wykorzystywanie AI do kategoryzowania osób w oparciu o ich dane biometryczne, by otrzymać informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej.
I wreszcie ósma zakazana praktyka to stosowanie AI do zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do ścigania przestępstw.
Plusy i minusy
Cele wprowadzenia zakazanych praktyk w zakresie AI są oczywiście nie tylko praktyczne, ale i ważne ze względu na wartości przyświecające państwom demokratycznym. Patrząc na błyskawiczny rozwój technologii, trudno przewidzieć, jakie będą możliwości sztucznej inteligencji w przyszłości. Na pewno jednak będą one znaczne, szczególnie w obszarach takich jak manipulacja, analiza emocji czy predykcja behawioralna (analiza obserwowalnych zachowań w celu przewidywania przyszłych działań).
Ponieważ wykorzystanie sztucznej inteligencji w tych obszarach (nawet przy założeniu dobrych intencji twórców) może rodzić negatywne konsekwencje dla ludzi i społeczeństwa, zasadnym wydaje się wprowadzenie ograniczeń prawnych. Możemy i powinniśmy przecież oczekiwać, że prawo będzie stało na straży wartości takich jak godność, równość czy prywatność.
Z drugiej strony, co do zasady, żadne ograniczenie prawne nie pozostaje bez wpływu na biznes. Należy się zatem spodziewać, że podobnie będzie w przypadku zakazanych praktyk AI.
Istnienie takich zakazów na terytorium Unii Europejskiej nie spowoduje przecież, że sztuczna inteligencja nie będzie wykorzystywana w sposób niedozwolony przez „Akt o AI” poza UE. Prawne ograniczenie niektórych zastosowań sztucznej inteligencji w UE może zatem wpłynąć negatywnie na efektywność przedsiębiorstw europejskich w porównaniu z przedsiębiorstwami z regionów, w których nie ma podobnych ograniczeń.
Zakazy mogą również wpłynąć na mniejszą konkurencyjność firm europejskich na rynkach światowych. W pewnych segmentach (na przykład analizy emocji pracowników czy szeroko pojętej analizy biometrycznej i behawioralnej) podmioty z państw należących do UE nie będą mogły działać i rozwijać usług lub będą mogły to robić w mniejszym zakresie. Miejsce firm europejskich w takich segmentach będą mogły zatem zająć podmioty spoza UE.
Wydaje się jednak, przynajmniej w teorii, że zakazy (o ile będą faktycznie przestrzegane) powinny przynieść obywatelom UE więcej korzyści niż szkód. Choć korzyści te nie będą mierzalne jak wskaźniki gospodarcze.
Czy zakazy będą skuteczne?
Faktyczny efekt wprowadzenia zakazów będzie proporcjonalny do stopnia w jakim podmioty tworzące i korzystające z AI będą ich rzeczywiście przestrzegać. W tym kontekście warto zwrócić uwagę na dwie kwestie.
Po pierwsze, zakazy są sformułowane w taki sposób, że pozostawiają niekiedy spore pole do interpretacji, co dokładnie jest niedozwolone. Przykładowo, „Akt o AI” mówi, że zakazane jest wykorzystywanie systemu AI, który stosuje techniki podprogowe, o których dana osoba nie wie, celowe techniki manipulacyjne lub wprowadzające w błąd. Skutkiem takich działań może być wpływ na zmianę zachowania danej osoby lub grupy osób. Na podjęcie przez nie decyzji, której inaczej by nie podjęły. A to może się wiązać z poważnymi negatywnymi konsekwencjami, jak na przykład: dokonanie niekorzystnego zakupu lub praktykowanie zagrażających zdrowiu zachowań na skutek sugestii chatbota opartego o AI.
W kontekście tego zakazu można także zadać pytania, jak zweryfikować „celowość” używania technik manipulacyjnych i tym podobnych w przypadku systemów o dużym stopniu autonomii działania. Co oznacza „znaczące ograniczenie zdolności do podejmowania świadomych decyzji” czy „poważna szkoda” – i jak to oceniać?
Brak precyzji w tej regulacji może powodować, że przedsiębiorcy nie będą przestrzegać niektórych zakazów z powodu błędnej interpretacji lub będą czuli pokusę, by je obchodzić.
Po drugie, na straży przestrzegania zakazów zawartych w „Akcie o AI” będą stały organy administracji. Z uwagi na poziom skomplikowania materii związanej z działaniem AI (w szczególności aspektu technologicznego), efektywność organów będzie zależała od poziomu specjalizacji kadry urzędniczej oraz finansowania, które otrzymają urzędy. Braki w zakresie finansowania wpłyną chociażby na liczbę pracowników czy zakres narzędzi informatycznych, którymi będą dysponować urzędnicy. Jeśli natomiast efektywność urzędów będzie w praktyce niska, należy spodziewać się, że zakazy będą częściej naruszane. Nie można niestety wykluczyć ryzyka, że poziom finansowania urzędów będzie niewystarczający w stosunku do wyzwań, jakie będą przed nimi stały.
Trudno przewidzieć przyszłość, ale już teraz można mieć poważne obawy co do zakresu skuteczności zakazów. Pozostaje mieć nadzieję, że system okaże się jednak na tyle szczelny (na przykład dzięki zapewnieniu odpowiedniego finasowania organów, czy też zaangażowaniu organizacji pozarządowych lub zwiększeniu świadomości społecznej o istnieniu tych zakazów), że naruszenia nie będą częste, a ich skutki nie będą katastrofalne.
Tekst powstał przy współpracy z kancelarią Wardyński i Wspólnicy.
