Z centrum widać najwięcej
  

KULTURA LIBERALNA > Felietony > Roboty nas nie...

Roboty nas nie zabiją

Z Aleksandrą Przegalińską rozmawia Jakub Bodziony

Nie twierdzę, że technologia nie może być niebezpieczna, ale z samej natury jest ambiwalentna. Nie jest bronią palną, bo może być wykorzystywana na szereg różnych sposobów. Nie sądzę, żeby ludzie mieli poczucie eksploatacji przez niecny system algorytmów, kiedy oglądają Netflixa i algorytm proponuje im kolejne seriale na podstawie tych już obejrzanych.

Jakub Bodziony: Kiedy mówi się o AI, zwykle myślimy o robotach czy innych futurystycznych wynalazkach, nad którymi pracują naukowcy w nowoczesnych laboratoriach. Ale jak sztuczna inteligencja wpływa na codzienne życie przeciętnego Kowalskiego?

Aleksandra Przegalińska: Z perspektywy sztucznej inteligencji nie ma kogoś takiego jak przeciętny Kowalski, bo każdy jest ciekawym, innym zbiorem danych. Może w miejscach, do których nie dociera internet, faktycznie tej sztucznej inteligencji nie ma. Ale poza tym, każdy z nas styka się z nią nolens volens.

W jaki sposób?

Chociażby Netflix działa na zasadzie wielowarstwowej sieci neuronowej, która zapamiętuje nasze preferencje i potem dobiera nam kolejne filmy. Jeśli ktoś robi zakupy na takich platformach jak Allegro czy Amazon, to ma do czynienia z taką samą sytuacją – wielowarstwowa sieć neuronowa bada preferencje użytkownika, a następnie podsuwa mu rekomendacje kolejnych produktów.

Kolejny przykład – może nierozpowszechniony jeszcze w Polsce – dotyczy służby zdrowia. W przypadku diagnostyki lekarze wspierają się systemami ekspertowymi. Na drogach nie ma jeszcze w pełni autonomicznych samochodów, ale bardzo wiele modeli ma już jakieś systemy sztucznej inteligencji – czujniki pogody, parkowania, mikrointernet, nawigacja. Nawet jeśli ktoś nie interesuje się tą dziedziną, mogę zapewnić, że ta dziedzina interesuje się nim.

Uber w Stanach Zjednoczonych, szczególnie w Kalifornii, eksperymentuje z autonomicznymi pojazdami. Wszystko wydawało się iść gładko, dopóki nie doszło do tragicznego wypadku. Wtedy okazuje się, że zaufanie społeczne do tego typu technologii jest bardzo kruche. Czy to są błędy, które z czasem będzie można naprawić, czy raczej sygnały, że należy przerwać badania nad tego typu maszynami?

Nie powinniśmy ich przerywać, ale powinny one być robione w znacznie bezpieczniejszy sposób. Wypadek, o którym pan wspomniał i w którym zginęła kobieta, wynikał z błędu człowieka i złego ustawienia maszyny. To spowodowało, że osoba na ulicy została źle sklasyfikowana przez system. Ale sam wypadek miał miejsce w Arizonie, co z kolei wskazuje na nieprzyjemny wymiar społeczny i polityczny tych badań.

To znaczy?

Bo eksperymenty były przeprowadzane w bardzo biednym stanie, który prawdopodobnie dostaje od firmy pieniądze. W Kalifornii prawne regulacje są znacznie bardziej surowe, a w Arizonie można było przeprowadzić eksperyment na żywym organizmie.

To pokazuje, że Uber zagalopował się w swoim pędzie do przyspieszania rozwoju autonomicznych samochodów – bo mają dalekosiężne plany. Promują taką ideę, żeby samochód nie był produktem kupowanym na użytek prywatny, ale usługą, której dostarcza Uber. Tej firmie pasuje więc taka wizja automatyzacji, ale jeżeli system widzenia maszynowego tak często się myli – identyfikuje niebieski samochód jako niebo, żółwia jako itp., a przecież roczne dziecko byłoby dokonać prawidłowej identyfikacji – to naprawdę potrzeba jeszcze dużo czasu i pracy, żeby taki samochód wyjechał na ulice.

Te prace powinny być kontynuowane, ale w środowisku laboratoryjnym?

Niekoniecznie. Można prowadzić badania z dala od ludzi – Stany Zjednoczone to przecież ogromny kraj. Można też wykorzystywać rzeczywistość wirtualną.

Ale taniej było to zrobić w Arizonie?

Na pewno. Ale to wizja rozwoju technologicznego, przeciwko której powinniśmy protestować – biedni jako źródło, która zasila system firmy, która chce przyspieszyć swój rozwój. Powinniśmy o tym głośno mówić.

A jak pani postrzega tak zwany „dylemat wagonika” w związku z autonomicznymi pojazdami?

Tego eksperymentu nie da się obecnie zweryfikować ze względu na ograniczenia dotyczące metodologii. Wydaje mi się, że chodziło o rozpoczęcie pewnej filozoficznej debaty, a nie faktycznie zainstalowanie tego typu systemu w samochodach. W rzeczywistości jest to kwestia regulacyjna.

To znaczy?

Mamy dwie możliwości: albo umówimy się, że za wbudowanie takiego systemu decyzyjnego odpowiada producent, albo ustalimy, że samochód uczy się od swojego kierowcy i potem stopniowo przejmuje funkcje jeżdżenia i za to będzie odpowiadał kierowca. To jest typ debaty, który musi zostać rozstrzygnięty.

Wolałabym, żeby powstawało więcej takich filmów jak „Her”, w którym futurystyczna wizja rozwoju technologii nie jest równoznaczna z rozpadem więzi społecznych i ogólną apokalipsą.

Aleksandra Przegalińska

W jaki sposób to wpłynie na rozwiązanie sytuacji, w której auto ma do wyboru albo wyminąć dziecko na drodze i wtedy prawdopodobnie zagrozi zdrowiu kierowcy, albo potrąci dziecko i wtedy kierujący pojazdem wyjdzie bez szwanku?

O tym nie będzie decydował samochód w czasie rzeczywistym, tylko procedury, które będą ustalone wcześniej. Nikt nie będzie kupował samochodów, które nie będą chronić kierowców. To jest bardzo poważny temat i nie możemy pozwolić na to, żeby samochód czy sieć neuronowa podejmowała określone decyzje w zależności od sytuacji. Jestem pewna, że na to się nikt nie zgodzi.

I takie stanowisko przeważa w dyskusjach specjalistów?

Wszyscy chcą jednoznacznie uwarunkować reakcje tych mechanizmów, zanim te auta wyjadą na drogę. Sama obawiam się potencjalnych reperkusji innego typu rozwiązań. Nie wierzę sieciom neuronowym dzisiaj na tyle, żeby zawierzyć im możliwość podejmowania różnych decyzji w zależności od sytuacji. Nie chcę również, żeby samochody wyposażone w takie dylematy algorytmiczne jeździły po drodze. Tworząc mechanizm, którego kluczowym komponentem jest podejmowanie decyzji „kogo zabić”, w jakiś sposób wpływamy na jego działanie.

Jakie są największe mity dotyczące sztucznej inteligencji, które obecnie funkcjonują?

Że jest zła.

A nie jest?

Nie!

Ale może rodzić zagrożenie. Taki obraz płynie na przykład z popkultury, która przepełniona jest dystopijnymi wizjami rozwoju technologii.

Oczywiście, że istnieją zagrożenia. Sama boję się autonomicznej broni, jestem sygnatariuszką listu zainicjowanego przez Elona Muska dotyczącego całkowitego zakazu produkcji broni wspomaganej sztuczną inteligencją.

Czyli nie tylko laicy obawiają się technologii, ale również pionierzy jej rozwoju, tacy jak Elon Musk czy Stephen Hawking.

Szczerze mówiąc, nie do końca rozumiałam sprzeciw Hawkinga wobec sztucznej inteligencji, ponieważ on sam był jej największym beneficjentem, zresztą my po części również – bo dzięki niej mogliśmy usłyszeć, co on ma do powiedzenia światu. A następnie postanowił wejść w dyskusję na temat tego, że sztuczna inteligencja jest największym zagrożeniem dla ludzkości. Jego stanowisko wielokrotnie się zmieniało, co zresztą doskonale rozumiem, bo sama często zmieniam swoje nastawienie wobec konkretnych rozwiązań. Z Elonem Muskiem również mam problem, bo to jest osoba, która najbardziej akceleruje rozwój sztucznej inteligencję. To on stworzył Open AI, Neuralinka i wszystkie największe huby dotyczące innowacji. Teraz twierdzi, że powinniśmy się tego obawiać.

Może w tej dyskusji chodzi o to, żeby sztuczna inteligencja była kontrolowalna.

Ale wyznaczanie jakiejś granicy nie oznacza zatrzymania rozwoju. Musk jest osobą bardzo wpływową, a jego wypowiedzi często są populistyczne i mogą wywoływać strach wśród ludzi. Problemem sztucznej inteligencji, to sposób jej przedstawienia przez popkulturę. To bardzo popularny dyskurs, który AI pokazuje w sposób służebny.

To znaczy?

W formie chłopca do bicia. Ludzie są mniej szczęśliwi – to przez technologię, bardziej samotni – to przez technologię, głupsi – to przez technologię. Oskarża się ją o całe zło, bo to wygodne.

Według pani te tezy nie są słuszne?

Nie, bo idealizują świat przed erą nowych technologii. Tak jak byśmy wcześniej ludzkość była mądra i wspaniała. Postawa według, której technologia, a szczególnie sztuczna inteligencja, jest zła i co więcej, działa przeciwko ludzkości, to jest coraz bardziej popularny głos, który nie ma nic wspólnego z tym, nad czym pracują naukowcy.

Często sztuczną inteligencję porównuje się do kwestii broni palnej, która może zostać wykorzystana w zależności od intencji użytkownika.

Nie zgadzam się z tym porównaniem. Do jakiego dobrego celu może zostać użyta broń palna? Służy tylko do tego zabijania.

Ale może służyć do obrony własnej.

I wciąż ma na celu zranienie drugiej strony. A sztuczna inteligencja może służyć do diagnostyki chorób rzadkich, ocenić adekwatnie ryzyka różnych sytuacji kryzysowych, nieść pomoc osobom niepełnosprawnym.

A afera związana z Cambridge Analytica nie jest przykładem wykorzystania technologii w złym celu?

To jest zupełnie inna sprawa. Firma Facebook przez wiele lat ignorowała to, że zewnętrzna firma nielegalnie kupowała dane użytkowników za pomocą głupich quizów i testów, w których typowali oni swoje cechy charakteru po to, żeby zobaczyć, czy są chlebem razowym, czy raczej bułką grahamką. Te dane zasilały potem cały system mikrotargetowania. Wina leży po stronie Facebooka i nieprzejrzystego sposobu pozyskiwania danych oraz zwykłego oszustwa.

Nie twierdzę, że technologia nie może być niebezpieczna, ale z samej natury jest ambiwalentna. Nie jest bronią palną, bo może być wykorzystywana na szereg różnych sposobów. Jak ludzie oglądają Netflixa i algorytm proponuje im kolejne seriale na podstawie tych już obejrzanych, to nie sądzę, żeby mieli poczucie eksploatacji przez niecny system algorytmów.

W swoim wystąpieniu w TedX podkreślała pani, że jeśli technologia działa odpowiednio, to jest niezauważalna dla użytkownika, co można porównać do proponowanych nam seriali przez platformy streamingowe. Czy to nie usypia naszej czujności?

Naturalizacja technologii na pewno jest dla nas bardziej komfortowa, ale jednocześnie rodzi pewne ryzyka. Z takim przykładem mieliśmy do czynienia w przypadku Cambridge Analytica. Neutralna technologia przestaje taką być, kiedy jest orkiestrowana przez określone jednostki i grupy ludzi. Żeby się przed tym bronić, należy ją maksymalnie udemokratycznić i umasowić.

Neutralna technologia przestaje taką być, kiedy jest orkiestrowana przez określone jednostki i grupy ludzi. Żeby się przed tym bronić, należy ją maksymalnie udemokratycznić i umasowić.

Aleksandra Przegalińska

W jaki sposób?

Chciałabym, żeby moi studenci, którzy studiują biznes czy zarządzanie, mieli umiejętności rozumienia data science, zrozumienie tych procesów i mieli zdolność reagowania na dane sytuacje. Najgorszym możliwym scenariuszem jest to, że technologie pozostaną ekskluzywne. Wszyscy powinnyśmy być trochę hakerami. Dopiero wtedy ta większość może kontrolować tą mniejszość, która kreuje rozwój technologiczny.

Czyli wracamy do tego, co powraca w każdej debacie akademickiej… do edukacji.

Tak, bo przed technologią nie ma ucieczki. Nie można się bać i propagować cyfrowej absencji. Zamknięcie oczu nie spowoduje tego, że zatrzymamy jej rozwój.

Ale ten strach potęgowany jest przez popkulturę, która przepełniona jest dystopijnymi wizjami rozwoju technologii przez produkcje takie jak: „Black Mirror”, „Ex Machina”, czy „Bladerunner 2049”.

Nie neguję artystycznej wartości tych produkcji, ale wolałabym, żeby powstawało więcej takich filmów jak na przykład „Her”, w którym futurystyczna wizja rozwoju technologii nie jest równoznaczna z rozpadem więzi społecznych i ogólną apokalipsą.

Część osób za realną obawę przed rozwojem technologii uznaje utratę ludzkiej kontroli nad nią w postaci uzyskania przez sztuczną inteligencję samoświadomości i w konsekwencji tak zwanego „buntu robotów”. Czy to jest w ogóle realna groźba?

To jest debata na tak zwany długi marsz. Nikt nie może obiecać, że za sto czy tysiąc lat te obecnie zaawansowane systemy nie wyemigrują w inną formę. Na razie to się wydaje bardzo mało prawdopodobne. To nie powinno być główną osią tych dyskusji, w odróżnieniu od tego, jak robić dobrą, efektywną i bezpieczną analitykę danych, która służy ludziom.

Co to konkretnie znaczy?

Jak robić dobre narzędzia do factcheckingu, do obrony przed dezinformacją, jak hamować rozwój broni autonomicznej, zachować szerokie kompetencje w dziedzinie sztucznej inteligencji: i te krytyczne, i te twarde. Dla mnie to są najważniejsze tematy. Osobliwość też jest ciekawa, ale w godzinnej debacie powinna zabrać nam mniej niż dziesięć minut.

 

* Aleksandra Przegalińska jest gościem Festiwalu Przemiany organizowanego przez Centrum Nauki Kopernik w dniach 13-16 września. „Kultura Liberalna” jest patronem medialnym wydarzenia.

SKOMENTUJ

Nr 505

(37/2018)
14 września 2018

PRZECZYTAJ INNE Z TEGO NUMERU

PRZECZYTAJ INNE Z TEGO NUMERU

PRZECZYTAJ INNE Z DZIAŁU

KOMENTARZE

PODOBNE



WAŻNE TEMATY:

TEMATY TYGODNIA

drukuj