„Kultura Liberalna” ukazuje się od 2009 r. dzięki zaangażowaniu dziesiątek osób i dobrej woli darczyńców. Bądź jednym z nich. Wesprzyj nas.
10 zł
20 zł
50 zł
100 zł
Inna
kwota
Z centrum widać najwięcej
  

KULTURA LIBERALNA > Felietony > [Bioetyka] Robot za...

[Bioetyka] Robot za kierownicą

Emilia Kaczmarek

Być może już niedługo na naszych drogach pojawiają się auta bez kierowców. A jeśli w samosterującym aucie tuż przed przejściem dla pieszych zepsują się hamulce, kogo powinno ono chronić – pieszych czy pasażerów?

Joshua Neally, amerykański prawnik, może być pierwszą osobą, której samochód dosłownie uratował życie. W czasie jazdy swoim świeżo zakupionym elektrycznym autem, nagle poczuł ostry ból w klatce piersiowej i zaczął mieć trudności z oddychaniem. Zamiast zadzwonić po karetkę, włączył autopilota i pozwolił, aby samochód zawiózł go do szpitala. Na miejscu zdiagnozowano u niego groźny zator płucny.

Dwa miesiące wcześniej inny Amerykanin, także w czasie używania autopilota, zginął w wypadku. Jego samochód „nie zauważył” skręcającej ciężarówki, wjechał jej pod koła, wypadł z drogi i przebił się przez dwa ogrodzenia.

Przyszłość czy science fiction?

Czy samochody, które nie potrzebują kierowcy, są już na rynku? Prace nad w pełni autonomicznymi pojazdami, takimi, w których nie będzie nawet kierownicy, trwają. Pierwsze modele w komercyjnej sprzedaży mogą pojawić się dopiero w 2020 r. Skąd więc w mediach opowieści o samochodach, które zawożą swoich kierowców do szpitala lub same pchają się pod koła ciężarówek? Oba zdarzenia dotyczyły obecnych już na rynku aut z zaawansowaną funkcją autopilota. Jednak po jej włączeniu kierowca dalej musi dotykać kierownicy co kilka minut. Producenci samochodów z autopilotem kuszą klientów wizją w pełni automatycznego parkowania, zmiany pasa ruchu czy awaryjnego hamowania. Kiedy jednak zdarzy się wypadek, przypominają, że system nie zwalnia kierowcy z obowiązku bycia czujnym na to, co dzieje się na drodze i – w razie potrzeby – przejęcia kontroli nad pojazdem.

Autonomiczne pojazdy przyszłości, przeciwnie, mają być zdolne do jeżdżenia nawet bez kierowcy. Ich producenci są przekonani, że inteligentne oprogramowanie w połączeniu z odpowiednimi czujnikami radykalnie zwiększy bezpieczeństwo na drogach. Dotychczasowe badania wskazują, że faktycznie jest to możliwe. Prace nad autonomicznymi samochodami Google’a trwają od 2009 r. Od tego czasu samokierujące pojazdy przejechały już ponad 2 mln kilometrów i jak dotąd spowodowały tylko jeden niegroźny wypadek. Stłuczka miała miejsce w lutym tego roku, kiedy samosterujący samochód próbował ominąć przeszkodę na swoim pasie i uderzył w bok nadjeżdżającego autobusu.

Po amerykańskich drogach jeździ obecnie ponad setka eksperymentalnych modeli autonomicznych samochodów różnych producentów. W czasie tych testów, zgodnie z amerykańskim prawem, samochody nie jeżdżą bez kierowców. Docelowo jednak mają być w stanie jeździć zupełnie samodzielnie. Intensywne prace nad samosterującymi samochodami trwają także w Chinach. Wśród producentów aut z całego świata trwa wyścig – kto pierwszy wypuści na rynek w pełni bezpieczny model?

Świat bez kierowców

Korzyści z wprowadzenia na rynek samochodów, które nie potrzebują kierowcy są oczywiste. To mniej wypadków spowodowanych błędem człowieka, czyli wyeliminowanie głównej przyczyny tragedii na drogach. To zaoszczędzony czas każdego, kto stojąc w korku, może zająć się czymś innym niż patrzeniem na zderzak przed nim. To możliwość przywołania swojego samochodu w dowolne miejsce. To większa mobilność dla osób starszych, niepełnosprawnych, niepełnoletnich czy niewidomych. To wreszcie koniec problemu pijanych kierowców!

Jednak wprowadzenie w pełni autonomicznych samochodów mogłoby spowodować wstrząs na globalnym rynku pracy podobny do tego z czasów luddyzmu – masowego ruchu niszczenia maszyn na początku rewolucji przemysłowej. W stosunkowo krótkim czasie wszyscy kierowcy ciężarówek, taksówkarze czy szoferzy mogą stracić pracę. Zakładając, że w masowej produkcji autonomiczne pojazdy zyskałyby przystępne ceny, brak konieczności zatrudniania ludzi radykalnie obniżyłby koszty wielu usług i transportu towarów. Nic dziwnego, że część firm już dziś inwestuje w samokierujące taksówki i ciężarówki. Nawet jeśli autonomiczne pojazdy nie zastąpią kierowców w pełni, mogą ich liczbę poważnie ograniczyć. Oprogramowanie wyręczające kierowcę tira na autostradzie – który dzięki temu nie musi się zatrzymywać na sen – oddające mu kontrolę na lokalnych drogach, może zrewolucjonizować globalny transport znacznie wcześniej niż w pełni autonomiczne ciężarówki.

Kogo przejechać?

Potencjalny wpływ na rynek pracy to oczywiście tylko jedno z licznych wyzwań związanych z nową technologią. Tworzenie oprogramowania do autonomicznych pojazdów stwarza wiele etycznych problemów. Jak zaprogramować autopilota tak, by dokonywał słusznych wyborów? Badanie opublikowane w czerwcowym numerze magazynu „Science” wskazuje, że nasze myślenie o moralności robotów za kierownicą jest pełne sprzeczności. Z jednej strony, zdecydowana większość badanych deklaruje utylitarystyczne podejście do moralnego oprogramowania samochodów – uważa, że pojazd powinien być zaprogramowany tak, by w razie wypadku ocalić życie jak największej liczby osób. W praktyce może to oznaczać poświęcenie kierowcy, którego samochód wjeżdża w ścianę budynku po to, by ominąć grupę dzieci przebiegających przez jezdnię. Z drugiej strony, na pytanie, czy „kupiłbyś samochód zaprogramowany tak, by w pewnych okolicznościach poświęcić życie kierowcy” – 70 proc. badanych odpowiedziało, że nie. Badani byli także przeciwni idei państwowej regulacji oprogramowania do autonomicznych samochodów zapewniającego jeden, utylitarystyczny algorytm dla wszystkich pojazdów.

Dzięki inicjatywie o nazwie „Moral Machine”, założonej przez Massachusetts Institute of Technology, każdy może sam sprawdzić swoje intuicje moralne. Na stronie internetowej tego projektu znajdziemy kilkanaście alternatywnych, krwawych scenariuszy. Naszym zadaniem jest zdecydować, co powinien zrobić samokierujący samochód, kiedy zepsuły mu się hamulce. Czy wjechać w dziecko, które przechodzi przez ulicę na czerwonym świetle, czy zmienić pas i przejechać starszą panią, która przechodzi na zielonym? Czy jadąc w samochodzie z własnym dzieckiem, mamy moralne prawo chronić jego życie za wszelką cenę, nawet kosztem rozjechania dużej grupy pieszych?

Kiedy już dokonamy kilkunastu śmiercionośnych decyzji, możemy porównać swoje odpowiedzi z tym, jak odpowiadali inni. Możemy zobaczyć, czy w naszych preferencjach widoczna jest pewna logika. Czy kierowaliśmy się przede wszystkim chęcią ograniczenia liczby ofiar, czy też płeć lub wiek ofiar miały dla nas decydujące znaczenie? Czy jesteśmy skłonni poświęcić życie nawet wielu zwierząt dla jednego człowieka? Czy uważamy, że najważniejsze jest przestrzeganie przepisów? A może celem autonomicznego samochodu powinno być przede wszystkim chronienie własnych pasażerów? Niektóre z hipotetycznych scenariuszy wymienionych w projekcie wydają się mało realistyczne. Przykładowo, w sytuacji wypadku możemy dokonywać wyborów w oparciu o status społeczny pieszych i pasażerów, tymczasem trudno sobie wyobrazić, aby samokierujący samochód wiedział, który pieszy jest genialnych chirurgiem, a który złodziejem.

Pytanie o to, jak zaprogramować samosterujący samochód, by dokonywał słusznych decyzji, jest wyjątkowo skomplikowane. Nie chodzi tylko o refleksję nad tym, co ja jako kierująca zrobiłabym w danej sytuacji. Należy też wziąć pod uwagę konsekwencje masowego zaprogramowania samochodów w określony sposób. Jeśli zasada minimalizowania ofiar będzie miała pierwszeństwo nad przestrzeganiem przepisów (przykładowy scenariusz: zmiana pasa w celu potrącenia jednej osoby przechodzącej na zielonym świetle po to, by uratować życie czterech osób przechodzących na czerwonym), to czy uczestnicy ruchu drogowego dalej będą skłonni przestrzegać przepisów?

Jeszcze inne problemy wiążą się z możliwością tworzenia nielegalnego oprogramowania. Jeśli licencjonowane oprogramowanie będzie zakładało przestrzeganie przepisów, z pewnością do obiegu trafią też wersje pozwalające przekraczać dozwoloną prędkość. Jeśli samochody będą zaprogramowane tak, by w razie wypadku minimalizować liczbę ofiar, cennym towarem mogą stać się modyfikacje algorytmów działające wedle zasady „za wszelką cenę chroń pasażerów”. Nie wiadomo też, wobec kogo kierować oskarżenia, jeśli samosterujący samochód spowoduje śmiercionośny wypadek. Czy producenci będą gotowi wziąć na siebie pełnię odpowiedzialności za to, co dzieje się na drogach?

W najbliższych latach będziemy mogli się przekonać, czy powyższe wyzwania pozostaną w sferze science fiction, czy staną się zupełnie realnymi problemami. Jednak patrząc na filmiki przedstawiające samochód Google’a lub ciężarówkę Otto, łatwiej uwierzyć, że samosterujące samochody już czekają za rogiem.

* Fot. wykorzystana jako ikona wpisu: DimiTVP [CC BY-SA 4.0]; Źródło: Wikimedia Commons

SKOMENTUJ

Nr 398

(34/2016)
24 sierpnia 2016

„Kultura Liberalna” ukazuje się od 2009 r. dzięki zaangażowaniu dziesiątek osób i dobrej woli darczyńców. Bądź jednym z nich. Wesprzyj nas.
52
numery rocznie
80
stron tekstów tygodniowo
100%
oryginalnych treści
0 zł
za dostęp do artykułów
10 zł
20 zł
50 zł
100 zł
Inna
kwota

PRZECZYTAJ INNE Z TEGO NUMERU

PRZECZYTAJ INNE Z TEGO NUMERU

PRZECZYTAJ INNE Z DZIAŁU

KOMENTARZE



WAŻNE TEMATY

TEMATY TYGODNIA

drukuj
pobierz jako pdf / wyślij e-mail