Wypadek z udziałem autonomicznego samochodu Ubera w Arizonie. Na razie trudno o dokładniejsze informacje, ale wiele wskazuje na to, że autonomiczny samochód Ubera (self driving car) został uderzony w tył przez inny nadjeżdżający pojazd. W wyniku tej kolizji pojazd Ubera zjechał ze swojego pasa i uderzył w przejeżdżający obok samochód a następnie przewrócił się na bok. Najprawdopodobniej zawinił sterownik autopilota.

Czytaj także: Uber bez kierowcy już zabiera pasażerów

Samochody autonomiczne czasem ulegają wypadkom, w większości przypadków z winy innych „ludzkich” kierowców. Kłopot w tym, że zwykle są to drobne niegroźne stłuczki. Uber ma pecha, bo kolizja jego pojazdu ma poważniejszy charakter, nie tylko z powodu bardziej pogiętej blachy, ale przede wszystkim dlatego, że – jak wskazują lokalne media – autopilot nie zareagował w prawidłowy sposób na zderzenie.

To już kolejny przypadek, gdy zawodzi autonomiczny pojazd Ubera

W grudniu w Kalifornii jeden z testowanych pojazdów przejechał na czerwonym świetle. Uber twierdzi, że to wina kierowcy, ale wiele wskazuje na to, że mogła to jednak być wina oprogramowania. Portal Techcrounch sugeruje, że z wewnętrznych przecieków Ubera wynika, że technologia autonomicznych pojazdów Ubera nie rozwija się w oczekiwany sposób, tzn. stoi w miejscu.

Czytaj także: Problemów Ubera ciąg dalszy. #DeleteUber

Uber posiada 12 autonomicznych pojazdów, które testuje w Pittsburghu (Pensylwania) i w Phoenix (Arizona). Wcześniej jeździły one po ulicach Kalifornii, ale problemy prawne związane z testowanie autonomicznych pojazdów wymusiły na zarządzie Ubera przeniesienie testów do innych stanów. Być może czeka ich kolejna. Jednocześnie warto nadmienić, że szef programu samoobsługowych samochodów Ubera jest oskarżany o kradzież technologii od Google, w którym wcześniej pracował.

Nie przekreślamy i wciąż kibicujemy Uberowi, co nie zmienia faktu, że sprawa wygląda nieciekawie. Samochody autonomiczne to przyszłość motoryzacji i wielkie wyzwanie dla wszystkich uczestników ruchu drogowego.

Kto ma zginąć? Kogo ma wybrać komputer?

Rodzi też wiele pytań natury filozoficznej, np. czy pojazd, który znajdzie się w sytuacji, gdy wypadek będzie nieuchronny, to czy powinien ratować życie kierowcy (właściciela pojazdu), czy innych uczestników ruchu, np. autobusu szkolnego pełnego dzieci.

Z tego względu testy tej technologii trwają tak długo a samo bezpieczeństwo ma priorytetowe znaczenie. W testowanych pojazdach zawsze siedzi kierowca, który może przejąć kontrolę nad pojazdem. Niektórzy twierdza, że rozwiązanie tego problemu jest proste – wystarczy, że samochody autonomiczne nie będą sprzedawane tylko wypożyczane długoterminowo, tzn. wtedy ochrona życia pasażera nie będzie miała najwyższego priorytetu, tylko ogólnie ochrona życia (i interes właściciela).

Większość ludzi stosuje dosyć prymitywną arytmetyczną wycenę wartości życia – dwie dusze są więcej warte niż jedna… chyba, że zginąć mieliby więźniowie, skazańcy, śmiertelnie chorzy, etc., – coraz częściej sceptycy rozwoju technologicznego sugerują, że social media mogą być wykorzystane do budowania scoringu wartości życia jednostki ludzkiej. Firmy w oparciu o dostęp do tych danych mogą tworzyć modele wykorzystywane właśnie w przypadkach takich jak optymalizacja skutków nieuchronnego wypadku. Dlatego, dobrze radzę – ostrożnie z social mediami:)