Wyobraź sobie, że siedzisz w samochodzie, który sam się prowadzi. Siedzisz na tylnym siedzeniu i grasz w grę na telefonie, gdy nagle samochód podejmuje szybką decyzję o zjechaniu z drogi i uniknięciu uderzenia psa, który wybiegł na ulicę. Ale robiąc to, zderza się z innym samochodem. Oto najważniejsze pytanie: kto jest odpowiedzialny za tę katastrofę? Czy to Ty, firma, która wyprodukowała samochód, czy może oprogramowanie sterujące samochodem?
Właśnie to próbują zrozumieć ludzie, w miarę jak samochody autonomiczne, zwane także samochodami autonomicznymi, stają się coraz bardziej powszechne. Istnieje mnóstwo pytań etycznych i prawnych dotyczących tego, kto ponosi odpowiedzialność za wypadek, w którym te samochody uczestniczą, i nie zawsze jest to łatwa odpowiedź.
W jaki sposób samochody autonomiczne podejmują decyzje?
Aby zrozumieć problem, najpierw musimy przyjrzeć się temu, jak to zrobić samochody autonomiczne praca. Samochody te do prowadzenia wykorzystują sztuczną inteligencję (AI). Pomyśl o sztucznej inteligencji jak o superinteligentnym mózgu, który przetwarza wszelkiego rodzaju informacje, na przykład o tym, jak szybko jedzie samochód, gdzie są inne samochody i co robią sygnalizacja świetlna. Samochód wykorzystuje czujniki, kamery i coś, co nazywa się LIDAR (co działa jak radar, ale z laserami), aby „widzieć” otoczenie.
Ale tu jest najtrudniejsza część: czasami samochód musi podejmować trudne decyzje. Załóżmy, że samochód jedzie w stronę przejścia dla pieszych i nagle na jezdnię wskakują dwie osoby. Samochód musi zdecydować, kogo lub co chronić – ludzi na przejściu dla pieszych czy pasażera w samochodzie. To ważne pytanie etyczne, a ludzie wciąż zastanawiają się, jak nauczyć sztuczną inteligencję samochodu podejmowania takich decyzji.
To trochę jak „problem z wózkiem”, co jest słynną zagadką etyczną. W tym problemie wózek pędzi w stronę pięciu osób, a Ty możesz zmienić tor, aby je uratować, ale zraniłbyś jedną osobę na drugim torze. Nie ma dobrej odpowiedzi i właśnie to sprawia, że w przypadku samochodów autonomicznych jest to tak skomplikowane.
Kto jest winny wypadku?
Porozmawiajmy teraz o odpowiedzialności. W przypadku normalnego wypadku samochodowego jest całkiem jasne, kto jest winny – zwykle jest to jeden z kierowców. Ale w samochodzie autonomicznym może w ogóle nie być kierowcy lub osoba w samochodzie może nawet nie zwrócić uwagi, gdy nastąpi wypadek. Kto więc jest odpowiedzialny?
Istnieje kilka opcji:
- Producent: Jeśli do wypadku doszło na skutek nieprawidłowego działania czegoś w samochodzie, na przykład niedziałających hamulców, odpowiedzialność może ponieść firma produkująca samochód.
- Twórca oprogramowania: Jeśli problem dotyczył procesu podejmowania decyzji przez sztuczną inteligencję, można winić firmę, która zaprojektowała oprogramowanie. Może się to zdarzyć, jeśli samochód dokona złego wyboru w sytuacji awaryjnej.
- Pasażer Człowieka: Niektóre samochody autonomiczne nadal wymagają od ludzi gotowości do przejęcia kontroli, jeśli coś pójdzie nie tak. Jeśli zdarzy się wypadek, a człowiek nie zachowa ostrożności, może zostać pociągnięty do odpowiedzialności.
- Firmy zewnętrzne: Czasami za konserwację samochodów może być odpowiedzialna inna firma (np. usługa wspólnych przejazdów wykorzystująca samochody autonomiczne). Jeśli coś nie zostało naprawione prawidłowo, mogą być odpowiedzialni za awarię.
Przykład z życia wzięty miał miejsce w 2018 kiedy autonomiczny samochód Ubera potrącił pieszego i zabił go. W tym przypadku okazało się, że kierowca bezpieczeństwa nie zachował uwagi, ale sztuczna inteligencja samochodu też nie działała wystarczająco szybko. Nadal toczy się wielka debata na temat tego, kto tak naprawdę był winny.
Pomoc prawna
Kiedy bierzesz udział w wypadku, niezależnie od tego, czy jest to zwykły samochód, czy pojazd autonomiczny, może to być trudne. Możesz nie wiedzieć, kto jest winien i jak postępować z systemem prawnym. To jest gdzie zatrudnienie A prawnik zajmujący się wypadkami samochodowymi może pomóc.
Doświadczony prawnik może ustalić, czy przyczyną wypadku była awaria samochodu, błąd oprogramowania, czy nawet zaniedbanie innego kierowcy. Będą wiedzieć, jak gromadzić dowody i postępować z firmami ubezpieczeniowymi, co jest ważne przy ustalaniu, kto powinien zapłacić za szkody. Ponadto, jeśli sprawa trafi do sądu, będą mogli Cię reprezentować i zapewnić sprawiedliwy wynik.
Mogą także udzielić Ci wskazówek, co zrobić bezpośrednio po wypadku. Jak złożyć raport policyjny, jak udokumentować miejsce zdarzenia lub kiedy zwrócić się o ocenę lekarską. Dzięki temu nie pominiesz żadnych ważnych kroków, które mogłyby mieć wpływ na Twoją sprawę w przyszłości.
Trudne decyzje AI
Wróćmy do idei podejmowania decyzji przez samochód. Wyobraź sobie taką sytuację: autonomiczny samochód zaraz potrąci jelenia, który nagle wskoczy na drogę. Sztuczna inteligencja ma ułamek sekundy na decyzję – czy powinna skręcić, aby ominąć jelenia i ewentualnie zderzyć się z innym samochodem, czy też powinna pozostać na kursie i uderzyć w zwierzę?
Nie zawsze jest jasne, jak zaprogramować sztuczną inteligencję, aby radziła sobie w takich sytuacjach. W jednym kraju ludzie mogliby sądzić, że samochód powinien przede wszystkim chronić życie ludzkie. W innym miejscu można by argumentować, że samochód powinien zminimalizować szkody wyrządzone jak największej liczbie osób, nawet jeśli naraża to pasażerów na ryzyko. Decyzje te mogą się zmieniać w zależności od różnych kultur, a nawet indywidualnych preferencji.
Obecnie firmy budujące te samochody próbują stworzyć wytyczne etyczne, które pomogą sztucznej inteligencji w podejmowaniu tego rodzaju decyzji. Jest to jednak bardzo skomplikowane, ponieważ tak naprawdę nikt nie jest zgodny co do „właściwej” odpowiedzi na te problemy.
Czy możemy ufać samochodom autonomicznym?
Dużą częścią debaty na temat samochodów autonomicznych jest zaufanie. Ludzie chcą wiedzieć, czy mogą polegać na tych samochodach, jeśli chodzi o podejmowanie właściwych decyzji w sytuacjach awaryjnych. A na zaufanie ciężko jest zapracować, zwłaszcza gdy wciąż zdarzają się awarie.
Jednym ze sposobów, w jaki firmy mogą budować zaufanie, jest przejrzystość. Oznacza to, że muszą otwarcie mówić o tym, jak działają ich samochody i jakie decyzje ma podejmować sztuczna inteligencja. Kiedy ludzie rozumieją, co dzieje się pod maską, są bardziej skłonni czuć się bezpiecznie.
Ale przerażająca jest też myśl o pozwoleniu maszynie na podejmowanie za nas decyzji o życiu i śmierci. Mimo że samochody autonomiczne są ogólnie bezpieczniejsze niż kierowcy-ludzie (ponieważ ludzie są rozproszoni lub częściej popełniają błędy), nadal trudno jest całkowicie zrezygnować z kontroli.
Firmy takie jak Tesla i Waymo twierdzą, że ich technologia jest bezpieczniejsza niż ludzie, ale wciąż jest wiele sceptycyzmu. Tylko to wykazało badanie przeprowadzone w 2022 r 9% Amerykanów twierdzi, że ufa samochodom autonomicznym, a 68% twierdzi, że się ich boi.
Jak sobie z tym radzą rządy i firmy?
Rządy na całym świecie próbują opracować przepisy, które pomogą w prowadzeniu pojazdów autonomicznych. W USA tzw Departament Transportu opublikowało wytyczne dotyczące pojazdów autonomicznych, ale przepisy wciąż nadążają za technologią.
Niektórzy sugerują, że producenci samochodów powinni płacić do funduszu ubezpieczeniowego pokrywającego wypadki spowodowane przez pojazdy autonomiczne. Inni uważają, że potrzebujemy silniejszych przepisów dotyczących sposobu, w jaki firmy testują swoje systemy sztucznej inteligencji przed wprowadzeniem ich na rynek.
Po stronie firmy odpowiedzialność spoczywa zarówno na producentach samochodów, jak i twórcach oprogramowania. Muszą współpracować, aby mieć pewność, że sztuczna inteligencja jest bezpieczna, a samochody radzą sobie w najróżniejszych rzeczywistych sytuacjach.
Podsumowując
Ostatecznie pytanie, kto jest odpowiedzialny za awarię samochodu autonomicznego, nadal pozostaje dużą zagadką. Oczywiste jest, że nie ma jednej uniwersalnej odpowiedzi, a sposób, w jaki sobie poradzimy w takich sytuacjach, będzie zależał od tego, jakiego rodzaju systemy prawne i etyczne stworzymy.
Ponieważ liczba samochodów autonomicznych stale rośnie, musimy znaleźć sposób na zrównoważenie bezpieczeństwa, zaufania i odpowiedzialności. Niezależnie od tego, czy jest to producent samochodów, twórca oprogramowania, czy nawet pasażer, wszyscy zaangażowani mają do odegrania rolę w zapewnieniu bezpieczeństwa tych pojazdów dla wszystkich uczestników ruchu.
To duże zadanie, ale jeśli dobrze je wykonamy, samochody autonomiczne mogą być ogromnym krokiem naprzód w zwiększaniu bezpieczeństwa naszych dróg.
Autor wyróżnionego obrazu: Shubham Dhage/Unsplash