Naukowcy chcą nauczyć pojazdy autonomiczne podejmowania decyzji moralnych. Pracują nad bardziej realistycznymi scenariuszami dla sztucznej inteligencji

Naukowcy chcą nauczyć pojazdy autonomiczne podejmowania decyzji moralnych. Pracują nad bardziej realistycznymi scenariuszami dla sztucznej inteligencji

Pojazdy autonomiczne do końca dekady mają zwiększyć swój udział w rynku prawie pięciokrotnie. W miastach, które dopuszczają takie samochody do ruchu, dochodzi do wypadków wynikających ze złych „decyzji” podejmowanych przez sztuczną inteligencję kierującą pojazdem. Naukowcy uważają, że wynika to ze zbyt ubogiego zestawu modeli decyzyjnych wykorzystywanych do programowania pojazdów. Opierają się one na tzw. dylemacie wagonika, czyli wyborze spośród dwóch rozwiązań tego, które będzie miało teoretycznie łagodniejsze skutki. Na podstawie zróżnicowanych scenariuszy badacze opracowują dużo bardziej złożone i w większym stopniu zbliżone do rzeczywistych dylematów kierowców rozwiązanie do szkolenia pojazdów autonomicznych.

– Pojazdom autonomicznym towarzyszy wiele problemów i wyzwań. W San Francisco, gdzie pojazdy autonomiczne poruszają się od jakiegoś czasu po drogach w postaci robotaxi, często blokują one ruch drogowy i stwarzają problemy z przejazdem wozów strażackich i innych pojazdów uprzywilejowanych, na przykład karetek. W obszarach gęsto zaludnionych warto zachować ostrożność i dopilnować, aby pojazdy autonomiczne były wyposażone w funkcje umożliwiające ocenę etyczną przed ich wprowadzeniem na drogi. W przeciwnym razie obawiam się, że liczba wypadków śmiertelnych na drogach nie ulegnie zmniejszeniu, ale wzrośnie – mówi agencji Newseria Innowacje Veljko Dubljević, adiunkt na Uniwersytecie Stanu Karolina Północna, prowadzący NeuroComputational Ethics Research Group.

Naukowcy opracowali nowy eksperyment, by lepiej zrozumieć, które decyzje na drodze ludzie postrzegają jako moralne i jako niemoralne.

– Naszym celem jest opracowanie solidnego zbioru bodźców – podobnie jak w przypadku ludzi w rzeczywistości wirtualnej symulatora ruchu drogowego możemy wykorzystać te symulacje do szkolenia sztucznej inteligencji. Mamy nadzieję, że pomoże to przygotować sztuczną inteligencję kierującą pojazdami autonomicznymi, aby nie popełniała ona błędów, które zdarzają się obecnie – wyjaśnia Veljko Dubljević. – Jako minimum potrzebujemy funkcjonalnego odpowiednika podejmowania decyzji moralnych, choćby na podstawowym poziomie, zanim dopuścimy pojazdy autonomiczne do ruchu na obszarach gęsto zaludnionych.

Badacze skupili się na opracowaniu zestawu wyzwań moralnych w ruchu drogowym bardziej realistycznego niż scenariusz inspirowany tak zwanym dylematem wagonika. Polega on na wyborze jednego z dwóch rozwiązań – decyzji, czy zabić jedną osobę, aby uniknąć śmierci wielu osób. Ten dylemat jest wykorzystywany do badania oceny moralnej w ruchu drogowym. Jednak naukowcy podkreślają, że kierowcy codziennie podejmują na drodze szereg różnych decyzji o charakterze moralnym i są one dużo bardziej złożone niż wybór między dwiema opcjami.

– Na przykład jeśli zdecydujemy się na manewr skręcania bez włączenia kierunkowskazu, jest to decyzja o charakterze moralnym, w tym przypadku decyzja niemoralna. Jeśli kogoś cechuje agresywny styl jazdy, może na przykład przejechać na czerwonym świetle lub uniemożliwić przejazd osobie mającej pierwszeństwo – wyjaśnia badacz z Uniwersytetu Stanu Karolina Północna. – W naszym opracowaniu zdefiniowaliśmy dwie kategorie decyzji moralnych i niemoralnych. Niektóre z nich są decyzjami o niewielkim znaczeniu, na przykład jeśli zapomnimy o włączeniu kierunkowskazu przy skręcaniu. Nie są to dobre decyzje, ale nie są też katastrofalne. Są również decyzje o dużym znaczeniu, na przykład jeśli ktoś z powodu pośpiechu przekracza prędkość o 50 km/h na bardzo ruchliwej ulicy – mogą one mieć skutki śmiertelne. Nie oznacza to jednak, że nie można ich w niektórych przypadkach uzasadnić. Wyobraźmy sobie karetkę pogotowia, która porusza się z dużą prędkością, żeby uratować komuś życie.

Naukowcy opracowali różne scenariusze, które uwzględniają ocenę moralną trzech różnych aspektów: intencję i charakter osoby, która podejmuje decyzje na drodze, samo działanie i jego konsekwencje. W proponowanych scenariuszach rodzic musi podejmować decyzje na drodze, próbując punktualnie dowieźć dziecko do szkoły. Przykładowo w jednej wersji rodzic hamuje na żółtym świetle i dowozi dziecko do szkoły na czas, w innej przejeżdża na czerwonym świetle i powoduje wypadek. Każdy taki scenariusz jest zaprogramowany w środowisku rzeczywistości wirtualnej i podlega ocenie przez uczestników badania w skali od 1 do 10, na ile moralne było zachowanie kierowcy. W takim badaniu realizowanym w warunkach pełnej immersji uczestniczyło 200 osób. Kolejnych tysiąc było testowanych przy komputerze stacjonarnym.

 Planujemy zająć się symulatorem ruchu drogowego, w którym nie mamy już do czynienia z perspektywą osoby trzeciej, gdzie respondenci obserwują sytuację i dokonują jej moralnej oceny, ale biorą w niej czynny udział. Będą widzieć karetki pogotowia, inne pojazdy, które mogą sygnalizować zmianę pasa lub nie, przejeżdżać na czerwonym świetle itp. Gdy zbierzemy dane od setek respondentów, poddamy je analizie i wyciągniemy wnioski, co powinno nam zapewnić lepszy wgląd w podejmowanie decyzji moralnych na drodze. Naszym celem jest lepsze zrozumienie decyzji, jakie ludzie podejmują podczas jazdy i kiedy sytuacje o małym znaczeniu przeradzają się w zagrożenie życia – zapowiada Veljko Dubljević.

Według analityków Grand View Research światowy rynek pojazdów autonomicznych będzie notował w bieżącej dekadzie dynamiczny wzrost: z ponad 42 mld dol. przychodów w 2022 roku do ponad 206 mld dol. w 2030 roku. Eksperci z Instytutu Transportu Samochodowego przewidują natomiast, że w Polsce pierwsze takie auta pojawią się na drogach właśnie w roku 2030.

– Uważam, że w przyszłości pojazdy autonomiczne będą musiały być wyposażone w podstawowe funkcje związane z podejmowaniem decyzji moralnych analogiczne lub zbliżone do ludzkiej intuicji moralnej, aby radzić sobie z sytuacjami pojawiającymi się na drodze. Najlepiej zapobiegać takim sytuacjom, nie pozwalając, aby ze zdarzeń o małym znaczeniu, na przykład jeśli ktoś zapomni o sygnalizacji manewru, rozwinęły się w sytuacje o dużym znaczeniu, w wyniku których ktoś może zginąć. Na tym polega sedno decyzji moralnych, jakie podejmują pojazdy autonomiczne – ich oprogramowanie musi rozpoznać zdarzenie istotne pod względem moralnym, aby zapobiec pogorszeniu się sytuacji – mówi naukowiec.

Przeczytaj także: Raport: wykorzystanie AI w przedsiębiorstwach w ostatnim roku wzrosło o ponad 400 proc.


Źródło: biznes.newseria.pl

Last Updated on 25 stycznia, 2024 by Krzysztof Kotlarski

Udostępnij
TAGS