Berta Sándor

A kulturális háttér is fontos az autonóm autók programozásában

Több mint kétmillióan foglaltak állást azzal kapcsolatban, hogy az autonóm gépkocsiknak miként kellene viselkedniük egy szélsőséges helyzetben.

Az amerikai Massachusetts Institute of Technology (MIT) munkatársai két évvel ezelőtt fogtak egy projektbe, amelynek során arra voltak kíváncsiak, hogy egy önállóan közlekedő járműnek kötelessége-e minden körülmények között megvédenie az utasai életét. Az elkészített tesztet direkt úgy állították össze, hogy rendkívül szélsőséges helyzeteket mutasson be. Az intézet kutatói által kigondolt helyzetek igazi morális kihívásokat jelentettek. A kérdések alapján egyértelműen kiderült, hogy a kitöltők számára mi a fontos, hogy gyalogos vagy autós, férfi vagy nő az áldozat, vagy hogy elüthető-e az, aki szabályt szegett, vagy éppen egy bűnöző? A moralmachine.mit.edu oldalon található szituációk között van például, hogy vajon a robotgépkocsi tartsa-e az irányt és a sávot és ezzel üssön el egy nőt, aki éppen - a piros jelzés ellenére - átkel az utcán vagy térjen ki és ütközzön halálos baleset keretében azzal a bankrablóval, aki számára zöldet mutat a lámpa.

A Moral Machine tesztjét 233 ország felhasználói válaszolták meg. A tesztet kitöltők abban egyetértettek, hogy az önállóan közlekedő járműveknek elsősorban az embereket kellene megvédeniük, a több személy élete fontosabb a kevésnél és a fiatalokat is előnyben kellene részesíteni az idősebbekkel szemben.

Érdekes volt a válaszok megoszlása régiók szerint. A világ keleti államaiban, például Kínában vagy Japánban élők a járókelőket, valamint a törvényeket betartó személyeket védték volna az autókban ülőkkel szemben. A Chilében vagy Argentínában élők a nők, a gyerekek és a társadalmilag magasabb rangúak védelmét részesítették előnyben. A nyugati országok, például Ausztria és Németország polgárainál kevésbé voltak egyértelműek a döntések és sokkal inkább az volt az álláspontjuk, hogy egy gépkocsinak egyáltalán nem kellene morális kérdésekkel foglalkoznia, hanem egyszerűen csak folytatnia az útját.

A MIT szakértőinek eredetileg két céljuk volt. Az első az, hogy a felhasználók egyáltalán beszéljenek és vitatkozzanak a témáról, míg a második, hogy kiderüljön miként hatnak a kulturális különbségek a morális elképzelésekre. Emellett remélték, hogy egyre több tanulmány születik majd a területen, már csak azért is, mert a robotjárművek egyre inkább elterjednek. A Moral Machine 2016 óta érhető el és a teszt még mindig kitölthető.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
Nem érkezett még hozzászólás. Legyél Te az első!