Berta Sándor
Amikor a mesterséges intelligencia életet veszélyeztet
A digitalizálás elterjedésével egyre fontosabbá válik, hogy morálisan tökéletesek legyenek az algoritmusok. A cégeknek meg kell akadályozniuk, hogy a megoldásaik diszkrimináljanak vagy életeket veszélyeztessenek.
Az minden piaci szereplő számára világos, hogy egy találmány csak azután számíthat széles társadalmi elfogadottságra, ha az emberek megbíznak abban. Ennél is fontosabb viszont, hogy az emberek ne féljenek tőle, és attól, hogy hátrányokat jelenthet az alkalmazása vagy akár veszélyes helyzeteket teremthet. Éppen ezért szükség van arra, hogy az etikát már a fejlesztéskor bevonják a folyamatokba.
A 49 éves Christoph Lütge gazdaságetikai szakember fogja vezetni a Müncheni Műszaki Egyetem Mesterséges Intelligencia Etikai Intézetét. A létrehozását a Facebook 6,5 millió euróval támogatta és októbertől fog működni. Az új intézményben informatikusok és filozófusok közösen dolgoznak majd az algoritmusok megalkotásán. Ahogy Lütge fogalmazott, a nagyvállalatoknak fel kell ismerniük, hogy együtt kell működniük az új intézettel. Szinte nem telik el olyan hét, amikor ne keresné meg egy társaság azzal, hogy etikai kérdésekkel akar foglalkozni.
Az IBM már tavaly júliusban etikai és morális elvek alapján működő mesterséges intelligenciát fejlesztett, és a Deutsche Telekom szintén az első vállalatok között volt, amelyek bevezették az etikai irányelvet. Az alapötlet az volt, hogy a technológia csak egy eszköz és önmagában semleges. Az irányelvet Manuela Mackert, a DT egyik vezetője dolgozta ki. Alapvetése szerint a mesterséges intelligencia nem csupán egyszerűen létrejön, hanem mi, emberek fejlesztjük ki. Éppen ezért mi döntjük el, hogy milyen célokra akarjuk alkalmazni azt és a jóléti hasznát is meg kell teremteni. Az irányelv a mesterséges intelligencia fejlesztésére, illetve alkalmazására vonatkozik, viszont nem jelent szabványosítást.
Mackert tagja a mesterséges intelligencia szakértői tanácsnak is, amelyet a Microsoft kezdeményezésére hoztak létre tavaly év végén. A tagok között vannak még a BASF, a Vodafone, a Pro Sieben Sat1, a Munich Re, a Zeiss, az Osram és a Volkswagen képviselői. Ők közösen dolgoznak ki cselekvési ajánlásokat.
Tanja Böhm, a Microsoft berlini csapatának vezetője rávilágított arra, hogy a technológia használata az egészségügyben teljesen más etikai kérdéseket vet fel, mint a kérelmek elbírálása vagy a megelőző jellegű (prediktív) karbantartás az iparban. Minden egyes esetben meg kell vizsgálni, hogy miként kell kialakítani a mesterséges intelligencia etikai szempontból felelősségteljes alkalmazását. Függetlenül attól, hogy robotautókról, biztosítási konstrukcióról vagy az egészségügyről van szó, minél intenzívebb a mesterséges intelligencia és az emberek közötti kapcsolat, annál erősebben nőnek a technológiával szembeni morális követelmények. A rasszizmus vagy a szexizmus elkerülése alapvető feltétel, de miután emberek végzik a programozást, ezért hibákra komoly esély van, amint az az elmúlt hónapokban be is bizonyosodott.
További problémát jelent, hogy a mesterséges intelligencia egyre több területen van nem csupán jelen, hanem dönt is, például a kínai szociális kreditrendszer esetében - az egyes személyek társadalmi elfogadottságról. Éppen ezért kell egyértelműen tudni, hogy mi játszódik le a technológiában és milyen adatokhoz fér hozzá. Továbbá az is fontos, hogy egy algoritmus mennyire vonható felelősségre a döntéseiért. Mert az nagyon is vonzó, hogy a gépekre bízzuk a döntést, de kérdés, hogy a felhasználók hozzájárulnak-e, akarják-e, hogy egy gép döntsön az őket érintő kérdésekben. Szintén problémát jelenthet, hogy ha a technológia emberéletekről vagy veszélyes helyzetekről dönt. Lütge úgy vélte, hogy azzal kell megbarátkozni, hogy a gép valamilyen döntést hozni fog, ezért sürgősen meg kellene állapodni arról, hogy milyen elvek alapján működjön. Ezzel kapcsolatban is volt már kísérlet.
Az minden piaci szereplő számára világos, hogy egy találmány csak azután számíthat széles társadalmi elfogadottságra, ha az emberek megbíznak abban. Ennél is fontosabb viszont, hogy az emberek ne féljenek tőle, és attól, hogy hátrányokat jelenthet az alkalmazása vagy akár veszélyes helyzeteket teremthet. Éppen ezért szükség van arra, hogy az etikát már a fejlesztéskor bevonják a folyamatokba.
A 49 éves Christoph Lütge gazdaságetikai szakember fogja vezetni a Müncheni Műszaki Egyetem Mesterséges Intelligencia Etikai Intézetét. A létrehozását a Facebook 6,5 millió euróval támogatta és októbertől fog működni. Az új intézményben informatikusok és filozófusok közösen dolgoznak majd az algoritmusok megalkotásán. Ahogy Lütge fogalmazott, a nagyvállalatoknak fel kell ismerniük, hogy együtt kell működniük az új intézettel. Szinte nem telik el olyan hét, amikor ne keresné meg egy társaság azzal, hogy etikai kérdésekkel akar foglalkozni.
Az IBM már tavaly júliusban etikai és morális elvek alapján működő mesterséges intelligenciát fejlesztett, és a Deutsche Telekom szintén az első vállalatok között volt, amelyek bevezették az etikai irányelvet. Az alapötlet az volt, hogy a technológia csak egy eszköz és önmagában semleges. Az irányelvet Manuela Mackert, a DT egyik vezetője dolgozta ki. Alapvetése szerint a mesterséges intelligencia nem csupán egyszerűen létrejön, hanem mi, emberek fejlesztjük ki. Éppen ezért mi döntjük el, hogy milyen célokra akarjuk alkalmazni azt és a jóléti hasznát is meg kell teremteni. Az irányelv a mesterséges intelligencia fejlesztésére, illetve alkalmazására vonatkozik, viszont nem jelent szabványosítást.
Mackert tagja a mesterséges intelligencia szakértői tanácsnak is, amelyet a Microsoft kezdeményezésére hoztak létre tavaly év végén. A tagok között vannak még a BASF, a Vodafone, a Pro Sieben Sat1, a Munich Re, a Zeiss, az Osram és a Volkswagen képviselői. Ők közösen dolgoznak ki cselekvési ajánlásokat.
Tanja Böhm, a Microsoft berlini csapatának vezetője rávilágított arra, hogy a technológia használata az egészségügyben teljesen más etikai kérdéseket vet fel, mint a kérelmek elbírálása vagy a megelőző jellegű (prediktív) karbantartás az iparban. Minden egyes esetben meg kell vizsgálni, hogy miként kell kialakítani a mesterséges intelligencia etikai szempontból felelősségteljes alkalmazását. Függetlenül attól, hogy robotautókról, biztosítási konstrukcióról vagy az egészségügyről van szó, minél intenzívebb a mesterséges intelligencia és az emberek közötti kapcsolat, annál erősebben nőnek a technológiával szembeni morális követelmények. A rasszizmus vagy a szexizmus elkerülése alapvető feltétel, de miután emberek végzik a programozást, ezért hibákra komoly esély van, amint az az elmúlt hónapokban be is bizonyosodott.
További problémát jelent, hogy a mesterséges intelligencia egyre több területen van nem csupán jelen, hanem dönt is, például a kínai szociális kreditrendszer esetében - az egyes személyek társadalmi elfogadottságról. Éppen ezért kell egyértelműen tudni, hogy mi játszódik le a technológiában és milyen adatokhoz fér hozzá. Továbbá az is fontos, hogy egy algoritmus mennyire vonható felelősségre a döntéseiért. Mert az nagyon is vonzó, hogy a gépekre bízzuk a döntést, de kérdés, hogy a felhasználók hozzájárulnak-e, akarják-e, hogy egy gép döntsön az őket érintő kérdésekben. Szintén problémát jelenthet, hogy ha a technológia emberéletekről vagy veszélyes helyzetekről dönt. Lütge úgy vélte, hogy azzal kell megbarátkozni, hogy a gép valamilyen döntést hozni fog, ezért sürgősen meg kellene állapodni arról, hogy milyen elvek alapján működjön. Ezzel kapcsolatban is volt már kísérlet.