Berta Sándor
Módosítani kell a mesterséges intelligenciák tervezésén
Nagyon nem mindegy, hogy az alkotók a folyamatban mire helyezik a hangsúlyt.
Stuart Russell, a Berkeley Egyetem professzora szerint meg kell változtatni annak módját, ahogy a mesterséges intelligenciát megalkotjuk. A szakember a kutatása során arra összpontosít, hogy a gépeket intelligensebbé és ezáltal hasznosabbá tegye. Ezzel párhuzamosan azzal a kérdéssel is foglalkozik, hogy mi történhet, ha a gépek intelligensebbek lesznek az embereknél és hogy ilyen esetben miként kontrollálhatók.
"Képzeld el, hogy gorilla vagy egy dzsungelben. Boldogan élsz az erdőben, de az egyik ősöd emberré fejlődött tovább és most az a problémád, hogy az emberek egyszerűen intelligensebbek, vagyis megkapják, amit akarnak, de te nem. A gorillák meghalnak, mert az erdeiket lerombolják, foglyul ejtik őket és állatkertekbe kerülnek. Emiatt elveszítik az ellenőrzést a saját jövőjük felett" - hozta fel a példát a kutató. Stuart Russell úgy véli, hogy a mesterséges intelligenciával hasonló lehet a helyzet. Az ember nem akar olyan helyzetbe kerülni, mint a gorillák, vagyis ki kell találnunk, hogy miként építhetünk nagy intelligens és hasznos, de egyúttal emberi ellenőrzés alatt maradó gépeket. Ehhez meg kell határozni, hogy mi a mesterséges intelligencia pontos célja.
Egy önállóan közlekedő taxi programozható úgy, hogy valakit juttasson el a repülőtérre, de emellett más célokat is meg kell adni neki, például, hogy ne üsse el a járókelőket vagy ne lépje túl a sebességkorlátozásokat. E céloknak a programozás során való meghatározása még egyszerű feladatoknál sem könnyű. Minél összetettebb feladatot kell megoldania a mesterséges intelligenciának, annál bonyolultabb a cél helyes meghatározása. Amennyiben pedig egy gép ugyan nagyon intelligens, de nem követ konkrét célt, akkor az súlyos problémákhoz vezethet. Ezért már a tervezéskor meg kell értetni a gépekkel, hogy óvatosak legyenek és alázatosan engedélyt kérjenek a fontos döntések meghozatala előtt.
A Berkeley Egyetem professzora problémát lát a mesterséges intelligenciák alapját jelentő adatokban. Az algoritmusok azokon a nagy adatmennyiségeken alapulnak, amelyeket az emberek gyűjtenek össze és kategorizálnak. Az algoritmusok célja az, hogy az adatokkal egyező előrejelzéseket adjanak. De azáltal, hogy az adatokat emberek gyűjtik, az ő szempontjaik és hibáik is bekerülnek a rendszerbe; jó példa erre az általunk nem is tudatosuló diszkrimináció. Ha az adatkészlet torzított, az algoritmus reprodukálja a torzítást.
Az algoritmusokat nem azzal kellene megbízni, hogy az adatokkal egyező előrejelzéseket tegyenek, hanem hogy saját, nem diszkriminatív előrejelzéseket. Az egyik célnak pont az igazságosságnak kellene lennie, de ebben az emberiség szinte mindig csődöt mondott. Holott az igazságosság nagyon is pontosan meghatározható és annak alapján igenis kifejleszthető egy olyan algoritmus, amely mindig tisztességes döntéseket fog hozni. Ehhez azonban az is kell, hogy megfelelő programozókat képezzen ki a társadalom, akik tudják, hogy mi a diszkrimináció.
Szükség van még magatartáskódexre vagy olyan törvényi szabályozásra is, amely biztosítja, hogy az algoritmusok és a mesterséges intelligencia megfelelően működnek. A kutató az utóbbival kapcsolatban példaként említette az Európai Bizottság mesterséges intelligencia irányelvét, amely előírja, hogy az algoritmusokat a lehetséges diszkriminatív eredmények elkerülése miatt tesztelni kell.
Stuart Russell, a Berkeley Egyetem professzora szerint meg kell változtatni annak módját, ahogy a mesterséges intelligenciát megalkotjuk. A szakember a kutatása során arra összpontosít, hogy a gépeket intelligensebbé és ezáltal hasznosabbá tegye. Ezzel párhuzamosan azzal a kérdéssel is foglalkozik, hogy mi történhet, ha a gépek intelligensebbek lesznek az embereknél és hogy ilyen esetben miként kontrollálhatók.
"Képzeld el, hogy gorilla vagy egy dzsungelben. Boldogan élsz az erdőben, de az egyik ősöd emberré fejlődött tovább és most az a problémád, hogy az emberek egyszerűen intelligensebbek, vagyis megkapják, amit akarnak, de te nem. A gorillák meghalnak, mert az erdeiket lerombolják, foglyul ejtik őket és állatkertekbe kerülnek. Emiatt elveszítik az ellenőrzést a saját jövőjük felett" - hozta fel a példát a kutató. Stuart Russell úgy véli, hogy a mesterséges intelligenciával hasonló lehet a helyzet. Az ember nem akar olyan helyzetbe kerülni, mint a gorillák, vagyis ki kell találnunk, hogy miként építhetünk nagy intelligens és hasznos, de egyúttal emberi ellenőrzés alatt maradó gépeket. Ehhez meg kell határozni, hogy mi a mesterséges intelligencia pontos célja.
Egy önállóan közlekedő taxi programozható úgy, hogy valakit juttasson el a repülőtérre, de emellett más célokat is meg kell adni neki, például, hogy ne üsse el a járókelőket vagy ne lépje túl a sebességkorlátozásokat. E céloknak a programozás során való meghatározása még egyszerű feladatoknál sem könnyű. Minél összetettebb feladatot kell megoldania a mesterséges intelligenciának, annál bonyolultabb a cél helyes meghatározása. Amennyiben pedig egy gép ugyan nagyon intelligens, de nem követ konkrét célt, akkor az súlyos problémákhoz vezethet. Ezért már a tervezéskor meg kell értetni a gépekkel, hogy óvatosak legyenek és alázatosan engedélyt kérjenek a fontos döntések meghozatala előtt.
A Berkeley Egyetem professzora problémát lát a mesterséges intelligenciák alapját jelentő adatokban. Az algoritmusok azokon a nagy adatmennyiségeken alapulnak, amelyeket az emberek gyűjtenek össze és kategorizálnak. Az algoritmusok célja az, hogy az adatokkal egyező előrejelzéseket adjanak. De azáltal, hogy az adatokat emberek gyűjtik, az ő szempontjaik és hibáik is bekerülnek a rendszerbe; jó példa erre az általunk nem is tudatosuló diszkrimináció. Ha az adatkészlet torzított, az algoritmus reprodukálja a torzítást.
Az algoritmusokat nem azzal kellene megbízni, hogy az adatokkal egyező előrejelzéseket tegyenek, hanem hogy saját, nem diszkriminatív előrejelzéseket. Az egyik célnak pont az igazságosságnak kellene lennie, de ebben az emberiség szinte mindig csődöt mondott. Holott az igazságosság nagyon is pontosan meghatározható és annak alapján igenis kifejleszthető egy olyan algoritmus, amely mindig tisztességes döntéseket fog hozni. Ehhez azonban az is kell, hogy megfelelő programozókat képezzen ki a társadalom, akik tudják, hogy mi a diszkrimináció.
Szükség van még magatartáskódexre vagy olyan törvényi szabályozásra is, amely biztosítja, hogy az algoritmusok és a mesterséges intelligencia megfelelően működnek. A kutató az utóbbival kapcsolatban példaként említette az Európai Bizottság mesterséges intelligencia irányelvét, amely előírja, hogy az algoritmusokat a lehetséges diszkriminatív eredmények elkerülése miatt tesztelni kell.