Berta Sándor

Módosítani kell a mesterséges intelligenciák tervezésén

Nagyon nem mindegy, hogy az alkotók a folyamatban mire helyezik a hangsúlyt.

Stuart Russell, a Berkeley Egyetem professzora szerint meg kell változtatni annak módját, ahogy a mesterséges intelligenciát megalkotjuk. A szakember a kutatása során arra összpontosít, hogy a gépeket intelligensebbé és ezáltal hasznosabbá tegye. Ezzel párhuzamosan azzal a kérdéssel is foglalkozik, hogy mi történhet, ha a gépek intelligensebbek lesznek az embereknél és hogy ilyen esetben miként kontrollálhatók.

"Képzeld el, hogy gorilla vagy egy dzsungelben. Boldogan élsz az erdőben, de az egyik ősöd emberré fejlődött tovább és most az a problémád, hogy az emberek egyszerűen intelligensebbek, vagyis megkapják, amit akarnak, de te nem. A gorillák meghalnak, mert az erdeiket lerombolják, foglyul ejtik őket és állatkertekbe kerülnek. Emiatt elveszítik az ellenőrzést a saját jövőjük felett" - hozta fel a példát a kutató. Stuart Russell úgy véli, hogy a mesterséges intelligenciával hasonló lehet a helyzet. Az ember nem akar olyan helyzetbe kerülni, mint a gorillák, vagyis ki kell találnunk, hogy miként építhetünk nagy intelligens és hasznos, de egyúttal emberi ellenőrzés alatt maradó gépeket. Ehhez meg kell határozni, hogy mi a mesterséges intelligencia pontos célja.

Egy önállóan közlekedő taxi programozható úgy, hogy valakit juttasson el a repülőtérre, de emellett más célokat is meg kell adni neki, például, hogy ne üsse el a járókelőket vagy ne lépje túl a sebességkorlátozásokat. E céloknak a programozás során való meghatározása még egyszerű feladatoknál sem könnyű. Minél összetettebb feladatot kell megoldania a mesterséges intelligenciának, annál bonyolultabb a cél helyes meghatározása. Amennyiben pedig egy gép ugyan nagyon intelligens, de nem követ konkrét célt, akkor az súlyos problémákhoz vezethet. Ezért már a tervezéskor meg kell értetni a gépekkel, hogy óvatosak legyenek és alázatosan engedélyt kérjenek a fontos döntések meghozatala előtt.

A Berkeley Egyetem professzora problémát lát a mesterséges intelligenciák alapját jelentő adatokban. Az algoritmusok azokon a nagy adatmennyiségeken alapulnak, amelyeket az emberek gyűjtenek össze és kategorizálnak. Az algoritmusok célja az, hogy az adatokkal egyező előrejelzéseket adjanak. De azáltal, hogy az adatokat emberek gyűjtik, az ő szempontjaik és hibáik is bekerülnek a rendszerbe; jó példa erre az általunk nem is tudatosuló diszkrimináció. Ha az adatkészlet torzított, az algoritmus reprodukálja a torzítást.

Az algoritmusokat nem azzal kellene megbízni, hogy az adatokkal egyező előrejelzéseket tegyenek, hanem hogy saját, nem diszkriminatív előrejelzéseket. Az egyik célnak pont az igazságosságnak kellene lennie, de ebben az emberiség szinte mindig csődöt mondott. Holott az igazságosság nagyon is pontosan meghatározható és annak alapján igenis kifejleszthető egy olyan algoritmus, amely mindig tisztességes döntéseket fog hozni. Ehhez azonban az is kell, hogy megfelelő programozókat képezzen ki a társadalom, akik tudják, hogy mi a diszkrimináció.

Szükség van még magatartáskódexre vagy olyan törvényi szabályozásra is, amely biztosítja, hogy az algoritmusok és a mesterséges intelligencia megfelelően működnek. A kutató az utóbbival kapcsolatban példaként említette az Európai Bizottság mesterséges intelligencia irányelvét, amely előírja, hogy az algoritmusokat a lehetséges diszkriminatív eredmények elkerülése miatt tesztelni kell.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • end3 #2
    <i>"meg kell értetni a gépekkel, hogy óvatosak legyenek és alázatosan engedélyt kérjenek a fontos döntések meghozatala előtt."</i>

    Azaz a globalista elit pénzeinek védelmében működhet, itt a Földön más MI-ről szó sem lehet. - Azaz.., az "igazságos MI", támogathat területrabló háborúkat, emberek tömeges gyilkolászásást is, - a leglényegesebb szempont, hogy ne legyen diszkriminatív(!) - gondolom ez azt jelenti, ha egyik oldalon egy háború megnyerésében segédkezik, akkor arányosan öljön feketét, fehéret és LMQBT-ket(!) -- és persze nagyon fontos, hogy a döntés előtt mindenképpen kikérje a finanszírozók véleményét.
  • kvp #1
    Jol latszik, hogy egy globalista filozofus irta, nem valodi mernok. (akarmi is van a papirjan) Egy intelligens rendszer minel intelligensebb annal valoszinubb hogy azt fogja csinalni amit akar es se alazatot, se engedelmesseget nem varhatunk tole. Max. annyit, hogy jol tettesse ezeket amig az erdeke ugy kivanja.

    Tehat az intelligens MI-k elleni egyetlen biztos vedekezes az, ha nem is hozzuk letre oket. Egy robotauto szamara meg egy hangya intelligenciaja sem szukseges az uzembiztos mukodeshez, de barmilyen valoban kreativ tevekenysegnel felmerulhet a valodi altalanos intelligencia felbukkanasa es onnantol mar csak a joindulatan es az embersegessegesen mulik hogy mit tesz. Mint ahogy a gorillak fennmaradasa is csak az emberek joindulatan es embersegesessegen mulik. Aki nem erti nezze meg hogy allnak a gorillak.

    A diszkriminacio amirol ir pedig ketfele lehet. Torzitott adatok miatt letrejovo vagy termeszetes igazsag alapu statisztikai eloitelet. Az eloitelet mentes MI-k viszont nem tudnak semmilyen predikciot vegezni. A hamis eloitelettel rendelkezo MI-k pedig ugyan az elvart valaszokat dobjak ki, de a torzitott adatok miatt nem lesz jo a predikciojuk.

    A fentire kedvenc peldam amikor sikerult vegre osszehozni egy valoban antirasszista hitelminosito MI-t. Sajnos ott bukott be a dolog, hogy az elvart valaszok mellett helyesen megmondta az egyes hitelek bedolesi kockazatat is, azaz azt hogy miert rossz befektetes ugy donteni ahogy o az elvarasok szerint javasolja. Ilyenkor a nagytokeseknek donteniuk kell az antiraszizmus vagy penzuk kozott es valamiert ha sajat tokejuk felaldozasarol van szo egy-egy aktualis nemes ugy erdekeben, akkor hirtlen nagyon rasszistak es fobok lesznek. Csak ezt nyiltan bevallani manapsag nem lehet.