Berta Sándor

Beszélni kell az algoritmusok szerepéről

A mindennapi életünk részévé váltak az algoritmusok, amelyek a tőzsdéktől a harcterekig egyre több döntést hoznak meg.

Carla Hustedt politológus a berlini Bertelsmann Alapítványnál az Algoritmusok etikája nevű projekt munkájában vesz részt. A szakember az üzleti logikák növekvő szerepét kutatja. Hustedt nem hiszi, hogy a gépi segítséggel meghozott döntések trendjét fel lehetne tartóztatni, éppen ezért úgy véli, hogy a megoldás a minél szélesebb vita lehet a lehetséges következményekről és a kidolgozandó keretfeltételekről, mert csak így lehet megakadályozni a negatív hatásokat.

A Harvard Business School kutatói megállapították, hogyha személyes tanácsokról van szó, akkor sokan jobban bíznak a számítógépes döntésekben, mint a barátaikban vagy az ismerőseikben. Sőt, már abban a kérdésben is inkább a gépi vélemény a mérvadó, hogy egy személy mennyire vonzó.
"Az algoritmusok nem olyan dolgok, amelyekkel csak a távoli jövőben kellene foglalkoznunk, hiszen már most is minden egyes nap gépek döntenek az emberek életéről, például hogy melyik egyetemen tanulhatnak a diákok tovább, merre járőrözzenek a rendőrök, kik kaphatnak hitelt és az állásinterjúk során kit hívjanak meg egy előzetes beszélgetésre. Ideális esetben ezek a döntések következetesebbek és ezért tisztességesebbek, mint az emberek gyakran átláthatatlan határozatai. Ráadásul az embereket befolyásolják az előítéletek és nem tudják kezelni a nagy adatmennyiségeket. Az algoritmusok ezért nagy esélyt jelentenek az egész társadalom számára, de csak akkor profitálunk azokból, ha megfelelőek a keretfeltételek."

"Miközben az algoritmusok ezredmásodpercek alatt képesek új információkat feldolgozni, azt sem szabad elfelejteni, hogy ugyanilyen gyorsan hibákat is elterjeszthetnek. Az emberek is tévednek, de ha ezt egy gép teszi, az sokkal több személyt érint. Ausztráliában például az adószoftver megvizsgálja, hogy az embereknek milyen összegeket kell visszafizetniük. A rendszer hetente 20 000 felszólítást küld ki. Ugyanerre az illetékes minisztériumnak korábban egy évre volt szüksége. Cserébe viszont sokkal több a hiba. Ez a rendszer hatékonyságának az egyik árnyoldala. Azokon a területeken, ahol az algoritmusok az emberek életéről döntenek, óvintézkedéseket kell tenni, többek között tesztelni kell a megoldásokat még azelőtt, hogy azokat használnák. Emellett tisztában kell lenni azzal is, hogy az elérhető adatok nem teljesek, sőt, hibásak is lehetnek" - jelentette ki Carla Hustedt.


Carla Hustedt

A politológus hozzátette, hogy 2003-ban az automatizált kereskedelem aránya még csak 15 százalék volt, most pedig már körülbelül 90 százalék. Az egyes piaci szereplők egyre inkább össze vannak kötve egymással és a digitális kereskedőhelyek száma az elmúlt években rendkívül nagy mértékben nőtt. Az ellenőrzést végző hatóságok ezekkel a fejleményekkel nem tudnak lépést tartani. Ahhoz, hogy ez megvalósuljon, plusz munkatársak és erőforrások kellenének. De hozzáférésre lenne szükség a kereskedelmi algoritmusok kódjaihoz is, hogy kiderüljön, milyen feltételek alapján hozzák meg a vásárlási döntéseiket.

Ahhoz, hogy az egész ellenőrzés valós időben megvalósulhasson, alapvetően módosítani kell a felhasználók gondolkodását. A politikának meg kell vizsgálnia, hogy a jelenlegi szabályozások megfelelőek-e és hol van szükség új szabályokra. Szerencsére egyre bővebb az a kutatási terület, amely az algoritmusokra épülő rendszerek auditálásával foglalkozik. A Bertelsmann Alapítványnál azzal foglalkoznak, hogy kifejlesszenek egy követelménykatalógust az algoritmusos eljárásokhoz. Olyan dolgokról van szó, mint a következménybecslés, az adatminőség dokumentálása és a kompatibilitási vizsgálatok.

Pont azért, mert nem lehet minden gépi vagy algoritmusos döntést ellenőrizni, bizalmat kell ébreszteni a szoftveres döntéshozatal iránt. Továbbá társadalmi vitát kell kezdeményezni e témákról, például arról, hogy kell-e határok közé szorítani az algoritmusok alkalmazását. Szintén beszélni kell a lehetséges tilalmakról. Az automata fegyverrendszereknél ez már zajlik, más területeken még nem. Felmerülhet akár az is, hogy bizonyos rendszereket szándékosan lebutítanak vagy hogy bizonyos területeken nem használnak öntanuló algoritmusokat.


Milyen logika alapján dől el a sorrend a Facebook profilunkon vagy hogy a Google melyik hírt sorolja az első helyre?

A vállalatok hajlamosak arra, hogy túl bonyolult rendszereket alkalmazzanak, mert a legjobb megoldást akarják, ami elérhető a piacon. Kétséges esetekben viszont a hasonló funkciókat kínáló rendszerek közül azt kell előnyben részesíteni, amely kevésbé összetett és könnyebben érthető. Jó példa erre az észak-rajna-vesztfáliai bűnügyi hivatal döntése egy bűncselekményeket előrejelző rendszer kapcsán. Akkor egy döntési fa algoritmus, valamint egy neurális hálózat közül kellett választani. Mind a két megoldást tesztelték és kiderült, hogy hasonló előrejelzési minőséget produkáltak, de végül a hivatal az előbbit választotta, mert a döntései átláthatóbbak és jobban követhetőbbek voltak.

Katarina Barley német igazságügyi és fogyasztóvédelmi miniszter júniusban jelezte, hogy tájékoztatná a felhasználókat arról, hogy egy adott üzleti logika a világhálón miért sorolja be őket bizonyos kategóriákba. A politikus azt akarja elérni, hogy európai uniós szinten is átláthatóbbak legyenek az internetes algoritmusok, s ezzel kapcsolatban megfelelő szabályozást kell kidolgozni és hatályba léptetni.
"Németországban a bűnözők azonosítására szolgáló arcfelismerő rendszereket eddig csak tesztelték. Ez rövid vitát váltott ki, ami azután gyorsan le is zárult. Ez egy hihetetlenül érzékeny terület, amely mögött olyan veszélyek rejtőznek, amelyekkel nem vagyunk tisztában. Az MIT-n most folyik a Gender Shades nevű projekt, amelynek keretében kiderült, hogy az arcfelismerő rendszerek az afroamerikai férfiak és nők esetében sokkal rosszabbul működnek. Ennek már most is hatásai vannak az emberek életére, hiszen ezeket a megoldásokat használják például a repülőtéri útlevél-ellenőrzések során. Az afroamerikai embereket eleve az átlagosnál gyakrabban választják ki az átfogóbb ellenőrzésekre. Ez a probléma csak súlyosbodhat az arcfelismerő szoftverek alkalmazása miatt."

"Arra kellene összpontosítani, hogy mi a társadalom szempontjából észszerű és nem pedig arra, hogy mi lehetséges műszakilag. A vitát túl gyakran a hollywoodi forgatókönyvek befolyásolják. Ezáltal viszont elfelejtik azt, hogy a valódi veszély nem a technika, hanem a felhasználásának a módja. Végső soron az emberek és nem a törvényhozók azok, akik döntenek arról, hogy a biztonság fontosabb-e a szabadságnál vagy a magánélet védelménél. A külföldi projektek megvizsgálása nem árthat, mert segít abban, hogy emlékezzünk arra, hogy mi az, ami még van nekünk és amivel mások már nem rendelkeznek."

"Jelenleg egyébként nem e rendszerek intelligenciája, hanem butasága jelent problémákat. Ne felejtsük el, hogy olyan emberek készítik el és alkalmazzák azokat, akik maguk sem tökéletesek. Az tisztázatlan, hogy valaha létezni fog-e olyan mesterséges intelligencia, amely annyira intelligens, mint az ember. Sok tudós ezt kétségbe vonja. A vitáknak elsősorban a már most is meglévő kockázatokkal kell foglalkozniuk"- ecsetelte a Bertelsmann Alapítvány munkatársa. A szakember végül hangsúlyozta, hogy a tudás és az adatok is koncentrálódnak. Szükség van arra, hogy számos rendszer, fejlesztő és üzemeltetési modell legyen, különben az emberek szisztematikus diszkriminálása fenyeget. A mesterséges intelligencia területén elért fejlődések elsősorban az erősebb hardvereknek és a hatalmas adatmennyiségeknek köszönhetők.


Az online adatforgalom 75 százaléka a Google és a Facebook használatából adódik. Ezek a cégek hatalmas adatkincseken ülnek és nem osztják meg azokat senkivel. Ez egy olyan pont, amikor közbe kell avatkozni. Amennyiben az emberiség sokszínűségre vágyik, akkor az információkat hozzáférhetővé kell tenni. Ez nem csak a nyilvánosság által generált, hanem a cégek tulajdonában lévő adatokra is vonatkozik. Csak így lehet elősegíteni az innovációt. Emellett az államnak nem csupán szabályoznia kell a területet, hanem például a közjót szolgáló mesterséges intelligencia fejlesztések esetében jó példát is kell mutatnia.

Minden olyan társaság esetében, amely adatokkal sok pénzt keres, világos határokra és szabályokra van szükség. Ebben a kérdésben az első fontos lépés a május 25-én hatályba lépett új európai uniós adatvédelmi irányelv, amely viszont az algoritmusok alkalmazására csak nagyon felületesen tér ki. A rendelet például csak a teljesen automatizált és nem a döntéseket támogató rendszerekre vonatkozik. De mindettől függetlenül bebizonyosodott, hogy igenis lehetségesek az európai megoldások.

Az adatvédelmi kérdésekre már nem lehet nemzeti válaszokat adni. Az új adatvédelmi irányelv az első olyan szabályozás, amely a techvállalatokat a határokon átnyúlva is felügyelet alá helyezi és ezért akár globális szabvánnyá is válhat. A biztonság viszont egy teljesen más kérdés, mert ott jelen van az ilyen rendszereket használó fejlesztők és a szervezetek felelőssége is. Szerencsére egyre több pénzt fektetnek be a kutatásba és egyre több olyan üzleti modellt fejlesztenek ki, amelyeknél az adatbiztonság a működés kulcseleme. Mindez nem csoda, hiszen a vállalkozásoknak is az az érdekük, hogy az adataik és az algoritmusaik védettek legyenek az illegális külső hozzáférésekkel szemben.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • ostoros #15
    Majd később kifejtem neked, hazugságonként, most erre nincs időm.
  • Sydra #14
    Jó hát feleselhetsz a végtelenségig, értelme továbbra sincs.
  • ostoros #13
    Minden mondat hazugság, elejétől a végéig.
    A kezdeti állítástól kezdve a következtetésen át minden. Némelyik mondat több hazugságot is tartalmaz egyszerre.

    És még valami. Nem te fogod megmondani, ki mit írhat, sem azt hogyan. További jó hazudozást. :)
    Utoljára szerkesztette: ostoros, 2018.10.11. 14:49:34
  • Sydra #12
    Melyik része hazugság? Hogy idén először az emberiség 50%-a már nem mélyszegény? Vagy hogy a szabad piac terjedésével növekszik a jólét? Vagy hogy a tömeges erőszak mindig a tömegek elszegényedéséhez vezet? Ezek evidenciák! A jövőben ha nem tudsz valamit, vádaskodás helyett inkább tanulj meg kérdezni!
  • ostoros #11
    Hazugság.
  • Sydra #10
    "gátat szabjunk-e a profitéhségnek"
    A "profitéhség" miatt idén az emberiség 50%-a már nem él mély szegénységben. A történelem során soha nem volt ekkora jó lét. A szegénység mindig abból ered, mikor az egyik ember erőszakosan beleokoskodik a másik dolgaiba és ez miatt sérül a személyes felelősség elve és lehet mások kárára élni.
  • hypno #9
    "...Azokon a területeken, ahol az algoritmusok az emberek életéről döntenek, óvintézkedéseket kell tenni, többek között tesztelni kell a megoldásokat még azelőtt, hogy azokat használnák. Emellett tisztában kell lenni azzal is, hogy az elérhető adatok nem teljesek, sőt, hibásak is lehetnek"

    Ezzel speciel feltalálta a csövön a lyukat.
  • Cat #8
    "elbaxott üzletpolitikából, tisztességtelen kereskedelemből"

    A kérdés itt is ugyanaz, mint mindenhol, hogy mit tehet meg egy cég, gátat szabjunk-e a profitéhségnek. Nyilván nem a szoftver, hanem az azt beállító munkatárs (illetve a jóváhagyó vezetőség) a felelős, de míg egy boltban az orrod előtt ott van az árcédula, a weben nincs. Van bárhol a világon, bármely országban olyan hatóság, amely a cikkben említett eseteknél (hitelbírálat, álláskeresés stb.) vizsgálja az esetleges diszkriminációt? Én nem tudok ilyenről, és nem vagyok biztos benne, hogy ez jól van így.

    Vadnyugat van, és amíg nem robban ki széles tömegeket érintő nagy botrány, addig így is marad.
  • NEXUS6 #7
    Próbavásárlás?

    Ne keverjük össze a dolgokat, az adott példád nem az algoritmusok használatából, hanem egy elbaxott üzletpolitikából, tisztességtelen kereskedelemből fakad. Szerintem nincs általános etikai alapelv, ami csak és kizárólag az algoritmusok használatára lenne érvényes. Ha egy piaci szereplő eddig gyökérkedett azt eddig is megtehette, max algoritmusokkal még hatékonyabban megteheti, de nem az algoritmusok használatát általában kell korlátozni, hanem a gyökérkedést.
  • Cat #6
    "Erre általános etikai, jogi elveket kidolgozni tök hülyeség"

    Például jelenleg senki nem vizsgálja, hogy egy webshopban egy adott áru mindenkinek ugyanannyiba kerül-e, vagy éppen a kereskedő cég az Apple gépekről érkező vásárlóknak drágábban adja. Lehet ilyet csinálni? Védekezhet a cég azzal, hogy a többieknek ad kedvezményt? Hogy derülhet ki ilyen dolog a véletlenen kivül, ha nem auditálja az algoritmust egy harmadik fél?