Berta Sándor

Semmit nem tudnak az emberek az algoritmusokról

Üzleti logika dolgozik a hitelbírálattól kezdve az álláskeresésen át az eboltok árazásáig. Egy reprezentatív felmérésből kiderült, hogy a kontinens lakói tartanak e megoldásoktól; az eredmény várható volt, egy átlagember mit sem tud erről.

A Bertelsmann Alapítvány a felmérése keretében arra volt kíváncsi, hogy mit gondolnak az európai felhasználók az automatikus döntéshozási folyamatokról, mennyire tartják azokat veszélyeseknek és hasznosnak. A megkérdezett európaiak közel fele azt sem tudta, hogy mik az algoritmusok és csupán a 8 százalékuk mondta azt, hogy viszonylag jártas a témában. Csak keveseknek volt valami elképzelésük arról, hogy hol és milyen módon alkalmaznak a cégek gépi döntéshozatalt. A leginkább arra gondoltak az emberek, hogy a személyre szabott reklámok vagy a társkereső platformok használják ezeket a megoldásokat. Sokkal kevesebb felhasználónak jutott eszébe az, hogy az álláskeresések vagy a betegségek diagnózisa során is komoly szerepet kaphatnak. A válaszolók egyötöde nyilatkozta azt, hogy egyáltalán nincs elképzelése az algoritmusok alkalmazási területéről.

Jörg Dräger, a Bertelsmann Alapítvány vezetője közölte, hogy az európai emberek túl keveset tudnak az algoritmusokról, miközben azok a mindennapi élet szempontjából egyre meghatározóbbak. Minden egyes nap gépek döntenek az emberek életéről, például hogy melyik egyetemen tanulhatnak a diákok tovább, merre járőrözzenek a rendőrök, kik kaphatnak hitelt és az állásinterjúk során kit hívjanak meg egy előzetes beszélgetésre. Többek által ismert, hogy titok mi alapján működik a YouTube ajánlórendszere, a Google találati listája, a Facebook-falunkon megjelenő hírek sorrendje - megváltoztatásuk nem egyszer cégeket döntött csődbe.

A lengyelek 11 százaléka közölte azt, hogy sokat tud az algoritmusokról és csak 3 százalékuk félt rájuk bízni magát. A franciáknak viszont a 21 százaléka félt a gépi döntésektől. A legkevesebbet a britek tudtak az algoritmusokról, egynegyedük még csak nem is halott azokról. Az európaiaknak pedig a 34 százaléka nem tudta, hogy miként viszonyuljon az algoritmusokhoz. Dräger szerint az eredmények világossá teszik, hogy szükség van összeurópai vitára és stratégiára az algoritmusok és a mesterséges intelligencia használata kapcsán.

Érdekesség, hogy a megkérdezettek 46 százaléka optimista volt az algoritmusokkal kapcsolatban és több előnyt, mint hátrányt látott a használatukban, míg 20 százalékuk vélte úgy, hogy negatív hatással jár az alkalmazásuk. A megoldásokat jól ismerőknél és a képzettebb embereknél magasabb volt az optimisták aránya. A megkérdezettek többsége leginkább annak örült volna, ha az algoritmusokat olyan területeken használnák, ahol nem érintik közvetlenül az emberek életét, például az automatikus helyesírás-ellenőrzés során vagy a navigációs rendszerekben. A válaszolók 64 százaléka nem érzi magát jól akkor, ha a számítógépes rendszerek emberi részvétel nélkül hoznak döntéseket róluk.

A megkérdezettek háromnegyede akarta, hogy jobban ellenőrizzék e programokat. Az emberek azt szerették volna, hogy az algoritmusokra épülő döntések könnyebben érthetők és követhetők legyenek, s joguk legyen arra, hogy ezeket a döntéseket egy ember is átvizsgálhassa. Észszerűnek tartottak volna egy jelölési kötelezettséget is, aminek köszönhetően átláthatóbbak lehetnének, hogy mikor, hol és hogyan születnek meg a számítógépekkel hozott döntések. Dräger osztotta a felhasználók véleményét az ellenőrzések fontosságáról és azt hangsúlyozta, hogy e területen elsősorban az Európai Uniónak kellene lépnie. Az EU-nak globális szereplőként meg kell találnia a saját útját az algoritmusok korszakában.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • molnibalage83 #17
    Pofád nagy. Megszoktam.
  • VolJin #16
    Elég tragikus, ha önéletrajzokról és hitelekről algoritmusok döntenek. Nem tartom kispályásnak sem a google-t, sem a facebookot, az algoritmusaik viszont egyenesen szarok. főleg az öntanulók. Egy monoton zsákutca felé visznek.
    Az skf kiterjesztésű dokumentumot szerettem volna megnyitni, és rákerestem az skf kifelyezésre. Napokig csapágyokról dobott be reklámot, mert van egy SKF nevű svéd csapágygyár.
    Egy pornóoldalon nagyon beszűkült a honlapra feldobott videók stílusa, mert a saját ajánlásai miatt egy irányba terelt, és gyakorlatilag már csak olyanokat dob fel, hogy a mostoha testvérek vagy a mostohamami a fiúval basznak, szopnak, ilyesmi.
  • cateran #15
    Nezzenek oda...mar megint okoskodsz es megint ugy, hogy fingod nincs a temarol, csak hallottal valakirol, aki latott valakit, aki olvasta a dolgot....Termeszetesen nem lenne vegtelen hurok, mivel az 1. torveny felulbiralna a 2.-at. Mondjuk as Asimov-fele torvenyek valoban hianyosak, csak nem ugy, ahogy te almodtad.
    Ami elkeseritobb, hogy tele az internet olyan velemenyekkel, mint pl "Roboticist Daniel Wilson was a bit more florid. “Asimov’s rules are neat, but they are also bullshit. For example, they are in English. How the heck do you program that?”" Jajj...vilagosan le van irva, hogy a torvenyek valojaban komplex matematikai formulak, amik ezeket a torvenyeket eredmenyezik...de az sem gyenge, hogy "You don’t arm a Reaper drone with a Hellfire missile or put a machine gun on a MAARS (Modular Advanced Armed Robotic System) not to cause humans to come to harm. That is the very point!" Dupla jajj...
    Ahogy irtam, a torvenyek valoban nem igazan eletszeruek, de nem az ilyen indokok miatt...
    (Legtrivialisabb, amire maga Asimov is ramutatott, az 1. torvenyben van: "1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen." No, de mifele kart? Fizikai? Vagy erzelmi is? Erkolcsi?)
  • fejlodes #14
    Biztos vagyok benne, hogy nagyon nehéz vagy szinte lehetetlen leprogramozni ezt az Asimov robotikai 3 törvényt, de az elméleti szabályai nagyon jók és követendőek, valamint ha szükséges még kiegészíthetőek ezek a szabályok. Az hogy ember okoz kárt embernek az független a robotoktól. De a robotokra mindig igaznak kellene lennie a 3 törvénynek. Tudom, hogy nincs 100%-os biztonság, de minél biztonságosabb rendszereket kell kialakítani a gépekkel.
    "Onnantol viszont problemas, mert komplex tervezes kell ahhoz hogy aktivan tegyen valamit ami meg a legtobb ember szamara is sokszor problemas." Szóval onnantól problémás hogy aktívan tegyen valamit a robot, hogy az ember ne szenvedjen kárt. Itt is arról van szó, hogy ember okoz kárt embernek vagy az ember saját magának. Ezt nyilvánvalóan nagyon nehéz előrejelezni vagy megakadályozni. Az emberi károkozás előrejelzéséhez ha SZÁNDÉKOS károkozásról van szó, akkor az ember külső viselkedését kellene nagyon pontosan elemezni vagy az emberi agyban kellene kutakodni, de én nem szeretnék olyan világban élni ahol tudják azt, hogy mire gondolok. A NEM SZÁNDÉKOS emberi károkozás megakadályozásához pedig a jövőbe kellene látni, ami (szinte) lehetetlen, de a károkozás valószínűségét és negatív hatásának mértékét lehet csökkenteni. Pl: autóbalesetek, amennyiben az egyik autót ember vezet a másikat gép.
  • kvp #13
    Asimov torvenyeivel az a gond hogy a nem karokozast konnyu leprogramozni, ha atirjuk ugy hogy semmiben ne tegyen kart. Onnantol viszont problemas, mert komplex tervezes kell ahhoz hogy aktivan tegyen valamit ami meg a legtobb ember szamara is sokszor problemas. Az utasitasok kovetese (barmilyen karokozas nelkul) es a vigyazzon magara mar egyszeru.

    Hozzatennem egy neuralis halozat programja ugyanugy olvashato emberileg mint barmilyen adatvezerelt rendszere es irni is lehet kezzel, tanitas helyett. Anno en irtam 7 retegu reszlegesen feedback-es cellularis matrixokat. Nem akkora tudomany...
  • fejlodes #12
    "...vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen." Emiatt elvileg megakadályozná az ámokfutót, persze ehhez valahogy előre kéne látnia a jövőt. Az első törvény erősebb a többinél ezért nincs hurok.
    Viszont abból valóban probléma lehetne ha egyszerre több embertől kapna hasonló utasításokat a robot akkor kire hallgatna, de emberi lényben kár nem keletkezhetne elvileg akkor sem.
  • molnibalage83 #11
    Sehogy, és maguk a törvények is hiányosak ebben a formában. Pl. ezeket alkalmazva egy ámokfutó gyilkost sem szerelhetne le, mert végtelen hurokba kerülne...

    Sci-fi könyvekből ne induljunk ki akkor sem, ha populárisak. A Holdutazás során sem Verne könyve volt az alap...
    Utoljára szerkesztette: molnibalage83, 2019.02.09. 11:27:24
  • fejlodes #10
    Jó volt a videó köszi, hogy megmutattad. Az algoritmusok nyilvánvalóan hasznosak de sok esetben azért fontos az emberi döntéshozatal. Például erkölcsi döntésekben, háborúk során. A gépeknek szolgálniuk kell az embereket, de az embereknek kell irányítaniuk.
    Isaac Asimov már megalkotta a robotika 3 törvényét: (Én a robot című film ezzel kezdődik Will Smith a főszereplője.)
    1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
    2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
    3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.
    Más (de óriási) kérdés hogyan lehetne ezeket a törvényeket leprogramozni
  • molnibalage83 #9

    Utoljára szerkesztette: molnibalage83, 2019.02.09. 10:53:03
  • tom_pika #8
    Hát igen, a neurális hálózatokkal pont az csúszik ki a kezünk közül, hogy értsük, pontosan hogyan is működik a dolog. Mire meglesz az MI, pont úgy nem fogunk belelátni, mint egy másik ember fejébe. Csak sejteni fogjuk, hogy adott körülmények között milyen reakció várható tőle.