Berta Sándor
Már a sakkbeszélgetéseket is rasszizmusnak tarthatja a mesterséges intelligencia
A háttérben a fekete és a fehér szavak emlegetése áll.
A sakkról folyó internetes beszélgetések gyakran gyanúsak a technológia számára, mert "a fekete a fehér ellen" és más kifejezések elhangzása rasszistának tűnhet a beszédet elemző eszközök számára. Egy ilyen eset vezetett például a YouTube esetében egy kitiltáshoz, ugyanis az alkalmazott mesterséges intelligencia rasszistának minősített egy párbeszédet. Erre az eredményre jutottak az agadmator's Chess Channel nevű YouTube-csatorna esetét megvizsgáló Carnegie Mellon Egyetem tudósai. A videomegosztó platform tavaly júniusban - állítólagos káros tartalmakra hivatkozva - 24 órára zárolta az érintett csatornához való hozzáféréseket.
Amint az a mostani vizsgálat rámutatott, a legnagyobb problémát nem is feltétlenül maguk a szavak jelentik, hanem azok összefüggései. Az érintett csatorna sakkal foglalkozik és a YouTube akkor hivatalosan nem indokolta az intézkedést.
A Carnegie Mellon Egyetem kutatói egy saját fejlesztésű gyűlöletbeszéd-algoritmus segítségével próbálták meg kitalálni, hogy a mesterséges intelligencia mely tartalmakat minősíti károsnak. Ehhez összesen öt sakkcsatorna több mint 680 000 megjegyzését tanulmányozták a szoftverrel, amellyel ezzel párhuzamosan összesen 1000 állítólagos gyűlöletbeszéd-kommentárt is megvizsgáltak. Kiderült, hogy a technológia az esetek 82 százalékában tévesen becsülte meg a szavak jelentését vagy azok összefüggéseit. A YouTube rendszerében lévő megjegyzések egyike sem tartalmazott gyűlöletbeszédet. Az algoritmus azonban a fekete, a fehér, a támadás és a fenyegetés szavakat automatikusan a rasszizmus jeleként azonosította és káros tartalmaknak minősítette.
A sakkról folyó internetes beszélgetések gyakran gyanúsak a technológia számára, mert "a fekete a fehér ellen" és más kifejezések elhangzása rasszistának tűnhet a beszédet elemző eszközök számára. Egy ilyen eset vezetett például a YouTube esetében egy kitiltáshoz, ugyanis az alkalmazott mesterséges intelligencia rasszistának minősített egy párbeszédet. Erre az eredményre jutottak az agadmator's Chess Channel nevű YouTube-csatorna esetét megvizsgáló Carnegie Mellon Egyetem tudósai. A videomegosztó platform tavaly júniusban - állítólagos káros tartalmakra hivatkozva - 24 órára zárolta az érintett csatornához való hozzáféréseket.
Amint az a mostani vizsgálat rámutatott, a legnagyobb problémát nem is feltétlenül maguk a szavak jelentik, hanem azok összefüggései. Az érintett csatorna sakkal foglalkozik és a YouTube akkor hivatalosan nem indokolta az intézkedést.
A Carnegie Mellon Egyetem kutatói egy saját fejlesztésű gyűlöletbeszéd-algoritmus segítségével próbálták meg kitalálni, hogy a mesterséges intelligencia mely tartalmakat minősíti károsnak. Ehhez összesen öt sakkcsatorna több mint 680 000 megjegyzését tanulmányozták a szoftverrel, amellyel ezzel párhuzamosan összesen 1000 állítólagos gyűlöletbeszéd-kommentárt is megvizsgáltak. Kiderült, hogy a technológia az esetek 82 százalékában tévesen becsülte meg a szavak jelentését vagy azok összefüggéseit. A YouTube rendszerében lévő megjegyzések egyike sem tartalmazott gyűlöletbeszédet. Az algoritmus azonban a fekete, a fehér, a támadás és a fenyegetés szavakat automatikusan a rasszizmus jeleként azonosította és káros tartalmaknak minősítette.