Berta Sándor
Beszédelemző algoritmus a kiberzaklatások ellen
A szoftver legnagyobb előnye, hogy felismeri az új kifejezéseket is.
A Caltech munkatársai egy olyan beszédelemző algoritmust fejlesztettek ki, amely akkor is felfigyel a közösségi portálokon megvalósított kiberzaklatásra, ha az elkövető nem alkalmaz ismert kulcsszavakat. A megoldás ugyanis képes felismerni a szavak jelentőségének megváltozását és a különböző összefüggéseket. A munka jelentős részét az integrált mesterséges intelligencia végzi, amely összehasonlítja az elhangzó szavak jelentését, ráadásul képes azokat az új fogalmakat gyorsan megtanulni, amelyeket a kiberzaklatók a közösségi fórumokban előszeretettel használnak.
Anima Anandkumar, a Caltech kutatója kijelentette, hogy a jelenleg alkalmazott algoritmusok csak a kulcsszavakból előre összeállított mondatokat képesek azonosítani, azonban ezek a mondatok gyorsan elavulnak. Folyamatosan új kifejezések bukkannak fel és a régiek jelentése megváltozik. Egy korábban komolyan gondolt kulcsszó hirtelen szarkasztikussá válhat. Ahhoz, hogy az algoritmust megtanítsák arra, hogy képes legyen kiszűrni a változásokat, egy kísérlet során az úgynevezett GloVe modellt használták. Ez egy olyan rendszer, amely a szavakat vektortérben helyezi el és jelzi, hogy mennyire vannak egymáshoz szemantikus közelségben. A mesterséges intelligencia rájön, ha egy olyan új fogalom bukkan fel, amelynek hasonló a jelentése, mint egy elavult kiberzaklatási szónak.
Az algoritmust tesztelték a Twitteren és a #MeToo fogalmat adták meg neki. A mesterséges intelligencia felismerte, hogy a #MeToo kapcsolatba hozható olyan hasonló hashtagekkel, mint az #ImWithHer és a #NotSilent. Anandkumar szerint az összefüggések pedig kulcsfontosságúak a megfelelő beszédelemzéshez. A GloVe modell ráadásul azt is figyelembe veszi, hogy melyik fórumokban alkalmazzák gyakran az adott szavakat. A female szó például egy olyan Reddit-fórumban szerepelt gyakran, amelyet a nők gyűlölete jellemzett és olyan fogalmakkal volt összefüggésbe hozható, mint a sexual és a negative. A #MeToo mozgalommal kapcsolatos tweetek esetében a mesterséges intelligencia a companies és a victims szavakra asszociált.
Korábban a Receptiviti nevű kanadai startup egy olyan szoftvert alkotott meg, amely átkutatja a beérkező elektronikus leveleket, s a használt szavak és szófordulatok alapján azt igyekszik kideríteni, hogy az e-mail feladója zaklatja-e a címzettet vagy sem. A megoldás által használt beszédelemzés bizonyos kulcsszavakra összpontosít. Az utóbbiak között vannak azok a prepozíciók, amelyek segítségével az emberek öntudatlanul is érzelmeket fejeznek ki és amelyek sokat elárulnak a leírójukról. A stresszes és depressziós felhasználók például az elektronikus levelekben gyakran használnak személyes névmásokat.
A Caltech munkatársai egy olyan beszédelemző algoritmust fejlesztettek ki, amely akkor is felfigyel a közösségi portálokon megvalósított kiberzaklatásra, ha az elkövető nem alkalmaz ismert kulcsszavakat. A megoldás ugyanis képes felismerni a szavak jelentőségének megváltozását és a különböző összefüggéseket. A munka jelentős részét az integrált mesterséges intelligencia végzi, amely összehasonlítja az elhangzó szavak jelentését, ráadásul képes azokat az új fogalmakat gyorsan megtanulni, amelyeket a kiberzaklatók a közösségi fórumokban előszeretettel használnak.
Anima Anandkumar, a Caltech kutatója kijelentette, hogy a jelenleg alkalmazott algoritmusok csak a kulcsszavakból előre összeállított mondatokat képesek azonosítani, azonban ezek a mondatok gyorsan elavulnak. Folyamatosan új kifejezések bukkannak fel és a régiek jelentése megváltozik. Egy korábban komolyan gondolt kulcsszó hirtelen szarkasztikussá válhat. Ahhoz, hogy az algoritmust megtanítsák arra, hogy képes legyen kiszűrni a változásokat, egy kísérlet során az úgynevezett GloVe modellt használták. Ez egy olyan rendszer, amely a szavakat vektortérben helyezi el és jelzi, hogy mennyire vannak egymáshoz szemantikus közelségben. A mesterséges intelligencia rájön, ha egy olyan új fogalom bukkan fel, amelynek hasonló a jelentése, mint egy elavult kiberzaklatási szónak.
Az algoritmust tesztelték a Twitteren és a #MeToo fogalmat adták meg neki. A mesterséges intelligencia felismerte, hogy a #MeToo kapcsolatba hozható olyan hasonló hashtagekkel, mint az #ImWithHer és a #NotSilent. Anandkumar szerint az összefüggések pedig kulcsfontosságúak a megfelelő beszédelemzéshez. A GloVe modell ráadásul azt is figyelembe veszi, hogy melyik fórumokban alkalmazzák gyakran az adott szavakat. A female szó például egy olyan Reddit-fórumban szerepelt gyakran, amelyet a nők gyűlölete jellemzett és olyan fogalmakkal volt összefüggésbe hozható, mint a sexual és a negative. A #MeToo mozgalommal kapcsolatos tweetek esetében a mesterséges intelligencia a companies és a victims szavakra asszociált.
Korábban a Receptiviti nevű kanadai startup egy olyan szoftvert alkotott meg, amely átkutatja a beérkező elektronikus leveleket, s a használt szavak és szófordulatok alapján azt igyekszik kideríteni, hogy az e-mail feladója zaklatja-e a címzettet vagy sem. A megoldás által használt beszédelemzés bizonyos kulcsszavakra összpontosít. Az utóbbiak között vannak azok a prepozíciók, amelyek segítségével az emberek öntudatlanul is érzelmeket fejeznek ki és amelyek sokat elárulnak a leírójukról. A stresszes és depressziós felhasználók például az elektronikus levelekben gyakran használnak személyes névmásokat.