Beszédelemző algoritmus a kiber­zaklatások ellen

A szoftver legnagyobb előnye, hogy felismeri az új kifejezéseket is.

A Caltech munkatársai egy olyan beszédelemző algoritmust fejlesztettek ki, amely akkor is felfigyel a közösségi portálokon megvalósított kiberzaklatásra, ha az elkövető nem alkalmaz ismert kulcsszavakat. A megoldás ugyanis képes felismerni a szavak jelentőségének megváltozását és a különböző összefüggéseket. A munka jelentős részét az integrált mesterséges intelligencia végzi, amely összehasonlítja az elhangzó szavak jelentését, ráadásul képes azokat az új fogalmakat gyorsan megtanulni, amelyeket a kiberzaklatók a közösségi fórumokban előszeretettel használnak.

Anima Anandkumar, a Caltech kutatója kijelentette, hogy a jelenleg alkalmazott algoritmusok csak a kulcsszavakból előre összeállított mondatokat képesek azonosítani, azonban ezek a mondatok gyorsan elavulnak. Folyamatosan új kifejezések bukkannak fel és a régiek jelentése megváltozik. Egy korábban komolyan gondolt kulcsszó hirtelen szarkasztikussá válhat. Ahhoz, hogy az algoritmust megtanítsák arra, hogy képes legyen kiszűrni a változásokat, egy kísérlet során az úgynevezett GloVe modellt használták. Ez egy olyan rendszer, amely a szavakat vektortérben helyezi el és jelzi, hogy mennyire vannak egymáshoz szemantikus közelségben. A mesterséges intelligencia rájön, ha egy olyan új fogalom bukkan fel, amelynek hasonló a jelentése, mint egy elavult kiberzaklatási szónak.

Az algoritmust tesztelték a Twitteren és a #MeToo fogalmat adták meg neki. A mesterséges intelligencia felismerte, hogy a #MeToo kapcsolatba hozható olyan hasonló hashtagekkel, mint az #ImWithHer és a #NotSilent. Anandkumar szerint az összefüggések pedig kulcsfontosságúak a megfelelő beszédelemzéshez. A GloVe modell ráadásul azt is figyelembe veszi, hogy melyik fórumokban alkalmazzák gyakran az adott szavakat. A female szó például egy olyan Reddit-fórumban szerepelt gyakran, amelyet a nők gyűlölete jellemzett és olyan fogalmakkal volt összefüggésbe hozható, mint a sexual és a negative. A #MeToo mozgalommal kapcsolatos tweetek esetében a mesterséges intelligencia a companies és a victims szavakra asszociált.

Korábban a Receptiviti nevű kanadai startup egy olyan szoftvert alkotott meg, amely átkutatja a beérkező elektronikus leveleket, s a használt szavak és szófordulatok alapján azt igyekszik kideríteni, hogy az e-mail feladója zaklatja-e a címzettet vagy sem. A megoldás által használt beszédelemzés bizonyos kulcsszavakra összpontosít. Az utóbbiak között vannak azok a prepozíciók, amelyek segítségével az emberek öntudatlanul is érzelmeket fejeznek ki és amelyek sokat elárulnak a leírójukról. A stresszes és depressziós felhasználók például az elektronikus levelekben gyakran használnak személyes névmásokat.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • end3 #2
    Szerintem itt az ideje, hogy a kamerák és mikrofonok kikapcsolhatósága minden legyártott emberi eszközben, a Föld összes államának alkotmányában általános emberi jogként kerüljön meghatározásra. (Nyilván nem a közrend fenntartását célzó, nyilvánosan telepítettekre vonatkozóan. - És amelyik gyártó ezt nem veszi komolyan, véresen szénné, halálra büntetni.)
    Utoljára szerkesztette: end3, 2020.01.16. 12:57:59
  • duke #1
    "Beszédelemző algoritmus a kiber­zaklatások ellen"

    Ha jol ertem, akkor mostmar nem finomkodnak, hanem mindent rogziteni elemezni tarolni fognak, persze mindezt az emberek megvedese miatt. Nyilvan meg veletlenul sem azert, hogy barki barmikor befolyasolhato, zsarolhato, fenyegetheto legyen, akar evtizedek mulva is.