Berta Sándor

Nem-verbális kommunikációs jeleket tanulnak a robotok

A meghajlás, az ölelés és a kézfogás most még nem értelmezhető a gépek számára.

Minél inkább integrálódnak a robotok a mindennapi életbe, annál fontosabbá válik, hogy az emberek valóban elfogadják azokat. A szociális gépeket kifejezetten arra tervezték, hogy a viselkedésükkel bizalmat keltsenek - de hogy ez pontosan hogyan működik a legjobban, még mindig kutatások tárgya. Vannak olyan egyedi modellek, mint például a Huggie, amely úgy tudja karjaiba venni az embereket, hogy azok valóban kényelmesen érezzék magukat. Eddig azonban e robotok repertoárja az egyes műveletekre korlátozódott.

A dél-koreai Elektronikai és Távközlési Kutatóintézet (ETRI) munkatársai egy olyan mesterséges intelligenciamodellt fejlesztettek ki, amelynek segítségével a gépek megtanulják, hogy hogyan lépnek kapcsolatba egymással az emberek. A mély tanuláson alapuló új modell az emberek közötti interakciók megfigyelésével tanulja meg a "kontextusnak megfelelő szociális viselkedésmódokat", például a kézfogást vagy az ölelést. A betanítás után a robot egy 3D-kamerával megfigyeli a vele interakcióban lévő ember testtartását és a modell segítségével létrehozza a megfelelő, megtanult pózt.

A Woo-Ri Ko és munkatársai által megalkotott modell a problémát egy fordítási feladathoz hasonlóan kezeli: az emberi testtartások sorozatát kell lefordítani a gép testtartásainak megfelelő sorozatra, a robot pedig minden esetben a saját testtartásával válaszol az emberi pózra. Annak megakadályozására, hogy az adott egység értelmetlen vagy akár fenyegető testtartást vegyen fel, a szakemberek egy második modullal egészítették ki a modelljüket: ebben egy generatív hálózat (GAN) először egy gesztust generál a gép számára a szekvenciamodell válaszából, de ezt aztán egy "diszkriminátor" teszteli. A robot csak akkor engedi el a gesztust, ha a "diszkriminátor" úgy ítéli meg, hogy ez a gesztus eléggé hasonlít a képzési példákban megtanult cselekvésekhez.

A tudósok kifejezetten arra képezték ki modelljüket, hogy öt nem verbális viselkedést generáljanak a gépek számára videók alapján, ezek a meghajlás, a figyelés, a kézfogás, az ölelés és az arc eltakarása. Azért, hogy teszteljék, mennyire működik ez, hagyták, hogy egy robot interakcióba lépjen egy emberrel egy szimulált környezetben és mérték a gesztusai eltérését az általuk legfontosabbnak tartott "kulcsgesztusoktól" az egyes interakciók során. A kezdeti eredmények ígéretesek, mivel a modell sikeresen generálta a betanított öt viselkedési formát - a megfelelő időpontokban. A következő szakaszban a szakemberek további viselkedési formákra szeretnék betanítani a gépeket és a modellt egy valódi robot bevonásával akarják tesztelni.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Tetsuo #1
    A verbális nem ment nekik.