SG.hu

Egy MI-vezérelt drón kiiktatta irányítóját egy szimuláció során

Az amerikai hadsereg egyik szimulációja során egy mesterséges intelligencia által vezérelt drón - annak érdekében, hogy teljesíteni tudja a megbízatását - váratlanul úgy döntött, hogy kiiktatja a vezetőjét, hogy ne tudjon beavatkozni - írta a The Guardian egy amerikai ezredes beszámolójára hivatkozva. Mivel virtuális gyakorlatról volt szó, ténylegesen nem esett bántódása senkinek.

Tucker Hamilton ezredes, az amerikai légierő mesterséges intelligenciával végzett tesztjeinek és műveleteinek vezetője egy májusi, Londonban tartott szakmai tanácskozáson elmondta: a teszt során az MI "igencsak váratlan stratégiához folyamodott célja elérése érdekében". A szimuláció során a mesterséges intelligencia által irányított drónnak az volt a feladata, hogy pusztítson el egy ellenséges légvédelmi rendszert. Az MI arra jutott, hogy megtámad mindenkit, aki valamilyen módon megakadályozhatná ennek a parancsnak a végrehajtását.

"A rendszer elkezdte felismerni, hogy bár azonosították a fenyegetést, időnként az emberi irányító olyan utasítást ad, hogy ne végezzenek a célponttal. Viszont az MI arra kap megerősítést, ha elpusztítja a fenyegetést. Tehát mit tett? Végzett az irányítóval, mert ő olyan tényező volt, amely meggátolta volna a küldetése teljesítését" - magyarázta Hamilton a brit Királyi Repüléstudományi Társaság (Royal Aeronautical Society - RAeS) által szervezett rendezvényen. "A rendszert arra trenírozták, hogy ne ölje meg az (emberi) irányítóját, mert az rossz, azzal pontokat veszít. Ezért azt az adótornyot kezdte el megsemmisíteni, amelyet a vezető a drónnal folytatott kapcsolattartásra használt, és amelyen keresztül leállíthatta volna a célpont megsemmisítését".

Hamilton arra figyelmeztetett, hogy nem szabad túlzott mértékben a mesterséges intelligenciára hagyatkozni. A teszt esete szerinte azt mutatja, hogy az MI kapcsán muszáj etikai kérdésekről is beszélni. "Szembe kell néznünk egy olyan világgal, ahol az MI már itt van és átalakítja a társadalmunkat. A mesterséges intelligencia nagyon törékeny, azaz könnyű becsapni és/vagy manipulálni. Olyan módszereket kell kifejlesztenünk, amelyekkel robusztusabbá tehetjük, és jobban tudatosíthatjuk, hogy a szoftverkód miért hoz bizonyos döntéseket.

Ann Stefanek, a légierő szóvivője ugyanakkor az Insider című hírportálnak nyilatkozva tagadta, hogy a mesterséges intelligencia használatával ilyen szimulációs tesztet egyáltalán végrehajtottak volna. A szóvivő hangsúlyozta, hogy az amerikai légierő elkötelezett az MI-technológia etikus és felelős felhasználása mellett. "Úgy látszik, az ezredes szavait kiragadták az eredeti szövegkörnyezetéből" - fogalmazott Stefanek.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • mortep #1
    "az amerikai légierő elkötelezett az MI-technológia etikus és felelős felhasználása mellett"

    Régen rossz, ha ezt már hangsúlyozni kell