SG.hu

A fegyvergyártók nagyon örülnek az MI-nek

A védelmi ágazatban mesterséges intelligenciával támogatott eszközök szédítő sokasága van fejlesztés alatt vagy már használatban.

Bécsben egy találkozót tartottak a mesterséges intelligencia védelmi iparágban betöltött szerepéről, amelyen a gyártók mellett politikusok és szakértők is részt vettek. A megnyitót az osztrák külügyminisztérium leszerelési igazgatója, Alexander Kmentt tartotta, aki nem kertelt: "Az emberiség egy abszolút kritikus jelentőségű küszöb átlépése előtt áll." Szerinte a technológia sokkal gyorsabban fejlődik, mint az azt szabályozó szabályozás. "Ez az ablak gyorsan bezárul".

Az emberek a fegyverek önálló, gépek általi bevetése miatt hajlamosak aggódni a militarizált mesterséges intelligencia miatt, de a jelenlegi katonai alkalmazások többsége sokkal hétköznapibb. Ide tartozik a katonai logisztika, az adatgyűjtés és -feldolgozás a hírszerzési, valamint a megfigyelési és felderítési rendszerekben. Katonai logisztikával foglalkozik a C3 AI, egy elsősorban civil technológiai cég, melynek eszközeit az amerikai hadsereg is alkalmazza. A C3 AI által az amerikai légierő számára készített prediktív karbantartás összesíti a leltárakból, a szolgálati előzményekből és a több tízezer, gépekre helyezett érzékelőből származó rengeteg adatot. "Megnézzük ezeket az adatokat, és még azelőtt azonosítani tudjuk az eszköz meghibásodását, hogy az bekövetkezne, megjavítjuk, mielőtt meghibásodna, és elkerüljük a nem tervezett leállásokat" - mondja Tom Siebel, a C3 AI vezérigazgatója.

A vállalat szerint ez az MI-elemzés 40%-kal kevesebb nem tervezett karbantartást eredményezett a felügyelt rendszerek esetében. Siebel elmondása szerint a technológia elég kifinomult ahhoz, hogy megbízható előrejelzéseket készítsen, még a véletlenszerűség és az emberi hiba figyelembevételével is. Úgy véli, hogy a modern hadviselés technikai összetettsége miatt a mesterséges intelligenciára szükség van. Az egyik példa erre a drónok százait vagy ezreit használó rajok. "Egyszerűen nem lehet koordinálni egy raj tevékenységét anélkül, hogy a mesterséges intelligenciát ne alkalmaznánk a problémára" - mondja Siebel.

Anzhelika Solovyeva, a csehországi Károly Egyetem biztonsági tanulmányok tanszékének biztonsági szakértője is az autonóm légi járművek szerepét emelte ki, de szerinte az emberi pilótáknak is segíteni fog a nehezebb helyzetek megoldásában. Catherine Connolly, a Stop Killer Robots (Állítsuk meg a gyilkos robotokat) csoport automatizált döntésekkel foglalkozó kutatási vezetője a teljesen autonóm fegyverekre figyelmeztetett. "Mindössze egy szoftveres változtatásra van szükség ahhoz, hogy egy rendszer anélkül támadhasson a célpontra, hogy egy embernek jóvá kellene hagynia ezt a döntést" - mondta Connolly, aki nemzetközi jog és biztonságtudományok területén doktorált. "A technológia szerintem közelebb van, mint azt az emberek gondolnák". Connolly szerint nem lehet a vállalatok önszabályozásában bízni. "Bár sok iparági nyilatkozatot hallhatunk majd arról, hogy "mindig egy ember fog dönteni az erő alkalmazásáról", a vállalatok nagyon könnyen meggondolhatják magukat ezzel kapcsolatban".

A vállalatok különböző állításokat tettek a jelenleg lehetséges autonómia szintekről. Egy német fegyvergyártó azt mondta, hogy az általa gyártott jármű esetében - amely képes önállóan bemérni és megsemmisíteni a célpontokat - nincs korlátozás az autonómia szintjére vonatkozóan. Más szóval, a megrendelőn múlik, hogy engedélyezi-e a gépnek, hogy emberi beavatkozás nélkül tüzeljen. Egy izraeli fegyverrendszer a lőfegyver jelenléte alapján képes az embereket fenyegetésként azonosítani - persze az ilyen rendszerek az emberekhez hasonlóan hibázhatnak a fenyegetések felismerésében.

Az Athena AI ausztrál cég pedig olyan rendszert mutatott be, amely képes felismerni a katonai egyenruhát viselő és fegyvert viselő embereket, majd egy térképen elhelyezni őket. "Az Athena jelenlegi elsődleges felhasználási területe térképek készítése a helyzetfelismerés érdekében" - mondja Stephen Bornstein, az Athena AI vezérigazgatója. "A rendszerünket úgy terveztük, hogy az MI egy emberi operátortól függjön, így az MI nem hoz célpontmeghatározási döntéseket. Ez azt jelenti, hogy csak segíti az embert a célpontok, a nem célpontok, a védett objektumok és a csapáslisták azonosításában, illetve a fegyverek hatásainak illusztrálásában" - mondja.

"A halálos mesterséges intelligenciától való félelem jogos" - ismeri el Anzhelika Solovyeva, aki nemzetközi kapcsolatokból és nemzetbiztonsági tanulmányokból doktorált. Ugyanakkor azt állítja, hogy a nem kormányzati szervezetek és a média eltúlozzák és leegyszerűsítették a fegyverrendszerek rendkívül összetett csoportjait. Úgy véli, hogy a mesterséges intelligenciát elsősorban döntések támogatására, rendszerek integrálására, valamint az emberek és gépek közötti interakciók megkönnyítésére fogják alkalmazni. Szerinte tűzparancsról szóló tényleges döntést először csak olyan esetekben bíznak a mesterséges intelligenciára, amikor nem halálos kimenetelű alkalmazásokról, például rakétavédelmi vagy elektronikus hadviselési rendszerekről van szó, nem pedig teljesen autonóm fegyverekben. Úgy véli, az autonóm fegyverek jövője alatt egy olyan teljesen önműködő üzemmódot kell majd érteni, amelyet az emberi kezelők tetszés szerint aktiválhatnak és deaktiválhatnak".

Az MI-alapú fegyverrendszerek támogatóinak egyik érve az, hogy pontosabbak lennének. Rose McDermott, az amerikai Brown Egyetem politológusa azonban kételkedik abban, hogy az MI kiiktatná az emberi hibákat. "Véleményem szerint az algoritmusokba olyan fékeket kell beépíteni, amelyek emberi felügyeletet és értékelést kényszerítenek ki - ami nem jelenti azt, hogy az emberek nem követnek el hibákat. Teljesen biztos, hogy hibáznak. De másfajta hibákat követnek el, mint a gépek".

Egyes vállalatok maguk is nagyobb egyértelműségre törekszenek azzal kapcsolatban, hogy milyen technológiák lesznek megengedettek. Annak érdekében, hogy a mesterséges intelligencia sebessége és feldolgozási teljesítménye ne tiporja el az emberi döntéshozatalt, Connolly elmondta, hogy a Stop Killer Robots kampány egy olyan nemzetközi jogi szerződést szeretne elérni, amely "biztosítja az olyan rendszerek feletti érdemi emberi ellenőrzést, amelyek az érzékelők bemenetei alapján, nem pedig azonnali emberi parancs alapján észlelik és alkalmazzák az erőt a célpontra". Szerinte a szabályozás nemcsak a konfliktushelyzetek, hanem a mindennapi biztonság szempontjából is sürgős. "Nagyon gyakran látjuk, hogy a háborús technológiák hazatérnek, és rendőri erők belföldön használják őket. És így ez nem csak az autonóm fegyverrendszerek fegyveres konfliktusokban való használatáról szól. Ezeket a rendszereket aztán a rendőri erők, a határvédelmi erők is használhatják."

Bár az autonóm fegyverek szabályozására irányuló kampány az évek során nem hozott létre nemzetközi egyezményt, Connolly óvatosan optimista azzal kapcsolatban, hogy a nemzetközi humanitárius jog felzárkózhat a technológiai fejlődéshez. Szerinte a taposóaknákról és a kazettás bombákról szóló korábbi nemzetközi megállapodások azt sugallják, hogy a nemzetközi humanitárius jog bármennyire is lassan halad, képes normákat alkotni bizonyos fegyvertípusok elkerülésére. Mások úgy vélik, hogy az autonóm fegyverrendszerek a fegyverek sokkal szélesebb és nehezebben meghatározható kategóriáját alkotják; és még egy tiltó egyezmény valószínűtlen létrejötte esetén sem valószínű, hogy nagy gyakorlati jelentőséggel bírna.

Zárszóként Alexander Kmentt kiemelte, hogy bármilyen szabályozás célja az kell legyen, hogy biztosítsa, hogy "az élet és halál feletti döntésekben legyen egy emberi ellenőrzési elem". "Nagyon fontos, hogy az emberi elem ne vesszen el".

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Tetsuo #3
    Ja, azt hittem már fegyvereket is tervez az MI! :-D
  • repvez #1
    "A rendszerünket úgy terveztük, hogy az MI egy emberi operátortól függjön "

    És az Ő neve lesz C3 PO vagyis C3 personal operator vagy opserver :P