Gyurkity Péter

Korlátoznák a harci robotok önállóságát 

A Vöröskereszt emberi vezérlést követel, hogy megelőzzék a harci robotok túlzott önállóságát, és biztosítani akarja, hogy mindig előre látható legyen a működésük.

A szokásostól eltérő tartalmú közleményt jelentetett meg a Nemzetközi Vöröskereszt, amely ezúttal a harci robotok önálló tevékenységével foglalkozik, kiemelve a jövőbeni felhasználás során ajánlott kritériumokat. A szervezet szerint mindenképpen szükség lesz az emberi irányításra, a kijelölt célpontok jóváhagyására, ez ugyanis komoly problémákat előzhet meg.

Nem véletlen, hogy most tették közzé a bejelentést, hiszen ebben a hónapban ülésezik ismét Genfben a Convention on Certain Conventional Weapons szakértőiből álló testület, amely ezúttal az önálló fegyverrendszerek alkalmazásának kérdését veszi górcső alá. Korábban a fenti egyezmény tiltotta meg például a lángszórók használatát, van tehát precedens az előírások megalkotására és azok betartatására, az önálló harci robotok azonban egy új területet nyitnak meg, ahol már az emberi vezérlés, illetve az egyes cselekedetek jóváhagyása a legfontosabb kérdés, amit a Vöröskereszt többek között humanitárius szempontból tart kiemelendőnek.


Itt nem pusztán a tudományos fantasztikus művek és mozifilmek esetleges valóra válásáról van szó, hiszen számos egyéb fegyverrendszer esetében felmerült már a célpontok kiválasztása, illetve a megsemmisítésről való döntés ellenőrzése és jóváhagyása. Ezek skálája elég széles, kezdve a létesítményeket vagy járműveket rakétáktól aktívan védő gépágyúktól egy adott területre ledobott torpedóig, mely utána hosszú ideig várakozik a víz alatt, majd maga dönt a cselekvésről. Szintén jó példa az amerikai haditengerészet számára kifejlesztett nagy hatótávolságú hajó elleni rakéta, amely önállóan dönt a célpontok kiválasztásáról, illetve a kívánt útvonalról - a Vöröskereszt ajánlása szerint itt szükség lenne az emberi jóváhagyásra, amely baleseteket előzhet meg, illetve megtartja a háború "emberi" jellegét.

Aggódni mindenképpen van okuk, mivel bármilyen harci cselekmény esetén ők találkoznak először az áldozatokkal, és ugyan a mai fegyver-rendszerek használata időben és térben is korlátozott, de egy esetleges bonyolultabb szituációba vagy dinamikus környezetbe kerülve megbecsülhetetlen milyen kihatásuk lenne. A fejlődési irány egyértelműen a bevetett darabszám és az autonómia növekedése felé mutat, nő a mobilitásuk, továbbá rövidül a döntési idejük az azonosítás és a támadás végrehajtása között. Mindez együtt a cselekvések megjósolhatatlanságának növekedését okozza, hiszen a nagyobb mozgásszabadság eltérő környezeteket jelent, és az azokhoz történő adaptáció a célok változását is jelentheti. Mindezt tanuló algoritmusokkal megspékelve olyan géphez juthatunk, melyről fogalmunk sincs mit tesz a következő pillanatban.


5,5 mm gépágyúval és 40 mm-es gránátvetővel felszerelt Samsung robot Dél-Koreában. Két kilométerről azonosítja a célpontokat hő- és mozgásérzékelőjével

Ahhoz, hogy az autonóm fegyverrendszerek megfeleljenek a Vöröskereszt kívánalmainak szigorú korlátokat tartanak szükségesnek, beleértve ebbe az előzetes meghatározását a pontos feladatnak és a lehetséges célpontoknak, továbbá a működési területre vonatkozó és az időbeli korlátozást, a meghibásodás vagy hacker-támadások elleni védelmet és végül az ember általi deaktiválás lehetőségének biztosítását. Szintén hosszan ecsetelik a tesztelések szükségességét és a felelősségre vonhatóság kérdését; felelős pedig szerintük mindig lesz, mert emberek hozzák meg a fegyverek telepítéséről szóló döntést.

A Vöröskereszt szerint három megközelítést alkalmazhatnak válaszként az országok a meglévő jogi és etikai kérdésekre. Az első a nemzeti szabályozások erősítése, hogy azok megfeleljenek a fenti elveknek, a második ezen rendszerek pontos definiálása és a rájuk bevezetendő korlátozások, a harmadik pedig az emberi irányítás megőrzése - utóbbi kettőhöz persze nemzetközi együttműködés szükséges. A Pentagon részéről márciusban ezzel kapcsolatban elhangzott, hogy csak és kizárólag azon esetekben mondanak le az emberi részvételről, ahol a reakcióidő túl hosszúnak bizonyulna, vagyis ez a kiber- és az elektronikus hadviselésben lenne engedélyezett. A Vöröskereszt felhívja az egyes államokat a fenti korlátok beiktatására és azok alkalmazására, ez azonban nyilván nem kényszerítő erejű döntés.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Tetsuo #18
    Ha nem bizonyítható, akkor annyira nem számítanak az erkölcsök manapság ;-)
    Utoljára szerkesztette: Tetsuo, 2016.04.18. 18:41:11
  • Sequoyah #17
    Majd 100 ev mulva esetleg, de manapsag a kep es mintafelismeres epp azon teruletek egyike, ahol az emberi agy kozelebe sem tudnak erni a szamitogepek, elsosorban mukodesi filozofiajuk miatt.
    A neuronhalozatokat nem lehet szimpla sebesseggel es algoritmusokkal potolni.
  • NEXUS6 #16
    Hagyományos hadviselésben sem alkalmazzák általánosan a saját/idegen felismerést, pedig 1-2 gyakorlat bebizonyította, hogy jelentősen emelkedik a hatékonyság, ha a katona tudja, hogy a ki nem adja a saját jelet, az mind lelőhető.

    Azonban az újabb konfliktusok, az un hibrid-hadviselés teljesen más követelményszintre emelik az azonosítást. Nem elég minden baka zsebébe dugni egy RFID kártyát, vagy egy nem túl okos válaszjeladót, és lőni mindenkire aki ezzel nem rendelkezik.

    És nem csak technikailag, hanem jogilag, nemzetközi jogilag, sőt erkölcsileg sincsenek sokszor válaszok. Namost, ha az elvek nincsenek tisztázva, ha ebben a zavaros környezetben az egyszeri katona is hibázik, akkor hogy lehet egy sokkal primitívebb mesterséges logikára, egy primitív algoritmusra bízni ilyen döntéseket.

    Egyszerű: sehogy!
  • kvp #15
    A helyzet az, hogy a legtobb esetben az sem tiszta (se embernek, se gepnek), hogy az mozgo valami ott egyaltalan ember es ha igen, akkor milyen (ellenseges katona, civil, gyerek, stb.). Innentol nyugodtan kijelenthetjuk, hogy a legtobb mai dron eseten csak a mindenre lo ami mozog elv az ami uzembiztosan megvalosithato. Gyakorlatilag egy fegyveres autonom robot hatasa ma egy mozgo aknamezo es egy vegyifegyver kombinacioja. Jobb es hatekonyabb mint az elozo ketto, de jellemzoen azok helyett hasznalhato csak. Egyetlen elonyuk, hogy sok esetben olcsobbak es konnyebben bevethetoek.

    A fentinel okosabb autonom robot fejlesztese pedig azert veszelyes, mert ha sikerul egy sajat epsegere vigyazni kepes es az ellenseget valamilyen modon felismero robotot kesziteni, akkor nem sok garancia van arra, hogy egy program vagy adat hiba miatt veletlenul nem nezi-e a sajat katonait is ellensegnek. Sajat es ellenseges civilek, tovabba fegyvertelen es fegyveres civilek kozott pedig nem lehet kulonbseget tenni, meg embernek se megy, tehat robotok eseten nagyjabol a 'mindenki aki nem rendelkezik mukodo katonai barat-ellenseg azonositoval, az ellenseg' besorolas varhato csak el.
  • MrImy #14
    Úgy gondolom, hogy gép-célpontok megsemmisítése gépi döntés legyen az emberi meg emberi döntés legyen, hogy felelősségre vonható legyen rossz döntés esetén.
  • Sir Cryalot #13
    "Az emberekről se tudjuk, hogy mit fognak csinálni a következő pillanatban. "

    pedig van elég sok önértékelés defektes gőgös ember, akik elég fura dolgokban látnak érdemesülést :D
  • NEXUS6 #12
    Da az még nem indok arra, hogy melléjük ugyan olyan kiszàmíthatatlan gépeket küldjünk a harctérre.
  • philcsy #11
    "Mindezt tanuló algoritmusokkal megspékelve olyan géphez juthatunk, melyről fogalmunk sincs mit tesz a következő pillanatban."
    Az emberekről se tudjuk, hogy mit fognak csinálni a következő pillanatban.
  • philcsy #10
    Amit mondasz, az csak a klasszikus logika alapján programozott gépekre igaz. Ezek viszont nem igazán nevezhetőek se intelligensnek se alkalmazkodónak. Amik jól működnek (sztohasztikus algoritmusok, neurális hálók) mind előre megjósolhatatlan eredményt adnak. A sztohasztikusok eredendően ilyenek. A neurális hálók pedig ugyan determinisztikusak, de "black-box" működnek, kívülről csak rengeteg paramétert látsz, melyek ráadásul állandóan változnak a tanulás során. Képtelenség elemezni őket, hogy "jól döntenek-e". (Nem mintha lenne objektív jó döntés.)
  • philcsy #9
    Ha rövid idő alatt kell dönteni, az ember veszít az ilyen teszteken.