Berta Sándor
Automatikus tűzparancs robotoknak?
A jelenlegi harci robotokat még távolról irányítják a katonák. Azonban eljöhet az az idő, amikor ezek a különleges rendszerek önmaguktól fognak cselekedni. Az amerikai hadsereg már vizsgálja, hogy erre milyen körülmények között kerülhet majd sor.
Tavaly júniusban Charles Cartwright vezérőrnagy, az amerikai katonai robotprogram vezetője egy robotikai konferencián elmondta, hogy már mintegy 10 000 robotot vetettek be eddig az iraki háborús térségben különböző feladatokra. Mindez azt jelenti, hogy a robotok már az elmúlt hónapokban jelentős szerepet játszottak az iraki hadműveletekben. Az amerikai hadsereg szerint azonban ezeknek a robotoknak még fejlődniük kell a harci képességeik területén.
A Pentagon értelmezésében a legegyszerűbb vadász- és gyilkos rendszer, amelyet szenzorokkal és fegyverekkel látnak el és amely más rendszerekkel való együttműködés nélkül is képes célpontokat megtámadni maga a gyalogos katona. Ő látja az ellenséget és lő is rá. A harci robotok viszont egy teljesen más szintet képviselnek. Jelenleg még az irányításukra kiképzett katona dönti el mikor és milyen célpontra tüzelhetnek. Azonban egyre gyakrabban merül fel a kérdés, hogy a szárazföldi, légi és vízi harci robotok terjedésével mikor válnak automatikusan cselekvőkké ezek a gépek.
A hangzatos nevű "Modeling Cognitive and Tactical Aspects in Hunter-Killer Missions" (fordítása kb. A gyilkoló vadászó küldetések észlelési és taktikai nézőpontjai) nevű tanulmányban leírtak szerint az önálló döntés képességével leginkább a harci robotrepülőgépeket (UCAV) láthatják majd el, ott szűnhetne meg leghamarabb az emberi ellenőrzés.
Ugyanakkor John Klein a The Problematic Nexus: Where Unmanned Combat Air Vehicles and the Law of Armed Conflict Meet című anyagban nem véletlenül vet fel számos a helyzetből fakadó etikai és jogi problémát, hiszen nincs biztosíték például arra, hogy egy ilyen önálló harci robot akciónak nem lesznek vétlen polgári áldozatai és a veszteségek mérséklésének sincsenek kidolgozott módozatai. Felmerül egy olyan kérdés is, hogy miképp változnak a hadviselés szabályai, hiszen ilyen problémára a jelenlegi háborús jog nem kínál válaszokat.
Lesz-e például önvédelmi joga egy harci robotnak, ha megtámadják? Az ezeket az eszközöket felügyelő, esetleg irányító informatikusok katonák-e jogi értelemben, vonatkozik-e rájuk a Genfi Konvenció vagy már csak "illegális harcosok"? S ki vonható felelősségre egy rosszul végződő akcióért, ha egy harci robot ártatlan polgári személyeket öl meg: a szoftvert fejlesztő programozó, a megbízást adó Pentagon, az egység parancsnoka vagy az irányítást végző katona?
Fontos kérdés az is, hogy a harci robotoknak meg kell tudniuk különböztetni egymástól a polgári személyeket és a lehetséges célpontokat. Azt is tisztázni kell, a harci robotok csak célpontokra tüzelhetnek vagy bárkire, aki él és mozog. Az embereknél ez nem kérdés, hiszen képesek vagyunk különbséget tenni a polgári személyek és a katonák, egy kórház és egy támaszpont között.
Nemrég John Canning, az amerikai Haditengerészeti Felszíni Hadviselési Központ munkatársa egy megoldással állt elő a A Concept of Operations for Armed Autonomous Systems című anyagban. Eszerint a harci robotok számára lehetővé kellene tenni, hogy emberi beavatkozás nélkül is használhassák a fegyvereiket. A Pentagon jelenleg minden egyes ilyen különleges fegyverrendszert megvizsgáltat a szolgálatba állítás előtt, így próbálva meg kiszűrni a hibás gépeket és megelőzni a későbbi esetleges rosszul végződő akciókat.
A John Canning javasolta megoldás egyszerű: a harci robotoknak csak azt szabad engedélyezni, hogy más gépeket támadjanak meg vagy csak olyan nem halálos megoldásokat alkalmazhatnak, amelyek csak elkábítják és nem ölik meg az ellenfelet. Fontos lenne az is, hogy az emberi irányítás és ellenőrzés lehetősége megmaradjon és akár egy gombnyomásra változtatni lehetne az önálló cselekvési és az irányított harcmód között. Így a kezelő bármikor közbe léphetne és megakadályozhatná a tragédiát.
A harci robotokat úgy is be lehet programozni, hogy csak az ellenséges rendszereket semmisítsék vagy bénítsák meg, azok kezelői ne sebesüljenek vagy haljanak meg. A szenzorok adatait elraktároznák, így bármikor visszakereshetők lennének az egyes bevetések részletei és megállapítható lenne a felelős.
Néhány évszázaddal ezelőtt még az volt a lovagias tett, ha két harcoló egymással szemben állt ki. Napjainkra azonban a vesztes fél lehet, hogy sosem tudja meg, hogy az életét nem egy másik katona, hanem "csak" egy harci robot oltotta ki vagy a sérüléseit nem egy élő hús-vér ember okozta, hanem egy gép. Ez lesz a XXI. században a harc művészete?
Tavaly júniusban Charles Cartwright vezérőrnagy, az amerikai katonai robotprogram vezetője egy robotikai konferencián elmondta, hogy már mintegy 10 000 robotot vetettek be eddig az iraki háborús térségben különböző feladatokra. Mindez azt jelenti, hogy a robotok már az elmúlt hónapokban jelentős szerepet játszottak az iraki hadműveletekben. Az amerikai hadsereg szerint azonban ezeknek a robotoknak még fejlődniük kell a harci képességeik területén.
Klikk a képre a nagyobb változathoz |
A hangzatos nevű "Modeling Cognitive and Tactical Aspects in Hunter-Killer Missions" (fordítása kb. A gyilkoló vadászó küldetések észlelési és taktikai nézőpontjai) nevű tanulmányban leírtak szerint az önálló döntés képességével leginkább a harci robotrepülőgépeket (UCAV) láthatják majd el, ott szűnhetne meg leghamarabb az emberi ellenőrzés.
Ugyanakkor John Klein a The Problematic Nexus: Where Unmanned Combat Air Vehicles and the Law of Armed Conflict Meet című anyagban nem véletlenül vet fel számos a helyzetből fakadó etikai és jogi problémát, hiszen nincs biztosíték például arra, hogy egy ilyen önálló harci robot akciónak nem lesznek vétlen polgári áldozatai és a veszteségek mérséklésének sincsenek kidolgozott módozatai. Felmerül egy olyan kérdés is, hogy miképp változnak a hadviselés szabályai, hiszen ilyen problémára a jelenlegi háborús jog nem kínál válaszokat.
Lesz-e például önvédelmi joga egy harci robotnak, ha megtámadják? Az ezeket az eszközöket felügyelő, esetleg irányító informatikusok katonák-e jogi értelemben, vonatkozik-e rájuk a Genfi Konvenció vagy már csak "illegális harcosok"? S ki vonható felelősségre egy rosszul végződő akcióért, ha egy harci robot ártatlan polgári személyeket öl meg: a szoftvert fejlesztő programozó, a megbízást adó Pentagon, az egység parancsnoka vagy az irányítást végző katona?
Fontos kérdés az is, hogy a harci robotoknak meg kell tudniuk különböztetni egymástól a polgári személyeket és a lehetséges célpontokat. Azt is tisztázni kell, a harci robotok csak célpontokra tüzelhetnek vagy bárkire, aki él és mozog. Az embereknél ez nem kérdés, hiszen képesek vagyunk különbséget tenni a polgári személyek és a katonák, egy kórház és egy támaszpont között.
Nemrég John Canning, az amerikai Haditengerészeti Felszíni Hadviselési Központ munkatársa egy megoldással állt elő a A Concept of Operations for Armed Autonomous Systems című anyagban. Eszerint a harci robotok számára lehetővé kellene tenni, hogy emberi beavatkozás nélkül is használhassák a fegyvereiket. A Pentagon jelenleg minden egyes ilyen különleges fegyverrendszert megvizsgáltat a szolgálatba állítás előtt, így próbálva meg kiszűrni a hibás gépeket és megelőzni a későbbi esetleges rosszul végződő akciókat.
Klikk a képre a nagyobb változathoz |
A harci robotokat úgy is be lehet programozni, hogy csak az ellenséges rendszereket semmisítsék vagy bénítsák meg, azok kezelői ne sebesüljenek vagy haljanak meg. A szenzorok adatait elraktároznák, így bármikor visszakereshetők lennének az egyes bevetések részletei és megállapítható lenne a felelős.
Néhány évszázaddal ezelőtt még az volt a lovagias tett, ha két harcoló egymással szemben állt ki. Napjainkra azonban a vesztes fél lehet, hogy sosem tudja meg, hogy az életét nem egy másik katona, hanem "csak" egy harci robot oltotta ki vagy a sérüléseit nem egy élő hús-vér ember okozta, hanem egy gép. Ez lesz a XXI. században a harc művészete?