Berta Sándor
Katonák is támogatják a harci robotok betiltását
A tudósok attól tartanak, hogy az önállóan működő fegyverek túl olcsók lehetnek és nagyon gyorsan elterjedhetnek világszerte.
Stephen Goose, a Human Rights Watch emberi jogi szervezet fegyverügyekért felelős részlegvezetője korábban az Amerikai Egyesült Államok Kongresszusának dolgozott, majd a Center for Defense Information munkatársa volt. A szakember szeretné elérni az önállóan működő fegyverrendszerek betiltását, hogy azok egy kategóriába kerüljenek a taposóaknákkal és a kazettás bombákkal.
"A jövő fegyvereiről beszélünk, amiket szeretnénk megelőző jelleggel betiltatni. Ez nem őrült ötlet, hiszen már 1995-ben sikerült betiltani a vakító lézerfegyvereket. Akkor az Amerikai Egyesült Államok és Kína már rendelkezett az ilyen fegyverek prototípusaival és azok a fegyverek nagy veszélyt jelentettek volna a civilekre nézve. Ugyanez igaz a harci robotokra is. A fejlett hadseregekben komoly trend figyelhető meg azzal kapcsolatban, hogy a fegyverek egyre önállóbbak legyenek. Hamarosan algoritmusok dönthetnek majd az életről és a halálról. Nem jöhet el az a korszak, amikor már nem lesz emberi ellenőrzés az egyes támadások kapcsán. Az embereket be kell vonni a legfontosabb döntésekbe, különösen azzal kapcsolatban, hogy kire kell célozni és kit kell megölni."
"A megfelelő platformok már léteznek, elég csak a drónokra gondolni. Azok szintén gyilkos robotokká fognak válni, ha a kampányunk nem jár sikerrel. Az emberi pilótát eltávolítják, a szerepét egy mesterséges intelligencia veszi át. A légi rendszerek után jönnek a felszíni és a víz alatti fegyverek. Vannak félautomata megoldások, amelyeknél az emberek még beavatkozhatnak. Az USA már rendelkezik az X47B repülőgéppel, amely emberi segítség nélkül le tud szállni egy repülőgép-hordozóra, majd felszállni onnan. Ez a legbonyoltabb manőverek egyike. Dél-Korea és Izrael pedig olyan felszíni rendszerek birtokában vannak, amelyek automatikusan felismerik a célpontokat és tüzelnek is azokra. Ma még egy ember hozza meg az utolsó döntést, de arra többnyire csupán egyetlen másodperce van" - jelentette ki a szakember.
Stephen Goose hozzátette: tény, hogy az önálló fegyverrendszereknek vannak előnyeik, például gyorsabbak, de számos előny akkor is megmaradna, ha továbbra is létezne emberi ellenőrzés. A teljesen automatikus fegyverek ugyanakkor veszélyeztetik a polgári lakosságot, elsősorban azért, mert nem vonatkoznak rájuk az emberi jogok. Kérdéses, hogy ezek a gépek valóban meg tudják-e különböztetni egymástól a civileket és a harcoló feleket, különösen akkor, ha utóbbiak civileknek öltöznek. Az is igaz, hogy egy robotnak nincsenek érzelmei, így bosszúra sem képes, ha megölik a bajtársát, de az emberekben van például empátia. Az is érdekes kérdés, hogy egy hiba esetén kit vonnának felelősségre: a programozót vagy a gyártót.
"A mesterséges intelligenciával és a robotikával foglalkozó szakemberek főként amiatt aggódnak, hogy a robotfegyverek egy idő után túlzottan egyszerűen előállíthatóvá és olcsóvá válnak, ezáltal nagyon gyorsan elterjedhetnek. A kutatók nem véletlenül nevezik e megoldásokat a "jövő Kalasnyikovjainak", hiszen minden hadsereg hozzájuk juthatna és sosem mondanának ellent egy diktátornak és nem ellenkeznének azzal kapcsolatban, hogyha valakit le kell lőni. A tudósok normális esetben nem avatkoznak be ilyen kérdésekbe, de úgy gondolom, hogy néhányan bánják, hogy akkoriban nem akadályozták meg az atomfegyverek kifejlesztését. A tudósok hisznek azokban a jó dolgokban, amelyeket a mesterséges intelligencia segítségével lehet megalkotni."
"A harci robotok elleni kampányunk során érdekes módon komoly támogatást kapunk a katonáktól, azok családtagjaitól és a veteránoktól. Ez különbözteti meg a mostani helyzetet a korábbiaktól: például a kazettás bombák, a taposóaknák vagy a vakító lézerfegyverek betiltásakor a katonaság nagyon erősen tiltakozott. A katonák talán félnek a munkájuk elvesztésétől, de meggyőződésük az is, hogy ők tudják a legjobban megkülönböztetni a harcolókat a civilektől, nem pedig a programozók" - szögezte le a Human Rights Watch szakértője.
Stephen Goose, a Human Rights Watch emberi jogi szervezet fegyverügyekért felelős részlegvezetője korábban az Amerikai Egyesült Államok Kongresszusának dolgozott, majd a Center for Defense Information munkatársa volt. A szakember szeretné elérni az önállóan működő fegyverrendszerek betiltását, hogy azok egy kategóriába kerüljenek a taposóaknákkal és a kazettás bombákkal.
"A jövő fegyvereiről beszélünk, amiket szeretnénk megelőző jelleggel betiltatni. Ez nem őrült ötlet, hiszen már 1995-ben sikerült betiltani a vakító lézerfegyvereket. Akkor az Amerikai Egyesült Államok és Kína már rendelkezett az ilyen fegyverek prototípusaival és azok a fegyverek nagy veszélyt jelentettek volna a civilekre nézve. Ugyanez igaz a harci robotokra is. A fejlett hadseregekben komoly trend figyelhető meg azzal kapcsolatban, hogy a fegyverek egyre önállóbbak legyenek. Hamarosan algoritmusok dönthetnek majd az életről és a halálról. Nem jöhet el az a korszak, amikor már nem lesz emberi ellenőrzés az egyes támadások kapcsán. Az embereket be kell vonni a legfontosabb döntésekbe, különösen azzal kapcsolatban, hogy kire kell célozni és kit kell megölni."
"A megfelelő platformok már léteznek, elég csak a drónokra gondolni. Azok szintén gyilkos robotokká fognak válni, ha a kampányunk nem jár sikerrel. Az emberi pilótát eltávolítják, a szerepét egy mesterséges intelligencia veszi át. A légi rendszerek után jönnek a felszíni és a víz alatti fegyverek. Vannak félautomata megoldások, amelyeknél az emberek még beavatkozhatnak. Az USA már rendelkezik az X47B repülőgéppel, amely emberi segítség nélkül le tud szállni egy repülőgép-hordozóra, majd felszállni onnan. Ez a legbonyoltabb manőverek egyike. Dél-Korea és Izrael pedig olyan felszíni rendszerek birtokában vannak, amelyek automatikusan felismerik a célpontokat és tüzelnek is azokra. Ma még egy ember hozza meg az utolsó döntést, de arra többnyire csupán egyetlen másodperce van" - jelentette ki a szakember.
Stephen Goose hozzátette: tény, hogy az önálló fegyverrendszereknek vannak előnyeik, például gyorsabbak, de számos előny akkor is megmaradna, ha továbbra is létezne emberi ellenőrzés. A teljesen automatikus fegyverek ugyanakkor veszélyeztetik a polgári lakosságot, elsősorban azért, mert nem vonatkoznak rájuk az emberi jogok. Kérdéses, hogy ezek a gépek valóban meg tudják-e különböztetni egymástól a civileket és a harcoló feleket, különösen akkor, ha utóbbiak civileknek öltöznek. Az is igaz, hogy egy robotnak nincsenek érzelmei, így bosszúra sem képes, ha megölik a bajtársát, de az emberekben van például empátia. Az is érdekes kérdés, hogy egy hiba esetén kit vonnának felelősségre: a programozót vagy a gyártót.
"A mesterséges intelligenciával és a robotikával foglalkozó szakemberek főként amiatt aggódnak, hogy a robotfegyverek egy idő után túlzottan egyszerűen előállíthatóvá és olcsóvá válnak, ezáltal nagyon gyorsan elterjedhetnek. A kutatók nem véletlenül nevezik e megoldásokat a "jövő Kalasnyikovjainak", hiszen minden hadsereg hozzájuk juthatna és sosem mondanának ellent egy diktátornak és nem ellenkeznének azzal kapcsolatban, hogyha valakit le kell lőni. A tudósok normális esetben nem avatkoznak be ilyen kérdésekbe, de úgy gondolom, hogy néhányan bánják, hogy akkoriban nem akadályozták meg az atomfegyverek kifejlesztését. A tudósok hisznek azokban a jó dolgokban, amelyeket a mesterséges intelligencia segítségével lehet megalkotni."
"A harci robotok elleni kampányunk során érdekes módon komoly támogatást kapunk a katonáktól, azok családtagjaitól és a veteránoktól. Ez különbözteti meg a mostani helyzetet a korábbiaktól: például a kazettás bombák, a taposóaknák vagy a vakító lézerfegyverek betiltásakor a katonaság nagyon erősen tiltakozott. A katonák talán félnek a munkájuk elvesztésétől, de meggyőződésük az is, hogy ők tudják a legjobban megkülönböztetni a harcolókat a civilektől, nem pedig a programozók" - szögezte le a Human Rights Watch szakértője.