Berta Sándor
Betiltanák a harci robotokat
Szakértők tanácskoznak Genfben arról, hogy vajon alkalmazhatnak-e az országok halálos autonóm fegyverrendszereket.
A héten a svájci városban tárgyalnak az Egyesült Nemzetek Szervezetének (ENSZ) és a különböző kormányoknak a képviselői a harci robotokról. A konferencián a szakemberek a halálos autonóm fegyverrendszerek katonai és etikai szempontjait egyaránt meg akarják vitatni. A harci robotok olyan önállóan működő fegyverrendszerek, amelyek képesek egy ember helyzetét meghatározni, az illetőt azonosítani, majd megölni. Teljesen automatikus támadó fegyverrendszereket gyakorlatilag nem alkalmaz egyik állam sem, de több ország, köztük az Amerikai Egyesült Államok, Kína, Oroszország és Izrael is fejleszt ilyen megoldásokat. Ezek lehetnek harci drónok, amelyek hatalmas rajokban repülnek, ellenőrzik a légteret vagy akár egy repülőgép-hordozó légvédelmét is ki tudják iktatni. De akár személyzet nélküli hajók is lehetnek, amelyek a határvizeken járőröznek. Az USA esetében például ott van a pilóta nélküli X-47B, amely képes felszállni egy repülőgép-hordozóról és leszállni oda, továbbá több száz kilogramm bombát is hordozhat.
Ugyan eddig még egyetlen állam sem használ teljesen automatizált támadó fegyverrendszereket, de a közeljövőben ez megváltozhat, s a gépek dönthetnek majd életről és halálról. Ez pedig alapvetően megváltoztathatja a háborúkat. Ezeknél a rendszereknél a rombolással vagy az öléssel kapcsolatos dolgokról egy algoritmus határoz. A folyamatban az ember már nem vesz rész, a felelősség teljesen a technikáé. Mindez új kérdéseket vet fel: miként fog különbséget tenni egy robot a polgári személyek és a harcolók között, s miről ismeri majd fel a gép, hogy valaki sebesült vagy támad?
A kritikusok azt mondják, hogy a teljesen automatizált fegyverek veszélyeztetik a polgári lakosságot, mert a számítógépek nem ismerik az emberi jogokat. Egy 2013-as ENSZ-jelentés úgy fogalmazott, hogy a "soha el nem fáradó háborús gépekben" ott van annak a lehetősége, hogy a konfliktusokat végtelen háborúkká teljesítsék ki. De a harci robotok nem feltétlenül jelentenek negatívumot a hadijog szempontjából, sőt, előnyös dolgokat is magukkal hozhatnak, hiszen lehetővé teszik a hibás döntések vagy a polgári áldozatok elkerülését. Amennyiben ezeket a rendszereket jól programozzák be, akkor az embereknél jobban betarthatják a háborúk szabályait.
Augusztusban több száz tudós és technológiai vállalkozó figyelmeztetett nyílt levélben az autonóm fegyverrendszerekkel való esetleges visszaélések veszélyeire. Az üzlet- és szakemberek a levelüket az ENSZ-nek címezték. Az aláírók között volt Mustafa Suleyman, az Alphabethez tartozó Deep Mind társalapítója és vezetője; Elon Musk, a Tesla Motor és a SpaceX vezetője; Yoshua Bengio, a Montreali Egyetem tanára, a mesterséges intelligencia vezető kutatója; Stuart Russell informatikaprofesszor és Jürgen Schmidhuber mesterséges intelligencia szakértő. A tilalom ellen a leginkább az USA, Nagy-Britannia, Kína, Izrael, Oroszország és Dél-Korea lobbizik. A Genfben tanácskozó szakértők és szervezetek azt szeretnék, ha az Egyesült Nemzetek Szervezete megtiltaná a harci robotok fejlesztését, gyártását, kereskedelmét és alkalmazását. Minderre különösen akkor lesz szükség, ha ezeket a fegyverrendszereket még mesterséges intelligenciával is ellátják. A felmerülő kérdésekben az ENSZ 125 tagállama dönt majd.
A harci robotok ellenzői azt szeretnék, ha egy plusz protokollt iktatnának be az egyes hagyományos fegyverek használatáról szóló 1980-as egyezménybe. Az eddigi szabályozások ugyanis csak a taposóaknák és robbanócsapdák, a gyújtófegyverek és a vakságot okozó lézerfegyverek alkalmazását korlátozzák, illetve tiltják. Amandeep Gill indiai küldött, a konferencia vezetője ugyanakkor úgy vélte, hogy nem sok esély van a megegyezésre, mert bár abban minden fél egyetértett, hogy a jövőben is az embereknek kell felelőseknek lenniük az élettel és halállal kapcsolatos döntésekben, de az egyes országok eltérő álláspontot képviseltek abban a tekintetben, hogy az emberi ellenőrzésnek miként is kell megvalósulnia.
Michael Horowitz és Julia Macdonald rávilágított még egy fontos problémára: a taposóaknák definíciója világos, de az autonóm fegyverrendszereké nem. Nincs például egyezség abban a kérdésben sem, hogy mikortól nevezhető egy harci robot önállónak. Mi a helyzet azokkal a rakétákkal, amelyeket emberek lőnek ki, de utána önállóan keresik meg a célpontjaikat? Vagy az autonómia csak ott és akkor kezdődik, ha a fegyverek képesek - az emberekhez hasonlóan - érzékelni a környezetüket? Továbbá az is fontos szempont, hogy még nincsenek áldozatok. A taposóaknák esetében is csak azután kezdett a politika komolyabban foglalkozni a kérdéssel, hogy egy időben folyamatosan nőtt a taposóaknák által megsebesített és megölt emberek száma.
A héten a svájci városban tárgyalnak az Egyesült Nemzetek Szervezetének (ENSZ) és a különböző kormányoknak a képviselői a harci robotokról. A konferencián a szakemberek a halálos autonóm fegyverrendszerek katonai és etikai szempontjait egyaránt meg akarják vitatni. A harci robotok olyan önállóan működő fegyverrendszerek, amelyek képesek egy ember helyzetét meghatározni, az illetőt azonosítani, majd megölni. Teljesen automatikus támadó fegyverrendszereket gyakorlatilag nem alkalmaz egyik állam sem, de több ország, köztük az Amerikai Egyesült Államok, Kína, Oroszország és Izrael is fejleszt ilyen megoldásokat. Ezek lehetnek harci drónok, amelyek hatalmas rajokban repülnek, ellenőrzik a légteret vagy akár egy repülőgép-hordozó légvédelmét is ki tudják iktatni. De akár személyzet nélküli hajók is lehetnek, amelyek a határvizeken járőröznek. Az USA esetében például ott van a pilóta nélküli X-47B, amely képes felszállni egy repülőgép-hordozóról és leszállni oda, továbbá több száz kilogramm bombát is hordozhat.
Ugyan eddig még egyetlen állam sem használ teljesen automatizált támadó fegyverrendszereket, de a közeljövőben ez megváltozhat, s a gépek dönthetnek majd életről és halálról. Ez pedig alapvetően megváltoztathatja a háborúkat. Ezeknél a rendszereknél a rombolással vagy az öléssel kapcsolatos dolgokról egy algoritmus határoz. A folyamatban az ember már nem vesz rész, a felelősség teljesen a technikáé. Mindez új kérdéseket vet fel: miként fog különbséget tenni egy robot a polgári személyek és a harcolók között, s miről ismeri majd fel a gép, hogy valaki sebesült vagy támad?
A kritikusok azt mondják, hogy a teljesen automatizált fegyverek veszélyeztetik a polgári lakosságot, mert a számítógépek nem ismerik az emberi jogokat. Egy 2013-as ENSZ-jelentés úgy fogalmazott, hogy a "soha el nem fáradó háborús gépekben" ott van annak a lehetősége, hogy a konfliktusokat végtelen háborúkká teljesítsék ki. De a harci robotok nem feltétlenül jelentenek negatívumot a hadijog szempontjából, sőt, előnyös dolgokat is magukkal hozhatnak, hiszen lehetővé teszik a hibás döntések vagy a polgári áldozatok elkerülését. Amennyiben ezeket a rendszereket jól programozzák be, akkor az embereknél jobban betarthatják a háborúk szabályait.
Augusztusban több száz tudós és technológiai vállalkozó figyelmeztetett nyílt levélben az autonóm fegyverrendszerekkel való esetleges visszaélések veszélyeire. Az üzlet- és szakemberek a levelüket az ENSZ-nek címezték. Az aláírók között volt Mustafa Suleyman, az Alphabethez tartozó Deep Mind társalapítója és vezetője; Elon Musk, a Tesla Motor és a SpaceX vezetője; Yoshua Bengio, a Montreali Egyetem tanára, a mesterséges intelligencia vezető kutatója; Stuart Russell informatikaprofesszor és Jürgen Schmidhuber mesterséges intelligencia szakértő. A tilalom ellen a leginkább az USA, Nagy-Britannia, Kína, Izrael, Oroszország és Dél-Korea lobbizik. A Genfben tanácskozó szakértők és szervezetek azt szeretnék, ha az Egyesült Nemzetek Szervezete megtiltaná a harci robotok fejlesztését, gyártását, kereskedelmét és alkalmazását. Minderre különösen akkor lesz szükség, ha ezeket a fegyverrendszereket még mesterséges intelligenciával is ellátják. A felmerülő kérdésekben az ENSZ 125 tagállama dönt majd.
A harci robotok ellenzői azt szeretnék, ha egy plusz protokollt iktatnának be az egyes hagyományos fegyverek használatáról szóló 1980-as egyezménybe. Az eddigi szabályozások ugyanis csak a taposóaknák és robbanócsapdák, a gyújtófegyverek és a vakságot okozó lézerfegyverek alkalmazását korlátozzák, illetve tiltják. Amandeep Gill indiai küldött, a konferencia vezetője ugyanakkor úgy vélte, hogy nem sok esély van a megegyezésre, mert bár abban minden fél egyetértett, hogy a jövőben is az embereknek kell felelőseknek lenniük az élettel és halállal kapcsolatos döntésekben, de az egyes országok eltérő álláspontot képviseltek abban a tekintetben, hogy az emberi ellenőrzésnek miként is kell megvalósulnia.
Michael Horowitz és Julia Macdonald rávilágított még egy fontos problémára: a taposóaknák definíciója világos, de az autonóm fegyverrendszereké nem. Nincs például egyezség abban a kérdésben sem, hogy mikortól nevezhető egy harci robot önállónak. Mi a helyzet azokkal a rakétákkal, amelyeket emberek lőnek ki, de utána önállóan keresik meg a célpontjaikat? Vagy az autonómia csak ott és akkor kezdődik, ha a fegyverek képesek - az emberekhez hasonlóan - érzékelni a környezetüket? Továbbá az is fontos szempont, hogy még nincsenek áldozatok. A taposóaknák esetében is csak azután kezdett a politika komolyabban foglalkozni a kérdéssel, hogy egy időben folyamatosan nőtt a taposóaknák által megsebesített és megölt emberek száma.