Berta Sándor
Tudósok a harci robotok ellen
Több mint száz technológiai vállalkozó figyelmeztetett az autonóm fegyverrendszerekkel való esetleges visszaélések veszélyeire.
A 30 országból származó üzletemberek és tudósok egy az interneten nyilvánosságra hozott levélben - amelyet az Egyesült Nemzetek Szervezetéhez címeztek - arra figyelmeztették a világ közösségét, nehogy "halálos autonóm fegyvereket" fejlesszen ki, azok ugyanis "a hadviselés harmadik forradalmához" vezethetnek. Amennyiben egyszer már feltalálták ezeket az eszközöket, akkor megkönnyítik az újabb fegyveres konfliktusokat, ráadásul eddig soha nem látott mértékben csökkentik azok belépési küszöbét és mindez gyorsabban valósulhat meg, mint ahogy azt az emberek egyáltalán felfoghatnák.
A levelet többek között Mustafa Suleyman, az Alphabetes Deep Mind társalapítója és vezetője; Elon Musk, a Tesla Motor és a SpaceX vezetője; Yoshua Bengio, a Montreali Egyetem tanára, a mesterséges intelligencia vezető kutatója; Stuart Russell informatikaprofesszor és Jürgen Schmidhuber mesterséges intelligencia szakértő írták alá. Russell úgy fogalmazott, ha az emberek nem akarnak új tömegpusztító fegyvereket látni halálos mikrodrónok nagy rajainak formájában, akkor elkerülhetetlen, hogy egyezmény szülessen a halálos autonóm fegyverek ellen. Musk más hasonlatot használt, ő az észak-koreai kockázatnál nagyobb veszélyt említett.
Az amerikai hadsereg vadászbombázóról ledobható mikrodrón-rajokkal kisérletezik
A szakemberek szerint a harci robotok a terror fegyverei is lehetnek, amelyeket a despoták és a terroristák a polgári lakosság ellen vethetnek be és olyan fegyverek, amelyek feltörhetők. A világ közösségének nincsen sok ideje a cselekvésre. Amennyiben kinyílik Pandóra szelencéje, akkor már nagyon nehéz lesz újra bezárni azt. Az ENSZ már néhány éve foglalkozik az önállóan működő fegyverekkel és fegyverrendszerekkel. Most hétfőre hívták volna össze a témában az ENSZ szakértői csoportját, de ezt a megbeszélést végül novemberre halasztották.
A technológia gyorsan fejlődik és jelenleg semmilyen multilaterális szabályozás nem szorítja keretek közé a katonai MI-alkalmazásokat. A világ jópár forró pontján van már telepítve intelligens gép, például a dél-koreai hadsereg az őket az északiaktól elválasztó majd' 200 kilométer hosszú demilitarizált zónában használ egy SGR-A1 nevű megfigyelő eszközt. Ez képes a behatolókat felderíteni, követni és akár tüzet is nyitni rájuk. Ugyan még nem működik önállóan, de képes rá, és államhatárokon kivül olyan kritikus helyeken is megjelenhet, mint a repterek, az erőművek, olajfinomítók és katonai bázisok. Az aggodalmat az okozza, hogy a gépekben nincsenek morális gátak és kritikus helyzetben nem fogná őket vissza az emberekben meglévő józan ítélőképesség. A Human Rights Watch szerint a humanitárius és biztonsági kockázatok messze nagyobbak a lehetséges katonai előnyöknél, és ezeket a kritikusok csak a jövőbeli technológiai fejlődés spekulatív érveire hivatkozva utasítják el.
Musk, Stephen Hawking és más kutatók már 2015 júliusában azt szorgalmazták, hogy fagyasszák be katonai robotok fejlesztését. Akkor az volt a vélemény, hogy a katonai robotok olyan forradalmat robbanthatnak ki a fegyverkezésben, mint a puskapor és az atomfegyverek. Később kiderült, hogy a tudósok a harci robotok elleni kampányuk során komoly támogatást kaptak a katonáktól, azok családtagjaitól és a veteránoktól. Idén februárban pedig ismertté vált, hogy a harci robotok területén fegyverkezési versenytől tartanak a szakemberek.
A 30 országból származó üzletemberek és tudósok egy az interneten nyilvánosságra hozott levélben - amelyet az Egyesült Nemzetek Szervezetéhez címeztek - arra figyelmeztették a világ közösségét, nehogy "halálos autonóm fegyvereket" fejlesszen ki, azok ugyanis "a hadviselés harmadik forradalmához" vezethetnek. Amennyiben egyszer már feltalálták ezeket az eszközöket, akkor megkönnyítik az újabb fegyveres konfliktusokat, ráadásul eddig soha nem látott mértékben csökkentik azok belépési küszöbét és mindez gyorsabban valósulhat meg, mint ahogy azt az emberek egyáltalán felfoghatnák.
A levelet többek között Mustafa Suleyman, az Alphabetes Deep Mind társalapítója és vezetője; Elon Musk, a Tesla Motor és a SpaceX vezetője; Yoshua Bengio, a Montreali Egyetem tanára, a mesterséges intelligencia vezető kutatója; Stuart Russell informatikaprofesszor és Jürgen Schmidhuber mesterséges intelligencia szakértő írták alá. Russell úgy fogalmazott, ha az emberek nem akarnak új tömegpusztító fegyvereket látni halálos mikrodrónok nagy rajainak formájában, akkor elkerülhetetlen, hogy egyezmény szülessen a halálos autonóm fegyverek ellen. Musk más hasonlatot használt, ő az észak-koreai kockázatnál nagyobb veszélyt említett.
Az amerikai hadsereg vadászbombázóról ledobható mikrodrón-rajokkal kisérletezik
A szakemberek szerint a harci robotok a terror fegyverei is lehetnek, amelyeket a despoták és a terroristák a polgári lakosság ellen vethetnek be és olyan fegyverek, amelyek feltörhetők. A világ közösségének nincsen sok ideje a cselekvésre. Amennyiben kinyílik Pandóra szelencéje, akkor már nagyon nehéz lesz újra bezárni azt. Az ENSZ már néhány éve foglalkozik az önállóan működő fegyverekkel és fegyverrendszerekkel. Most hétfőre hívták volna össze a témában az ENSZ szakértői csoportját, de ezt a megbeszélést végül novemberre halasztották.
A technológia gyorsan fejlődik és jelenleg semmilyen multilaterális szabályozás nem szorítja keretek közé a katonai MI-alkalmazásokat. A világ jópár forró pontján van már telepítve intelligens gép, például a dél-koreai hadsereg az őket az északiaktól elválasztó majd' 200 kilométer hosszú demilitarizált zónában használ egy SGR-A1 nevű megfigyelő eszközt. Ez képes a behatolókat felderíteni, követni és akár tüzet is nyitni rájuk. Ugyan még nem működik önállóan, de képes rá, és államhatárokon kivül olyan kritikus helyeken is megjelenhet, mint a repterek, az erőművek, olajfinomítók és katonai bázisok. Az aggodalmat az okozza, hogy a gépekben nincsenek morális gátak és kritikus helyzetben nem fogná őket vissza az emberekben meglévő józan ítélőképesség. A Human Rights Watch szerint a humanitárius és biztonsági kockázatok messze nagyobbak a lehetséges katonai előnyöknél, és ezeket a kritikusok csak a jövőbeli technológiai fejlődés spekulatív érveire hivatkozva utasítják el.
Musk, Stephen Hawking és más kutatók már 2015 júliusában azt szorgalmazták, hogy fagyasszák be katonai robotok fejlesztését. Akkor az volt a vélemény, hogy a katonai robotok olyan forradalmat robbanthatnak ki a fegyverkezésben, mint a puskapor és az atomfegyverek. Később kiderült, hogy a tudósok a harci robotok elleni kampányuk során komoly támogatást kaptak a katonáktól, azok családtagjaitól és a veteránoktól. Idén februárban pedig ismertté vált, hogy a harci robotok területén fegyverkezési versenytől tartanak a szakemberek.