Berta Sándor

Tudósok a harci robotok ellen

Több mint száz technológiai vállalkozó figyelmeztetett az autonóm fegyverrendszerekkel való esetleges visszaélések veszélyeire.

A 30 országból származó üzletemberek és tudósok egy az interneten nyilvánosságra hozott levélben - amelyet az Egyesült Nemzetek Szervezetéhez címeztek - arra figyelmeztették a világ közösségét, nehogy "halálos autonóm fegyvereket" fejlesszen ki, azok ugyanis "a hadviselés harmadik forradalmához" vezethetnek. Amennyiben egyszer már feltalálták ezeket az eszközöket, akkor megkönnyítik az újabb fegyveres konfliktusokat, ráadásul eddig soha nem látott mértékben csökkentik azok belépési küszöbét és mindez gyorsabban valósulhat meg, mint ahogy azt az emberek egyáltalán felfoghatnák.

A levelet többek között Mustafa Suleyman, az Alphabetes Deep Mind társalapítója és vezetője; Elon Musk, a Tesla Motor és a SpaceX vezetője; Yoshua Bengio, a Montreali Egyetem tanára, a mesterséges intelligencia vezető kutatója; Stuart Russell informatikaprofesszor és Jürgen Schmidhuber mesterséges intelligencia szakértő írták alá. Russell úgy fogalmazott, ha az emberek nem akarnak új tömegpusztító fegyvereket látni halálos mikrodrónok nagy rajainak formájában, akkor elkerülhetetlen, hogy egyezmény szülessen a halálos autonóm fegyverek ellen. Musk más hasonlatot használt, ő az észak-koreai kockázatnál nagyobb veszélyt említett.


Az amerikai hadsereg vadászbombázóról ledobható mikrodrón-rajokkal kisérletezik

A szakemberek szerint a harci robotok a terror fegyverei is lehetnek, amelyeket a despoták és a terroristák a polgári lakosság ellen vethetnek be és olyan fegyverek, amelyek feltörhetők. A világ közösségének nincsen sok ideje a cselekvésre. Amennyiben kinyílik Pandóra szelencéje, akkor már nagyon nehéz lesz újra bezárni azt. Az ENSZ már néhány éve foglalkozik az önállóan működő fegyverekkel és fegyverrendszerekkel. Most hétfőre hívták volna össze a témában az ENSZ szakértői csoportját, de ezt a megbeszélést végül novemberre halasztották.

A technológia gyorsan fejlődik és jelenleg semmilyen multilaterális szabályozás nem szorítja keretek közé a katonai MI-alkalmazásokat. A világ jópár forró pontján van már telepítve intelligens gép, például a dél-koreai hadsereg az őket az északiaktól elválasztó majd' 200 kilométer hosszú demilitarizált zónában használ egy SGR-A1 nevű megfigyelő eszközt. Ez képes a behatolókat felderíteni, követni és akár tüzet is nyitni rájuk. Ugyan még nem működik önállóan, de képes rá, és államhatárokon kivül olyan kritikus helyeken is megjelenhet, mint a repterek, az erőművek, olajfinomítók és katonai bázisok. Az aggodalmat az okozza, hogy a gépekben nincsenek morális gátak és kritikus helyzetben nem fogná őket vissza az emberekben meglévő józan ítélőképesség. A Human Rights Watch szerint a humanitárius és biztonsági kockázatok messze nagyobbak a lehetséges katonai előnyöknél, és ezeket a kritikusok csak a jövőbeli technológiai fejlődés spekulatív érveire hivatkozva utasítják el.


Musk, Stephen Hawking és más kutatók már 2015 júliusában azt szorgalmazták, hogy fagyasszák be katonai robotok fejlesztését. Akkor az volt a vélemény, hogy a katonai robotok olyan forradalmat robbanthatnak ki a fegyverkezésben, mint a puskapor és az atomfegyverek. Később kiderült, hogy a tudósok a harci robotok elleni kampányuk során komoly támogatást kaptak a katonáktól, azok családtagjaitól és a veteránoktól. Idén februárban pedig ismertté vált, hogy a harci robotok területén fegyverkezési versenytől tartanak a szakemberek.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • kvp #8
    "Mondjuk ilyesmi az emberek jelentős részében sincs."

    Meglepo de van. A sajat csaladjukat a legtobben nem pusztitanak el, akarmilyen parancsot is kapnak ra. Ez nem feltetlen tudatos, a legtobb ember osztonosen igyekszik megvedeni a sajatjait. Nagyon nagy mertekben fanatizalni kell a katonakat ahhoz, hogy a szeretteiknek artsanak, bar nem lehetetlen. Egyszeru robotok eseten nincsennek oszontok, nincsennek erzelmek, azt csinaljak amit parancsba kaptak. Ez tokeletes nepirto fegyverre es/vagy ongyilkos merenylokke teszi oket.

    Na most adjunk hozza alapveto tulelesi osztonoket a robotokhoz, hogy nehezebb legyen kiirtani oket a harcteren. Adjunk nekik parancsot arra, hogy mindenre lojenek a kornyezetukben es mar kesz is a problema, ugyanis innentol fuggetlenek es amig mukodnek (van energia es mivel loni), addig harcolni fognak. Ez jo ha tudjuk, hogy nem jutnak ki a nekik szant korzetbol es mi nem megyunk oda, de amennyiben megis, akkor minket is ugyanugy megtamadnak mint az ellenseget akik ellen bevetettuk oket.

    Nagyon konnyu eljutni oda, hogy egy adott katonai robot tipus bevetesi korzete a teljes bolygonk legyen es az ellatasa hosszabb tavon is automatizalt modon megoldott legyen es onnantol nincs hova futni. Az aggaszto az, hogy sima egyszeru emberi tevedes miatt is eloallhat ez az eset.

    Es akkor meg nem is vizsgaltuk az intelligens robotok kerdeset, csak egy alap harcteri valtozatot, ami kb. a megy elore es lo mindenre szinten van.
  • Akva #7
    "a gépekben nincsenek morális gátak és kritikus helyzetben nem fogná őket vissza az emberekben meglévő józan ítélőképesség"

    Mondjuk ilyesmi az emberek jelentős részében sincs.
  • molnibalage83 #6
    Az indítási folyamat technikai levezénylése számítógépet igényel. Maga az indítás és döntés 100%-ban emberi folyamat és izolált eszközökkel történik, külső beavatkozás nem lehetséges, csak a silókban levők képesek rá. Ez minden nukleáris fegyverre igaz. Minden számítógéphez csak akkor férsz hozzá, ha ott van az eszköz mellett.

    Az üzemelő számítógépek és a verifikáló rendszer nagyrészt olyan régiek, hogy elfog a röhögés. Nézd meg, hogy milyen floppy-t használnak a jenki ICBM silók...

    Lásd itt.
  • kvp #5
    A megfelelo titkositason kivul van meg egy viszonylag biztos megoldas, a fire and forget rendszerek. Nincs tavvezerles ezert nincs mit feltorni.

    Vegyunk egy robotalakulatot. Bekuldhetoek egy varosba azzal hogy adott meret folott mindent lojenek le ami mozog. Elo katonak nem fogjak teljesiteni de a robotok igen. Tehat nem csak olcsobbak (tomeggyartva) de meg fanatizalni sem kell oket egy nepirtashoz. Raadasul amig van loszer es energia nem allnak meg. Pont ezektol a rendszerektol felnek a tudosok is, mert csak ugy lehet vedekezni ellenuk mint az atom ellen, ha nem vagyunk a hatosugarukban. (raadasul pont olyan szelektivek is mint egy atombomba)
  • Omega #4
    A nukleáris robbanófejű rakétákat is számtítógépek indítják el mégse törték még fel a hekkerek. Meg lehet, úgy oldani valaminek a hozzáférés szabályozását, hogy az valóban biztonságos legyen. Ha csak egy kulcs van, ami kódolja az eszközzel folyytatott kommunkációt, és azt valóban titkosan kezelik, tehát csak a küldő és a fogadó ismeri, akkor az valóban nem lesz feltörhető. A civil rendszereknél az okozza problémát, hogy nem is akarnak ilyen szigorú kontrollt bevezetni, mert nem lenne praktikus.
  • NEXUS6 #3
    Amiket írsz, na arra pont alkalmasabb az ember. Amikor a jelenlegi önvezérlő autóban ülő AI-szerűség nem tudja megkülönböztetni a kátyút a nájlonzacskótól, akkor mikrobi hogy tudja a burkába öltözött mentővel közlekedő csempészt, a burkába öltözött mondjuk betegtől? Kulturális, morális, technikai és mellette harcászati szintű döntést kell hoznia. Az ember erre képes, a robot ma még nem, meg vagy 50 évig kb.
  • Cat #2
    Ott tévedsz, hogy ezeket nagyon asszimetrikus helyzetekben használják, legfőbb céljuk a drága emberi munkaerő kiváltása/kiegészítése. Az államhatárokon nem az ellenséges hadseregeket kell megállítaniuk (arra ilyen statikus objektumok nem is képesek), hanem a csempészeket, emberkereskedőket, migránsokat kell megfigyelniük és visszatartaniuk. Létesítmények védelménél szintúgy nem más országok katonái elleni védelemre vannak méretezve, hanem terroristák, betörők vagy egyéb szabadságharcosok ellen, akik közel sem rendelkeznek olyan képzettséggel, tudással, és elegendő pénzzel, hogy ezeket legyűrjék. Például egy erőműben nem az ellenség speciális kommandója a mérce, hanem Greenpeace aktivisták, akik valamilyen feliratot feszítenének ki rá, vagy mondjuk odaláncolnák magukat.
  • Skylake #1
    Mint ahogy azt az informatikában megszokhattuk, minden IT technológia, elterjedésének mértékével párhuzamosan egyre inkább, és egyre több területen lesz kompromittálható, azaz feltörhető. Teljesen mindegy milyen technológiáról van szó, ez a harci robotokra is igaz lesz. Így amennyiben a különböző államok és szervezeti egyre nagyobb mértékben támaszkodni kívánnak ilyen technológiákra, úgy azzal biztosítják azt is, hogy azokat minél jobban ellenük fordítják: irányítás alá vonják, feltörik, működésük egészét, vagy meghatározott részeit blokkolni fogják. Ezek lehetnek egy másik állam katonai szervezeti épp úgy, mint informatikához értő, kínai, e célra alkalmas, könnyen beszerezhető hardvereket használó bűnözők – vagy csak simán a jövő script kiddie-i.

    Az összes ilyen harci robotika nagyon veszélyes. Egészen egy pontig – onnantól, hogy hasonló technológiával kiiktathatóvá vagy törhetővé válik. Onnantól már csak egy semmit sem érő fém és műanyagkupac. És mivel a verseny e területen igazán felfokozott lesz, hiszen a hatalom megszerzése és megtartása diktálja azt, így az ezek kompromittálására létrehozott technológiák fejlődése is ugyanolyan gyors lesz. Végső soron senki sem fog semmit sem nyerni. A jövőben várható, leghiperszuperebb, marhára autonóm, Dredd bíró level 10000 kategóriás robothoz is lesz megoldás arra előbb-utóbb az ellenfélnél, hogy mindezt a potenciált, vagy annak egy részét az eredeti felhasználója ellen fordítsa, és / vagy dekativálja a szerkezet lényeges egységeit.

    Az emberi haderőnek, ezen belül egy teljesen átlagos, vagy igazán félhülye, amolyan Morozsgoványi Vendel kategóriás bakának az ostobasága, illetve kiképzési és eltartási költségei mellett van egy óriási előnye: noha mondjuk sz*rul bánik a puskával, és rendszeresen parancsmegtagad, azért totálisan nem fog a felettesei ellen fordulni, illetve ha mégis, ennek folyamata jól érzékelhető – ennek elkerülésére és kezelésére hoztak létre azokat az eljárásokat, amelyek a katonai dresszúra eszköztárát alkotják. Robot kollégák esetében ez nem jelezhető előre. Bergengócia robothadserege lehet hogy éppen Burkusföld határán áll, ám a burkusföldi kiberhaderők (barett, plusz asztal, szék, monitor, billentyűzet, egér), épp most találtak egy klassz zero day sebezhetőséget, és ennek segítségével éppen most kapcsolják át az ellenfél-analizáló modult (firmware, hardver és szoftver). Innentől kb. az a helyzet, ami az SW1 Bajlós árnyakban olyan bámulatos bárgyúsággal be lett mutatva, a Ker. Szövetség robothadserege vonatkozásában, mikor A.K. feldurrantotta a kontrollert.