Berta Sándor

Katonák is támogatják a harci robotok betiltását

A tudósok attól tartanak, hogy az önállóan működő fegyverek túl olcsók lehetnek és nagyon gyorsan elterjedhetnek világszerte.

Stephen Goose, a Human Rights Watch emberi jogi szervezet fegyverügyekért felelős részlegvezetője korábban az Amerikai Egyesült Államok Kongresszusának dolgozott, majd a Center for Defense Information munkatársa volt. A szakember szeretné elérni az önállóan működő fegyverrendszerek betiltását, hogy azok egy kategóriába kerüljenek a taposóaknákkal és a kazettás bombákkal.

"A jövő fegyvereiről beszélünk, amiket szeretnénk megelőző jelleggel betiltatni. Ez nem őrült ötlet, hiszen már 1995-ben sikerült betiltani a vakító lézerfegyvereket. Akkor az Amerikai Egyesült Államok és Kína már rendelkezett az ilyen fegyverek prototípusaival és azok a fegyverek nagy veszélyt jelentettek volna a civilekre nézve. Ugyanez igaz a harci robotokra is. A fejlett hadseregekben komoly trend figyelhető meg azzal kapcsolatban, hogy a fegyverek egyre önállóbbak legyenek. Hamarosan algoritmusok dönthetnek majd az életről és a halálról. Nem jöhet el az a korszak, amikor már nem lesz emberi ellenőrzés az egyes támadások kapcsán. Az embereket be kell vonni a legfontosabb döntésekbe, különösen azzal kapcsolatban, hogy kire kell célozni és kit kell megölni."


"A megfelelő platformok már léteznek, elég csak a drónokra gondolni. Azok szintén gyilkos robotokká fognak válni, ha a kampányunk nem jár sikerrel. Az emberi pilótát eltávolítják, a szerepét egy mesterséges intelligencia veszi át. A légi rendszerek után jönnek a felszíni és a víz alatti fegyverek. Vannak félautomata megoldások, amelyeknél az emberek még beavatkozhatnak. Az USA már rendelkezik az X47B repülőgéppel, amely emberi segítség nélkül le tud szállni egy repülőgép-hordozóra, majd felszállni onnan. Ez a legbonyoltabb manőverek egyike. Dél-Korea és Izrael pedig olyan felszíni rendszerek birtokában vannak, amelyek automatikusan felismerik a célpontokat és tüzelnek is azokra. Ma még egy ember hozza meg az utolsó döntést, de arra többnyire csupán egyetlen másodperce van" - jelentette ki a szakember.

Stephen Goose hozzátette: tény, hogy az önálló fegyverrendszereknek vannak előnyeik, például gyorsabbak, de számos előny akkor is megmaradna, ha továbbra is létezne emberi ellenőrzés. A teljesen automatikus fegyverek ugyanakkor veszélyeztetik a polgári lakosságot, elsősorban azért, mert nem vonatkoznak rájuk az emberi jogok. Kérdéses, hogy ezek a gépek valóban meg tudják-e különböztetni egymástól a civileket és a harcoló feleket, különösen akkor, ha utóbbiak civileknek öltöznek. Az is igaz, hogy egy robotnak nincsenek érzelmei, így bosszúra sem képes, ha megölik a bajtársát, de az emberekben van például empátia. Az is érdekes kérdés, hogy egy hiba esetén kit vonnának felelősségre: a programozót vagy a gyártót.


"A mesterséges intelligenciával és a robotikával foglalkozó szakemberek főként amiatt aggódnak, hogy a robotfegyverek egy idő után túlzottan egyszerűen előállíthatóvá és olcsóvá válnak, ezáltal nagyon gyorsan elterjedhetnek. A kutatók nem véletlenül nevezik e megoldásokat a "jövő Kalasnyikovjainak", hiszen minden hadsereg hozzájuk juthatna és sosem mondanának ellent egy diktátornak és nem ellenkeznének azzal kapcsolatban, hogyha valakit le kell lőni. A tudósok normális esetben nem avatkoznak be ilyen kérdésekbe, de úgy gondolom, hogy néhányan bánják, hogy akkoriban nem akadályozták meg az atomfegyverek kifejlesztését. A tudósok hisznek azokban a jó dolgokban, amelyeket a mesterséges intelligencia segítségével lehet megalkotni."

"A harci robotok elleni kampányunk során érdekes módon komoly támogatást kapunk a katonáktól, azok családtagjaitól és a veteránoktól. Ez különbözteti meg a mostani helyzetet a korábbiaktól: például a kazettás bombák, a taposóaknák vagy a vakító lézerfegyverek betiltásakor a katonaság nagyon erősen tiltakozott. A katonák talán félnek a munkájuk elvesztésétől, de meggyőződésük az is, hogy ők tudják a legjobban megkülönböztetni a harcolókat a civilektől, nem pedig a programozók" - szögezte le a Human Rights Watch szakértője.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • AcsMarci #27
    "A gépek CSAK parancsokat teljesítenek,és nem mérlegelik a következményeket!" Pont ahogy az emberi katonák sem. Pedig nekik meg lenne a képességük rá. Mégis simán bombát dobnak a civilekre, rakétával szednek szét ENSZ iskolákat, és utána csak a vállukat vonogatják, hogy igen, az emberek hibáznak.....
  • AcsMarci #26
    Nem értem én ez az embert, hogy lehet hogy valakinek ennyire nincs gerince?! Ha önműködőek lennének, akkor legalább lenne kifogásuk, a civilek lemészárlására, ami jelenleg is gyakori "hiba". Meglátnak egy konvojt egy műholdképen, ahol ali látszanak az autó, és egyből ráküldenek egy drónt egy rakétával. Aztán kilométeréről megnyomnak egy gombot, gondolkodás és mérlegelés nélkül. Lehet, hogy egy gép nem lenne képes mérlegelni, de ez egészen addig nem számít, amíg olyan katonák harcolnak, akik ugyan képesek lennének mérlegelni az adott helyzetet, de mégsem teszik meg.
  • esztyopa #25
    Érdekes olvasni a hsz-eket,hogy mindenki tökéletesen működő,hibázni képtelen,tökéletes,ellenőrzés alatt tartható gépekről beszél.
    A bankszakma,vagy a gyógyítás nagyon lényeges,és fontos terület.Ennek ellenére számtalanszor fogadtak,komoly,nemzetközi hálózattal rendelkező bankban tanácstalanul őgyelgő ügyfelek,és vállvonogató ügyintézők,mivel leállt a számítógép,és a rendszer működésképtelenné vált, kézi beavatkozásra pedig már régen nem volt opció.Egy kórházi rendszerről nem is beszélve !
    Gondolom,egy harci támadó,vagy elhárító rendszer sokkal bonyolultabb.Bonyolultabb,mint a menetrendszerűen*lefagyó* operációs rendszerek.
    A probléma az,hogy a gép nem mérlegel,nem tud absztrahálni,és a gépeknek teljesen közömbös,hogy megsemmisül -e az emberiség,vagy sem.A gépek CSAK parancsokat teljesítenek,és nem mérlegelik a következményeket!
    Ergo - nem *könyörtelenek*,csak érzelemmentesek.
    Ezt a problémát rendkívül szemléletesen járja kőrül a "Terminátor" c. filmsor.
    Egyébként az emberiség gépi segítség nélkül is képes kiirtani önmagát...százféleképpen.
    Hol húzzuk meg a határt az MI-k önállósággal való *felruházásában*
    Valamint a digitális rendszerek pont bonyolultságuk miatt MINDIG hibázhatnak !
  • molnibalage83 #24
    A vezetékes Goliath-ra gondolsz? Nem volt egy túl sikeres valami...
  • aru #23
    Elég később kapkodnak. Már 70-75 éve is használtak távvezérelt robot fegyvereket. A hitleri németországnak elég nagy arzenálja volt, elég sok ellenséges tankot és objektumot robbantottak így föl.
  • Papichulo #22
    Manualisan aktivalni kell a raketakat, athelyezni oket kilovesi allapotba, de a gombot nem az operator nyomja meg, hanem a kozpont (norad), a kiloves felfuggesztesi jel kikapkacsolasaval.

    Nekem itt nem ugy tunik, hogy barmilyen jelre varnanak:



  • kvp #21
    "Már elnézést de ezt az téveszmét honnan szedted? Mai napig az a metódus, hogy a kontinentális US területére érő első becsapódás megerősítése után indulhat csak a válaszcsapás, mert a korai előrejelző rendszer tévedett már nem egyszer. (Mindkét oldalon.) Egyszerűen nem engedhető meg a téves indítás. A kapcsolat is megszakadhat technikai okokból."

    Manualisan aktivalni kell a raketakat, athelyezni oket kilovesi allapotba, de a gombot nem az operator nyomja meg, hanem a kozpont (norad), a kiloves felfuggesztesi jel kikapkacsolasaval. Ez utobbi tortenhet szandekosan vagy a kozpont megsemmisulese miatt. Viszont ahhoz, hogy ezt a rendszert elesitsek, eloszor embereknek kell uzembehelyezniuk a raketakat. Viszont azt soha nem tudhatjak, hogy most gyakorlat miatt vagy eles helyzet miatt tortent. Mivel eddig csak gyakorlat volt, ezert eles helyzetben sem gondolkoznak azon, hogy megtegyek-e. Persze ha aktiv haboru van eppen folyamatban, akkor sejteni fogjak, hogy nem gyakorlat, de erre meg soha nem kerult sor. A tengeralattjarokrol es hajokrol indott rendszerek eseten ez nem mukodik, mivel ott nincs folyamatos online kapcsolat, mig a bombazokra szerelt bombak eseten azzal szamolnak, hogy azok joreszt el sem jutnak a celig, bar ezek joresze amugy is tartalekba lett helyezve a szovjetunio megszunese utan. Viszont a meg meglevo szarazfoldi fix telepitesu rendszerek is jelentenek annyi elrettento erot, hogy ne nagyon probalkozzon senki.
  • Zoliz #20
    Amit feltalál a jóhiszemú zsidó, kinai, meleg feltaláló aki csak eteti a porontyait, azt használni fogják bűnözők is. Betiltani nem lehet, csak a megszerzését neheziteni.
    Fantasztikusak ezek a kütyük, de az embert irtják ki belőlünk.
    Aztán meg majd minket is, bár a mechanikus fegyver gép volt eddig is, ezzel fognak érvelni a pénzhajhászok.
  • Papichulo #19
    "Russia's ultimate defense system will dispatch a retaliatory nuclear strike even if the command and communication lines of its Strategic Missile Forces are totally destroyed. The system is called ‘Perimeter,’ and in the U.S. it has been nicknamed ‘Dead Hand’." (Ultimate deterrent: How the Russian ‘Perimeter’ system works)

    SPOILER! Kattints ide a szöveg elolvasásához!
    The system is made up of command ballistic missiles. Instead of flying towards the enemy, they fly over Russia, and instead of thermonuclear warheads, they carry transmitters that can send a command to launch all available combat missiles in silos, aircraft, submarines and mobile ground units. The system is fully automated, the human factor is excluded or minimized in it.

    The decision to launch command missiles is made by an autonomous control and command system - a complex artificial intelligence system. It receives and analyzes a wide variety of information about seismic activity and radiation, atmospheric pressure, and the intensity of chatter on military radio frequencies. It monitors telemetry from the observation posts of the strategic missile force and data from early warning systems (EWS).

    If it detects, for example, multiple point sources of powerful ionizing and electromagnetic radiation, it compares them with data on seismic disturbances in the same locations, and makes a decision whether or not there was a massive nuclear strike. In this case, Perimeter would initiate a retaliation strike bypassing even Kazbek.

    Another scenario is if the country's leadership receives information from the EWS that other countries have launched missiles, it would activate Perimeter. If the shutdown command does not come within a certain amount of time, the system will launch missiles. This eliminates the human factor and ensures there would be a retaliatory strike even if the command and launch teams were completely destroyed.
  • molnibalage83 #18
    Még ott sem.