SG.hu

Ausztria szabályozni akarja a robotok fegyverhasználatát

A mesterséges intelligenciát alkalmazó technológia gyors fejlődésével egyre közelebb kerülnek az emberi beavatkozás nélkül ölni képes fegyverrendszerek, amelyek etikai és jogi kihívásokat vetnek fel, és a legtöbb ország szerint hamarosan foglalkozni kell velük. A témában tartott konferencián Ausztria újabb erőfeszítésekre szólított fel a mesterséges intelligencia fegyverrendszerekben való felhasználásának szabályozására.

Alexander Schallenberg osztrák külügyminiszter nyitotta meg Bécsben az autonóm fegyverrendszerek szabályozásáról szóló nemzetközi konferenciát. "A technológia rohamos sebességgel fejlődik, a politika pedig lemarad” - mondta a Hofburgban tartott rendezvényen. "Nem szabad elszalasztanunk a pillanatot. Itt az ideje, hogy megállapodjunk az emberi ellenőrzést biztosító nemzetközi szabályokról és normákról” - mondta Alexander Schallenberg a nem kormányzati és nemzetközi szervezetek, valamint 143 ország küldötteinek találkozóján. "Legalább arról gondoskodjunk, hogy a legmélyebb és legmesszebbre ható döntés, hogy ki él és ki hal meg, továbbra is emberek és ne gépek kezében maradjon” - mondta az „Emberiség válaszúton” című konferenciát megnyitó beszédében: "Autonóm fegyverrendszerek és a szabályozás kihívása” címmel.


Az ENSZ-ben évek óta folyó viták kevés kézzelfogható eredményt hoztak, és a kétnapos bécsi konferencia számos résztvevője szerint a cselekvésre nyitva álló ablak hamarosan bezárul. A bécsi találkozó céljai egybeesnek a Vöröskereszt Nemzetközi Bizottságának (ICRC) céljaival is. "Nagyon fontos, hogy cselekedjünk, méghozzá nagyon gyorsan” - mondta Mirjana Spoljaric Egger, az ICRC elnöke a konferencia egyik panelbeszélgetésén. "Amit ma az erőszak különböző kontextusaiban látunk, az erkölcsi kudarc a nemzetközi közösséggel szemben. És nem akarjuk, hogy ezek a kudarcok szaporodjanak azáltal, hogy az erőszakért, az erőszak feletti ellenőrzésért való felelősséget gépekre és algoritmusokra bízzuk.” - tette hozzá. "A mesterséges intelligencia részvételében annak lehetőségét látjuk, hogy az ember elveszíti az erő alkalmazása feletti kontrollt. A nemzetközi humanitárius jog szempontjából ez nagy kihívás, hogy ne mondjam, problematikus. Tudjuk, hogy a mai hadseregek, különösen a nagyobb államok hadseregei sokat fektetnek ebbe a technológiába, azaz a fegyverrendszerek támogatásába” - mondta Spoljaric Egger.

Mesterséges intelligenciát már most is használnak a harctereken. Az ukrajnai drónokat úgy tervezték, hogy maguk találják meg az utat a célpontjukhoz, ha egy jelzavaró technológia elvágja őket a kezelőjüktől - mondták diplomaták. Az Egyesült Államok ebben a hónapban közölte, hogy megvizsgálja azt a médiajelentést, amely szerint az izraeli hadsereg mesterséges intelligenciát használ a gázai bombázási célpontok azonosítására. "Már láttuk, hogy a mesterséges intelligencia kisebb-nagyobb szelekciós hibákat követ el, kezdve attól, hogy egy bíró kopasz fejét rosszul ismeri fel focilabdának, egészen olyan gyalogosok haláláig, akiket szabálytalanul közlekedő önvezető autók ütnek el” - mondta Jaan Tallinn szoftverprogramozó és technológiai befektető vitaindító beszédében. "Rendkívül óvatosnak kell lennünk, ha ezeknek a rendszereknek a pontosságára támaszkodunk, akár a katonai, akár a civil szektorban”.


A konferencia célja, hogy lépést tegyen az autonóm fegyverrendszerek globális szabályozása felé. Schallenberg felhívással fordult a résztvevőkhöz: „Mindannyiukra szükség van. Itt az ideje, hogy nemzetközi szabályokkal biztosítsuk az emberi kontrollt” - mondta Schallenberg. Ausztria már régóta törekszik az autonóm fegyverrendszerek korlátozására. Az ENSZ Közgyűlés elé 2023-ban egy határozatot terjesztettek be, amelyet nagy többséggel elfogadtak, azóta azonban nem sok minden történt. A jelenlegi katonai konfliktusokban nehéz visszalépni, de a ma záruló bécsi konferencia célja nem is ez, hanem egyfajta „stratégiai szemlélet”. Az esemény nem hivatalos tárgyalási platform, de szakértők szerint eredmények eléréséhez nem is feltétlenül szükséges, hogy minden állam aláírjon egy rendeletet.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Tetsuo #7
    Ausztria szabályozni akarja, de Izraelben már használják és ott nagy ívben tesznek arra, mit határoznak Ausztriában...
  • TSL16b #6
    Tetszik ez az álom-hasonlat a jelenlegi MI-re, nagyon találó.
  • NEXUS6 #5
    Úgy mondanám, hogy az amit ma MI-nek tekintünk, az emberi párhuzamot nézve kb. a tudatalattinak/álmodásnak felel meg. Az álom is legtöbb esetben a hétköznapi élethez hasonló szituációkat tartalmaz, azonban helyenként hatalmas szürreális dolgokat produkál. Lásd még MI 6-8 ujjú emberei, kisilabizálhatatlan szövegei stb. Ez önmagában nem alkalmas döntéshozatalra, mert tényleg simán megálmodja a világvégét, ahogy mi is.

    Namost, ahhoz hogy ezt valós általános MI-nek nevezhessük fel kell tölteni személyiséggel, emlékekkel, kultúrával, erkölccsel olyan ökölszabályokkal, tabukkal, amivel, aminek megfelelően csípőből kell kiszelektálnia (helyettünk) a "hibákat" túlzott kretiv ötleteléseket a megálmodott dolgokból.
    Lásd ennek művészi megjelenítését a Szárnyas fejvadász replikánsainak mesterséges tudati feltöltését, művi emlékeit.
    Szerintem.
    Utoljára szerkesztette: NEXUS6, 2024.05.03. 11:19:21
  • Akva #4
    Miután kipróbáltam a mesterséges intelligenciát pl. történelem témában, meggyőződhettem róla, hogy néha bonyolultabb kérdésben is egésze tűrhető kis esszét ír, ellenben pofonegyszerű dolgokat úgy összekever, hogy a fal adja a másikat. Megkérdeztem, hogy 1070-ben milyen történelmi eseményeket ismer, hát úgy sikerült összezagyválnia az eseményeket, és neveket, hogy a tulajdon anyjuk se ismerne rájuk. Géza Salamon öccse 1070-ben lépett trónra miután Géza meghalt, meg ilyesmi. Na most ha Netanjahu mesterséges intelligenciával jelölte ki a célpontokat figyelembe véve a célpontok családját és kapcsolatrendszerét, akkor a véletlenszerűen ledobált bombák egy kicsivel kevesebb civil halottat produkáltak volna, mint ez a szemét tömegpusztító fegyver.
  • NEXUS6 #3
    Hát igen, pont így lesz. Konkrétan az un. loitering munition valójában gyak egy modern szelektív működésű akna kategóriáját jelenti. Ugyan úgy ahogy egy faék egyszerűségű akna, úgy ez a hatékony működése érdekében akár MI-vel felszerelt eszköz is egy csomó morális problémát vet fel (akár szándékos telepítés iatt jelentkező civil áldozatok, gyak genocídium kérdése). Nyilván elsősorban azok az országok érzékenyek ezekre, akik nem háborúznak és nem is tervezik a konfliktusaikat ilyen módon megoldani. A nagyhatalmak meg eközben egyetértően bólogatnak, majd komolyra fordítva a szót lexarják az egész kérdést.
  • kvp #2
    Ha az MI vezerelte fegyverek a taposoaknakkal kerulnek egy kategoriaba, akkor csak azok fogjak hasznalni oket akiket jelenleg ugyanugy nem erdekel a taposoakna, vegyi fegyver, stb. betiltott statusza. Ez azt jelenti, hogy az EU nem fog ilyen fegyvereket fejleszteni es gyartani. Az egesz konferencia celja a technologia betiltasa. Persze az USA-t mar az aknak betiltasa se erdekelte, de a legtobb ENSZ tagallamot igen.
  • NEXUS6 #1
    A mesterséges intelligencia ugyan egyáltalán nem biztos, hogy hatékonyabban tud majd hadat viselni. Az viszont biztos, hogy rá hivatkozva lerúgható a felelősség kérdése magunkról. És valójában ez az a nagyszerű tulajdonsága, ami miatt végülis minden hezitálás nélkül alkalmazni fogják! ;)