Berta Sándor

Maven projekt - a Google könnyen pótolható

A társaság nemrég kivonult a Pentagon programjából. Bármennyire is érthető a lépés, mindez a háborúk jövőbeli lebonyolításán aligha fog bármit is változtatni.

Március elején derült ki, hogy a keresőcég az amerikai védelmi minisztériumot segíti. A Maven projekt már tavaly április óta fut. Az Algorithmic Warfare Cross-Functional Teamnek (AWCFT) nevezett program célja az, hogy a gépi tanulás segítségével kutassa át a drónok által készített digitális fotókat és videókat, ugyanúgy, ahogy a röntgenképeken vagy a bőrelváltozásokon a rákra utaló homályos foltokat. Jelen esetben az álló- és a mozgóképeken szereplő objektumok - például az autók - azonosítása a feladat. A Google néhány munkatársa már akkor felháborodással fogadta, hogy az óriáscég komoly erőforrásokat fordít a fegyveres erők megfigyelési műveleteinek a támogatására.

Április elején a vállalat több mint 3000 dolgozója írta alá azt a Sundar Pichainak címzett nyílt levelet, amelyben a katonai fejlesztésekben való részvétel ellen tiltakoztak. A projekt ellenzőinek száma május közepére meghaladta a négyezret. Néhány napja ismertté vált, hogy a Google a közeljövőben nem hosszabbítja meg a Pentagonnal folytatott együttműködést a mesterséges intelligencia területén. A két fél közötti szerződés kevesebb, mint tízmillió dolláros és jövőre jár le.


Emberek által feldolgozhatatlan mennyiségű adatot állítanak elő a drónok

Paul Scharre amerikai biztonsági szakértő, a washingtoni Center for a New American Security (CNAS) munkatársa nemrég könyvet írt a háborúk jövőjéről. A mű címe Army of None: Autonomous Weapons and the Future of War és áprilisban jelent meg az Amerikai Egyesült Államokban. "A Maven projekttel kapcsolatban mindenekelőtt azt kell tudni, hogy az amerikai védelmi minisztériumon belül elsősorban a beszerzés megújításáról szól. Ehhez eltüntetik a bürokratikus akadályokat, hogy ne csupán a megszokott hadiipari konszernekkel lehessen együtt dolgozni, hanem az olyan techóriásokkal is, mint a Google és ezáltal viszonylag gyorsan lehessen az olyan technológiákat a katonaság számára használhatóvá tenni, mint a mesterséges intelligencia és a felhőkörnyezet."

"A drónok által szállított felvételmennyiség olyan nagy, hogy azzal a humán elemzők már nem tudnak megbirkózni. Ezért alkalmazzák erre a célra a mesterséges intelligenciát, amely a gépi tanulásnak köszönhetően egyre jobb lesz a tárgyak felismerésében és osztályozásában. A mesterséges intelligencia ebben már évek óta hatékonyabb az embereknél. A Google ebben a projektben elsősorban a TensorFlow nevű mesterséges intelligencia szoftverével vesz részt, amely szabadon elérhető és nyílt forráskódú, így elvileg bárki használhatja. A megoldást az amerikai fegyveres erők nem a fegyverrendszerekben alkalmazzák és főleg nem az automata fegyverrendszerekben. De már önmagában az a tény, hogy a Google az amerikai fegyveres erőkkel együtt dolgozik, tiltakozásokhoz vezetett és azt eredményezte, hogy nem hosszabbítják meg a jelenlegi szerződést" - fejtette ki Paul Scharre.


Osztályozni kell a felvételeket és azonosítani, hogy melyiken mi látható

A szakember elmondta, hogy a mesterséges intelligencia-alkalmazásokat a katonai feladatok esetén nem is kell nagy mértékben módosítani, és ugyanolyan egyszerűen beépíthető a fegyverrendszerekbe, mint a civil megoldásokba. Ráadásul a társaság néhány hónappal ezelőtt megnyitotta Pekingben a kínai mesterséges intelligencia központját, annak ellenére, hogy még Kína nem katonai célú mesterséges intelligencia terveinek is aggályosaknak kellene lenniük az óriáscég számára - például az emberek biometriai jellemzőinek felismerése tekintetében. Ezért úgy tűnik, mint ha a vállalat a saját etikai szabványait - ne légy gonosz! - is az adott helyzetekhez igazítaná.

"A Google esetében zajló folyamatokat nem lehet csupán a Donald Trump kontra Szilícium-völgy vitára szűkíteni. Ennél sokkal nagyobb léptékű dolgokról van szó. Attól tartok, hogy a Maven-ügy miatt még nehezebbé válik majd a két fél közötti konstruktív párbeszéd a mesterséges intelligencia biztonságával kapcsolatban. Holott a kutatóknak és a biztonsági szakértőknek sürgősen beszélniük kellene arról, hogy mely bevetések alkalmával észszerű és elfogadható a technológia használata, s melyek esetében nem."

"Minden olyan gondolat finoman szólva butaság, amely szerint a Pentagon a Google kivonulása miatt leállítja majd a mesterséges intelligenciával kapcsolatos projektjeit. Bőven vannak olyan magántulajdonban lévő vállalkozások, amelyek készek együtt dolgozni az amerikai védelmi minisztériummal ezen a területen. Azáltal, hogy a Pentagon komoly összegeket fektet be a technológiába, megteremti a keresletet és a piacot, s az utóbbit akár új startupok is uralhatják. A Google-t egész egyszerűen más cégekkel pótolják" - hangsúlyozta a biztonsági szakértő.


A nagy kérdés az, hogy a kommunikáció megszakadása esetén mit fognak tenni a drónok

A CNAS munkatársa hozzátette, hogy a Pentagon hasonló projektjeinél általában 7-12 év telik el a tervezéstől az adott rendszer bevethetőségéig - de van, amikor még ennél is hosszabb időre van szükség. Ebből a szempontból tehát a Maven nagyon gyorsan bevethető lett. Ehhez nem elsősorban a már elért technológiai fejlődésre volt szükség, hanem a szervezéssel kapcsolatos újításokra. A drónok által szállított adatok feldolgozásával kapcsolatos problémák voltak a fő okai annak, hogy a Pentagon az elmúlt években ezen a területen nem igazán folytatott komoly tevékenységet. Azonban most már a mesterséges intelligencia és az automatizálás használata lehetővé teszi, hogy az információkat ne csupán hatékonyabban elemezzék ki, hanem az adatgyűjtési tevékenységet is kiépítsék.

Alapvetően az jó dolog, ha egy harci cselekmény tervezése esetén minél több információ gyűlik össze, és különösen igaz ez az aktuális harctéri helyzetek kapcsán. Scharre megjegyezte, hogy őt személy szerint irritálták a Google munkatársának tiltakozásai, mert azt valójában senki sem várhatja el, hogy az amerikai fegyveres erők egy háborúban sötétben tapogatózzanak. Amennyiben ez megtörténik, akkor sokkal több téves döntés születhet, amelyek még több nem várt következménnyel járhatnak. Minél pontosabbak az információk, annál valószínűbb, hogy valódi katonai célpontokat sikerül találni és leküzdeni.

Természetesen mindig fennáll a polgári áldozatok kockázata. A Maven projekt kapcsán az volt a fő érv, hogy belépőt jelent az önálló fegyverrendszerek világába, ez azonban nem igaz, hiszen továbbra is az emberek hozzák meg a döntéseket arról, hogy egy célpontot le kell-e küzdeni vagy sem. Amennyiben valaki objektív módon tekint a Maven esetében alkalmazott technológiára, akkor ezáltal jelentős mértékben lecsökken a polgári áldozatok valószínűsége azért, mert a rendelkezésre álló információállomány nagyobb.


Az amerikai és a kínai hadseregnek biztosan van lopakodó drónja

"A Pentagon illetékesei azt hangsúlyozzák, hogy ma még az emberek hozzák meg a döntéseket. De ezzel párhuzamosan azt is elismerik, hogy más államok a jövőben valószínűleg másként gondolkozhatnak és az amerikai védelmi minisztérium átgondolja majd az álláspontját, ha más nemzetek valóban megépítik az autonóm fegyverrendszereiket. Elvileg napjainkban már vannak viszonylag egyszerű autonóm fegyverrendszerek, amelyek támadhatják a radarokat, a hadihajókat és a tengeralattjárókat. Ezekben az esetekben a célpontok egyértelműen katonaiak. De megváltozhat a helyzet, ha megjelennek az álcázott támadódrónok."

"Számos ország dolgozik ilyen robotrepülőgépek kísérleti változatain, köztük van az USA mellett Nagy-Britannia, Franciaország, Izrael, Oroszország és Kína. Ezért abból lehet kiindulni, hogy 10-15 éven belül valóban bevethetők lesznek az ilyen álcázott légi járművek és akkor a fegyveres erőknek fel kell majd tenniük a kérdést, hogy mi legyen, ha például egy harci helyzetben megszakad a kommunikáció egy ilyen drónnal" - ecsetelte az amerikai biztonsági szakértő.

A CNAS munkatársa végül leszögezte: a jövő harcterein a harcoló felek elsőként az ellenségeik kommunikációs rendszereit támadják majd, hogy használhatatlanná tegyék azok hálózatba kötött fegyverrendszereit. Amennyiben ez utóbbiakat nem lehet távvezérelni, akkor jön majd a következő kérdés, hogy miként lehet biztosítani a gépeknek ilyen helyzetekben a célpontok önálló leküzdésének döntési jogát. Ebben a kérdésben az Amerikai Egyesült Államok és a nyugati szövetségesei nagyon visszafogottak. Magas rangú orosz katonai vezetők viszont azt mondták, hogy olyan robotegységeket terveznek, amelyek a hadműveleteket önállóan hajtják végre. Ezt a piros vonalat a mostani NATO-tagállamok valószínűleg nem fogják elsőként átlépni. De a világ afelé a pont felé halad, amikor mindenkinek döntenie kell majd arról, hogy milyen álláspontot képvisel.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • defiant9 #8
    "megpedig ami tavvezerelt az elteritheto"
    Az ICBM is távvezérléssel indul, mégsem tudta senki meghackelni ahogy a műholdakat sem a hackerek állítgatják. Ma meg már 2^n+1 bites titkosítások világában élünk, azt sem tudják megtörni hogy a böngésződdel adatot kapsz https-en keresztül, egy military grade drone pedig nyilvánvalóan titkosított command csatornát fog használni, a video upink-nél ez nem lenne kritikus, de ma már nagyon olcsó erre is HW-es titkosítást beépíteni. Az sokkal valószínűbb hogy egy ember az átvilágítások ellenére is szabotálja az akciót, a gépeknek nem lesznek olyan titkos motivációik amik az elérendő céllal ellentétesek. Egyébként nem régi hír hogy a rosszindulatú sejtburjánzással kapcsolatos döntésben már jobb az AI. Valahol az RPG-s fickó a gépágyús terepjárón sem más mint egy rákos sejttömeg az ép sejtek közt.
  • kvp #7
    "A civileket ért ua. vagy akár megnövekedett számú támadás/collateral damage ellenszere pedig nem egy méghatékonyabb AI lesz, sokkal inkább egy jól felépített, elterelő jellegű médiakampány."

    Ez max. arra jo, hogy a nyugati vilagban ne panaszkodjanak annyira ha a katonai megoldas alapja vegul egy-egy nagyobb nepirtas lesz. Egy amerikai katona mondta anno a veluk jarorozo hirados stabnak, hogy szerinte a talibok valojaban a helyi civilek. Es igen, ez volt anno az amerikai fuggetlensegi haboruban is az alap strategia, azaz csak akkor nyerhette volna meg anglia, ha kiirtjak az osszes amerikait. Ezek tenyleg megnyerhetlen haboruk, kieve ha a robotokat a teljes lakossag modszeres kiirtasara vetik be. Viszont a ami vilagban hamarabb kerul ki egy ilyen hir a netre es hamarabb akasztja ki vagy az adott orszag sajat lakossagat vagy egy ellenredekelt orszag vezeteset, mint hogy a hadmuvelet befejezodjon. (jo pelda erre Jemen esete, ha beszallnak az amerikaiak, akkor az oroszok telenyomjak modern fegyverekkel az irani tamogatasu helyi csapatokat, csak azert hogy keresztbe tegyenek az amerikaiaknak es egy nagyobb haboruval elkaszaljak a voros tengeri kereskedelmet is nyugateuropa fele)

    Van egy masik veszely is, megpedig ami tavvezerelt az elteritheto, ami autonom az pedig feltorheto. Es egyre inkabb ugy nez ki, hogy olcsobb par hacker-t megfizteni mint kikepezni tobb tizezer katonat vagy legyartani tobb ezer robotot. Nagyon konnyen visszaharaphat egy uj atomata fegyver es ezt a katonakon es a biztonsagi szakertokon kivul nagyjabol senki nem hajlando manapsag belatni.
  • NEXUS6 #6
    Szerintem azt látni kell, hogy a robotok, MI alkalmazásának okai nem azok elsődlegesen, hogy a jelenlegi rendszernél egy jobbat, hatékonyabbat hozzanak létre.

    Ha a kérdést persze úgy tesszük fel, hogy a jobb elsősorban költséghatékonyabb, sőt olyan, amely rendszernek alkalmazása kevésbé rázós politikailag, akkor a válasz persze igen. Az MI-nél, robotnál hosszabtávon alacsonyabb költséggel kell majd valszeg számolni, mint a humán erőforrásnál, és az is sokat dob a népszerűséget illetően a latba, hogy kevesebb csillagos sávos lobogóval letakart koporsót fuvaroznak majd haza várhatóan a hadszintérről. A civileket ért ua. vagy akár megnövekedett számú támadás/collateral damage ellenszere pedig nem egy méghatékonyabb AI lesz, sokkal inkább egy jól felépített, elterelő jellegű médiakampány.
  • Cat #5
    Szerintem csak kapacitás és fejlettség kérdése, hogy mikor és mennyi döntési jogkör kerülhet át az egyes eszközökbe. Már megjelent az első olyan okostelefon, amelynél a - nyilván korlátozott képességű - intelligencia offline is működik, szóval szerintem néhány éven belül változni fog a szakértők véleménye.
  • kvp #4
    A google rendszere arra jo, hogy kategorizalja a latott kepeket. Ezeket az operatorok altal adott korabbi cimkek szerint teszi. Tehat ha az operatorok arra tanitjak be, hogy az eskuvoi menet vagy az iskolaudvar katonai celpontok, akkor a jovoben az MI is annak fogja jelolni oket. Mivel ezen cimkek alapjan dontenek az operatorok a celpontok megsemmisiteserol, ezert ha a szoftver hibasan van betanitva, akkor hibas donteseket fog okozni. Teljesen mindegy, hogy ki jeloli meg a celpontokat, ha egyszer megvan a cimke akkor tobbnyire mindig lonek. Ehhez jon meg hozza az, hogy a gepek donteseit jobban elfogadjak az emberek, tehat ha a tuzgomb ember kezeben is maradna, ezzel az MI hasznalataval akkor is noni fog a tevedesek szama. Na most a Google alkalmazottaknak nem sok kedvuk volt hozza, hogy ebben segitsenek.

    Amit irtam a tevekenyseg kiszervezeserol ezek szerint masoknak is eszebe jutott, szoval annyi valtozik hogy varhatoan nem a Google neve alatt, de az o algoritmusaikat tovabbfejlesztve fog folytatodni a project. Az, hogy a project tesztfazisanak a vegen megnezik, hogy hany szazalekban biralta felul az ember a gepi dontest (es megsem lott civilekre) azt jelentheti, hogy amennyiben ez a szam 0, akkor kihagyhato az emberi operator es a gep maga donthet arrol, hogy mire akar loni es mire nem. Nem lesz tole kevesebb civil aldozat, sot mivel kevesebb operator kell, ezert tobb robot kuldheto fel jarorozni, igy akar nohet is a tamadasok es ezzel aranyosan a civil aldozatok szama.

    Egy robot nagyon jo tud lenni abban, hogy ne artson senkinek es abban is hogy mindenkinek artson. Szetvalogatni nem tudja az embereket, de mivel ez tobbnyire az embereknek sem megy, ezert ez valoszinuleg nem a gepek hibaja. Ha ilyen feladatra rakunk be egy gepet amit ember tanit be, akkor a legjobb esetben is csak az emberi hibaaranyt fogja hozni.
  • Csatabika #3
    A pénz beszél a kutya ugat.
    Valószínűleg (több) tucat cég áll készenlétben, hogy átvegye a Google helyét, ha nem máris ezen a projecten dolgoznak párhuzamosan (a Pentagonban ilyen dolgokat nem szoktak kockáztatni).
    Az, hogy felvételeket elemzünk, még önmagában szerintem nem probléma.
    Az, hogy milyen célból elemezzük, már megér egy átgondolást, de a cikkben is vázolt szerint (több adat, pontosabb összkép, kevesebb polgári áldozat stb.) véleményem szerint még mindig elfogadható.
    A dolog ott kezd fokozódni, hogy az eredmények alapján, ki és milyen döntést hoz feltételezve, hogy az ember kezében van a döntés. Hiszen még két ember sem mindig dönt egyformán, mi nem a szimpla matematika szerint működünk (tekintsünk el most az agymosásos tréningektől).
    A dolog csúcsa pedig az amikor részben-egészben kiemeljük a döntést az ember kezéből. Bár az MI kutatás rohamosan fejlődik, szerintem még elég messze vagyunk attól, hogy a gépi döntések jobbak legyenek az emberinél, természetesen emberi szempontból.
    Sajnos csak reménykedhetünk abban, hogy a fentieket legalább egy kicsit is figyelembe veszik az "illetékes elvtársak".
  • defiant9 #2
    Megvárják hogy a Kínaiak megcsinálják az autonóm működést, onnantól megvan a hivatkozási alap az alkalmazásukra, addig "fejlesztési stádiumban" van.
  • NEXUS6 #1
    Szerintem ég és föld a különbség aközött, hogy felderítési adatokat elemez a mesterséges intelligencia és segít megtalálni a potenciális célpontokat, meg aközött, hogy automatikusan döntsön, rahedli egyéb info figyelembevételével ezeknek a célpontoknak a támadásáról és a támadást sikeresen végre is hajtsa bonyolult körülmények között is.