18
  • Tetsuo
    #18
    Ha nem bizonyítható, akkor annyira nem számítanak az erkölcsök manapság ;-)
    Utoljára szerkesztette: Tetsuo, 2016.04.18. 18:41:11
  • Sequoyah
    #17
    Majd 100 ev mulva esetleg, de manapsag a kep es mintafelismeres epp azon teruletek egyike, ahol az emberi agy kozelebe sem tudnak erni a szamitogepek, elsosorban mukodesi filozofiajuk miatt.
    A neuronhalozatokat nem lehet szimpla sebesseggel es algoritmusokkal potolni.
  • NEXUS6
    #16
    Hagyományos hadviselésben sem alkalmazzák általánosan a saját/idegen felismerést, pedig 1-2 gyakorlat bebizonyította, hogy jelentősen emelkedik a hatékonyság, ha a katona tudja, hogy a ki nem adja a saját jelet, az mind lelőhető.

    Azonban az újabb konfliktusok, az un hibrid-hadviselés teljesen más követelményszintre emelik az azonosítást. Nem elég minden baka zsebébe dugni egy RFID kártyát, vagy egy nem túl okos válaszjeladót, és lőni mindenkire aki ezzel nem rendelkezik.

    És nem csak technikailag, hanem jogilag, nemzetközi jogilag, sőt erkölcsileg sincsenek sokszor válaszok. Namost, ha az elvek nincsenek tisztázva, ha ebben a zavaros környezetben az egyszeri katona is hibázik, akkor hogy lehet egy sokkal primitívebb mesterséges logikára, egy primitív algoritmusra bízni ilyen döntéseket.

    Egyszerű: sehogy!
  • kvp
    #15
    A helyzet az, hogy a legtobb esetben az sem tiszta (se embernek, se gepnek), hogy az mozgo valami ott egyaltalan ember es ha igen, akkor milyen (ellenseges katona, civil, gyerek, stb.). Innentol nyugodtan kijelenthetjuk, hogy a legtobb mai dron eseten csak a mindenre lo ami mozog elv az ami uzembiztosan megvalosithato. Gyakorlatilag egy fegyveres autonom robot hatasa ma egy mozgo aknamezo es egy vegyifegyver kombinacioja. Jobb es hatekonyabb mint az elozo ketto, de jellemzoen azok helyett hasznalhato csak. Egyetlen elonyuk, hogy sok esetben olcsobbak es konnyebben bevethetoek.

    A fentinel okosabb autonom robot fejlesztese pedig azert veszelyes, mert ha sikerul egy sajat epsegere vigyazni kepes es az ellenseget valamilyen modon felismero robotot kesziteni, akkor nem sok garancia van arra, hogy egy program vagy adat hiba miatt veletlenul nem nezi-e a sajat katonait is ellensegnek. Sajat es ellenseges civilek, tovabba fegyvertelen es fegyveres civilek kozott pedig nem lehet kulonbseget tenni, meg embernek se megy, tehat robotok eseten nagyjabol a 'mindenki aki nem rendelkezik mukodo katonai barat-ellenseg azonositoval, az ellenseg' besorolas varhato csak el.
  • MrImy
    #14
    Úgy gondolom, hogy gép-célpontok megsemmisítése gépi döntés legyen az emberi meg emberi döntés legyen, hogy felelősségre vonható legyen rossz döntés esetén.
  • Sir Cryalot
    #13
    "Az emberekről se tudjuk, hogy mit fognak csinálni a következő pillanatban. "

    pedig van elég sok önértékelés defektes gőgös ember, akik elég fura dolgokban látnak érdemesülést :D
  • NEXUS6
    #12
    Da az még nem indok arra, hogy melléjük ugyan olyan kiszàmíthatatlan gépeket küldjünk a harctérre.
  • philcsy
    #11
    "Mindezt tanuló algoritmusokkal megspékelve olyan géphez juthatunk, melyről fogalmunk sincs mit tesz a következő pillanatban."
    Az emberekről se tudjuk, hogy mit fognak csinálni a következő pillanatban.
  • philcsy
    #10
    Amit mondasz, az csak a klasszikus logika alapján programozott gépekre igaz. Ezek viszont nem igazán nevezhetőek se intelligensnek se alkalmazkodónak. Amik jól működnek (sztohasztikus algoritmusok, neurális hálók) mind előre megjósolhatatlan eredményt adnak. A sztohasztikusok eredendően ilyenek. A neurális hálók pedig ugyan determinisztikusak, de "black-box" működnek, kívülről csak rengeteg paramétert látsz, melyek ráadásul állandóan változnak a tanulás során. Képtelenség elemezni őket, hogy "jól döntenek-e". (Nem mintha lenne objektív jó döntés.)
  • philcsy
    #9
    Ha rövid idő alatt kell dönteni, az ember veszít az ilyen teszteken.
  • Tetsuo
    #8
    :-D
  • Tetsuo
    #7
    Bár szelektív biológiai fegyverekről nincs publikus pozitív eredmény, azért elég komoly kutatások folytak és talán folynak az ügyben (pl. Izraelben). ;-)
  • Cat #6
    Azért mielőtt automatikus tűzparancsot kap egy ilyen robot én megvárnám, míg átmegy néhány nagyon primitív képfelismerő teszten.



  • NEXUS6
    #5
    A robot, vagy akár csak egy számítógépesített puska sokkal hatékonyabb lehet akár egy hosszú éveken keresztül kiképzett mesterlövésznél is. 1 km-ről kilövi egy macska szemét, éjjel nappal, szeles időben, nem fárad, nem éhes, nem nyűgös, nem unatkozik.

    Király.

    De amíg azt hogy az amit becélzott, egy szarvas, vagy egy kislány, vagy egy harcos egy ember kb 2 pillanat alatt eldönti, addig ebben a jelenlegi programok egyrészt többet hibáznak az embernél, másrészt a hibázás után lehetetlenség a felelősség kérdésének tisztázása.

    Egy háborús helyzetben nem tömegmészárossá váló robot készítése ma még szinte lehetetlenség. Amikor az ember is hibázik, drónokkal támadnak a levegőbe lövöldöző násznépet, vagy általában bármiben tevékenykedő embercsoportot, addig egy számítógép ma még sokkal rosszabb döntéseket hoz. A számítógép ráadásul magától nem tanul, nem fejleszt ki új módszereket az azonosítására, mert marhára nem érdekli, hogy a hibás döntésnek mi a következménye. Csak az van, amit bele programoznak.

    Ráadásul egy ma még nem létező, de talán valamikor létrehozható önfejlesztő, pusztító célú AI viszont pillanatokon belül még veszélyesebb lehet.

    Tökre jogos a kezdeményezés.
  • Sequoyah
    #4
    Amit irsz maximalisan igaz, de csak addig, amig nincsen valos AI.
  • p4x
    #3
    Szerintem meg épp az hangzik rémisztően ami ma van, hogy emberek szaladgálnak gyilkos fegyverekkel és hol félelemből, hol tévedésből lőnek olyanokra akik valójában nem jelentenek fenyegetést csak ők ezt nem tudják vagy nem érdekli őket.

    Egy gép algoritmusok alapján dönt, de ezeket az algoritmusokat mi írjuk, mi mondjuk meg neki, hogy mikor lőhet és mikor ölhet. Nagyságrendekkel több információ alapján hozhatnak meg olyan döntéseket amikre mi programoztuk őket. Szóval nem attól kéne félni hogy mit dönt egy gép inkább attól, hogy akik programozzák mennyire etikusak.
  • Zsoltee_a_bator
    #2
    Ertelmetlenne nem teszi, lehet felautomata is. Lehet vele jaroroztetni es ha helyzetet lat, riaszthat emberi operatort. Ha aktiv bevetes van, nem hullik el a katona, meg kevesbe lovoldozik panikolva civilekre, ha a taviranyito mogott ul biztonsagban, stb. Ehhez nem kell szuper-AI a terminator filmekbol.

    Mindenfele emberi jovahagyas nelkul tuzelesre felfegyverzett robot persze, hogy riasztoan hangzik. Setalnal szivesen olyan varosban, ahol ilyenek furikaznak?
  • kvp
    #1
    Amit a voroskereszt akar az teljesen ertheto, hogy ne rohangaljanak mindenre esz nelkuli lovoldozo robotok a vilagban. Viszont ez az ami hasznosabba teszi oket mint a taviranyitasos rendszerket, hogy ugyanugy csak bedobod egy helyre es aztan nezed a pusztitast mint egy biologiai fegyver eseten. Kikapcsolni vagy taviranyitani azt sem lehet. Minden korlatozas limitalja a hasznalhatosagukat es nagyjabol ertelmetlenne teszi a rakoltott penzosszeget, mert gyakrabban fog a legalis rendszer valamilyen oknal fogva nem mukodni mint ami meg katonailag elfogadhato. Ahogy jelenleg szelektiv biologiai fegyver sincs, ugy szelektiv robot se nagyon van es a kifejlesztesehez szukseges valodi MI sokkal veszelyesebbe tenne oket mint amilyenek a buta, mindenre lovoldozo rendszerek.