17
  • T_I
    #1
    Az algoritmus szabálygyűjtemény: mikor mit kell csinálni. Meg lehet írni jól, hibásan, de akár rosszindulatúra is, ahogy bármit a világon (egyéb szabályokat)
  • kvp
    #2
    Ha jol ertem a kutatas kideritette hogy az emberek jelentos resze ugy hasznalja a technikat hogy fogalma sincs hogy mukodhet. Nekik minden varazslat...
  • ximix #3
    Értem én, hogy algoritmus, de mi hajtsa :)
  • wraithLord
    #4
    És így van ez még kismillió más dologgal is.
  • Nos
    #5
    Ja,nem igazan tudom hogy kell c vitamint gyartani, megsem gondolom, hogy varazslat.
  • jkedzs
    #6
    ez azokra is igaz, akik konkrétan alkalmazzák ezeket az algoritmusokat.
    ha nem ismeri a kurva nagy mintát, amin folyamatosan tanítják őket, ha nem ismeri, hogy hogyan tanul az algoritmus, akkor sohasem fogja tudni megmondani, hogy egy adott bemenetre milyen eredményt fog adni. tehát nem értik azt, hogy az algoritmus által generált szabályok pontosan mik és hogyan hatnak egymásra, hogyan változnak.
  • tom_pika
    #7
    Persze, de mi ebben az újdonság?
  • tom_pika
    #8
    Hát igen, a neurális hálózatokkal pont az csúszik ki a kezünk közül, hogy értsük, pontosan hogyan is működik a dolog. Mire meglesz az MI, pont úgy nem fogunk belelátni, mint egy másik ember fejébe. Csak sejteni fogjuk, hogy adott körülmények között milyen reakció várható tőle.
  • molnibalage83
    #9

    Utoljára szerkesztette: molnibalage83, 2019.02.09. 10:53:03
  • fejlodes
    #10
    Jó volt a videó köszi, hogy megmutattad. Az algoritmusok nyilvánvalóan hasznosak de sok esetben azért fontos az emberi döntéshozatal. Például erkölcsi döntésekben, háborúk során. A gépeknek szolgálniuk kell az embereket, de az embereknek kell irányítaniuk.
    Isaac Asimov már megalkotta a robotika 3 törvényét: (Én a robot című film ezzel kezdődik Will Smith a főszereplője.)
    1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
    2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
    3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.
    Más (de óriási) kérdés hogyan lehetne ezeket a törvényeket leprogramozni
  • molnibalage83
    #11
    Sehogy, és maguk a törvények is hiányosak ebben a formában. Pl. ezeket alkalmazva egy ámokfutó gyilkost sem szerelhetne le, mert végtelen hurokba kerülne...

    Sci-fi könyvekből ne induljunk ki akkor sem, ha populárisak. A Holdutazás során sem Verne könyve volt az alap...
    Utoljára szerkesztette: molnibalage83, 2019.02.09. 11:27:24
  • fejlodes
    #12
    "...vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen." Emiatt elvileg megakadályozná az ámokfutót, persze ehhez valahogy előre kéne látnia a jövőt. Az első törvény erősebb a többinél ezért nincs hurok.
    Viszont abból valóban probléma lehetne ha egyszerre több embertől kapna hasonló utasításokat a robot akkor kire hallgatna, de emberi lényben kár nem keletkezhetne elvileg akkor sem.
  • kvp
    #13
    Asimov torvenyeivel az a gond hogy a nem karokozast konnyu leprogramozni, ha atirjuk ugy hogy semmiben ne tegyen kart. Onnantol viszont problemas, mert komplex tervezes kell ahhoz hogy aktivan tegyen valamit ami meg a legtobb ember szamara is sokszor problemas. Az utasitasok kovetese (barmilyen karokozas nelkul) es a vigyazzon magara mar egyszeru.

    Hozzatennem egy neuralis halozat programja ugyanugy olvashato emberileg mint barmilyen adatvezerelt rendszere es irni is lehet kezzel, tanitas helyett. Anno en irtam 7 retegu reszlegesen feedback-es cellularis matrixokat. Nem akkora tudomany...
  • fejlodes
    #14
    Biztos vagyok benne, hogy nagyon nehéz vagy szinte lehetetlen leprogramozni ezt az Asimov robotikai 3 törvényt, de az elméleti szabályai nagyon jók és követendőek, valamint ha szükséges még kiegészíthetőek ezek a szabályok. Az hogy ember okoz kárt embernek az független a robotoktól. De a robotokra mindig igaznak kellene lennie a 3 törvénynek. Tudom, hogy nincs 100%-os biztonság, de minél biztonságosabb rendszereket kell kialakítani a gépekkel.
    "Onnantol viszont problemas, mert komplex tervezes kell ahhoz hogy aktivan tegyen valamit ami meg a legtobb ember szamara is sokszor problemas." Szóval onnantól problémás hogy aktívan tegyen valamit a robot, hogy az ember ne szenvedjen kárt. Itt is arról van szó, hogy ember okoz kárt embernek vagy az ember saját magának. Ezt nyilvánvalóan nagyon nehéz előrejelezni vagy megakadályozni. Az emberi károkozás előrejelzéséhez ha SZÁNDÉKOS károkozásról van szó, akkor az ember külső viselkedését kellene nagyon pontosan elemezni vagy az emberi agyban kellene kutakodni, de én nem szeretnék olyan világban élni ahol tudják azt, hogy mire gondolok. A NEM SZÁNDÉKOS emberi károkozás megakadályozásához pedig a jövőbe kellene látni, ami (szinte) lehetetlen, de a károkozás valószínűségét és negatív hatásának mértékét lehet csökkenteni. Pl: autóbalesetek, amennyiben az egyik autót ember vezet a másikat gép.
  • cateran
    #15
    Nezzenek oda...mar megint okoskodsz es megint ugy, hogy fingod nincs a temarol, csak hallottal valakirol, aki latott valakit, aki olvasta a dolgot....Termeszetesen nem lenne vegtelen hurok, mivel az 1. torveny felulbiralna a 2.-at. Mondjuk as Asimov-fele torvenyek valoban hianyosak, csak nem ugy, ahogy te almodtad.
    Ami elkeseritobb, hogy tele az internet olyan velemenyekkel, mint pl "Roboticist Daniel Wilson was a bit more florid. “Asimov’s rules are neat, but they are also bullshit. For example, they are in English. How the heck do you program that?”" Jajj...vilagosan le van irva, hogy a torvenyek valojaban komplex matematikai formulak, amik ezeket a torvenyeket eredmenyezik...de az sem gyenge, hogy "You don’t arm a Reaper drone with a Hellfire missile or put a machine gun on a MAARS (Modular Advanced Armed Robotic System) not to cause humans to come to harm. That is the very point!" Dupla jajj...
    Ahogy irtam, a torvenyek valoban nem igazan eletszeruek, de nem az ilyen indokok miatt...
    (Legtrivialisabb, amire maga Asimov is ramutatott, az 1. torvenyben van: "1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen." No, de mifele kart? Fizikai? Vagy erzelmi is? Erkolcsi?)
  • VolJin
    #16
    Elég tragikus, ha önéletrajzokról és hitelekről algoritmusok döntenek. Nem tartom kispályásnak sem a google-t, sem a facebookot, az algoritmusaik viszont egyenesen szarok. főleg az öntanulók. Egy monoton zsákutca felé visznek.
    Az skf kiterjesztésű dokumentumot szerettem volna megnyitni, és rákerestem az skf kifelyezésre. Napokig csapágyokról dobott be reklámot, mert van egy SKF nevű svéd csapágygyár.
    Egy pornóoldalon nagyon beszűkült a honlapra feldobott videók stílusa, mert a saját ajánlásai miatt egy irányba terelt, és gyakorlatilag már csak olyanokat dob fel, hogy a mostoha testvérek vagy a mostohamami a fiúval basznak, szopnak, ilyesmi.
  • molnibalage83
    #17
    Pofád nagy. Megszoktam.