MTI

Mesterséges intelligencia valóságos alapokon

A biológiai elvek egyre inkább teret nyernek az informatikában. A szemlélet szükségszerű megváltozását a neurológia és a számítástudomány fejlődése eredményezte.

A mesterséges agy biológiai metaforája - a nyilvánvaló asszociációra építve - már a számítástechnika 1940-es évekbeli hőskorában megjelent. Az első számítógépeket - szobányi méretű behemótokat - "óriási" vagy "elektronikus" agyakként emlegették a korabeli szalagcímekben és a mindennapi beszédben egyaránt. És ahogy a számítógépek egyre több, emberek által végzett tevékenység elvégzésére váltak alkalmassá - így például megtanultak sakkozni -, meghonosodott a "mesterséges intelligencia" fogalma.

Jóllehet a metafora biológiai jellegű, a mesterséges intelligencia kidolgozására irányuló törekvés nem a biológusok, hanem a mérnökök érdeme. Ahogy a beszédfelismerés területén úttörő szerepet játszó Frederick Jelinek fogalmazott: "a repülőgépek nem verdesnek a szárnyaikkal". Mindazonáltal a biológiai elvek is egyre inkább teret nyernek az informatikában. A szemlélet szükségszerű megváltozását a neurológia és a számítástudomány fejlődése eredményezte.

Belátható távolságnyira került a hagyományos számítógépes tervezés fizikai korlátainak lebontása - még ha nem is a napokban valósul meg, de elég hamar számítani lehet rá. A nanoáramkörök sokkal tovább nem zsugorodhatnak, a mai, csúcsra járatott chipek túlmelegszenek, ez pedig fékezi az áramkörök fejlesztéseit. Annál közelebb kerülünk ezekhez határértékekhez, minél inkább növekszik a számítási kapacitás iránti igény az érzékelők, az online kereskedelem, a közösségi hálózatok, a videostreamek, a vállalati és kormányzati adatbázisok új és egyre nagyobb számú digitális adatainak feldolgozására és hasznosítására.

Ahhoz, hogy meg lehessen felelni ezeknek az újszerű kihívásoknak - a világ energiatartalékainak elherdálása nélkül - egészen más megközelítésre lesz szükség. És a tudósok szerint a biológia készen áll arra, hogy a metaforaszerepnél nagyobb mértékben járuljon hozzá a megoldáshoz. "Minden alkalommal, amikor eljutunk idáig, a biológia nyújt támpontot ahhoz, hogyan kell közelíteni a számítástechnika határaihoz" - nyilatkozta a The New York Timesnak John E. Kelly, az IBM kutatási igazgatója.


Kelly a Watsonra utalt: a cég számítógépe egy műveltségi vetélkedőben két korábbi - emberi - bajnokot is legyőzött. Igaz, működéséhez 85 000 wattnyi energiára van szüksége, míg az emberi agy beéri mindössze 20 wattal is - vagyis "jól ki van találva" az evolúció. Az egyetemi és vállalati laboratóriumokban világszerte számos, a biológia inspirálta kutatást végeznek a számítógépes szakemberek. De ezek között is megkülönböztetett érdeklődésre tarthat számot az, amelyikben az IBM kutatói mellett négy egyetem - a Cornell, a Columbia, a Wisconsini és a Kaliforniai Egyetem - szakemberei vesznek részt.

Az informatikusok és a neurológusok együttműködésével megvalósuló program három évvel ezelőtt kezdődött, és igen biztató eredményeket produkál, olyannyira, hogy ezt tavaly augusztusban a DARPA (Defense Advanced Research Projects Agency - a Pentagon kutatási ügynöksége) újabb 21 millió dollárnyi finanszírozási forrás rendelkezésre bocsátásával ismerte el. Így a projekt támogatottsága összesen már 41 millió dollárnál tart. Az elmúlt hónapokban a csapat kifejlesztette a "neuroszinaptikus" mikroprocesszor prototípusát, amely már jóval inkább a neuronokhoz és a szinapszisokhoz hasonlóan működik, mint a hagyományos félvezetőkhöz.

A projekt tapasztalatai megmutatták, hogy milyen tervezési elveket, koncepciókat és technikákat érdemes kölcsönözni a biológiától a számítástechnika határainak kitágításához, és azt is, hogy mit nem lehet alkalmazni, vagy minek nincs értelme. Kezdetben a program vezetője - Dharmendra S. Modha, az IBM kutatója - úgy határozta meg a kutatás célját, hogy a mérnököknek az emberi agy felépítésének, funkciójának és működésének elemzésével, egyfajta "fordított mérnöki tevékenységgel" (reverse-engineering) kell modellezniük a gondolkodás technológiai alapjait. A projekt szuperszámítógépes szimulációkkal indult, amelyekkel az állati agy összetettségéről kívántak mintát szerezni - először egy macskáéról, majd egy majoméról. A tudományos világ blogjaiban és online fórumaiban néhány neurológus azonban élesen bírálta az IBM-et, amiért túlzott követeléseket és célokat támasztott a programmal szemben, amelyeket az nem valósíthat meg.


Mostanság az IBM San José-i Almaden Kutatóközpontjában nem sok szó esik az emberi aggyal kapcsolatos reverse-engineeringről. Ugyanakkor a szűk időkerettel meghatározott nagy ívű célkitűzések - magyarázta Modha - akkor is részei maradnak a kutatásnak, ha a velük kapcsolatos kommunikáció korábban túlzásokat és félreérthető elemeket tartalmazott. "Azt eldönteni, hogy merre ne menjünk, ugyanolyan fontos, mint azt, hogy merre igen - szögezte le. - Nem próbáljuk meg reprodukálni az emberi agyat, hiszen ez lehetetlen: egyszerűen nem tudjuk, hogyan működik."

A tudományágakon átívelő párbeszéd és vita mindazonáltal segített meghatározni a kutatások irányát a DARPA által kitűzött céloknak megfelelően: a technológiának önszervezőnek kell lennie - tehát képesnek kell lennie a tanulásra, nem csupán reagálni a hagyományos programozási parancsokra -, és csak nagyon kevés energiát szabad fogyasztania. Modha 2010 elején hozta meg azt a döntést, amely a jelenlegi pályájára állította a programot: a biológiailag inspirált chip fejlesztésének kell elsőbbséget élveznie. Tény, ennek következtében egy sor olyan kísérleti szoftver ment veszendőbe, amely addigra már elkészült, de a chip elsőbbsége mindenesetre koherens tervet eredményezett.

Az emberi aggyal némi szerkezeti hasonlóságot mutató úgynevezett neuromorf chip megtervezésében a neurológiai elv volt a meghatározó: ez az "agy" alacsony fogyasztású, és gyors számítástechnikai mechanizmusok jellemzik. A működési elv azonban drasztikusan eltér a mai számítógépekétől. Az agy processzorai - a neuronok - a számítástechnikában honos kifejezéssel élve masszívan elosztottak, és több millió van belőlük. Ezek a neuronprocesszorok adataikat memóriaeszközökbe - szinapszisokba - burkolják, ennek révén az agyban folyó kommunikáció rendkívül hatékony és sokrétű egészen az elektromos impulzusokat közvetítő idegnyúlványokig.

Az a gép, amely ilyen elvek szerint épül majd fel, Modha szerint fontos elmozdulást eredményez a Neumann János-féle számítástechnika irányától, amelyben a processzor és a memória fizikailag el van választva egymástól, és csupán egy keskeny kommunikációs csatornát használva szekvenciálisan kapcsolódnak egymáshoz. A neuromorf elektronikus rendszerek koncepciója több mint két évtizedes. Carver Mead neves számítógéptudós írt először ilyen eszközökről egy szakfolyóiratban még 1990-ben. A korábbi, biológiailag inspirált eszközök többnyire analóg elven működtek, az egyetlen cél az volt, hogy az érzékelők utánozzanak egy funkciót, például a képi adatok érzékelésekor a retina működését.

Az IBM vezette egyetemi kutatócsoport azonban jóval sokoldalúbb digitális technológia kidolgozására törekszik. "Úgy tűnik, hogy ki tudunk építeni olyan számítógépes architektúrát, amely meglehetősen általános célú, és egy sor alkalmazási környezetben lehet használni" - fejtette ki Rajit Manohar, a Cornell Egyetem professzora. Melyek lehetnek ezek az alkalmazások 5 vagy 10 év múlva, ha a technológia sikeresnek bizonyul?

Például olyan tevékenységek elvégzése, amelyek az emberek számára kézenfekvőek, a számítógépeknek azonban most még alaposan meg kell küzdeniük velük - például alakja felismerésével azonosítani valakit, aki egy zsúfolt utcán sétál. Az alkalmazásoknak robotok is részei lehetnek: így többek között segíthetnek navigálni a háborús környezetekben; alacsony fogyasztású mesterséges eszközök segíthetik a vakok tájékozódását; számítógépes egészségügyi rendszer figyelhet a betegekre az ápolóotthonokban, és szükség esetén riaszthatja az - emberi - ápolószemélyzetet.

A jövőkép biztató, mindazonáltal hatalmas akadályokat kell még leküzdeni. A prototípus chip 256 darab, neuronszerű csomópontjának környezetét több mint 262 000 szinaptikus memóriamodul alkotja. Ez mindaddig lenyűgöző volna, amíg össze nem vetjük az agy megfelelő adataival: becslések szerint az emberi idegsejtek száma akár a 100 milliárdot is elérheti. A program előtt tehát még hosszú út áll. Mindenesetre a támogató Pentagon bizakodva tekint az eddigi eredményekre.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Kornan #7
    Valóban ennek a kutatócsoportnak már nem az a célja, hogy lemásolja az emberi agyat, hanem, hogy jobb MI-nek hívott programokat tudjanak csinálni. Már csak olyan részfeladatok megoldásával is, mint a videoképen a tárgyak emberhez hasonló módon való felismerése is hatalmas előrelépést jelentene az applikációk terén.

    De nem értek egyet azzal, hogy a mesterséges intelligencia szempontjából lényegtelen az emberi agy működése. Ennek a kutatócsoportnak lehet, hogy nincs rá szüksége, de egy valódi AGI(Artifical General Intelligence) megalkotásához szükséges technológiák kifejlesztésében biztosan segítene, még akkor is, ha nem pont úgy oldják meg. Igaz ez még arrébb van.

    "Téves feltételezés az is, hogy azt feltételezik, hogy az ember az agyával gondolkodik, holott a tudatával."

    Mi az egyáltalán, hogy tudat? Tudjuk-e valójában ezt, vagy csak mindenki találgat? Hogyan reprezentálódik a fizikai világban? Én úgy képzelem, hogy a érzékszerveink bemenetéből, valamint különböző aktív memóriaelemek összegyúrásából alkotott valamiféle összetett elegy. Lényegében tehát csak egy speciális memória, ami meg van változtatva és folyamatosan változik. És a memória elemek más módon való összekombinálásával irányítható. Az ,hogy mit hív be az a korábbi állapotoktól és az érzékszervektől függ.

    SPOILER! Kattints ide a szöveg elolvasásához!
    Ezt most találtam ki kb 200 másodperc alatt, úgyhogy nem kell komolyan venni. :D


    Amúgy érdekes terület mind az AI kutatás, mind az emberi agy. Hatalmas lehetőségek rejlenek mindkettőben. Ha lesz időm biztosan jobban beleásom magam a területbe.
  • Quantizs #6
    Jó gondolat.
  • Alfa Of NS #5
    Azzal, hogy csinálnak egy neurális hálóhoz hasonló csipet, még nem jutnak közelebb az agy működéséhez. Az agy neurális háló, ennyit elég tudniuk. Ezt most is ismerjük, tudjuk szimulálni. Épp hogy csak felesleges információ az, hogy az agy hogyan oldja meg a neurális háló működését. Biológusoknak, agykutatóknak, orvosoknak fontos lehet, de a mesterséges intelligencia szempontjából közel lényegtelen.

    Téves feltételezés az is, hogy azt feltételezik, hogy az ember az agyával gondolkodik, holott a tudatával. Érthető a hiba, viszont így nem fognak jutni semmire.
  • MacropusRufus #4
    "Kelly a Watsonra utalt: a cég számítógépe egy műveltségi vetélkedőben két korábbi - emberi - bajnokot is legyőzött. Igaz, működéséhez 85 000 wattnyi energiára van szüksége, míg az emberi agy beéri mindössze 20 wattal is - vagyis "jól ki van találva" az evolúció."
    annál is inkább mivel Watson egy adatbázis szerver, jól indexált adatokkal frnakó keresővel. Ennyi.
    Kérdezd meg tőle, hogy hogyan érzi magát, vagy mi a kedvenc színe.. :)
    Az agy 20W-al még érzelmeket is tud kapcsolni az emlékek mellé mind ezt úgy, hogy közben az illető megy és esetleg valami teljesen másról beszélget valakivel, csak a szituáció hozta elő az agyból a dolgot.
    Na ehhez nem lenne jelneleg elég 85kW... Az agy 20W-al megoldja :)
  • Quantizs #3
    Még nem néztem meg alaposan ezt a technológiát, de ha a nanotechnológia fejlődése révén szilíciumról - grafénre váltanak, akkor óriási mértékben nő majd a hatékonysága (szerintem).

    Másrészről nem minden a neuronok száma, például egy csigának csak pár száz neuronja van még is jól boldogul. Ami igazán fontos az, maga az agy komplexitása. Szerintem egy csiga agyának komplexitása mögött is elmarad az a 262 000 szinaptikus memóriamodul, amivel ez a chip rendelkezik.

    Ami az emberi agy esetében is fontos az a kapcsolatok szám. A 100 milliárd neuron több mint 100 billió (10^15) szinaptikus érintkezési ponton keresztül kommunikál.

    Ami az inteligencia kialakulását illeti, az emergens komplexitás elmélet szerint az ilyen dolgok esetében jön magától. Az egyszerű szabályszerűségek ilyen léptékeknél olyan komplex mintákat alkotnak mint az emberi tudat.

    Az amit most csinálnak, viszont talán alkalmas lehet ember-számítógép interfész kialakítására, de az alapján amit eddig olvastam, ebben nem vagyok teljesen biztos. Pedig szerintem érdekes lenne egy Ghost In The Shell szerű kiber agy.
  • djw #2
    a különféle helyzetekre adott reakció alapvetően nem sokban különbözik a sakkozástól: végigkeresed az eddigi életedben a hasonló helyzeteket és megvizsgálod az akkor hozott döntések eredményét rövid és (jó esetben) hosszú távon és ez alapján hozol újabb döntést. Peresze ez a másodperc tört része alatt.

    Természetesen ez még nem intelligencia, de egy ilyen tanuló-fejlődő rendszer képes új helyzetekben megfelelően reagálni. Ehhez azért lehet, hogy kéne a 100 milliárd tranzisztor :)
  • thsanyi5 #1
    "az emberi idegsejtek száma akár a 100 milliárdot is elérheti"
    Jelenleg egy asztali gép processzora jó ha 2-3 milliárd tranzisztort tartalmaz, ráadásul egy idegsejt jóval összetettebb mint egy-egy tranzisztor. Az agyunk többszörösen felülmúlja méretben a processzorokat. Még szép, hogy nagy a teljesítménye. Vagyis egyáltalán nem biztos, hogy a mostani processzorok gyengébbek mint az agyunk, egyszerűen csak a technológia nincs meg hozzá, hogy nagy méretben, kis fogyasztással gyárthatóak legyenek. Illetve, nincs hozzá megfelelő programozás amivel azt hoznák ki belőle amit szeretnének. Ha össze raknak egyet ami biológiai alapokra épül, annak ugyanúgy nem lesz megfelelő programja amivel mesterséges intelligenciaként működne. Sakkozás is csak előre beprogramozott feltételek végrehajtása. Még mindig csak egy automatika.