Hunter

Klinikai tesztek alatt a bionikus szem

Két éven belül forgalomba kerülhet az első bionikus szemimplantátum, ami emberek millióinak látását adhatná vissza.

Az amerikai Dél-Kalifornia Egyetem által kifejlesztett Argus II rendszer lelke egy szemüvegre erősített kamera, ami vizuális információkkal látja el a szembe ültetett elektródákat. Miután a retinai implantátum egy korábbi, kisebb felbontású változata már bizonyított, és használóinak sikerült észlelnie a fényeket, az alakokat és a mozgást, a Mark Humayun professzor által vezetett projekt zöld utat kapott a széleskörű klinikai tesztekhez, melyben 50-75 50 év feletti pácienst látnak el a rendszerrel.

Ha ez a kísérlet is sikerrel jár, és a fejlettebb eszközök is beválnak, akkor hamarosan - Humayun professzor szerint két éven belül - a kereskedelemben is feltűnik majd az Argus rendszer, körülbelül 30.000 dolláros áron. Később fokozatosan fogják továbbfejleszteni, hogy az egészséges szem által alkotott képhez minél közelebbi eredményt tudjanak biztosítani a látásukat elvesztőknek.

Az eszköz lényege, hogy kamerája segítségével valós idejű képeket sugároz, melyeket parányi elektromos impulzusokká alakítva beindítja az amúgy vak szemet, lehetővé téve viselőinek a látás bizonyos fokú visszanyerését. Az eszköz elsősorban azoknak nyújt megoldást, akik szemfenéki meszesedés vagy retinis pigmentosa miatt vesztették el látásukat. Utóbbiban világszerte másfél millió ember szenved, fő tünetei: farkasvakság, fokozatos, körkörös látótérszűkület, és típusos esetekben pigment kicsapódás a szemfenéken. A szemfenéki meszesedés az idősebb, 55 év feletti korosztály egytizedét érintheti. Mindkét betegség a retina sejtjeinek fokozatos elhalásához vezet.

Az új eszköz a kamera mellett 60 parányi, a retinába ültetendő elektródát és egy feldolgozó egységet foglal magában. Az elv magától értetődő: a kamera rögzíti a képet, a vizuális információt egy kis kéziszámítógép méretű egységhez továbbítja, amit az elektromos jelekké alakít. Ezek a jelek a szemüveghez kerülnek vissza, ami vezeték nélküli technikával továbbítja egy, a szem felszíne alatt közvetlenül elhelyezett vevőhöz, majd a vevő a retina hátsó részén elhelyezkedő elektródákhoz. Mindezt pillanatok alatt, így az egész folyamat valós időben játszódik le.

Az eszköz első generációját már sikerrel alkalmazták hat beteg esetében. Egyikük több, mint öt éve használja a jóval kevesebb, mindössze 16 elektródát alkalmazó beültetést, ami mindössze 16 pixelt jelent. A vizsgálatok és megfigyelések azonban így is elképesztőnek találták mennyire feljavította ez az apró segítség is viselői életvitelét.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Aquir #52
    ha ennyi minden lenne egy kontaktlencsében, akkor nem jutna jól át a fény rajta :)
  • Pluskast #51
    Tiszta Star Trek:) 50 év múlva simán lehet olyan szemet rendelni mint ami La Forge-nak van:)))
  • AranyKéz #50
    Interaktív programoknál (pl. játékok, legfőképpen a Quake III Arena) még szembetűnőbb valamiért. Ott még 100 fölött is lehet érezni 10..20 fps-nyi különbségeket.
  • dez #49
    (50 és 100 között persze csak olyan megjelenítőn, ami képes 100 képet megjeleníteni.)
  • dez #48
    "átlagosan 24 pillanatképet dolgozunk fel másodpercenként"

    Ez egy tévedés! Ennyit már mozgóképnek látunk, de jóval többet is fel tudunk dolgozni. Ha jobban odafigyel, szinte mindenki látja a különbséget pl. 25 és 50 fps között, de sokan (pl. én is) az 50 és a 100 között is. [Nem villogásról beszélek, hanem pillanatképekről.]

    A szemnél nem a megapixel volt Baluman és az én felvetésem, hanem pl. az érzékenység nagy különbsége. Úgy tudom, a szem akár egyeten fotont is képes érzékelni.
  • sonicXX #47
    Mért ne lenne átszámolható megapixel-be? A szemben lévő fényérzékelő receptorok száma nem végtelen... Egyébként az emberi szem FPS-e is elég egyértelműen definiált már legalább 70 éve: átlagosan 24 pillanatképet dolgozunk fel másodpercenként. Hogy látóközpontunk képfrissítése mennyire meglepően gyenge, a legszembetűnőbben akkor derül ki, mikor erősebb fénybe nézünk és utána percekig is elmosódottan látunk néha.
    A látottakat a látóközpont kipótolja, korrigálja is a szükséges mértékig: nappal kevésbbé, éjjel jobban. A korrekciót tárolt minták alapján hajtja végre az agy. Legegyszerűbben próbára vihető például úgy, hogy ha az ember a látóképessége legfelső határához mért távolságból elolvassa egy gyakran látott busz számát, majd egy ritkán vagy soha nem látottét: a ritkábban látott busz számát érezhetően nehezebb kiolvasni, mert az agy pontatlanul korrigálja a látottakat. Hogy ne legyen egyoldalú a kísérlet érdemes több ismert és több ismeretlen busszal is próbálkozni (mivel a számok nem egyformán könnyen olvashatóak).

    Továbbá egy kazettán mérhető a kbps - lásd kazettás adattárolók (lévén ezek szintén analógok). Az FPS nem mozgásváltozást kifejező értéket jelent, hanem pillanatkép feldolgozási gyakoriságot: a pillanatképek változatlanok is lehetnek, attól még az FPS nem lesz 0 (nulla)...

    A "bigyókat" meg azért kell beültetni, hogy a vevő az információkat vételezhesse az adótól... nem egyértelmű a cikk alapján?
  • dez #46
    "egy input adat, amiből" -> "egy input adat a többi között, amikből"
  • dez #45
    Na jó, de ez - mint te is írod - csak egy input adat, amiből sokkal magasabb szervezettségű területek hozzák létre a térlátást. Egyébként adott esetben felül is bírálódik.
  • kvp #44
    "Ez nagyon nem így van, hogy finoman fogalmazzak. Az a kereszteződés egész mást csinál: a két szem 1-1 oldalától jövő jeleket választja szét, és továbbítja a megfelelő agyféltekébe, így a jobb látómező képe mindkét szemből a bal agyféltekei látóközpontba megy, a bal látómezőé meg a jobbéba. A térlátás ennél sokkal-sokkal összetettebb dolog, és csak a szürkeállományban jön létre, milliárd neuron közreműködésével. Mivel az egy "utólag létrehozott" virtuális valóság."

    Jelen esetben a melysegerzekelesrol beszelek, ami a ket latott kepbol egy melysegi terkepet hoz letre. Ezt mar a cnn chip-el is meg lehetett oldani, tehat akar a szem is kepes lenne ra ha rendelkezne mindket keppel. Ezert van az, hogy a keresztezodesben vannak azok a feldolgozo kapcsolatok amik letrehozzak a melysegi kepet. A latomezo azon reszein ahol nincs atfedes a ket kep kozott tehat melysegi latas, ott csak a mozgasok detektalasa tortenik. Az algoritmus ugyanaz, csak az egyik terbeli a masik idobeli optical flow-t hasznal. Az algoritmus maga nagyon egyszeru, ezert is lehet cnn chip-en futtatni. (Roska fele cnn chip: pixelenkent 9 input, 9 feedback, 1 konstans, 4 regiszternyi memoria, 3x3-as cellularis kapcsolati matrixban) Az algoritmus megkeresi a szorasnegyezet (az elteres) minimumat. Ezt hasznalta a gyoztes csapat a legutobbi sivatagi robotautos versenyen is. (a gps mellett)

    Amit a latokozpont feldolgoz az mar tobb adatbol all:
    -latott kep (szinek, 2d formak)
    -elmozdulasi kep (alakzatok elmozdulasa, nem konturos hanem teljes felulettel)
    -melysegi kep (a kep adott reszeinek tavolsaga, lasd kovetkezo link)

    http://www.3dphotopro.com/soft/depthmap/help.htm
  • dez #43
    Igen, hallottam erről a chipről. Viszont a felbontás... Kissé még kevés. Meg ugye a CCD érzékenysége...

    "A terlatasert egyebkent az agyi latoideg keresztezodes felel, ami a latokozpont elott van."

    Ez nagyon nem így van, hogy finoman fogalmazzak. Az a kereszteződés egész mást csinál: a két szem 1-1 oldalától jövő jeleket választja szét, és továbbítja a megfelelő agyféltekébe, így a jobb látómező képe mindkét szemből a bal agyféltekei látóközpontba megy, a bal látómezőé meg a jobbéba. A térlátás ennél sokkal-sokkal összetettebb dolog, és csak a szürkeállományban jön létre, milliárd neuron közreműködésével. Mivel az egy "utólag létrehozott" virtuális valóság.