• 1011001
    #13
    Szó sincs több kép készítéséről, sok apró lencséről meg változó fókuszpontról.

    Egy objektív és egy szenzor van, egy exponálás történik, egyszer kerülnek kiolvasásra az adatok, az expozíció közben nem mozdul a lencse. A szenzor kimenete viszont egy négydimenziós mátrix, ahol a pixelek x és y koordinátája mellett u és v beesési szögek szerint is differenciáljuk a pixelek értékeit.

    Egy pixel csak egy irányból érkező fényt rögzít - ez az egész technológia lényege, ez az újdonság, erről szól a doktori disszertáció. Ha a tárgy a fókuszpontban van, akkor minden, róla a kamerába jutó fény a szenzoron egy pontba esik, vagyis x és y koordinátán lévő fényességérték egyenlő az adott koordinátában lévő összes szubpixel által rögzített értékek összegével. Ha a fókuszsíktól közelebbi vagy távolabbi tárgyat szeretnénk élesen látni, akkor az integrálás (véges számú pixel miatt szummázás) során u és v függvényében x és y változik, ezt szemlélteti a 18. oldalon a 2.4-es ábra, és írja le a 19. oldalon a 2.1. egyenlet.

    Az, hogy a képeken csak korlátozott számú fókusz-mélység van, következik a technológiából: egy adott képpontra csak korlátozott számú beesési szöget tud megkülönböztetni a szenzor, pontosan ennyi féle mélységet tudunk megkülönböztetni a végső képen.