43
  • Tetsuo
    #43
    Amit írtam ezelőtt (v nem itt?) asszem Olympus TV néző LCD szemüveg használati utasításában benne van hogy naponta ne használja 2óránál többet és félidőnél negyed óra szünet! LOL
    Azzal nem nézném meg a Star Wars Trilogyt..
  • dez
    #42
    Hát igen, vehetné a fáradtságot az ATI... Van egyébként egy 3rd party driver, de nem olyan jó, mint az NV saját drivere, és nem is támogat mást, csak az un. "LCD shutter-glasses"-t (átengedi-a-fényt/nem-engedi át a fényt váltakozás szemenként felváltva, miközben a két nézet váltakozik a monitoron). 3D LCD monitorokat és 3D VR szemüvegeket/sisakokat nem támogatja.
  • dez
    #41
    Tudom, nekem is van "LCD shutter-glasses" szemüvegem. (Csak már nincs hozzá CRT-m.)

    A 3D VR LCD szemüveg más, abba két kis kijelző van beépítve.

    Amikor még használgattam, akkor NV kártyát használtam, és nekem ment a stereo driver nálánál újabb alapdriverrel is.
  • dez
    #40
    Melyikektől?
  • janos666 #39
    Tudom, csak ez a legutólsó szetereodriver, a 61.77stereo, és tudom hogy legtöbbször működik az újabbakkal is és márcsak emiatt sem sietnek újabbat kiadni, csak ha szükséges...
  • janos666 #38
    Nekem a sima monitortól is megfaájdul 3-4 óra után (100Hz-en), nem is szoktam annyit leülni, esetleg darabokban egy nap.
  • Tiby
    #37
    Nem hogy Ati-kban csinálnának ilyet
  • arty
    #36
    itt vmelyik másik forumban irta vki, hogy ilyen ősdriverekkel megy neki csak a 3d szemüvege :)

    simán el tudom képzelni, hogy nem szupportálnak egy népszerütlen terméket, pedig én játszottam már ilyen 3d cuccal, és rövidtávon nagyon jó volt ... hosszutávra csak az ellenségeimnek ... ;)
  • Tetsuo
    #35
    Nem elhanyagolható a tény, hogy ezektől a vacak LCDktől az ember feje 3-4 óra alatt mekfájdul..
  • dez
    #34
    A stereo-3D drivert a sima mellé kell tenni. Elvileg működik későbbivel is.
  • janos666 #33
    61.77
  • arty
    #32
    mikori is a 3d szemüvegeket is támogato legutolso driver? ;)
  • dez
    #31
    Lézeres még nem nagyon van a piacon (amcsi katonaságnak gyártanak egyelőre). Ami van, az LCD-s, és max. 640x400-as, vagy még kisebb a felbontása.
    A 3D, amire gondolsz, az a kétképernyős stereo-3D. Nvidiának van stereo-3D drivere (nagy előnye az ATI-val szemben, pl. 3D LCD monitorokhoz szinte csak ezt ajánják), amivel majdnem minden játék megy (a drivel belülről manipulálja az adatokat a stereo-3D-s megjelenítésnek megfelelően) - talán tud kétképes stereo-3D-t is (nem csak page-flippedet [shutter-glasses] vagy függőlegesen összefésülőset [3D LCD monitor]).
  • dez
    #30
    Mint írtam, nem vagyok megszállott gamer.
  • janos666 #29
    Az ilyen szemüvegekben is 1024X768 összfelbontásban nyomja a lézer nem? De elég is lenne az ha nem akarnád mind a ~190°-ot belátni, csak egy szép nagy felületet magad előtt (nagyvásznú kivetítőszerűen), de azt 3D-ben. És itt jön megint a probléma, hogy ahhoz ki ír programot hogy valódi 3D-t láthass a szemüveggel ha már a két szemedbe külön lézer vetíti a képet.
  • Tetsuo
    #28
    Ahogy a programozókat ismerem ill az informatikát, állandóan kalibrálhatnánk azt a xart ami elhelyezné a periférikus területet, ráadásul késne is.. ezt jól csak szemüveggel lehetne megcsinálni nem is értem h annak a fejlesztését mért hagyták abba. 8 éve majdnem vettem egy VR-szemüveget, most még1 kacattal több lenne.
    Jah asszem pont a felbontás miatt, az általad említett éleslátó-területre (a pupilla elé) min 8000*8000 pixelt kéne összezsúfolni hogy élvezhető legyen mondjuk FPShez..
    (Bár az Olympusnak és még több neves gyártónak is volt TVnéző szemüvege úgy 5-6 éve, de mind1ik xar volt a végén féláron sem tudták őket Ladni.)
  • Tetsuo
    #27
    Jah többe kerül a leves mint a hús.
  • Tetsuo
    #26
    Olyan felbontás és olyan FPS nincs amit a szemem s agyam nem bír felfogni ;) Na jó ez csak vicc, de még bőven nagyságrenddel alatta van a (otthoni) technika..
  • hopp
    #25
    ez az "élesség" szó kicsit félrevezető. nem olyan élességről van szó mint pl fénykép esetén a rossz fókuszálásból adódó homályosság, hanem egyszerűen a szemed csak nagyon kis részén vannak sűrűn a fényérzékeny receptorok. kifele haladva nagyságrendekkel kevesebb van, és nem képes megkülönböztetni, hogy 4 lila meg 2 rózsaszín pontot lát vagy 1 hupililát :D próbáld meg, hogy a képernyő közepére nézel, de közben a start menüre próbálsz koncentrálni úgy, hogy a szemedet nem mozdítod. csak egy zöldes pacát látsz (már amennyiben xp-t használsz és éppen zöld a startmenüd :P) meg sejtesz ott pár más színt is, de a start feliratot tuti nem tudod elolvasni. ha valóban csak egy zöldes paca lenne ott, akkor is ugyanilyennek látnád.

    dez: ez a frissítési frekvencia dolog meggyőzőnek tűnik.. :) nem vagyok egy megszállott gamer, szóval ennyire beható tapasztalataim nincsenek... de majd egy unalmas órámban kikísérletezem :P
  • Anotino
    #24
    Aligha. A medium vs ultra beallitas megkulonboztetesere is muszeres vizsgalat szukseges :) Egyszeruen lekapcsoljak a texturatomoritest.. Pazarlas es nem kecsegtet sokkal. Jobb lett volna egyszeruen monster nagy texturakat hasznalni tomoritve. Hw igeny ugyanott lenne, gfx pedig magasan jobb. Persze nyilvan egyszerubb vakitani az ultra szoval meg nagy ramigennyel (meg ha semmi extrat nem is hoz), mint gigaszi texturakat gyartani.. A masik dolog meg, hogy a 256-os kartyak is siman viszik az ultra modot. Ld anno a 64mb vs 128 mb vita. Itt vannak az uj gamek es abszolute semmi kulonbseg koztuk.
  • janos666 #23
    De attól még hogy kevésbé élesnek látod a monitor másik sarkát(mint amelyiket nézed) ha ott életlenebb a renderelt kép azt még életlenebbnek látod majd. Pont ha élesebb lenne az attól a ponttól távolabbi rész amit nézel még nagyobb területet látnál egyformán élesnek. Nem?
  • dez
    #22
    (És azért elég finomnak kellene lennie az átmenetnek, hogy ne lehessen észrevenni, tehát több felbontás-lépés kellene, ami eléggé bonyolíthatja a dolgokat.)
  • dez
    #21
    A második bekezdésed jó ötlet, pontosabban már olvastam ilyen megközelítésről pár évvel ezelőtt. De egyelőre macerás a szemkövetés.
  • dez
    #20
    Én pl. jól látom a különbséget 50 és 100fps között. Már csak azért is, mert CRT-n az 50 fps egy 100Hz-es képernyőre 2x tevődik ki, és a szem megkettőződve látja a kontrasztosabb mozgó éleket. De ilyen él-játék nélkül is látom a különbséget, a mozgások folyamatosságán. Még rosszabb a 60-100Hz közötti frissítés, mert ott egyszer már a köv. frissítés is új képkockát jelent, másszor meg 2 frissíté után jön csak az új. (Most csak arról az esetről beszélek, amikor engedélyezve van a frissítéshez kötött képváltás. FPS játék kedvelők sokszor kikapcsolják, ami egy összetettebb esetet eredményez, arról meséljenek inkább ők.) A 100 és 200 közöttit már nem hiszem, hogy látom, bár nem is próbáltam. A 25 és az 50 közöttit meg nem lehet nem észrevenni. Itt még feltűnőbb az is, amit a 2. mondatban írtam, de nem csak arról van szó. Az, hogy tizenegynéhány fps-t már mozgóképnek látunk, nem jelenti azt, hogy ne látnánk a különbséget magasabb és kevésbé magas fps között.
  • hopp
    #19
    szerintem az placebo. :D
    sokan mondják, hogy csében számít, hogy 50 vagy 100, de szerintem az nem közvetlenül a nagyobb fps miatt van. 25 és 50 között még azért van különbség, de 50 felett szerintem már csak nagyon kevesen fogják fel. volt egy fél éves "a számítógépes grafika fizikai alapjai" című tárgyam, ami keretében többek közt a szem felépítéséről, működéséről, felbontásáról és korlátairól okítottak.. számomra az derült ki, hogy egy bizonyos felbontás és fps felett teljesen mindegy, hogy mennyivel több... persze lehet tévedek. győzzetek meg! :D

    amúgy kíváncsi vagyok mikor fognak olyan cuccot csinálni, ami figyeli a szem mozgását, és a képnek csak azt a kb 10x10 centis részét rendereli részletesre, amire nézel, a többit meg csak nagyjából :) ugyanis kb ekkora az a rész, amit élesen látsz.. na EZZEL lehetne igazán nagy erőforrást megtakarítani ;) (csak persze akkor kevesebb pénzt lehetne lehúzni a népről :P)
  • Raszkolnyikov
    #18
    aham. és drága az olyan?
  • Borg
    #17
    Ja, tekintve, hogy már AMD-s fronton is bejön a PCI Express, főleg hogy az nVIDIA keze által, szinte kizárt, hogy komolyabban folytatnák az AGP-s vonalat.
  • davos80
    #16
    Biztos nem.
  • janos666 #15
    Na, a szokásos kérdésem: Lessz-e ebből AGP verzió?
  • takraj
    #14
    Munkaállomásokba szánt grafikari!
  • Raszkolnyikov
    #13
    lenne egy kérdésem: Mi a rosseb az a Quadro?!

    amúgy meg az nVIDIA ha már megcsinállta az a kibaszott 6200-t meg 6600-ot akkor LEHESSEN MÁR KAPNI!!!!!!!!!! Lassan egy hónapja várokrá és alígbírom már ki, hogy el ne költsem a pénzt!
  • dez
    #12
    Ezt mekkora fps-re mondod? 25? 50? 100? 25 és 50 között nagyon nagy a különbség, de lehet látni 50 és 100 között is (nem Hz-re gondolok).
  • hopp
    #11
    mekkora monitoron nyomod 1600x1200-ban? nekem 19colos, de bőven elég az 1280x1024, főleg ha AA be van kapcsolva.... sose értettem meg, hogy miért jó akkora felbontásban meg akkora fps-sel játszani, amit a szemed meg az agyad úgyse tud feldolgozni... :D
  • dez
    #10
    Mennyit jelent a "leesett"? 10? 20? 30? Mennyi a min. fps általában?
  • Dredd
    #9
    =OFF=
    3DMark2005 default mennyit csinál ezen a vason? Gratula hozzá, tényleg csúcs :)
    =ON=
  • Sub
    #8
    ilyen vassal mi a tökömet csodálkozol, hogy nem szaggat???
  • TheZsenyka
    #7
    "a doom3-nak nem 512 mb videoram kell a fullextrás megjelenítéshez? fura, hogy még hardver sincs a játékhoz :)"

    Nem tudom, de nekem 1600x1200-ban, Ultra Quality-n (AA is be van kapcsolva) hibátlanul röfögött, semmi szaggatás, de még csak árnyalatnyi sem, végig is játszottam. Az egyetlen dolog ami időnként előfordult, hogy egyes ajtók kinyitásánál egy pillanatra leesett az FPS (kb 1 fél másodpercre).

    1GB/3.2GHz/X800XT
  • Zro
    #6
    Most már, hogy itt az új, szép és gyors pci-expressz, hogy valami haszna is legyen, bevezethetnék, ha éppen nem valami űber brutál grafikájú játékkal nyomulok, hanem mondjuk photoshoppal, használhassam a gpu gyors memóriáját kiegészítve a gépben lévővel:)Ha már úgy is annyi van benne is, mint az alaplapomon...
  • Laci73
    #5
    A GPU ún. célhardver: csak bizonyos műveleteket képes elvégezni, igaz azt nagyon gyorsan. Ettől azonban még megmarad a CPU és a hagyományos memóriával szembeni függősége, tehát nem igazán jár nagy előnnyel önmagában a nagy video-RAM és a brutális GPU. És természetesen kellenek hozzá a speciális, őt kihasználó szoftverek is, mint pl. a Doom3 motor.
  • Laci73
    #4
    De igen, az Ultra Quality mód ennyit igényel(?) Lehet hogy mégegyszer rácsodálkozunk majd a Doom3-ra?