36
  • hol9672
    #36
    De ha a régi 17 colos lcd mellé beraksz egy 24 colos Samsungot, akkor tudsz egyszerre fórumozni és filmet nézni
  • tntmax
    #35
    Baromság ez az X monitoros cucc...
  • who am I 7
    #34
    3 monitoros megoldást AA -nélkül gondolom elbírna nem? háromezervalamennyiszerkétezervalamennyi...médiumon 1 db kártya..bár ha tényleg ilyen 40 centis lesz az az 1 darab is.. LOL
  • Inquisitor
    #33
    Az alap kártyák fognak 3 kimenetet kezelni ha jól értem, a drágábbak, meg az új Fire sorozat (gyenge 3D, de sokkimenetes vezérlő) meg 6 kimenetet. A demokat 6 kiemenetes kártyákról futtatták, és ugye volt olyan demo ahol 24 képenyőn ment a játék (FSX), ahhoz meg kell 4db VGA. :)
    A bemutatóban egyébként 2D felhasználáshoz egy kalap kombót mutattak.
    Azért ami nekem tetszett a DIRT2 3 megjelenítős demoja ... 3db projektorral. :)
  • nkmedve
    #32
    6 kimenethez azért fog kelleni a kakaó, de gondolom ezeket nem feltétlenül játékokhoz csinálják. Itt három képernyőn futtatják a Cryengine 3-at. Hogy, ezt hány kártyával érték el azt nem tudom.
  • dez
    #31
    Az AMD lapjáról:
    "Previously the fastest processor was the ATI Radeon HD 4890 graphics processor capable of 1.36 TeraFLOPS of raw compute power. Internal calculations show that processors in the newst ATI Radeon processor family can achieve upwards of 2.5 TeraFLOPS."

    Szóval, nem egészen 2x gyorsabb (legalábbis ami a shaderteljesítményt illeti), ez elég ehhez? (Vagy majd a kedves vevő rájön, hogy menni megy, csak épp lassú, és jobb lesz, ha betesz még a gépbe 1-2 kártyát...? Végülis, ha van pénze ennyi drága monitorra, akkor legyen erre is.)
  • dez
    #30
    Hmm, már látom. Csak azt nem tudom, hány fps-sel tudja ezt megmozgatni akár egy 5870. Csak nem többszöröse a sebessége egy mai csúcskártyának...
  • Szemjuel
    #29
    azér a 24 monitor már kicsit jó lehet xD az egész falat építheted lcd panelekből xD
  • nkmedve
    #28
    Azt mondják, hogy 4 darab GPU-val 24 monitort is kezelhetünk egyszerre, tehát a 6 darab nyilván egy GPU-ra kell vonatkozzon.
  • Epikurosz
    #27
    A monitoroknak tényleg nagy a peremük, biztos azért, hogy nagyobbnak hassanak. Erre még rátesz a nagy csomagolás.
    Valami össze kell, hogy tartsa a pixeleket, de akkor csinálják vasból a keretet, ne szar műanyagból.
  • dez
    #26
    Éppenséggel az S-PVA kicsit elmászik színben (az IPS [pontosabban ennek újabb generációi, mint pl. S-IPS] nem mászik el) -- de még mindig kevésbé, és nem is annyira sötétedik/világosodik, mint a TN (amiből a nagyobbak már szemből is a kép szélein, főleg alul-felül).
  • dez
    #25
    "ám három eltérő illesztővel ellátott monitort minden további nélkül alkalmazhatunk majd a Radeon HD 5000 család tagjai esetében, hiszen a szükséges csatlakozók minden kártyán megtalálhatók lesznek."

    Ez semmit sem jelent, a mai kártyák nagy részére is ráköthető 3 monitor/tévé, de egyszerre csak kettő használható, mert maga a chip csak két képernyőt kezel. Szerintem ez most sem fog változni -- ehhez a 6-monitoros felálláshoz 3db kártyát használtak CrossFireX-ben. (Ha ez mond valamit a cikkírónak. :) )
  • B0nFire
    #24
    Hujj, bárcsak 1 db 26"-osra futná, de nem fussa sajnos! Meg ahhoz már kéne venni egy új íróasztalt, mert már a jelenlegi is tele van, sőt, kitölti a szobát. No, akkor most verjem ki a falat, vagy vegyek nagyobb lakást?
  • nkmedve
    #23
    Ha adott egy jól megirt multiplatform motor, akkor abban párhuzamosan lehet játékot csinálni mindhárom platformra, a motor pedig külön külön eldönti, hogy melyiken milyen effektek fognak menni, s milyenek nem. A Cryengine 3-ról volt nemrég egy ilyen video. Ott a három végtermék eléggé másképp nézett ki, a PC-s volt a legjobb, az asszem használt DX10.1 effekteket is. A végleges motorban nem kizárt, hogy lesz DX11 támogatás is, egy év alatt még sokmindent összehozhatnak.
  • Inquisitor
    #22
    Hát ha megelégedsz az USB nyújtotta lehetőségekkel, akkor lehet most is tud :)
    Ex főnököm is 3 megjelenítőt használt. A beépített TFT-t, egy külső TFT-t, meg egy USB-s Samsungot.
  • Inquisitor
    #21
    Ez elég nagy csúsztatás, mert azXbox-on kívűl szinte minden más OpenGL-t használ szerintem. Az Xbox vasa meg amolyan DX9.5, de hány éves is? A kérdésed annyiban jogos, hogy vajh' hány fejlesztő fog elsődlegesen PÍCÍ-re fejleszteni, hogy ki is használja az új platform előnyeit?
  • Zro
    #20
    Én tudnám díjazni, ha legalább három monitort kezelne a notim.
  • feri79
    #19
    Ami a 6 kijelzőt illeti, azért a HW-t nem csak hobbi játékosoknak készítik, a repülőgép szimulátoroknál (pilóta kiképzés, nem játékról beszélek) most is használnak ekkora felbontás és szerintem örülni fognak neki hogy nem kell egy egész géppark a működtetéshez.

    Ami a DX10-et illeti, azt elfelejtitek, hogy a játékokat elsősorban konzolra írják és jelenleg melyik konzolban van olyan HW ami támogatja a DX10.x-et? Csak a PC-sek kedvéért nem fogják átírni az egész játékot.
  • Cefet
    #18
    Láttam a videót is, nagy királyság!
    No igen, monitor még nem nagyon van hozzá...
    Meg tudnák csinálni, mert ha felszorozzuk egy jobb telefon kijelzőjének felbontását ekkora méretre, bizony sok ezer pixel jönne ki.
    Csak valszeg túl drága lenne.
  • Skyline
    #17
    Ez a sokmonitoros hatalmas felbontásos dolog nagyonagyon jóóóó!!!!

    Kár hogy a monitorok peremei belevágnak a képbe (gagyi), hogy szart sem ér már ekkora felbontás de cserébe atomerőmű kell hozzá, és kár hogy kb tized ennyi pénzért fullhd felbontásban (bovenbőven elég) gyakorlatilag ennyi (sőt még több-->nincsenek peremek) élményt nyújt tizedekkora fogyasztás mellett egy mezei gamerpc-t 100 fölötti lcd/plazmára rakva...:DDDD
    Grat....
  • Szefmester
    #16
    ennyi ésszel ha faj lennél, kipusztulnál...
  • readswift
    #15
    most a 9-11 dátum miatt kaptatok ennyi pontot?
  • Szemjuel
    #14
    atya ég... be vagy tépve? :D:D mi az, hogy a dx11 nem jobb a 9nél? :D olvastál róla 1 sornál (a címnél) többet?
  • yesname #13
    Na Te aztán sok sületlenséget tudsz összehordani. Régen is volt, hogy több monitor raktak egymás mellé, csak a felbontás. Akkoriban az ugyanakkora volt, csupán a felület növelésére kerültek egymás mellé azok a monitorok. És videókártya sem volt ami kihajtott volna ekkora felbontás, fleg nem realtime számolt 3D-s alkalmazásoknál.
    DX10.1, hát még a DX11 pedig nagyon is hasznos dolog. Nem kicsit. Hallottál talán a botrányról, ami egy bizonyos játék kapcsán robbant ki mikor a csak az ATI által táűmogatott 10.1-est használta? Sebességben igencsak leverte a csak a 10-es directX-et támogató nVidiákat aki kiverte a botrányt? éS kérelmezte hogy vegyék ki a 10.1 támogatást?
    Értesz Te a 3D programozáshoz??? Tudod milyen előnyöket vezet be a DX11?? Halvány fogalmad sincs róla, ez kiderült a hozzászólásodból. Mielőtt beszész nézz utána a dolgoknak.
  • Zolka
    #12
    Hmm... csak hogy igazi magyar ember legyek, az ára sem lehet semmi. Az a 6 30"-os LCD... apám add el a házat, vegyünk ilyet kategória.
    Ha a játéktervezők ésszel használnák ki a sok monitor nyújtotta képességeket, akkor tök jó lenne ez. De arra még nincs szoftver.
    Azért elfogadnám... főleg azokat a monitorokat.

    Tetsuo: azok szerintem nem TN paneles LCD-k, és a jobb paneleknek nem mászik el a színe, ha oldalról nézed sem. Lásd SPVA panel például.
  • NEXUS6
    #11
    Ó, hát asszem az enyim is ilyen. Nekem a 7.1 darab monitort támogató kéne, az menőbb lenne a 6 moncsisnál!
  • duke
    #10
    "amely lehetővé teszi akár hat monitor egyidejű használatát, azok kombinálását. A noteszgépeknél "

    mar alig varom a 6 kijelzos hordozhato gepeket,az lesz az igazi.
  • Zedas
    #9
    Hát ez a Matroxnak kemény érvágás lesz. A régi fényes
    G400-as kor után a videokártya részleg már csak a baromi drága többmonitoros átalakítókból élt, ezekután annak a piacnak is annyi.
  • Tinman #8
    Szaladj a boltba mert már jó ideje vannak 7.1-et tudó HDMI-s VGA karik.
  • BenceYCE
    #7
    Állítólag az LG most adott ki egy káva nélküli képernyőt, másrészről a monitorokat a középpontjukra merőlegesen a szem felé kell irányítani.
    Egyébként tényleg teljesen felesleges.
  • NEXUS6
    #6
    Én majd a 7.1-es vidkarit akarom megvenni:)
  • gregtom6
    #5
    Teljesen egyetértek.
    Hát, most őszintén, ez nagyon szép, és jó, de biztosra veszem, h 4-5 éve létezik ez az Eyefinity-nek nevezett technológia. Kapásból rengeteg dolgot tudnék mondani, ami használta eddig is. Például TV műsorokban voltak ilyen monitorok falra szerelve, és sok mozgóképet mutattak úgy, h egy "nagy képnek"hasson. Ha meg még ilyen játékoknál nem volt, akkor is sztem biztos, h ilyenre 5 évvel ezelőtt is képesek lettek volna.
    A dx10, ill. 10.1 is egy nagy baromság, és illethetném még sok dologgal...igaz, h nekem is hd4670-em van, de akkor is hülyeség, mert semmi nem használja ki(játékok terén)...erre dx11...nem is normálisak, az egész a pénzre megy...ezen pl ki mondaná meg, v Cryengine 3 -ról ki mondaná, h dx11-es ránézésre? Senki, mert tul.képpen nincs különbség. Pár effekt kicsit színesebb, és kész.
    Nincs akkora különbség, mint dx8 és dx9 között volt...
    Ez most olyan, mint az Assassin's Creed játékmenete, tudták, h direkt gyatrára kell csinálni, mert ahhoz képest nagy újítás lesz a 2. Nem azért lett olyan, mert nem sikerült jól megcsinálni...nem is akarták...Nevetséges..
  • #4
    Értelmetlen ökörség
  • Tetsuo
    #3
    LOL biztos elvezetes, racson at nezni a 2D kepet, aminek betekintesi szoge miatt nem is latszodik szinhuen 1ik sarka sem.. ha 3 meterrol nezzuk, akkor meg miert is ilyen suru ppi?
    Es biztos elbirja fullos grafikaval a kartya..
  • RecoPhile
    #2
    valamit-valamiért :P
    De azért elég szép teljesítmény ez is :)
  • who am I 7
    #1
    6db 30collos dell, egy (vagy 2?) bitang 58xx ATi, 6giga ram, 2-3 vinyó, hangkártya, i7 proci, ezek szépen húzva..és lehet élvezni a 7ezres felbontás..elég nyálcsorgató a dolog...a fogyasztás pedig 3000Watt/h körül saccolom...LOL