33
  • Abu85
    #33
    Annyi lesz, 320 Shader proci. Nagyon kevés a hibás RV670, ráadásul olyan olcsó, mint egy alsókategóriás nV chip.
  • dez
    #32
    No nézzük. :) (Ha tomcsa4 nem bánja.)

    Volt egyszer egy ilyen:
    "Sokkal több shader textúrázó egység, jobb sávszélességek (memória elsősorban) és ez adja a nagyobb teljesítményt, mivel a pusztán OPENGL játékok ideje 1-2 éve lejárt! Ma már mindent shaderrel oldanak meg (Unreal 3 engine, Crysis engine stb)!"

    Nos, ugyebár a kiegészítések használatát mellőző, totál alap OpenGL játék nem is volt abban az időben, amikor már voltak ilyen kiegészítések. Szóval: "Ma már pusztán OpenGl nincs!" -> már nagyon rég nincs. :)

    "Ezért raknak bele annyi árnyékolóegységet, Direct3D!"

    Ez számodra nem úgy hangzott, mintha az OpenGL alapon semmit sem lehetne kezdeni velük (kiegészítésekkel sem)?

    Meg ugye lásd #29. Szóval kár volt beleszólni. :)
  • Csaba42
    #31
    Mielőtt még valaki "nagyon szakértő törpokos" belekötne: A "hogy ugyanolyan layer", igaz, hogy nagyon szabados megfogalmazás, de tükrözi, hogy a játékok alatt a Direct3D-nek és az OpenGL-nek hasonló a funkciója; azaz a 3D-s megjelenítés.
  • Csaba42
    #30
    Akkor pontosítsunk:

    dez: A Direct3D persze, hogy ugyanolyan layer, mint az OpenGL, de ezt tomcsa4 nem tagadta!

    "Pusztán OpelGLről volt szó! Pusztán OpelGLről volt szó! Ma már pusztán OpenGl nincs!"
    "de ezt a kártyagyártók orvosolták saját kiegészítésekkel"
    Azaz tomcsa4 azt mondta, hogy az alap OpenGL-ben nincs shader (bár a megfogalmazás félreérthető volt). Kiegeket lehet hozzá írni, persze, de az már kibővíti a rendszer készletét. Igaz, hozzá kell tenni, hogy az OpenGL 2.0-t egyelőre egyéb okokból nem ismerem részletesen, de tomcsa4 tuti nem a 2.0-ról beszélt!

    Sanyix: honnan vetted, hogy tomcsa4 azt állítja, van a Linuxon D3D? Én ilyet nem olvastam. Amúgy az MS már a Game SDK óta az ő megoldását szeretné viszontlátni a játékos-gépeken! CAD-progikhoz még mindig az OpenGL a legjobb, véleményem szerint. Amúgy keress rá arra, hogy Lindows, vagy bármely Linuxos Windows Emulatorra. Már nem fejlesztik, de vagy le fog esni tőle az állad, vagy megfelejtkeztél róla.
  • tomcsa4
    #29
    Köszi! Rosszul tudtam akkor. Megjegyzem amit írtál!

    Sanyix: bocsánatot kérek tőled a cinikus megjegyzésemért! Most hülye voltam.
  • Sanyix
    #28
    Ennyi baromságot rég olvastam. Ezt olvastad vagy magadtól találtad ki?
    Linuxon hol van d3d? :D
    Egyébként az M$ szeretné hogy a d3d felé menjen el a menet, azért hogy semmi se legyen kompatibilis a rendszerükkel, és a winre írt programok nehogy futtathatók legyenek más rendszeren.
  • dez
    #27
    Hát izé, kicsit pontosítsunk. A Direct3D egy szoftver-réteg a hardver és az alkalmazás között. A hw úgy van megszerkesztve, hogy kiszolgálja a Direct3D-t (elvégezze a proci helyett az adott műveletet), ill. annak adott verzióját.

    De nem csak a Direct3D alapon lehet kiaknázni a lehetőségeit, hanem OpenGL alapon is. Csak a korábbi OpenGL verzióknál le volt maradva a DirectX-től programozható shader támogatásban, de ezt a kártyagyártók orvosolták saját kiegészítésekkel, illetve az alkalmazás-fejlesztő is írhatott shader-assemblyben kódokat, vagy fordíthatott ilyet az Nvidia Cg-jével. A 2.0-val megjelent a GLSL, ami a DirectX HLSL-jéhez hasonló magasabb szintű shader-nyelv. Lényeg, nincs akadálya, hogy OpenGL alól is fullosan kihasználják a kártyákat.
  • tomcsa4
    #26
    Dez legalább korrekten szólt a másikhoz! Én úgy veszem észre, hogy majd a D3D fele megy el a menet, de ez csak egy észrevétel, nem tuti! Tökéletesen igazad van, az OpenG is fejlődik még töretlenül!
  • tomcsa4
    #25
    Pff nab, legalább értenél egy picit az engine-khez! Pusztán OpelGLről volt szó! Ma már pusztán OpenGl nincs! Jóhogy támogatják az OpenGL-t, de legfőképpen shaderekkel operálnak már! Ezért raknak bele annyi árnyékolóegységet, Direct3D! Azt hogy támogatja az OpenGL-t, azt nem is miondtam hogy nem? Olvastad valahol a HSZ-embe? Istenem, ekkora hülyéket minek engednek ide? Tanulj meg gondolkozni is, ne csak a pöcsöddel játssz! Paff! IQ bajnok...
  • Sanyix
    #24
    pff nab, legalább néztél volna egy opengl játékot mostanában... tele vannak sederekkel. ennyi meg ennyi ez opengl, méghozzá sm 3.0-val...

    És képzeld, az összes unreal 3 motoros játék futtatható opengl-en, ha azt a készítő úgy akarja. Az UT sorozatnál ha jóltudom csak egy dll-t kell letölteni, és beconfigolni hogy azt használja megjelenítésre. Paff
  • GABOR16
    #23
    Lehet, hogy tényleg a 3690 re gondoltak mikor azt mondták, hogy megnövelték a számát, azok meg gondolom a selejtesebb 38x0 szériából visszamaradt darabok..
  • GABOR16
    #22
    Érdekes... ezek szerint mégsem váloztattak..
  • dez
    #21
    Az ezen az oldalon (és a többi hasonlón) látható táblázat szerint a 3650-esben és 3670-esben nem változott ez. Esetleg a 3690-esben.
  • GABOR16
    #20
    Elméletben tényleg megnövelték (gyakorlatban még nem jött ki nagyon), és azt mondják, hogy igazán a képminőségjavító eljárások használatakor jön ki a különbség (Eddig is abban gyengélkedtek)...
    Lehet, hogy még nem teljesen optimális a driver hozzá, és még az előző generáció beállítását használja némi finomítással (sok különbség nincs, és mostanában igazán csak bugfixeltek)
  • dez
    #19
    Hmm, pár helyen azt lehetett olvasni, hogy a 3000-eseknél megnövelték a textúrázók és/vagy ROP-ok számát, de sajnos valamit elszámoltak, mert nem változott itt semmi. :(
  • dez
    #18
    Mondjuk az ATI legalább a DX 10.1-et megcsinálta (ami az SP1-gyel jön a Vistában pár héten belül), Nvidia meg viszi tovább a sima DX 10-et (azt is felemáson megvalósítva).

    Az OpenGL-lel egyébként ugyanazok a funkciók megvalósíthatók, mint DX-szel, szal a shaderek is.
  • Lame
    #17
    Arra esetleg nem gondolta, hogy mas is van a vilagon es nem csak neked gyartja a kartyakat az ATI?
  • Glutamin
    #16
    Senki nnem mondta, hogy cseréld le a kártyád erre. Viszont, aki most vesz új gépet, vagy egy korábbi VGA-t cserél, annk lehet értelmes alternatíva. Egyébként nekem is az a tapasztalatom, hogy nem célszerü minden generációváltáskor cserélni. 2 évig azéer elmegy egy karesz még az igényesebbeknél is.
  • arty
    #15
    vhogy el kell szegmentálni a 38xx-esektől ... :) lehet ezek a 'rossz' kártyák, ezért lettek csak 128 bitesek. pláne 2000+ mhz feletti ddr3 orajellel, lehet h nem lesz ez a 128 bit annyira visszafogo tényező, AA-ra ugyis kb. képtelen ez az ATI generácio, 1024/1280-ra meg jolesz ez talán, ha elég olcso. mindenesetre az 512@256 bit downgrade még nem rántotta vissza a kártyák teljesitményét annyira!
  • tomcsa4
    #14
    A DX verziót hiába figyeled, felesleges! Arra írni is kell programokat, hogy a Windows tudja, egy dolog! Sokkal több shader textúrázó egység, jobb sávszélességek (memória elsősorban) és ez adja a nagyobb teljesítményt, mivel a pusztán OPENGL játékok ideje 1-2 éve lejárt! Ma már mindent shaderrel oldanak meg (Unreal 3 engine, Crysis engine stb)! Ami bajos, az a 128 bites memóriavezérlő, de még elég annyi (bár tényleg nem tudja kihasználni magát a kártyát, nem is értem miért erőltetik még)!
  • mad mind
    #13
    Ja igazad van. Én pl az X800GTO-mat cseréltem le 3870-re. Szerintem akinek az előző sorozatból van kártyája nem nagyon kell cserélnie.
  • morden
    #12
    Cserélni szerintem se érdemes 26xx szériáról ,de aki most vesz gépet és játszani is szeretne azért , de nincs elengedve anyagilag , akkor ennek a célközönségnek szerintem ideális választás az új ati 36xx széria .
    Bár egyett nem értek "az ár pedig a boltokban várhatóan 100 dollár alatt marad, vagyis itthon a 25-30 ezres intervallumban gondolkodhatunk." 174 forint a dollár , akkor nálunk idehaza igencsak lehúzzák a népet a kereskedők és lassan érdemesebb lesz külföldről megrendelni ( csomagküldő válalaton keresztül )
  • dez
    #11
    Nem csak a DX verzió ér valamit, hanem a jóval több shader proci, textúrázó egység, órajel is..
  • Narxis
    #10
    De alig fejlesztettek valamit rajta és azért drágább.Ezen akadtam ki.Na majd csak jönnek a tesztek és kiderül, hogy mennyire új az új.
  • Narxis
    #9
    Akkor fuss neki még1szer.
  • dez
    #8
    "A 320 stream processzort, 128 bites memóriavezérlőt"

    Szerintem ez kizárt. Teljesen értelmetlen, 128 bites elérés nem tud kiszolgálni 320 stream procit. Másrészt a mai csúcs ATI 38xx-esekben van ennyi! Az is szép lenne, ha - az Nvidiához hasonlóan - a fele lenne a csúcsnak, azaz 160. Ez is jobb, mint a 2600-nál a 120.
  • dez
    #7
    Ha valóban nem adna számottevően többet, akkor mi a csudáért kellene lecserélned? Mániákusan mindig a legutolsó kell, vagy mi? :)

    Vannak, akiknek korábbi kártyáik vannak (az adott kategóriában), és épp most érik meg a cserére, majd ők erre cserélnek. Vagy éppen akik most építik életük első gépét..

    Viszont szerintem jelentős sebességnövekedésnek lehetünk majd tanúi, mert Nvidiánál is ez történt (32 helyett 64 shader proci, 128 bit helyett 256 bit széles memelérés, ráadásul még magasabb órajelek, stb. a középkat legtetején), és az AMD se akar lemaradni. Bár itt megmaradt a 128 bites memelérés, de az árszint is jóval alacsonyabb, és talán jön még valami közvetlen versenytárs az említett Nvidia vonallal szemben is.
  • sanner011
    #6
    Én is még jól elvagyok a 2600PRO-val. :)
  • GABOR16
    #5
    Ja és persze a HD 3650-re értettem a cserét.
    Jaa... ezt a részt valahogy nem olvastam/láttam... vagy fel nem fogtam korábban...
  • GABOR16
    #4
    Nem teljesen ugyan az..
    Kissebb a gyártástechnológia és a fogyasztása..
    Ráadásul optimalizálták a textúrakezelését (megduplázták a textúrázók számát), így a képminőségjavító eljárások használatával nem esik annyira vissza a sebbesége...
    De lecserélni nem érdemes feltétlen :)
    ...esetleg 3690-re... de az már más felépítés...
  • Narxis
    #3
    Az én 2600XT-m 256MB GDDR4-es.25k-ért vettem, most mért cseréljem le egy JÓVAL drágább DDR3-as darabra?Nekem ezek annyira tyúklépésszerű fejlesztéseknek látszanak...Ja és persze a HD 3650-re értettem a cserét.
  • cousin333
    #1
    "fejlesztés érdekessége, hogy bár hűtése nem túl nagy méretű, mégis két bővítőhelyet foglal el, elég érdekesre sikerült tehát a megvalósítás"

    Ezen nem tudom, miért vagytok kiakadva. A képen látható hűtő alapötlete a nagy sikerű Zalman VF-700-ból származik. Ami meg tudvalevőleg nagyon jól (és halkan) hűt. Szerintem még jobban is, mint az első képen látható vacak. Mondjuk tt is spóroltak a lamellákkal és az anyaggal (full alu a vékonyabb fajtából), de remélhetőleg nem romlik annyit a hatásfoka az "eredetihez" képest.