42
  • Andrews2007
    #42
    8800 GT vs HD 4850

    ati HD 4850 vs minden GTX 260-280 is

    Ezek alapján üt a kártya nem kicsit nagyon. Sok helyen már kapható is MO-n is 36-38 ezerért BEST BUY. 9800 GTX telj. ennyiért. Új frissebb tech.-val.


  • toflehi
    #41
    Itt találtam róla egy videót, máshol biztos megvan jobb minőségben is.
  • Sanyix
    #40
    Melyik? Én ezt a pingpong izét próbáltam, amiben ilyen hajszárítóval kell átfújni azt a 4000 labdát a másik szobába, és be a lyukba :) Az sem nézett ki rosszul, a fények nagyon jók voltak(főleg a lassan forgó ventilátor mögötti lámpából érkező fény), és a textúrák is.
  • toflehi
    #39
    Skyline: fogalmad sincs milyen újításokat tartalmaz a dx10.1. Ha nV nem fogná vissza a játékfejlesztőket és valamelyikük kihozna egy VALÓBAN Dx10.1-es játékot Deferred Renderingel, Cube Map tömbökkel, Global Illuminationnel akkor közel járnánk a moziszerű élményhez, nem vicc! (Azt hiszem volt is egy techdemoja ATI-nak amiben ezt demonstrálta). És ez a progi bizony erősebb ATI-kon 20-30FPS-t tudna, miközben Geforceokon el se indulna, vagy ha megoldanák hogy elinduljon akkor kb. 1-2FPS-el menne. És ezek csak azok a technikák, amiket a Dx10.1 hoz magával, ezen kívül van még egy halom olyan ami Dx10.0-s ugyan, de nV még azokat sem tudja...
  • Skyline
    #38
    Na akkor crysis...Dx10 kontra dx9...Dx10 alatt van pár apróbb effektus ami sehogyesm bújik elő dx9 xp alatt még a dx10 modokkal sem,semmivel...Jelentéktelen effektek,ennyi az össz különbség..Sebesség? Kisebb vista buherálással,úgy hogy aero,vistakinézet megmarad olyannak amilyen telepítés után,stb kb 1 fps különbséggel vezet a dx 9 a dx10hez képest,wow..:)
    Hogy játékonként azért a pár minimális effektért megéri-e perpillanat a dx10? Döntse el mindenki maga...
    Nvidiának ideje a dx10.1-re váltani? Minek? Semmi extrát nem tartalmaz,parasztvakítás,meg kötelező aa...:D
  • Sanyix
    #37
    3870 is kenterbe veri a 9600gt-t, és 40 alatt van. Sőt a 3850 kb hasonló teljesítményt ér el az nvidiára optimalizált játékokban, dx10(.1)-ben meg ugye gyorsabb, és általában fel het húzni 3870 órajelekre.
  • ihateworkdays
    #36
    Szörnyeteg fogak (DirectX 10.1/Shader Model 4.1) nélkül.
  • A1274815
    #35
    Különbséget nem fogsz látni a "hackelt" DX9-es verzió és a DX10-es között, a GS-t ugyan is dolgok gyorsítására használta, de csak bizonyso helyeken. Nincs mindenhol víz, nincs mindelhol részecske, egyedül az árnyék az ami mindenüt előfordul, de az se mind pontfényforrástól van. Egyébként a CrySis elég vacakul használja a DX10-et, főleg mivel a kiadása előtti utolsó 3 hónapban csapták hozzá.

    Ha igazi DX10-et akarzs látni, akkor ott a Lost Planet, DX10 módban szebb és gyorsabb, mint DX9-ben.
  • Inquisitor
    #34
    Elég érdekes. A Crysis "hackelt" DX9 verziója XP alatt simán ugyan azt a képminőséget adja Very Highban, de még úgy is gyorsabb, mint a DX10 verzsön. Most vagy nem is használ Dx10-et és így GS-t sem, vagy ennyire szahar a GS, vagy ennyire vacakul van leprogramozva?
  • A1274815
    #33
    Sőt rendelkezem, olyan MS, ATI, NVidia DX10-es techdemókkal (Geometry Shader Skinning), amik >5000 poligonú szörnyet animálnak elviselhető sebsséggel (értsd 20FPS fölött) 500-2000 darab számra. (Geforec 8600 GT-én mértem)

    Mint már írtam az NVidia "vacakabb" Geometry Shadereit is lehet normálisan használni, csak ritkán kell követni az MS/NVidia/ATI ajánlásait ez ügyebn és inkább a józan itélőképességünkre hagyatkozni.

    A CrySis 5 db Geometry Shader-t tartalmaz: árnyék generálás, részecske, részecske árnyék, környezeti fizika segítése, Víz. Azon kívűl tartalmaz olyan PS-eket, melyeket ugyan lehelet fordítani SM3-ra és működni is fognak, ha SM4-es kártya van mögöttük, azonban egy SM3-as kártyán nem mennének.
  • tomcsa4
    #32
    Igen jól írtad. DX 10-nél tágabb a határ poligon számban is! Tehá nem kell kísérletezgetni, hogy le tudja-e keezlni a (ezek most hasraütött példák) 10x 5000 ezres poligonszámú szörnyikéket, hanem nyugodtan tehetünk 15 dbot is akár. Vagy rosszul tudom? De nagyon jókat írtál Yv@n, igazad is van!
  • Yv@n
    #31
    A dx10 nem arról szól, hogy közvetlenül az alkalmazásával szebb eredményt érsz el. Az lenne benne a lényeg, hogy azonos grafikát megfelelő dx10 codepath alkalmazásával kevesebb teljesítményből lehetne kicsikarni. Tehát végeredményben több kraft marad, és a felszabaduló teljesítmény alkalmazható további részletesség megjelenítésére. "Alkalmazható". Pusztán a lehetőségtől nem lesznek azonban részletesebb textúráid, kidolgozottabb pályák, ha egyszer az egész engine alapjaitól kezdve dx9-re lett felépítve.

    Amit én láttam/olvastam abból számomra az jött le, hogy Nvidiánál g80 óta a "fejlesztés" annyit takar, hogy belebasznak egy ic-be kétszer annyi tranyót, és nesze neked nyers teljesítmény(+fogyasztás, szociális hőleadás). Ekőzben a kártyáik javarészt köszönőviszonyban sincsenek a dx10 által mutatott iránnyal. Sokkal inkább dx9 féle szemlélet dominál nyers erővel megfejelve.
  • sgember
    #30
    Amiket eddig olvastam "dx10"-ben pár kivétellel játékok többsége lassabban fut, pedig pont fordítva kéne lennie, hisz erre találták ki az unified shader modelt dx10-ben. Hogy ez az Nvidia nyomása miatt van, nem tudom, de állítólag Ati picit előrébb jár a témában és talán megmutatkozik majd, ha valódi dx10-re írt játékok lesznek.
  • arty
    #29
    azthiszem te a marketingesek áldozata lettél :)

    valoban le van korlátozva pár effekt dx9 alatt, de azok nem dx10 effektek, csak MS mevette EA-t kilora, h tiltsák le a verihigh-t xp-n :)
    szerencsére erre megoldás a dx10 unlocker krizishez :)

    kb zéró dx10 játék van, ami mutat is végre vmit...
  • Csaba42
    #28
    nekem egy HD3650-esem van, és pl. a Crysis Dx10-ben úgy néz ki, mint Dx9 alatt. Egy hajszálnyival sem szebb. Vagy van már sokkalta Dx10(.1)-esebb progi?
  • toflehi
    #27
    nohea: Én speciel csak egy jó árú és teljesítményű Dx10-es VGA-ra vártam, és most kaptam meg a 4850 "személyében". Így most lecserélem az 1950PRO-t és végre felteszem a Vista-t és megkukkintom, milyenek is azok a Dx10-es játékok "élőben". és ezzel szerintem sokan vannak még így.
  • nohea
    #26
    Hogy egy év múlva kevesebb, mint a felét érik majd... nem tudom, szerintem ez pici túlzás. A 8800asok teteje is volt 130-150 körül, mikor kijöttek talán följebb is, és egészen a 9000es széria érkeztéig épp hogy lement 100 alá az áruk - azért ez sztem még a felétől is messze van, nemhogy a kevesebb-mint-felétől. o.O
  • toflehi
    #25
    Hát pár dologban nagyot téved a hír szerkesztője...
    Legfőképp abban, hogy az NV fogja birtokolni a legerősebb szóló videokártya címet. Ugyanis 4870X2-re is csak pár hónapot kell várni és attól kezdve ő lesz a "király".
    A legtöbb fórumon egyébként csalódásként élik meg az emberek a GT200-at. Lényegében nem több, mint egy 9800GX2, hiszen fogyasztása, hőtermelése és FPS eredményei nagyon közeliek hozzá, tehát hiába tartalmaz a GTX280 csak 1 GPU-t, mégsem jobb. Főleg ha figyelembe vesszük hogy kb 20-30k-rel drágább lesz mint 98GX2...

    Riddick: biztosra vehető, hogy már az ATI 4580 is kenterbe fog verni még 1 88GT-t is. Prohardveren a bazárokban pedig már 42kért rendelhető. 4870-es már minden bizonnyal gyorsabb lesz a 98GTX-nél, miközben az ára 60k körül alakul kezdetben.
  • Riddick
    #24
    Ha ,az uj ati kártyák jó áron lesznek,és jo lesz a teljesitményük,akkor sokkal többen fogják azokat megvenni az biztos. Ezek a csúcs kártyák 1 év mulva kevesebb mitn a felét érik majd. És nem mindegy hogy 20e ft ot amortizálódik a hardware értéke egy éve alatt,vagy 70e -et ! Én az Ati 4870 es re vagyok kiváncsi ,pedig soha nem volt Ati karim még. Ha,kenterbe veri a 9600 Gt-m et,és 40 körül lesz az ára,akkor lehet ráugrok.
  • nohea
    #23
    Fogaskerék a herezacsit, ez aranyos...és fájdalmas, inkább bele se gondolok. xD Mindenesetre...nem tudom, szerintem így is olyan horribilis monstrumok születnek "videókártya" néven (és akkor még olyan mutációkat, mint CrossFire meg SLI meg se említettem), hogy az egészen rémisztő... pláne ha a fogyasztást nézzük. Személy szerint nem bánnám, ha ezt a részét kalapálgatnák inkább most 1 picit a cuccoknak, mert lassan tényleg nem úszunk meg egy valamirevaló játékmasinát 750wattosnál kisebb táppal. x_x
    A PR gépezet meg, hát, jah, jellemző - bár őszintén szólva totál nem értem a dolgot: mintha az AMD/Ati anyagi helyzete alapján az lenne a legnagyobb veszély, hogy lehagyják a "zöldeket". o.O És nem azt akarom mondani, hogy ne tudnának jó kártyát csinálni, inkább olyannak érzem a szitut, hogy akármivel jönnek elő, az nVidiának már egy legalább béta-szerű állapotban lévő válasza van/lesz rá. @.@
  • Yv@n
    #22
    "Különben, a multisample readbacket megoldották, és állítólag kb ez az egyetlen feature-je a 10.1nek, ami iránt (pár) fejlesztő érdeklődik - mondom, állítólag."
    Igen Nvidia PR gépezet szerint legalábbis :) (prezentáción erre verték magukat, hogy "abból igazából nem is kell más, elég csak az, mert mi azt tudjuk, ati direkt gonosz, hogy a teljes dx10.1-et tudja". valóban mekkora szemetek. van pofájuk teljesíteni a teljes specifikációt, míg arra az nv nem képes)

    "Márpedig ha Vista nincs, DX10 sincs, akkor pedig minek már most továbblépni?"
    Ez a 22es csapdája. Ha nincs vista nem kell dx10re fejleszteni, mert minek, nem használják elegen. Viszont ha nem jönnek ki korrekt dx10 cuccok, akkor minek váltani, hisz nincs ami kihasználja a dx10-et. Úgyhogy nvidiánál nem átrana ha becsípné a fogaskerék kicsit a herezacsit, és ugranának egyet.
  • Yv@n
    #21
    Pedig gyorsítják :)

    Csak épp olyan codec kell hozzá, ami használja a gpu-t. Media player classic home cinema alatt lejátszásra már most használható a gpu, és ezt jóval megelőzően kereskedelmi cuccok tolták már a hw gyorsítást(pl. powerdvd). Encoderek esetén nem tudom hogy áll a dolog, x264 gyanítom egyelőre nem tudja kihasználni, de pl van ati avivo akármi transcoder csoda atihoz, ami gpu-val encodeolná a videot..azért enkódolná, mert roppant mód limitált, hogy mit fogad el bemeneti jelként. Nem elhet vele csak úgy megetetni mindent amit wmp lejátszik, sajnos elég válógatós...de feltételezem, ha van valami általános standard dv kamera jeled, amit 1:1ben behúztál, azt megenné, és képes lenne átkódolni.
  • nohea
    #20
    Érdekesnek érdekes, hogy nVidiának nincs még olyan eszköze, ami a 10.1et támogatná - nade, memóriából is még mindig a GDDR3at használják, miközben nyakunkon van már az 5ös is. Különben, a multisample readbacket megoldották, és állítólag kb ez az egyetlen feature-je a 10.1nek, ami iránt (pár) fejlesztő érdeklődik - mondom, állítólag. Nem tudom, de valami lehet benne: nagyon sokan (köztük a játékipar pápái, ha jól emléxek pl maga Carmack is) még a DX10et is tök feleslegesnek ítélik, és ha a wiki adatainak hinni lehet, eddig nincs is, csak másféltucat játék, ami támogatja (és 11 másik van még fejlesztés alatt). Nem mondom, hogy eladások alapján, mert ugye ez nyilván nem fedi a teljes valóságot, de Vista se muzsikál úgy még mindig, ahogy szerették volna - én legalábbis még mindig több olyan hozzászólást, cikket olvasok, ami ellenzi/fikázza, stb. Márpedig ha Vista nincs, DX10 sincs, akkor pedig minek már most továbblépni?
    ...
    Nem védeni akarom az nVidiát, mert egyetértek azzal, hogy egy új zászlóshajónak tudnia kéne az új dolgokat is. De mindezekkel együtt, valahol igazat adok nekik.
  • k0zi
    #19
    2db 8800GT illetve 9800GX2 több tesztben is felülmúlta a Gtx280-at. Olcsóbban és kisebb fogyasztással.
    Ha igazak a pletykák és 4850-es jobb lesz kb 20%-kal mint a 8800GT akkor a best buy kártya lesz, és crossfireben olcsóbban tud jobbat nyújtani, mint a gtx280.

    Másik dolog, hogy kicsit ciki, hogy nvidianál még mindig nincs 10.1-es directx miközben már az S3 kártyáján is van :)
  • Ravkin
    #18
    lol
  • nohea
    #17
    Úgy látszik az nVidia sportot űz abból, hogy nagyon érdekes konstrukciókkal áll elő. GT200, legújabb, csúcskategória, ránézésre is szörnyeteg - de megint olyan, h adott esetben egy 9800GTX (GX2 pláne) simán rá tud verni. Nem tudom, hogy ezt hogy csinálják...
    Különben két észrevétel: kb kétnapos itt a lemaradás ^_^ minimum; amúgy meg a 9800GTX képek mi a fenét keresnek a GTX280/260ról szóló cikkben? o.O
  • FoodLFG
    #16
    izé.. hallottam
  • FoodLFG
    #15
    Azért jó, hogy ezek a chipek már gyorsítják a h.264 számításokat, de én nem halottam róla, hogy pl az x.264 encoder támogatná.. :/ Úgy meg csak a processzort terheli.
  • waterman
    #14
    senki nem mondta, hogy meg kell venni:) egy átlag felhasználónak a harmad ereje is megfelel. a következő generáció középkategóriája viszont már szép teljesítményt hoz majd, talán még kevesebbet is fog fogyasztani. egy gyártó nem él meg, ha nem beszélnek róla. és csak úgy beszélnek egy 3D gyorsító gyártójáról, ha ő villogtatja a legmagasabb fps-eket. azt már nem írják le, hogy kilowattos táp kell hozzá, mert az rosszul venné ki magát:)
    viszont az szép, hogy végre nv is tesz valamit a gazdaságos működsésért. 2d-ben 30 watton megáll a fogyasztása. ( más források szerint )
  • gaborr11
    #13
    Ez egy kaki. Finoman szólva.
    Hogy miért?Mi a fészkes fenének vegyünk ilyen hajszárítót b@z'm3g?Csináljanak jól tuningolható olcsó GTX-eket,mint most a 9800GTX. Vagy olcsó tuningmestert,mint a 3850...
  • hdo
    #12
    Amen!
  • A1274815
    #11
    Ha az nyugtat OpenGÉL-ben pedig Extension Hell van. Ráadásul ami meg NV-én az nem (úgy) megy ATI-n, pláne Intelen.

    Különben férreértés ne essék én is az OpenGL-nek drukkorok.
  • Dark Angel 666
    #10
    már lehet kapni őket , igaz még korlátozott számban , 1 héten belül megjelennek hivatalosan is
  • hdo
    #9
    A directx végre kezd kihalni a dll rémálommal egyetemben, hajrá openGL és .NET!

    Amúgy az ATI/AMD jól is teszi hogy nem arra herdálja el a pénzét hogy versenyest játsszon ezekkel a drága szarokkal, hanem inkább középkategóriában finomít. Ha más nem, már csak ez megérné hogy az ember ATI vidkari mellett döntsön!
  • T0nk
    #8
    Nem tudom, ez az ipari hajszárító dizájn valahogy... Lehet, hogy csak megöregedtem, de kell ekkora teljesítmény olyan áron, hogy a bemenő áram 40%-át elfűtjük, 40%-át meg ventillátorok pörgetésére fordítjuk?
  • gergobaby
    #7
    Hát ez a cikk szerintem nem a reális oldaláról közelíti meg a helyzetet, " AMD beledöngölése a betonba" LOL... az Ati 20 % lemaradással (teljesítményben ) adja a 4850/4870-et harmada/fele áron... Haggyukmár, hogy az NVIDIA beledöngöli az ATI-t a fölbe, inkább az nV-nek elfogy madj a pénze, mert ebből nem sok bevétel lesz... Akuma: Azért annyira nem kell leirni ezeket a konfigokat :))
  • item
    #6
    "Az új megoldások egyaránt támogatják a H.264 tömörítést, a Folding@Home programot, illetve bizonyos PhysX funkciókat. A PCI Express 2.0 ma már természetes, ám a chipekből hiányzik a DirectX 10.1/Shader Model 4.1 támogatása."

    A folding@home miatt örülök, a 10.1 és 4.1 hiánya meg no comment!
  • macleod2005
    #5
    Az lenne a szép ha az AMD/ATI úgy kenné el őket, hogy a játékok még mindig NV re vannak optimalizálva
  • Akuma
    #4
    Várni ja, csak nem mind1 mennyit! (mondjuk nekem kivételesen tökmind1, úgyse veszek még legalább 1 évig új gépet, pedig már most elavult ami van)
  • Axon
    #3
    Mielőtt eltemetnék az Ati kártyákat, azért illene megvárni, hogy mit tud majd a 4000-es sorozat.