103
  • Sir Ny
    #103
    "Ebbe az nvidia vagy belebukik, vagy nagyot fog kaszálni!"

    köszönjük Emese, most aztán jól megmondtad a tutit.
  • kicsizoz
    #102
    OFF
    Ha readswift-et valaki az elején kitiltotta volna, nem lenne így teleszemetelve a topik, hamarabb végigolvastam volna... :)
    No ezért is baj, hogy itt tart a magyar foci, az emberek szurkolási hajlamukat olyan hétköznapi dolgokon élik ki, mint egy HW gyártó (ez nagyon gáz).
    ON
    Ebbe az nvidia vagy belebukik, vagy nagyot fog kaszálni!
    OFF
  • BlackRose
    #101
    Nem komplett a kérdés... nem létezik olyan, hogy "melyik a jobb?" csak olyan létezik, hogy "adott feladatra adott feltételek melett melyik a jobb?"

    Az ami nekem jobban megfelel az fCPU + cGPU :) persze a jelenlegi esetben az i7+Fermi lenne az amivel nagyon meg lennék elégedve vagy akár az i9+Fermi (nemsokára), de ez túl sok pénz ezért amit én magam célzok most egy Fermi-- (nem a top hanem a középkategória mint pl. a 9600GT a 9 soroyatnál vagy a GT260 a 200-as sorozatnál) ehhez a Core2 Quad-hoz ami van, amikor meg majd kijön a Sandy Bridge akkor majd lesz teljes gép csere addig nem mert nem sok értelme van... (újat venni egy dolog, meglévő hardvert cserélni már más dolog). Ami viszont a Larrabee-t illeti szerintem szép általános megoldás lesz ezen a területen amelyiken most az nVidia lépett elsőnek de nem hiszem, hogy a felső kategóriában az nVidia megoldásaival versenyezni fog. Tehát az inkább majd az integrált olcsobb megoldásknál lesz a bomba, és az jó lesz, de nem fogja kiszolgálni majd az igazán igényes felhasználókat. Ami az AMD/ATI-t illeti majd meglátjuk hiszen ők is ebben az irányban gondolkodnak csak esetleg lépéshátrányban vannak... ahogy mondtam én azt szeretném ha mindnek jól sikerülne mert a jövő gyorsabban jön ha a fejlesztéseket többen végzik és sok mindent megosztanak mint ha csak egy valakitől kell mindent várni. Kár, hogy nincs még néhány cég amely ezen a területen nagyot alkot. Tehát mégegyszer én nem vagyok egyik megoldás ellensége sem, csak éppen azt gondolom, hogy az nVidia volt az aki elsőnek meglépte azt a lépést ami ugyan első látásra kockázatosnak látszik, de az igazán kockázatos lépés a már meglévő továbbhúzása... ideje volt lépni és az nVidia ezt megtette, hiszen már a CUDA sikerével ő volt a legjobb helyzetben... persze koránt sem biztos, hogy a jövőben ő fogja a legjobb megoldást szállítani, (az mp3 lejátszót sem az Apple lépte meg először, de most ugye urajla a piacot) de mindenesetre jó úton van, hogy a jövőben viszonylag magas és valós elvárásaink legyenek a fejlesztéseik iránt. Röviden, bizonyították, hogy jelenleg tudják hol is lesz a közel és középjövőben a tűz.
  • Sir Ny
    #100
    100
  • nkmedve
    #99
    Na miután másodszor is elolvastam a magyarázatot, rájöttem mire érted azt az fCPU-t.
    De nem helyes, a Larabee egy új arhitektúra, amit elsődlegesen HPC szegmensbe tervez az Intel (leginkább x86 utasitáskészlettel rendelkező GPGPU-nak mondanám), CPU-nak valószinűleg nagyon sokáig nem lesz alkalmas.
    Az AMD Fusion ezzel szemben egy AMD CPU (Bulldozer) és egy GPU egy lapkán. Ők tudtommal egyelőre nem terveznek Larabee-hez hasonló terméket. Nem is lenne rá kapacitásuk, Intel is valószinűleg nagyon sokat fog a Larabeen bukni amig az valóban használható lesz.

    A felsorolt lehetőségeket nem teljesen értem. Hogyha általános számitásra kell gép és nem számit a pénz, akkor valószinűleg i7+Fermi lesz a nyerő egyelőre, játékra viszont Phenom+58xx.

    Kicsit más, de böki a csőrömet:

    Nem tudjuk, hogy játékok alatt fog muzsikálni az 5800-as széria Phenom procival (nem láttam még olyan tesztet), mert mindenhol i7-tel tesztelték, pedig régebbi tesztekben magasabb felbontáson legtöbb helyen a Phenom gyorsabb volt.

    Nekem valahol sántit az, hogy a 4GHz-es i7 nem tudja kihajtani rendesen az 5870-et. Legtöbb helyen ezt mondják, de szerintem valami driver dolog lehet a háttérben. Érdekes módon egy 4890CF vagy 4870X2 CFX rendszernél (ami gyorsabb) magasabb felbontásnál alig lehet CPU limitről hallani, 5870-nél viszont valahogy előjött. Tesztet akarok más CPU-val és újabb driverrel, addig nem tudom elfogadni ezt a NEMHAJTYAKI maszlagot.
  • readswift
    #98
    szerintem az AMDnek nincs pénze fCPUra.
    Megtérülése sem lenne.
  • ozric
    #97
    Sorry, elrontottam a 3. sort:
    3. fCPU + GPU (pl. AMD Fusion + nVidia GTX 295)

    Mellesleg érthető az ATI lépése, mert van fCPU-ja (AMD Fusion). Szintén érthető az nVidia-é is, mert neki nincs semmilyen CPU-ja, nem hogy fCPU-ja.
  • ozric
    #96
    "azt hiszem ez egyértelműen azt mutatja, hogy ebben a pillanatban az nVidia az aki jobb lépést tett"

    Ez koránt sem biztos. Az ATI 5xxx valóság, az nVidia GT300 meg papírtermék, ami nagy valószínűség szerint idén az is marad. Ha meg 2010-et nézzük, akkor még csak körvonalakban sem igaz az állításod. Ugyanis pár hónapnyi előny nem előny.

    Szerinted melyik a jobb kombináció?
    1. CPU + GPU (pl. Intel i7 + ATI 5xxx)
    2. CPU + cGPU (pl. ATI Phenom + nVidia GT300)
    3. fGPU + GPU (pl. AMD Fusion + nVidia GTX 295)

    Magyarázat:
    CPU: "hagyományos" CPU
    fCPU: CPU Fusion: AMD Fusion vagy Intel Larabee
    GPU: klasszikus GPU + "lassabb" GPGPU
    cGPU: compute GPU (nVidia terminológia a Fermi-re)

    Szánékosan nem írom az fCPU + cGPU párost mert az egyértelműen jobb mindnél.
  • readswift
    #95
    -most gyújtott rá, senkit nem kinált meg , mindjál rendel magának sört. Igazi kocsmahangulat lesz estére :D
  • ilf667
    #94
    ennyit érdemelsz kismajom
  • readswift
    #93
    ennyi csak , betartom amit megigértem :D
  • tomcsa4
    #92
    Mi van veled öreg? Nagyon "leattakkoltad" a népet.

    Az jó, ha kitartasz az NV mellett, csak egy láthatatlan termékét véded.
  • readswift
    #91
    a kocsmaszag amit behoztál az meg különösen kegyetlen.
  • ilf667
    #90
    én viszont nem téged
    kegyes a sors
  • readswift
    #89
    neked is tök király problémáid vannak. Mint az a gyerek aki a pisix hiányát nem tudja megemészteni. Irigyellek basszus.
  • ilf667
    #88
    nekem nvidia kártyám van, tök jó meg minden, de már szégyellem lassan, mert az nv vérfanboyoknál mocskosabb genny nem létezik a földön
  • readswift
    #87
    "...sok kártyát elad még az ATi, nem kell félteni ! "

  • readswift
    #86
    basszus, nkmedve, ha hajlandó lenne fogadni akkor most elnyerhettem volna a vidkártyáját, nem lenne ilyen 10 percenként fagyós szar 4850-em amit lusta vagyok visszaküldeni gariba
  • readswift
    #85

    "Természetesen igazad van, mindenki azt használ amit akar. Neked a GPGPU szerep elsődleges, azon a téren nyilvánvalóan NV jobb. Nálam még elsődlegesen játékra kell a GPU, azért van AMD kártyám és azért mert szerintem az RV770 sokkal nagyobb mérnöki bravúr volt, "

    tomcsa4, akkor te meg legyél punk.
  • tomcsa4
    #84
    Ez a readswift egy idióta.
  • nkmedve
    #83
    Természetesen igazad van, mindenki azt használ amit akar. Neked a GPGPU szerep elsődleges, azon a téren nyilvánvalóan NV jobb. Nálam még elsődlegesen játékra kell a GPU, azért van AMD kártyám és azért mert szerintem az RV770 sokkal nagyobb mérnöki bravúr volt, mint a GT200. Ha a Fermiről eddig hallott infók igazak és tényleg jó teljesitménye lesz, akkor azt fogom mondani, hogy nagyon szépen elvégezték a házi feladatukat NV-nél, AMD oldalon viszont az RV870-től eddig nem estem hanyat (ez új driverekkel, vagy új játékoknál mondjuk változhat)

    Abból amit linkeltél, a cimmel nem értek egyet, hogy a DX10 az utolsó releváns DX (régebbi cikk mondjuk) másképp viszont Sweeney eléggé igazat beszél.

    Szerintem pont a DX11 lesz az utolsó lényeges API, mert az tényleges újitásokat hoz (sebesség, könnyű fejlesztés, visszafele kompatibilitás, tesszellátor, többszálúség, compute shader) ezután viszont már nem lesz értelme tovább bonyolitani a fix funkciós arhitektúrákat.
    DX11 lehet az ami még néhány évig, a software render beköszöntéig itt lehet velünk, és ezért most még akinek grafikára kell a GPU, az nyugodtan befektethet egy jó DX11-es GPU-ba ami jelenleg csak AMD-nek van, de meglátjuk, hogy az NV karik hogy fognak muzsikálni, én azelőtt úgyse tervezek újitást.

    Kicsit furcsa ez a jövőbe való tekintgetés. AMD eddig azt igérte, hogy valós DX10-DX10.1 alatt ki fog jönni az RV770 ereje, ami igaznak is bizonyult (csak sajnos kevés olyan dolog van ami kihasználná). Az RV870-nél megint ez van, csak most a DX11-ről van szó és valószinű megint igazuk lesz (itt úgy tűnik hamarabb jönnek a támogatott játékok).
    NV kártyája viszont nehéz eset. Ha grafikában gondolkozik az ember, akkor nem tűnik túl jónak az új arhitektúra, sőt látszólag egyáltalán nem jó. DX11 alatt valószinűleg nem lesz gyorsabb az RV870-nél, de viszont többe kerül előállitani, tehát az árverseny NV-nek megint nem lesz előnyös. Mondhatnánk azt is, hogy 5 év mulva esetleg ez lesz a jobb a két arhitektúra közül, ha bejön a software render, de addig viszont már a teljesitménye lesz nagyon kevés. Szerintem egyelőre még mindig igaz az, hogy grafikára inkább AMD a jobb, mig GPGPU-ra NV, mindkettőt ott kell használni ahova tervezték. Persze nagyon várom a teszteket, lehet hogy Fermi megjelenése után megváltozik a véleményem. Ha az NV lesz a jobb játékokban is (jó áron) akkor azt veszem majd.
  • nkmedve
    #82
    Csak annyit kérdeznék, hogy nem vagy te is egy újabb hottold/vantulok/... reinkarnáció? Az eddigi stilusod alapján arra következtetnék.
  • BlackRose
    #81
    Játékos nem vagyok (bár nem nagy), és szerintem (vagyis nekem) többet ér a GPU számítási képessége (ezért van nVidiám - CUDA), de nem vagyok nVidia bolond és ami azt illeti az AMD/ATI ellen sincs semmi kifogásom... mondjuk úgy, hogy mindenki azt használ ami az adott pillanatban az adott feladatra alkalmasabb, de egy valamit azért érdemes lenne elolvasni mielőtt valami komolyabb "háborúba" indul az ember...

    http://www.tgdaily.com/content/view/36410/118/

    ...azt hiszem ez egyértelműen azt mutatja, hogy ebben a pillanatban az nVidia az aki jobb lépést tett, ő az aki megalkotta a Purple Cow-t (Seth Godin), ő az aki megalkotott egy olyan terméket amelyre felfigyel az igazán igényes piac, ha tetszik ha nem ez a termék az amit Seth Godin FIGYELEMRE MÉLTÓNAK nevez vagy inkább RENDKIVÜLINEK... ez az a termék amely majd lépésről lépésre piacot hasít magának és lehet, hogy grafikai teljesítményben még az ATI alatt marad (persze ez sem biztos), de ez nem egy olyan kártya ami csak egy kicsit gyorsabb mint az előd (az ATI viszont igen), ez az a termék amely olyan utakat nyit amelyeken eddig nem jártunk, szóval ez egy győztes termék lesz... mondom még akkor is ha gamer teljesítményben az ATI mögött lenne. És nem holnap kell ezt a kártyát nézni sőt nem is 2010-ben azok az alkalmazások amelyek majd ez miatt jönnek nem nagyon fognak látszani 2-3 évig és valószínűleg majd a "Fermi 2"-vel ütnek nagyot, de ez az a termék amely ezt az ösvényt kezdi taposni és remélem a jövőben az nVidia az AMD/ATI az Intel és ha lehet még valaki más is ebből az ösvényből igazi szélet útat fog csinálni. A jövő szépen néz ki :) az a fontos, az apróságok meg egyáltalán nem kell zavarjanak senkit.
  • Utokverek
    #80
    Na emiatt az ocsmány flameelés meg szítkozódás miatt kezd egyre jobban elmenni a kedvem az sg-től, Nem hiszem el, hogy nem lehet valamit értelmesen megbeszélni, annélkül, hogy nekiállna mindenki hülyézni.
    ON:
    Remélem valami kellemesen combos mobilváltozattal fognak majd megjelenni nyárra, vagy tényleg leküldik a mostani top-ok árait, ideje lenne valami korrekt lapit beújítanom :)
  • ozric
    #79
    Figyelem: a képen nem egy GT300 látható, hanem egy fejlesztés alatt levő GF100 - ami egy új generációs Tesla prototípus. Ennek megfelelően nem egy DVI/HDMI vagy DisplayPort csatlakozó látható rajta, hanem egy külső PCI Express csatlakozó. Ezért is van belőle csak egy.

    Sajnos ez a cikk is áldozatul esett a nagy kavarodásban, lényegében alig 1-2 célzás látott napvilágot a GT300 kapcsán, és az nVidia valójában a Tesla utód Fermi architektúrát demózta. Hogy a játékra szánt kártya mennyire lesz lebutítva a HPC és szuperszámítógépekhez szánt Fermi/Tesla kártyákhoz képest az még szupertitkos.
  • Ahoy
    #78
    Árnyékok még döcögnek, arcok bábusak ... egyszóval csak erre képes ez a cucc? hát ez gyenge :D
  • neoG
    #77
    Egész jó, de azért a füstön még kicsit dolgozni kéne:)
  • readswift
    #76
    fermi realtime ! :D
  • neoG
    #75
    Az a baj Veled, hogyha Atiról van szó, akkor tényeket akarsz, amiket mellesleg rögtön leszarsz.
    Ha meg nVidia-ról, akkor megelégszel a feltételezésekkel."Ha ez jön, ha az jön ki,majd ilyen jó lesz, majd olyan jó lesz...". Innentől Veled vitatkozni, számodra érveket felhozni felesleges.
  • Ahoy
    #74
    'Gyönyörü érvelést olvashattunk ismét, ha már a témához nem tudunk hozzászólni' - csak ismételni tudlak.

    Ha nVidia nemjön ki tavaszig a kártyájával, addig az AMD szabadon garázdálkodhat az árakkal. Márpedig TE vagy az barátom aki benyalta az nVidia marketinget, egy fake demo kártyával, ráadásul még hazudnak is. (A játéklefizetős dolog, meg átnevezősdiről - konkrétan azt sem tudom melyik GeForce melyik - ne is beszéljünk)

    Bár lenne igazad, már holnap kijönne a Fermi... Te örülnél mert igazad lett, én meg bolgod lennék az árcsökkentett 5850-esemmel.
  • Sanyix
    #73
    szitu van, állítólag fake az a kártya és chip amit mutogattak. Lehet rá keresni guglin, van egy pár oldal
  • readswift
    #72
    igy jár az aki benyalja a marketinget, dől belőle a vegytiszta bullshit!

    "Ez is igaz, viszont vedd számításba az AMD, processzorokban szerzett több éves tapasztalatát,licenszek stb... és oly szándékát, hogy nemsokára jön a Fusion. Addig meg AMD esetleges monopol helyzetben (sajnos) szarrá gazgagszik rajtunk. Bárcsak ne így lenne! :)"
  • readswift
    #71
    a dolgok jelenlegi állása szerint a fusion nem más mint vaporware. Mutass timelinet.
  • readswift
    #70
    gyönyörü érvelést olvashattunk ismét, ha már a témához nem tudunk hozzászólni
    egy kis személyeskedés még bármikor belefér igaz? Medve, bármiben fogadok hoyg még ismerősöd sincs aki bármi hasznos dolgo müvelne gpuval.
  • nkmedve
    #69
    Hagyjad, ezeknek az égvilágon semmit nem érdemes magyarázni. Ha majd esetleg betöltik a 18at és ragad rájuk egy kevés technikai tudás, akkor lehet hallhatunk majd tőlük az ökörségeken kivül mást is (ez még eddig nem jött össze nekik).

    Sajnálom, hogy az ilyen hozzászólóktól süllyed egyre inkább az SG szinvonala, lassan már nem érdemes a hszeket olvasni, mert az ember csak felhúzza magát, hogy milyen nagy az Isten állatkertje.
  • semmikozod
    #68
    Igaz, teljesen kifelejtettem a Fusiont, az is nagyon igéretes fejlesztés lesz.
  • Ahoy
    #67
    Jó és ez engem hol érdekel? Köze nincs ahhoz amit írtam.
  • readswift
    #66
    kurvára nem vagy képben, gyakorlatilag minden tudományos célú, orvosi alkalmazást Fermire fognak fejleszteni, mert az architektúra lehetővé teszi. Iszonyatos mennyiségü GPGPU eladásaik lesznek. Boritékolható. AMD , amd , sajna túl szorosra füzte microsoftal. Az openCL-t is az apple tolja nem az ms , FYI.
  • Ahoy
    #65
    Még jóhogy megéri! Egy meló ahol 100 órát kell mennie a gépednek FULL teljesítményen hogy kirenderelje/konvertálja az anyagokat vs. egy olyan gép, ahol van a CPU ereje plusz még egy Core i7-nél jobb teljesítményű GPU! Melllette még játszani is tudok, ha akarok, abban az 50 órában amit megspórolt nekem.
  • Ahoy
    #64
    Végre egy konstruktív hsz is, a dedikált Stewee Blood írások mellett :)Teljesen egyetértek veled. A szoftver render a jövő.

    "...addig az nV már a második generációs cgpu-t hozza ki, tehát igencsak előnyben lesznek. Támogatottság, driverek és tapasztalat terén is."

    Ez is igaz, viszont vedd számításba az AMD, processzorokban szerzett több éves tapasztalatát,licenszek stb... és oly szándékát, hogy nemsokára jön a Fusion. Addig meg AMD esetleges monopol helyzetben (sajnos) szarrá gazgagszik rajtunk. Bárcsak ne így lenne! :)