103
  • Ahoy
    #63
    "aki ph cikkekből, googleből, meg teszelátor utáni vágyakozásból akar véleményt formálni az úgy jár mint ...Ahoy... signal to noise ratio 3%"

    Mondja ezt az, aki egy jelenleg nemlétező VGA miatt kb emberéletet oltana ki :) Mégis milyen hamis infókra gondolsz? Tesszellációval mi is a bajod? Tán nem létezik natívan Dx11-ben Radeonok alatt?



  • Sir Ny
    #62
    "Hogy lehet elkölteni egy gépet? Ha arra utalsz hogy melózni nem éri meg drága VGA-val... hát de, próbálj csak a megrendelőnek egy 12 órás HD videóanyagot megvágni és eljuttatni DVD formátumban, AVCHD-ben, meg egy kicsi preview formátumban.
    Ez jelen esetben nekem örömteli. Végre valahára könnyen párhuzamosítható műveleteknél bevethető az VGA ereje, és milyen durván! Ha ezt lepipálja az nVidia jó áron, DX11-es teljesítménnyel, akkor azt veszem meg. Ilyen egyszerű."

    ezt nem értem. akkor szerinted megéri a drága VGA, vagy nem? mert szerintem nem. és azt írtad, hogy te nem vennél drágán VGA-t. akkor mire gondolsz? amúgy igazad van, nem értek hozzá, de akinek kell a kraft, az miért nem használ 2/3/4/5 VGA-t egyszerre?
  • readswift
    #61
    hány db nem crossplatform dx11 játék lesz?
  • Sir Ny
    #60
    "Hogy lehet elkölteni egy gépet?" mármint a pénzt
  • semmikozod
    #59
    Kibeszélt dx11-ről meg Xboxról?
  • readswift
    #58
    ha szerinted 3billió tranyós ATi gput fognak biggyeszteni az új zikszbokszba akkor szerintem tévedsz. Márpedig a dx11 ott kifújt .
  • semmikozod
    #57
    *sarcasm on*
    Megmondom a frankót és mindenkinek kuss utána! :D
    *sarcasm off*
    Se ATI/AMD, se nV drukker nem vagyok.

    Az nV úgy döntött, hogy most ezt a csatát megnyeri az ATI/AMD. Ők inkább most váltanak technológiát. Az ATI/AMD-nek úgyis váltania kellesz, mert ez a jövő, csakhogy amikor ők váltanak, addig az nV már a második generációs cgpu-t hozza ki, tehát igencsak előnyben lesznek. Támogatottság, driverek és tapasztalat terén is.
    Véleményem szerint az nV okosan csinálja. Kibirták az FX bukást is, ez sem fog gondot okozni. Szerintem ráadásul nyerni fognak vele, nagyon jó a vas, csak a gyártástechnológiát kell még javitani.
  • readswift
    #56
    aki ph cikkekből, googleből, meg teszelátor utáni vágyakozásból akar véleményt formálni az úgy jár mint ...Ahoy... signal to noise ratio 3%
  • Ahoy
    #55
    "hmmm. kinek is kell a kraft? mindenkinek?"

    Ph-s cikkből:

    "A GF100 felépítése jelentősen eltér a nemrég megjelent Cypress lapkától. Az AMD a rendszerét láthatóan a DirectX 11-re szabta, míg az NVIDIA egy korlátok nélküli architektúrát alkotott, kifejezetten a jól párhuzamosítható számításokhoz."

    Kérdés: Tudod mit jelent a párhuzamosítás, a mai szoftverek világában? Tudod mik a könnyen párhuzamosítható műveletek? Emellett olvass utána, hogy miért nem működhet a GPU CPU-ként. Másrészt Szerinted a mai (és jövőbeli) programok hány %-a CUDA kompatibilis? Keress rá google-ben... Jelen állás úgynéz ki sajnos nem sok. Mivel nem vagyok elvakult, ÉN IS PONT EZT SZERETNÉM! Bárcsak tényleg többszöröse lenne sebességre dupla pontosságú műveletekben, és használható lenne bármilyen általános műveletre... Bárcsak lenne minél több felület, lenne választék, árverseny, új fejlesztések! EZ a lényeg! Nem hogy kinek a terméke jobb. Ááá

    "nagyjából támogatja a dx11-et, szinte csak a tesszellátort nem..."

    Nagyjából fingunk nincs róla, mivel NEM jött még ki a kártya, nem tudjuk mikor jön ki, teszteredmények SEHOL nincsenek, még csak találgatás szintjén sem. Én sem tudom. Az viszont tény, hogy az emuláció sohasem lesz energiahatékony, ezért kell bele 3 milla tranyó, meg ennyi tápcsatlakozó. Tesszelláció nem fontos... ha-ha. kapcsódki, minek is... Az is tény, hogy AMD megoldása legalább már itt van a polcokon.

    "akik dolgoznak a géppel, azok általában szeretnének vele keresni. és sokat. ha elköltik a gépüket drága videókártyákra, akkor nem fognak."

    Hogy lehet elkölteni egy gépet? Ha arra utalsz hogy melózni nem éri meg drága VGA-val... hát de, próbálj csak a megrendelőnek egy 12 órás HD videóanyagot megvágni és eljuttatni DVD formátumban, AVCHD-ben, meg egy kicsi preview formátumban.
    Ez jelen esetben nekem örömteli. Végre valahára könnyen párhuzamosítható műveleteknél bevethető az VGA ereje, és milyen durván! Ha ezt lepipálja az nVidia jó áron, DX11-es teljesítménnyel, akkor azt veszem meg. Ilyen egyszerű.

    Ez meg kb egy 14 éves lázadó kisfiú stílusára vall:

    "te nem fizetett ati drukker vagy, hanem szimplán hülye."

    Aki indoklás nélkül lehülyézi a másikat, annak indoklás nélkül le szokás b***ni egy nagy pofont. Sajnos a virtualitás ezt nem teszi lehetővé. Na de majd a CsUDA , az csinál nekünk virtuális valóságot :P
  • readswift
    #54
    nem erről van szó, irányvonalakról van szó, az nV többet igér mint a dx11. Ha lesz álleejtős demó akkor majd ki fog derülni hogy kinek áll a zászló. Miért ne mondhatnám azt hogy aki kiforratlan technóligiájú 5870et vesz , az hülyegyerek? Szerinted nem az ?

    -Én nem játszom, vidkártyát sem veszek jövő tavaszig:D

  • kraven81
    #53
    Leszarom a Dx11et az atit és nvidiat is itt nem erröl van szó, de látom kiragadtad a lényeget. Itt a lényeg hogy "juj atit/nvidiat veszel de ciki vagy". Szóval nem tudom, de valami elgurult. De, ha gyerek vagy még megértem. Peace
  • readswift
    #52
    "ezt te komolyan is gondolod?"

    Üdv. És ha komolyan gondolom akkor mivan? Nem tudod hova tenni ?? Álljál sorba DX11-ért akkor, nekedvaló .
  • kraven81
    #51
    Üdv. Sose értettem ezt az Nvidia vs Ati tábort. Mégha mind2 magyar cég lenne, de 2 multi-céget ami jól lehuzza a vásárlókat itt Isteniti, hol az egyik, hol a másik és mint az ovodások probáltok kiállni a cég melett. Ez szánalmas valahol. És beirkáltok ilyeneket, hogy "Azért az alant emlitett hülyegyerekeknek még sok kártyát elad majd az ATi". ezt te komolyan is gondolod? Csak az nvidiasok ilyen idióták vagy mind2 fél?
  • Sir Ny
    #50
    ezt az egy hozzászólásodat találtam, ahol mondtál is valamit. a többiben csak sértegetted az embereket. Olvasd vissza egy kicsit a HSZ-eid... Mindenkit leoltasz, gyanusítgatsz, belemagyarázol... Na ez a színvonal! és észre sem veszed. és akkor még te jössz nekem, hogy bizonyítsam, hogy hülye vagy.

    "Szóval kinek is fog jóljönni ez a kártya? Annak a rétegnek, akinek kell a kraft a számításigényes műveletekhez."

    hmmm. kinek is kell a kraft? mindenkinek?


    "Filmvágás, utómunka, PS, 3D... Ez a réteg nem túlságosan nagy - másrészt meg el kell hinteniük a CUDA magjait az ilyen professzionális szoftverekben, ami még idő, és pénz az nVidiának. "

    jaja, mert a CUDA kifejlesztése nem volt sem idő, sem pénz. az könnyen ment, és a nagy dolog az, hogy le kell nyomkodni az emberek torkán. (habár ebben nem túl erős az nVidia. az AMD-sek azt hiszik, hogy az AMD a szőke herceg, az intel meg az nVidiaa csúnya gonosz boszorkányok, akik nem csinálnak semmit, csak lefizetgetik az embereket. ( ez pont olyan, mint a firefox, a felhasználók nem azért használják, mert az jó, hanem azért, mert a többi szar. ) )


    "Játékbeli teljesítményről egyelőre nem nagyon esik szó, valószínüleg az emuláció miatt gyengébben (vagy sokkal rosszabb energiahatásfokkal) fog működni mint az AMD dx11-es chipjei. Már most látszik a 6-8 tűs csatiból mennyit fog zabálni, és a nagy monolitikus chipet sem egyszerű előállítani. "

    nagyjából támogatja a dx11-et, szinte csak a tesszellátort nem. nem hiszem, hogy az olyan égetően fontos lenne. és ha a felhasználó kikapcsolja, akkor máris a sok sok kraft, amit emlegettél, az már mind a játék futtatására fog irányulni.

    "Az már most látszik, hogy nem a játékokra szakosodott usereknek készül, hanem sokkal általánosabb célokra, ahol kell a kakaó. "
    pl.: óvoda.

    "Más kérdés, hogy végülis kinek kell ez? Professzionális felhasználóknak, akik dolgoznak a géppel. "

    akik dolgoznak a géppel, azok általában szeretnének vele keresni. és sokat. ha elköltik a gépüket drága videókártyákra, akkor nem fognak.

    "Játékosoknak ott lesz a Radeon sokkal jobb hatásfokkal. "
    hmmm. hogy erre is mondjak valamit: najó nemállok le egy vérpistikével vitatkozni... védd csak az ájemdét. Ezek után igazán leírhatnád, melyik nagynevű cég főmérnöke vagy, vagy melyik egyetemen vagy mérnök professzor, esetleg milyen kutatásokban veszel részt így mérnökként? No offense, csak megkérdeztem ha már hardware tudásról beszélünk..
  • TommyGun
    #49
    Sok birka mifaszt akartok még megse jelent. Ha kijön és jobb lesz mint az ATI akkor az ATI húz majd bele, mennek le majd az árak, ha xar lesz akkor is mennek le az árak és belehúz az NV...kinem xarja le melyik a jobb nyomingerek ?
    A lényeg hogy olcsó legyen baze, részvényes vagy ? akkor mit vered a nyálad hogy melyik a jobb, mint valami gettóovi baszki
  • Ahoy
    #48
    Igen, nekem is feltűnt :d hiába ez még csak egy makett :)
  • ddt500
    #47
    Mé csak egy dugaj van a végén? Már az X800-ra is két monitort tudtam dugni.
  • Ahoy
    #46
    Mondhatnál érveket nem? Milyen pontos tényeket tudsz a Fermiről? Meg sem jelent, minden időpont csak találgatás. Semmit nem tudunk róla, csak ezeket az infókat az architektúráról.

    Érveket illik megcáfolni, nem? Lehülyézni mindg könnyebb a másikat ;) Blood Steven-ek szokása már bocs.
  • Sir Ny
    #45
    nem kell. ebben a témában te már hétszer megindokoltad helyettem.
  • Ahoy
    #44
    Esetleg indokolnád is? Hihetetlen hogy egyesek más emberek életét is kioltanák csak azért bebizonyítsák hogy az ő hárdverük jobb :D:D:D:DD hihetetlen....
  • Sir Ny
    #43
    "Mivel úgyis meggyanusítasz hogy fizetett ATI "drukker" vagyok, ezért előrelátóan azt mondom:"
    te nem fizetett ati drukker vagy, hanem szimplán hülye.
  • Ahoy
    #42
    De részemről nem OFF-olok tovább, próbáltam leírni a véleményemet, teljesen objektíven. Az egész Fermi dolog szinte találgatás szintjén van. Kb ennyit is ér vitatkozni róla. Majd az eredmények beszélnek ha kijön.
  • Ahoy
    #41
    Olvasd vissza egy kicsit a HSZ-eid... Mindenkit leoltasz, gyanusítgatsz, belemagyarázol... Na ez a színvonal!

    Ezek után igazán leírhatnád, melyik nagynevű cég főmérnöke vagy, vagy melyik egyetemen vagy mérnök professzor, esetleg milyen kutatásokban veszel részt így mérnökként? No offense, csak megkérdeztem ha már hardware tudásról beszélünk..
  • readswift
    #40
    Magnum ritka jó érzékkel ir szatirákat, tehetséges a srác
  • Ahoy
    #39
    :)) najó nemállok le egy vérpistikével vitatkozni... vedd csak meg az envidijátad, tőlem azt teszel amit akarsz. Nem írtam támadóan hogy más normális ember sem, de te mindenki véleményére úgy reagálsz, mintha az életed múlna rajta - támadóan.

    Azért a te hárdveres tudásodra igen kíváncsi lennék, főleg hogy milyen egyetem keretei között szeded/szedted össze... Mondjuk egy BME-VIK? Bár ezt erősen kétlem, mivel nemlenne nagyon időt játékokkal dedózni, meg VGA huligánként kukákat gyújtogatni egy hallucinált AMD-nVidia mérközés után ;)

    Itt lezártam részemről, mivel sajnos nekem nincs időm ilyenekre :)
  • readswift
    #38
    De azért érzed a különbséget 1 doktori disszertáció és a te áttömöritgetéseid közt? Nem? Na nem baj, hardwarehez meg mégannyira sem értesz mint amennyire beállitod magad.
  • Ahoy
    #37
    Te olvastad mit írtam egyáltalán? Le kéne venni a zöld szemüveged, és elolvasni újra ;) Nem kéne belemagyarázni mások véleményébe a hülyeségedet...Másrészt én nem vagyok olyan elvakult vérpistike mint te, én csak örülnék ha nvidia kiadna egy jó kártyát, és árverseny alakulna ki! Ha őd ad jobb kártyát amivel dolgozni is lehet + még játszani is, akkor miért ne?

    Egyelőre viszont lófaszsincs nekik, csak egy műanyag szardarab, különben működő rendszert mutattak volna.Szerintem lesz itt semmi jövő tavaszig.

    Mivel úgyis meggyanusítasz hogy fizetett ATI "drukker" vagyok, ezért előrelátóan azt mondom:

    "Nekünk" már van egy boltok polcain lévő (szerintem baráti kezdőáron) kijött sorozatunk, ami a tesztek alapján odapirítja videó transcodingban a CUDA-s GeForce-okat, sőt még egy tuningolt i7-et is. Játékban meg, tesztek magukért beszélnek. Idle fogyasztás 27 Watt terhelten is 4890 szintje...Ez a valóság!

    "Nekünk" tavaszig: árcsökkentés, zsír driverek, spec hűtők, EE modellek, 57xx sorozat, 5870 X2, 5890, DX11-s gémek kijönenek. Mikor nVidia kiadja ezt a 6 + 8 csatis kombájnt... Hát nem is tudom :/
  • readswift
    #36
    na pont rólad irta a szatiráját Magnum PI :))

    a skyline név lassan trédmárk lesz :D
  • Skyline
    #35
    Drágább lesz a hasonló tudású Atiknál jóóóval,és a GagyiX is megkapta az újabb koporsószeget!
  • readswift
    #34
    nem leszólni akartad csak kitaláltad hogy az nV gyártja a larrabeet nem pedig az intel. Fasság, mert nV-nek van köze játékfejlesztéshez, az intelnek meg nicns. Az ATinak meg a zikszbokszhoz van köze :D
  • Ahoy
    #33
    Ezzel nem leszólni akartam, mivel nekem is inkább filmezés + 3d terén kellene valami brutál VGA. Viszont ahogy (CUDA/ATI Stream) video transcoding tesztekből láttam az új Radeonok ATI Stream ereje is igen durva!
  • Ahoy
    #32
    Szóval kinek is fog jóljönni ez a kártya? Annak a rétegnek, akinek kell a kraft a számításigényes műveletekhez. Filmvágás, utómunka, PS, 3D... Ez a réteg nem túlságosan nagy - másrészt meg el kell hinteniük a CUDA magjait az ilyen professzionális szoftverekben, ami még idő, és pénz az nVidiának.

    Játékbeli teljesítményről egyelőre nem nagyon esik szó, valószínüleg az emuláció miatt gyengébben (vagy sokkal rosszabb energiahatásfokkal) fog működni mint az AMD dx11-es chipjei. Már most látszik a 6-8 tűs csatiból mennyit fog zabálni, és a nagy monolitikus chipet sem egyszerű előállítani.

    Az már most látszik, hogy nem a játékokra szakosodott usereknek készül, hanem sokkal általánosabb célokra, ahol kell a kakaó.

    Más kérdés, hogy végülis kinek kell ez? Professzionális felhasználóknak, akik dolgoznak a géppel. Játékosoknak ott lesz a Radeon sokkal jobb hatásfokkal.
  • arty
    #31
    ha szerinted releváns, nem ismered a szó jelentését sem.

    zikszbokszbazmeg.
  • readswift
    #30
    az hogy nem vágod miért releváns, maradjon a te bajod, gratulálok.
  • readswift
    #29
    by Charlie Demerjian

    NA ez a fickó tényleg egy troll

    na erről beszélt
    Magnum PI , már értem, szatirát irt
  • arty
    #28
    fantasztikusan releváns hsz, gratulálok
  • arty
    #27
    nvidia makett-vga-val demozott

    :DDD

    1 rohadt működő tesztpéldányuk sincsen :D
  • readswift
    #26
    cool story bro.

    (gigalol)
  • Magnum PI
    #25
    Nem célom eldönteni az ATI vs. NVIDIA vitát de az biztos hogy a két tábor között a logikus érvelés és a inteligens viselkedés terén az ATI tábora több szinttel magasabban van mint az NVIDIA tábora. Azért kiváncsi leszek hogy amikor kijönnek az első játék tesztek (mert ugye nekünk úgy is ez a lényeg) akkor mi fog töténni.
  • readswift
    #24
    neked meg lesz directsound API zikszbokszon , lényeg hogy ráköthesd a müanyag hangfalszetedet : DDD