nVidia: GT300 részletek

Jelentkezz be a hozzászóláshoz.

#53
Leszarom a Dx11et az atit és nvidiat is itt nem erröl van szó, de látom kiragadtad a lényeget. Itt a lényeg hogy "juj atit/nvidiat veszel de ciki vagy". Szóval nem tudom, de valami elgurult. De, ha gyerek vagy még megértem. Peace
#52
"ezt te komolyan is gondolod?"

Üdv. És ha komolyan gondolom akkor mivan? Nem tudod hova tenni ?? Álljál sorba DX11-ért akkor, nekedvaló .

#51
Üdv. Sose értettem ezt az Nvidia vs Ati tábort. Mégha mind2 magyar cég lenne, de 2 multi-céget ami jól lehuzza a vásárlókat itt Isteniti, hol az egyik, hol a másik és mint az ovodások probáltok kiállni a cég melett. Ez szánalmas valahol. És beirkáltok ilyeneket, hogy "Azért az alant emlitett hülyegyerekeknek még sok kártyát elad majd az ATi". ezt te komolyan is gondolod? Csak az nvidiasok ilyen idióták vagy mind2 fél?
#50
ezt az egy hozzászólásodat találtam, ahol mondtál is valamit. a többiben csak sértegetted az embereket. Olvasd vissza egy kicsit a HSZ-eid... Mindenkit leoltasz, gyanusítgatsz, belemagyarázol... Na ez a színvonal! és észre sem veszed. és akkor még te jössz nekem, hogy bizonyítsam, hogy hülye vagy.

"Szóval kinek is fog jóljönni ez a kártya? Annak a rétegnek, akinek kell a kraft a számításigényes mûveletekhez."

hmmm. kinek is kell a kraft? mindenkinek?


"Filmvágás, utómunka, PS, 3D... Ez a réteg nem túlságosan nagy - másrészt meg el kell hinteniük a CUDA magjait az ilyen professzionális szoftverekben, ami még idõ, és pénz az nVidiának. "

jaja, mert a CUDA kifejlesztése nem volt sem idõ, sem pénz. az könnyen ment, és a nagy dolog az, hogy le kell nyomkodni az emberek torkán. (habár ebben nem túl erõs az nVidia. az AMD-sek azt hiszik, hogy az AMD a szõke herceg, az intel meg az nVidiaa csúnya gonosz boszorkányok, akik nem csinálnak semmit, csak lefizetgetik az embereket. ( ez pont olyan, mint a firefox, a felhasználók nem azért használják, mert az jó, hanem azért, mert a többi szar. ) )


"Játékbeli teljesítményrõl egyelõre nem nagyon esik szó, valószínüleg az emuláció miatt gyengébben (vagy sokkal rosszabb energiahatásfokkal) fog mûködni mint az AMD dx11-es chipjei. Már most látszik a 6-8 tûs csatiból mennyit fog zabálni, és a nagy monolitikus chipet sem egyszerû elõállítani. "

nagyjából támogatja a dx11-et, szinte csak a tesszellátort nem. nem hiszem, hogy az olyan égetõen fontos lenne. és ha a felhasználó kikapcsolja, akkor máris a sok sok kraft, amit emlegettél, az már mind a játék futtatására fog irányulni.

"Az már most látszik, hogy nem a játékokra szakosodott usereknek készül, hanem sokkal általánosabb célokra, ahol kell a kakaó. "
pl.: óvoda.

"Más kérdés, hogy végülis kinek kell ez? Professzionális felhasználóknak, akik dolgoznak a géppel. "

akik dolgoznak a géppel, azok általában szeretnének vele keresni. és sokat. ha elköltik a gépüket drága videókártyákra, akkor nem fognak.

"Játékosoknak ott lesz a Radeon sokkal jobb hatásfokkal. "
hmmm. hogy erre is mondjak valamit: najó nemállok le egy vérpistikével vitatkozni... védd csak az ájemdét. Ezek után igazán leírhatnád, melyik nagynevû cég fõmérnöke vagy, vagy melyik egyetemen vagy mérnök professzor, esetleg milyen kutatásokban veszel részt így mérnökként? No offense, csak megkérdeztem ha már hardware tudásról beszélünk..

,,Boldogok, akik üldözést szenvednek az igazságért, mert övék a mennyek országa.\" //INRI

#49
Sok birka mifaszt akartok még megse jelent. Ha kijön és jobb lesz mint az ATI akkor az ATI húz majd bele, mennek le majd az árak, ha xar lesz akkor is mennek le az árak és belehúz az NV...kinem xarja le melyik a jobb nyomingerek ?
A lényeg hogy olcsó legyen baze, részvényes vagy ? akkor mit vered a nyálad hogy melyik a jobb, mint valami gettóovi baszki

ONLINE NBA LIGA -> http://nba.net63.net

#48
Igen, nekem is feltûnt :d hiába ez még csak egy makett :)
#47
Mé csak egy dugaj van a végén? Már az X800-ra is két monitort tudtam dugni.<#help>

#46
Mondhatnál érveket nem? Milyen pontos tényeket tudsz a Fermirõl? Meg sem jelent, minden idõpont csak találgatás. Semmit nem tudunk róla, csak ezeket az infókat az architektúráról.

Érveket illik megcáfolni, nem? Lehülyézni mindg könnyebb a másikat ;) Blood Steven-ek szokása már bocs.
#45
nem kell. ebben a témában te már hétszer megindokoltad helyettem.

,,Boldogok, akik üldözést szenvednek az igazságért, mert övék a mennyek országa.\" //INRI

#44
Esetleg indokolnád is? Hihetetlen hogy egyesek más emberek életét is kioltanák csak azért bebizonyítsák hogy az õ hárdverük jobb :D:D:D:DD hihetetlen....
#43
"Mivel úgyis meggyanusítasz hogy fizetett ATI "drukker" vagyok, ezért elõrelátóan azt mondom:"
te nem fizetett ati drukker vagy, hanem szimplán hülye.

,,Boldogok, akik üldözést szenvednek az igazságért, mert övék a mennyek országa.\" //INRI

#42
De részemrõl nem OFF-olok tovább, próbáltam leírni a véleményemet, teljesen objektíven. Az egész Fermi dolog szinte találgatás szintjén van. Kb ennyit is ér vitatkozni róla. Majd az eredmények beszélnek ha kijön.
#41
Olvasd vissza egy kicsit a HSZ-eid... Mindenkit leoltasz, gyanusítgatsz, belemagyarázol... Na ez a színvonal!

Ezek után igazán leírhatnád, melyik nagynevû cég fõmérnöke vagy, vagy melyik egyetemen vagy mérnök professzor, esetleg milyen kutatásokban veszel részt így mérnökként? No offense, csak megkérdeztem ha már hardware tudásról beszélünk..
#39
:)) najó nemállok le egy vérpistikével vitatkozni... vedd csak meg az envidijátad, tõlem azt teszel amit akarsz. Nem írtam támadóan hogy más normális ember sem, de te mindenki véleményére úgy reagálsz, mintha az életed múlna rajta - támadóan.

Azért a te hárdveres tudásodra igen kíváncsi lennék, fõleg hogy milyen egyetem keretei között szeded/szedted össze... Mondjuk egy BME-VIK? Bár ezt erõsen kétlem, mivel nemlenne nagyon idõt játékokkal dedózni, meg VGA huligánként kukákat gyújtogatni egy hallucinált AMD-nVidia mérközés után ;)

Itt lezártam részemrõl, mivel sajnos nekem nincs idõm ilyenekre :)
#38
De azért érzed a különbséget 1 doktori disszertáció és a te áttömöritgetéseid közt? Nem? Na nem baj, hardwarehez meg mégannyira sem értesz mint amennyire beállitod magad.

#37
Te olvastad mit írtam egyáltalán? Le kéne venni a zöld szemüveged, és elolvasni újra ;) Nem kéne belemagyarázni mások véleményébe a hülyeségedet...Másrészt én nem vagyok olyan elvakult vérpistike mint te, én csak örülnék ha nvidia kiadna egy jó kártyát, és árverseny alakulna ki! Ha õd ad jobb kártyát amivel dolgozni is lehet + még játszani is, akkor miért ne?

Egyelõre viszont lófaszsincs nekik, csak egy mûanyag szardarab, különben mûködõ rendszert mutattak volna.Szerintem lesz itt semmi jövõ tavaszig.

Mivel úgyis meggyanusítasz hogy fizetett ATI "drukker" vagyok, ezért elõrelátóan azt mondom:

"Nekünk" már van egy boltok polcain lévõ (szerintem baráti kezdõáron) kijött sorozatunk, ami a tesztek alapján odapirítja videó transcodingban a CUDA-s GeForce-okat, sõt még egy tuningolt i7-et is. Játékban meg, tesztek magukért beszélnek. Idle fogyasztás 27 Watt terhelten is 4890 szintje...Ez a valóság!

"Nekünk" tavaszig: árcsökkentés, zsír driverek, spec hûtõk, EE modellek, 57xx sorozat, 5870 X2, 5890, DX11-s gémek kijönenek. Mikor nVidia kiadja ezt a 6 + 8 csatis kombájnt... Hát nem is tudom :/
#36
na pont rólad irta a szatiráját Magnum PI :))

a skyline név lassan trédmárk lesz :D

#35
Drágább lesz a hasonló tudású Atiknál jóóóval,és a GagyiX is megkapta az újabb koporsószeget!<#idiota>

LiveId: HUNRa1n PsnId: HUNKa1n

#34
nem leszólni akartad csak kitaláltad hogy az nV gyártja a larrabeet nem pedig az intel. Fasság, mert nV-nek van köze játékfejlesztéshez, az intelnek meg nicns. Az ATinak meg a zikszbokszhoz van köze :D

#33
Ezzel nem leszólni akartam, mivel nekem is inkább filmezés + 3d terén kellene valami brutál VGA. Viszont ahogy (CUDA/ATI Stream) video transcoding tesztekbõl láttam az új Radeonok ATI Stream ereje is igen durva!
#32
Szóval kinek is fog jóljönni ez a kártya? Annak a rétegnek, akinek kell a kraft a számításigényes mûveletekhez. Filmvágás, utómunka, PS, 3D... Ez a réteg nem túlságosan nagy - másrészt meg el kell hinteniük a CUDA magjait az ilyen professzionális szoftverekben, ami még idõ, és pénz az nVidiának.

Játékbeli teljesítményrõl egyelõre nem nagyon esik szó, valószínüleg az emuláció miatt gyengébben (vagy sokkal rosszabb energiahatásfokkal) fog mûködni mint az AMD dx11-es chipjei. Már most látszik a 6-8 tûs csatiból mennyit fog zabálni, és a nagy monolitikus chipet sem egyszerû elõállítani.

Az már most látszik, hogy nem a játékokra szakosodott usereknek készül, hanem sokkal általánosabb célokra, ahol kell a kakaó.

Más kérdés, hogy végülis kinek kell ez? Professzionális felhasználóknak, akik dolgoznak a géppel. Játékosoknak ott lesz a Radeon sokkal jobb hatásfokkal.
arty
#31
ha szerinted releváns, nem ismered a szó jelentését sem.

zikszbokszbazmeg.

Forza.

#30
az hogy nem vágod miért releváns, maradjon a te bajod, gratulálok.

#29
by Charlie Demerjian

NA ez a fickó tényleg egy troll<#kocsog>

na errõl beszélt
Magnum PI , már értem, szatirát irt
<#bee1>

arty
#28
fantasztikusan releváns hsz, gratulálok

Forza.

arty
#27
nvidia makett-vga-val demozott

:DDD

1 rohadt mûködõ tesztpéldányuk sincsen :D

Forza.

#26
cool story bro.

(gigalol)<#idiota>

Magnum PI
#25
Nem célom eldönteni az ATI vs. NVIDIA vitát de az biztos hogy a két tábor között a logikus érvelés és a inteligens viselkedés terén az ATI tábora több szinttel magasabban van mint az NVIDIA tábora. Azért kiváncsi leszek hogy amikor kijönnek az elsõ játék tesztek (mert ugye nekünk úgy is ez a lényeg) akkor mi fog töténni.

#24
neked meg lesz directsound API zikszbokszon , lényeg hogy ráköthesd a müanyag hangfalszetedet : DDD

arty
#23
nvidia majd szétszór némi pénzmagot és akkor nem dx11, meg tesszelácio lesz, hanem dx9 és fizix...

ahogy eddig

Forza.

Sanyix
#22
Meg drágább, meg veszteségesebb :DD
(lehet hogy olyan szúnyogra ágyúval lövés féle lesz, mint a gtx-ek)

Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)

Sanyix
#21
Támogatni támogatja, de több eljárását csak emulálja -> nem lesz benne hûdegyors, így nekik tényleg nem lesz jó a dx11 bár támogatva van :)

Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)

#20
Az arhitektúrából látszik, hogy ez nem grafikára lett kifejlesztve, inkább Larabee ellenfél lesz mint Radeon-gyilkos. DX9-ben valószinûleg igy is brutális teljesitménye lesz, DX10-DX11-et még meglátjuk.

Még ha nem is GPU, hanem inkább cGPU, várjuk szeretettel, hogy legyen egy kis verseny.

readswift: flameelést be lehet fejezni

#19
De szétprogramoznám XD

(max. 200 betû, nem tartalmazhat HTML, vagy UBB kódot, és 2 soremelés megengedett)

#18
"Természetesen képes támogatni a legújabb OpenGL és DirectX API-kat, de számos funkciót nem támogat hardveresen, így azokat emulálni kell. A legszembetûnõbb dolog, hogy a rendszer nem rendelkezik fix funkciós tesszellátorral, ami a DirectX 11 legnagyobb újítása. A teljes tesszellációs folyamatot a CUDA magok segítségével kivitelezik. A Microsoftot megkérdeztük a megoldással kapcsolatban. A redmondi óriáscég szóvivõje elmondta, hogy nem beszélhetnek egy még meg nem jelent termék DirectX 11-es támogatásáról, de az API nem követeli meg a fix funkciós egységek jelenlétét, azaz a feldolgozó futószalag bármely részét lehet emulálni. Persze a sebesség szempontjából az emuláció viszonylag lassú megoldás, így nem optimális azt használni."

prohardver cikk

Ettõl még a (feltételezett) brutális ereje miatt könnyen lehet, hogy így is gyorsabb lesz az Ati kártyájánál.
#17
Véleményem szerint tavasznál elõbb nem lesz kárty belõle, csak az esetleges ATI felé mutató vásárlási szándékot próbálják ezzel a bejelentéssel elodázni kicsit, de várjuk tisztelettel a megjelenését!
Én mindig abban reménykedem, hogy 1x az egyik 1x a másik készít jobb/elõremutatóbb kártyát, így megmarad a fejlõdés!

#16
Gyereke, ez nem a hétvégi UTE-Fradi meccs! ez csak két HW gyártó, ne legyetek már ennyire szánalmasak.... :)
Még a végén azt is beírja valaki, hogy "stipi-stopi én láttam meg elõbb!"
Gondolkodjatok már egy kicsit!
(akire ez nem vonatkozik, az úgyis érti...)

#15
nagyon nagy hibát követ el az AMD hogy bevette a DX11-et a FUSION-be, egy hirdetési felület, egy maszlag lett a FUSION.

#14
AMD HAS BEGUN a campaign to step up the adoption of a new physics engine. The company is working with software developer Pixelux Entertainment to sell developers on a combination of the Bullet Physics engine and OpenCL processing.

ezt forditgasd le magadnak , aztán találd ki hogy labdába fog e rúgni :D

#13
"Ezzel Kb. agyonverte az ATI-t az nV"

Azért szánj rá öt percet az életedbõl, hogy ezen kicsit eltöprengesz.
Addig tedd félre kicsit az indulataidat.
Ha ezután még mindíg tartod ezt a kijelentést, akkor lelked rajta.

Elösször lõjünk rájuk atomot, aztán valami DURVÁT!

#12
a szabvány dp fp miatt erre fognak elkészülni az egyetemeken a legújabb legelõremutatóbb dolgok, (ahogy eddig is) ennyi elég :))


A Másik kedvenceim azok akik a larabit szellõztették hogy bekerül a playstation4-be. Szegény hülyék <#idiota>. Akárcsak a theinquirer charlie , az fényképes IDF beszámolójával, direktben az nvidia térdrekényszeritésérõl <#idiota><#idiota>

#11
ezt pont te mondod...;D Mellesleg az atit nem olyan könnyû agyonverni
#10
hazugság, theinquirer-es dedikált nv utáló charlie tõl vette át a tizévesazEZSGÉ majd legközelebb megnézik milyen szarba nyúlnak.

#9
Ezzel Kb. agyonverte az ATI-t az nV, az ATi egy microsoft bérenc fog maradni és<#rinya> ...Vége a királyságnak ... <#rinya>

Azért az alant emlitett hülyegyerekeknek még sok kártyát elad majd az ATi <#mf1>

#8
neked is, meg imremagdinak is, ha ennyi eszetek van amennyit bevallotok itt, hát ne irigylem a környezeteket _D Lássuk be , nektek már a shader model3 is sok volt, abszolút tök fölösleges magyarázni a többirõl :DD

#7
az architektúrájának rugalmasságából adódóan a dx11-en is túlmutat. különben nem a dx gyors futtatására helyezték a hangsúlyt, hanem az általános nagy teljesítményre.

\"The voices are back... Excellent.\"

#6
hehe
ez a kártya jól megcsavarja az ati tökeit, majd a szemétdombra irányítja
Imremagdi
#5
DX 10.1-et fogja támogatni?

http://s2b-hu.ikariam.gameforge.com/reg.php?fh=400ce81271ab4218ebc88d115104c2f1

#4
Ez nem ugyan az a cucc ami két hete még 95%-os selejtaránnyal jött ki?