15
-
#15 Persze, hogy nem hisz ebben a konkurencia. -Lehet, hogy ők is csak azért hangoztatják ezt, mivel az ő megoldásuk fejlesztési üteme lemaradásban van. Majd kiderül, hogy mit szólnak hozzá a vásárlók. Az AMD most bizonyított az új Radeon -nal, és a Phenomok is jóak ár/teljesítményben. Az NVidia meg talán az első olyan cég, mely olyan GPU -t gyártott, ami nem ég le csak úgy üzemi hőmérsékleten is. -Arról nem is beszélve, hogy az Intel procik "mögé" az NVidia adja azt a chipset -t, amit vesznek is az emberek (nekem is csak azért Intel a chipset, mer' ugye erre futotta a pénzből. -
1011001 #14 Ha közületek bárki foglalkozott volna 3D programozással, az tudná, hogy azok a műveletek, amikre a GPU-kat optimalizálták (mátrix- és vektorműveletek, trigonometrikus függvények...), általános alkalmazásokban igen ritkán szükségesek.
Minden feladat különböző típusú utasításokat igényel. A GPU által támogatott műveletek jól használhatók pl. fizikai szimulációkban, de általános, sok függvényhívással és elágazással járó alkalmazásokban nem. Ha egy shader kódba beleteszel egy ciklust vagy elágazást, megfekszik (értsd: totál lassú lesz) a programod.
A GPU CPU-ba történő integrálása legfeljebb a 3D játékok teljesítményét fogja növelni, de:
- ha van egy jó videokártyád, elhanyagolható lesz a különbség
- ha már az integrált CPU+GPU modulból akarsz jó 3D teljesítményt, nem lesz egyszerű megoldani a hűtést és rohadt drága lesz.
Mivel az AMD-nél minden bizonnyal meg fogják valósítani, és az Intel követi őket, a technológia el fog terjedni. De a 3D teljesítményt továbbra is külön videokártya szolgáltatja, tehát mindössze az utasításkészlet kibővítéséről lesz szó hardveres vektor- és mátrixműveletekkel. (Ez nem több, mint annak idején a matematikai társprocesszor integrálása, vagy az MMX/SSE/3DNow! volt.) -
#13 "Már nem azért mondom, de az intel emberei nem holmi jött ment parasztok mint ti, nem most jöttek le a falvédőről, ha mondanak valamit, azt nyilvánvalóan, ahogy a cikkben is leírják, szakmai tapaszalatokra alapozzák, azt meg mindeki lefogja szarni, hogy ezzel belegázoltak a ti kis lelki világotokba."
...vagy arról az intelről, aki azt mondta, hogy 64bitre csak a nagygépes környezetben van igény (ld. Itanium) ... ?
Kérlek oszd meg nézeteidet, miért van mégis 64bites kiterjesztés a késői p4/mai core2 cpukban? :D -
#12 "Már nem azért mondom, de az intel emberei nem holmi jött ment parasztok mint ti, nem most jöttek le a falvédőről, ha mondanak valamit, azt nyilvánvalóan, ahogy a cikkben is leírják, szakmai tapaszalatokra alapozzák, azt meg mindeki lefogja szarni, hogy ezzel belegázoltak a ti kis lelki világotokba."
Arról az intelről beszélsz, aki 2005-re 6ghz-es, 2010-re 10ghz-es P4-et josolt? :D
Igen, mert ott nem parasztok ülnek, sőt! Marketingeseik és píárosaik sincsenek, csak csupa nagykoponya mérnök.
Naiv vagy. De lehet h ez már inkább ostobaság... -
ozric #11 Pár link a hivatkozott technológiákhoz:
AMD Torrenza
Intel Geneseo
Egy hosszabb elemzés -
ozric #10 Ennek a nyilatkozatnak egyrészt savanyú a szőlő íze van, másrészt az Intel burkoltan egyetért, hogy a jelenlegi processzor technológia az AMD Fusion platformja fele mutat. Viszont az Intel egyértelműen (szándékosan) téved abban, hogy lábjegyzet lenne a mostani hibrid (CPU és GPU) technológia, mivel valójában programozástechnikailag felvezeti a következő processzor generációt. Viszont az Intel és az AMD is tervez olyan társprocesszort mint az IBM 80387 volt, csak nem általános hanem célfeladatokra lesz alkalmas (vektor és stream számítási modell, új generációs Cell és pl. hardveres FFT/wavelet). -
#9 Ja, igy mar megismerlek, te vagy az aki megnyerte a multheti nyeremenyjatek intel logos cumis uveget. Le se tagadhatnad, hogy hasznalod is :)
Igy utolag is gratula erte :) -
#8 Te hülye vagy vagy csak elgurult a gyógyszered? -
#7 A:SDA:D?ASD:ASD:A:DA?D -
#6 Már nem azért mondom, de az intel emberei nem holmi jött ment parasztok mint ti, nem most jöttek le a falvédőről, ha mondanak valamit, azt nyilvánvalóan, ahogy a cikkben is leírják, szakmai tapaszalatokra alapozzák, azt meg mindeki lefogja szarni, hogy ezzel belegázoltak a ti kis lelki világotokba. Egyébként meg előbb utóbb úgyis elfog válni, szóval a sg köcsögsége hogy egyáltalán lehoz ilyen cikket na mindegy -
Praetor #5 Nem hisznek benne... Egyéni szociális probléma. -
orkaman #4 ...hát úgy hogy piacvezetők.
fentről szemlélik a dolgokat, ha valami bejön másnak akkor elgondolkoznak, hogy érdemes-e. ha nem, legfeljebb várnak még egy évet... -
Benoke #3 Hasonlóan nem hittek a több magos processzorokban, és hasonlóan nem hittek a 64 bites procikban, hasonlóan nem hittek az integrált memóriavezérlőben sem...
Ehhez képest akkor hamarosan ők is gyártani fogják ezek szerint :D
(Csak azt nem értem hogy ha piac vezetők hogy a jó nyavajában tudják úgy fejleszteni a dolgaikat hogy minden féle fejleszésre és új ötletre azt mondják hülyeség...) -
#2 Ki nem szarja le, hogy az Intel mit hisz... -
#1 höhehöhöhöe nemhisz, mert konkurencia, és mert ők nem tudják :)
én nekem elég jó bizonyíték a laza 1080p lejátszás, meg a 6x gyorsabb video enkódolás (bár sajna ez csak 1 gpu-ra van).