23
-
mamo33 #23 Szegény Nvidiát lenyomták mint a bélyege és most kapkodnak fűhöz-fához! Hetente dobnak ki valami gagyit a piacra, aztán meg lehet, hogy még termékvisszahívás is lesz belőle! (és még az ATI-ra mondták, hogy melegedik!) -
dez #22 "Az Intel terveivel az nVidia szerint a következő a probléma: a grafikus chipek kiegészítése az általános célú magokkal szintén nem jelent előrelépést a teljesítmény terén, emellett pedig a processzorlapka minden egyes plusz millimétere igencsak drága bővítést jelent."
Ezt éppenséggel szintén a Fusionnal kapcsolatban mondták. (A Larrabee egyébként sem "a grafikus chipek kiegészítése az általános célú magokkal", hanem - kövér vektoregységgekkel ellátott - általános magokból álló grafikus chip.)
Amúgy bulváros az egész cikk. Ők csak elmondták a véleményüket - nagyrészt tényeket - a rendezvény miatt érdeklődő újságíróknak. Mellesleg pl. az Intel mérnökei sem ritkán mondja el a véleményét a többiekről, saját blogjaikban. -
gybfefe #21 Abból nem lesz pénzük további fejlesztésekre. Én már annak is örülnék ha egy 7600gt-re amire ráírják hogy hdtv nem úgy kéne fölkutatni a megvásárolható lejátszó programukat, vagy kilopni a powerdvd driverét, hogy aztán egy 2.8-as petykán tovább szaggasson :( -
#20 Nemtudom, én 2 éve használtam először ati kártyát linux alatt, semmi gond nem volt, ment a hw gyorsítás, egyszerű is volt telepíteni a drivert. -
sh4d0w808 #19 Én azt nem vágom, hogy a G200-ak főtervezője miért dolgozik még mindig a cégnél... :D
Ghotler: én még anno a Radeon 8500-nál váltottam ATi-ra, manapság már linuxban utazom, de semmi pénzért nem vennék nV kártyát. Nekem semmi gondom nincs az ATi X800GTO-val, van 3D gyorsításom, van működő TV-outom - mi kell még? -
Abu85 #18 A Linux-osok mostanában főleg Radeont vesznek ... Ennek az az oka, hogy Open Source lett a driver rá, amire már a 3dfx kapitulálása óta várnak a pignvin imádók. -
Ghotler #17 Csak egy dolog van amiért nem kedvelem az ATi-t és az az hogy olyan szar, húgy már elnézést driverokat csinálnak Linuxra hogy az nem lehet igaz, aki Linuxot használ és volt már ATi-ja az tudja miről beszélek. Nos én ezért teszem le a voksomat az Nvidia mellett. -
Aspirin #16 Lassan nekifoghatnának a "csoda-driverek" mellet böcsületes supportot biztosítani a korosodó, de még sok helyütt strapabíró chipjeik (pl. nForce3) számára a Pista vagy a 7 alá. Mert a 2.6-os linux kernelektől alapból ott a támogatás :D -
who am I 7 #15 Mert játékiparban nincs.A jelenben végképp és a jövőre nézve se sok. -
scoorn #14 A Larrabee - nek nem látom sok értelmét, az Nvidia pedig sz@r helyzetbe fog kerülni ha nem változtat a hozzáállásán. -
Szefmester #13 és a nagyratartott (sokak által, általam nem)NVidia, hogy fikázza az AMD/Ati párost, kb úgy ahogy anno a fizikai számításokat és kártyákat: "ÁÁ az nem kell, tök fölösleges", és ma már azzal reklámoznak.. undorító számomra a viselkedésük, és nem vagyok fanboy, de emiatt inkább Ati kártyákat veszek, ha veszek újat még ha teljesítményre kicsit gyengébb is mint az aktuális NV, de olcsóbb is ;)
szal az NV most fikáz mint állat, aztán váratlanul felvásárol pár licenc-t.. -
floatr #12 Nekem úgy tűnik h az ATI perpill előrébb jár...
Mellesleg az Intel elszántságát látva szvsz pár év múlva mindez totálisan megváltozik, nem kell 15 évet várni -
Kovász #11 Nemsokára valszeg hasonló folyamat fog végbemenni, mint nemrégiben a hangkártyáknál: ma már minden alaplapon van 5.1 csatornás, stb. hangkártya, ami az átlagembernek maximálisan megfelel, és nem vesz külön kártyát. Persze mindig lesznek olyanok, akiknek maximális teljesítmény/minőség kell, és megveszik a külön kártyát, de ez nem a mainstream réteg. Arról már nem is beszélve, hogy ha külön kártya, akkor annak többet is kell nyújtania, ami jelen pillanatban elég neccesen áll, ha azt nézzük, hogy az ATI kártyák kb. egy szinten vannak az nV kártyákkal. -
Power #10 1. Az nv érzi a vesztét, 15 év múlva már nem lesz külön GPU, mintahogy 15 évvel ezelőtt sem volt. Ugyanúgy ahogy régen volt még külön FPU is, az intel első kisérleténél még jelen volt, pár évvel később már senki nem gyártott külön FPU-t.
2. CUDA-val sem mennek sokra, egyrészt ott a cell és később lesz Larrabee, egyik mögött sem kispályások vannak. Ezek sokkal hatékonyabbak a legtöbb algoritmusra, ráadásul a DP teljesítmény sem esik töredékére az SP-nek. -
#9 megveszi mint a 3Dfx-el is tette , sima ügy , akkor gyárthat procit -
Ps1ch0 #8 Ha jol tudom nem tervezhetnek CPU-t mert nincs meg a licenszuk x86 os procokat gyartani az csak a vianak amd ill intelnek van, pont ezert akarna a viat az nvidia (legalabbis tudom hogy regebben akarta).
Na ha valamit roszul irtam javitsatok ki :) -
JTBM #7 A nvidia hátrányos helyzetben van az intel/AMD-vel szemben architektúra kérdésben. A PC teljesen CPU központú, minden arra van kihegyezve. A GPU csak úgy lóg rajta. Ezért a GPU-ba eléggé halott dolog beleképzelni egy CPU-t.
Viszont a CPU minden további nélkül ki tudná váltani a GPU-t.
A CUDA nagy tömegű ismétlődő számítás elvégzésére alkalmas. Pl. videó kódolás v. 3D számítások. Az átlag alkalmazás azonban tipikusan nem ilyen, ezért limitált, hogy mire képes.
Az intel/AMD-nek szvsz. először a PPU-ra kellene koncentrálnia (PhysX az nvidia-nál), mert az sokkal inkább beleillik a CPU-ba plussz magként, mint egy GPU.
A GPU felé két okból mozdultak el:
- Sokkal nagyobb GPU-ra a kereslet.
- A PPU-ra csak a játékosoknak van szüksége.
- GPU-t már tudnak tervezni, PPU-t még nem.
Ha az nvidia CPU-t szeretne tervezni, akkor tervezzen és gyártson CPU-t, PPU extra maggal. Ha jobb, mint az AMD és az intel, akkor el is fogják tudni adni. A PPU mag miatt a játékosok biztosan nvidia CPU-t vennének, amíg az intel/AMD-nek nincsen... -
MuldR #6 Varom az nVidia - VIA osszeborulast.
nVIAdia :) -
floatr #5 Hát ha valakinek össze fog jönni, akkor az pont az intel lesz nameg az amd. -
#4 Ne ejhazz, valami értelmeset írj, kérlek. Köszi. -
#3 Jaj, pont az nvidia... -
roliika #2 Hát mit csinálna mást...végülis konkurencia. -
#1 Ejha.