dez#38
"Ráadásul ettől a GPU-k sem fognak eltűnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni."
Nem, ray-trace algoritmusok futtatására még nem, vagy csak nagyon nem hatékonyan alkalmasak. Itt az "általános" egyelőre nem azt jelenti, hogy bármilyen kód, vagy akár csak bármilyen mat. számítási kód hatékonyan futtatható, vagy egyátalán futtatható, hanem azt, hogy nem csak konkrétan shader számítások végezhetők, hanem más hasonló számítások is. Tehát amik sok adattal dolgoznak, sok számítást végeznek, de kevés a rekurzió, ugrás bennük. Olyan műveletekből sem szerencsés, ha sok van, mint pl. gyökvonás, ami tay-trace kódban igen sűrűn fordul elő (távolságmérés).
Magyarán, hiába képes egy G80 vagy egy R600 500 GFLOPS körüli szám. teljesítményt leadni, ez drasztikusan visszaesik összetettebb algoritmusoknál, mint pl. ray-tracing. Ellentétben pl. a Larrabee-vel (vagy a Cellel), nem beszélve egy jópár magos szokványos CPU-ról. Éppen ezért nyomatja az Intel a ray-tracinget, mert abban az Nvidia és az ATI (önmagában) nem versenyezhet vele...
"Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene."
Ray-tracing esetén ez a kisebb gond. (Régen, még az FPU-k elterjedése előtt elég jól elvoltak a ray-tracer programok 32 bites precizitással is.)