AMD Fusion: újabb részletek
Jelentkezz be a hozzászóláshoz.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
C64 forever.
Tipikusan Tanenbaum prof-nak való a rendszer. Õ szereti a gazdasági szempontból nem éppen életképes megoldásokat.
Java-hoz JRE kell és JVM-en fut az elõfordított kód.
C# -hot .NET Framework kell és JIT-en fut az elõfordított kód.
http://en.wikipedia.org/wiki/Just-in-time_compilation
A lényeg a lényeg.lehet mondom bontott árba van nagyon jó ár/teljesítmény arányú amd masinéria de nekem a teljesítmény nagyon fontos volt, még ha ez az arany csökken, akkor is.Nem csak kánterezésre használom a gépet 😄
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
dez neked +üzenem, hogy ki is használom.Ne erõködj 😄 és élvezem a 2 mag elõnyét is...mivel a program multicpus 😛 szóval ez a 11-es hárítva <#wave>#wave> 😛
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
A GPGPU.org mottója (ha a kedves cikkíró nekem nem hisz - ha egyátalán olvassák a kommenteket):
"GPGPU stands for General-Purpose computation on GPUs. With the increasing programmability of commodity graphics processing units (GPUs), these chips are capable of performing more than the specific graphics computations for which they were designed. They are now capable coprocessors, and their high speed makes them useful for a variety of applications. The goal of this page is to catalog the current and historical use of GPUs for general-purpose computation."
Aztán hogy melyik oldalon mivé fejlõdik tovább, az más kérdés. Mindenesetre, az Itanium is megmutatta, hogy még az Intel sem elég nagy ahhoz, hogy a piacra tudjon csak úgy kényszeríteni egy teljesen új, a meglévõtõl teljesen eltérõ platformot.
Egy éves késése viszont akkor lenne, ha hamarosan a piacon lenne egy HT-s R6xx, ami nem nagyon várható egyelõre. Mondjuk a Cray még idén piacra dob olyan mini- és szuperszámítógépeket, amik az AMD Torrenza platformján alapulnak, és saját fejlesztésû célchipekkel egészítik ki a K10 alapú új Opteronokat.
Persze, az otthoni v. akár félprofi hang- és videofeldolgozásban is alkalmazható lesz, én is erre gondoltam.
Ha jobban megnézed, én sem egybeépítettrõl beszéltem, sõt írtam is (az eredeti interjúban is benne van), hogy a Fusion nem feltétlenül csak egybeintegráltat jelent. A 4x4-et és a HT-t is elmítettem már. Talán ha nem csak minden 5. hsz-emet olvasnád el... 😊 Egyvalami azonban még hiányzik ehhez: egy HT interfészes GPU. (Abban ugye nem kételkedsz, hogy bizonyos feladatokra jobb egy GPU, mint akár 10 CPU?)
Multitasking: not azért a Windowsos megvalósítás nem éppen az számtech csúcsa...
Az otthoni hang és videó feldolgozás meg jóformán hasonló kategória.
Bármilyen kis költségvetésûek is, a tudományos számítási feladatok megengedhetnek maguknak egy szervert amelyben viszont már nincs sok értelme egybe épített CPU/GPU-t használni, ugyanis ott már nyugodtan lehet több különálló processzort használni. És az AMD architektúrája már most is lehetõvé is teszi, hogy célprocesszorokat kössenek össze hagyományos CPU-kkal Hypertranszporton keresztül.
Clearing up the confusion over Intel's Larrabee
Clearing up the confusion over Intel's Larrabee, part II
Figyeljétek meg az MS meg fogja csinálni valamilyen szinten, implementálja a directX-et is (anno A JAVA-ba az openGL-t akarták) , rápirít a hardvegyártókra, a megfelelõ C# driver-ekért és kész.
Mondjuk kicsit szkeptikus vagyok a szoftveres megoldásokkal kapcsolatban, pl.: 15 évig ment, hogy milyen jó a szoftveres multitasking, aztán mégis kellett a több mag, és meg is látszik a különbség.
Tehát, ha úgy tetszik, ez a dolog már most "támogatva van". Csak így még jobb lesz.
Ennek lenne értelme. Megvan minden technológiájuk hozzá."
Hát ja, HT, meg ugye a Torrenza platform. A nyilatkozó egyébként konkrétan CrossFire összeköttetésrõl beszélt (CPU és GPU között, szal nem több GPU-ról volt szó), de bizonyára valójában a HT-re gondolt. (A felsõvezetõk néha kicsit keverik a dolgokat. 😄) (Máshol én is írtam, de itt már nem akartam túl sokat "okoskodni".)
"Meglátásom szerint még mindig az lenne szép, ha egy többfoglalatos alaplapra lehetne pakolni különbözõ procikat, az alaplapon meg ott lenne egy buta framebuffer memória, meg egy DVI kimenet."
A 4x4 (Quad FX) rendszer kapásból használható lenne erre, a Torrenza keretein belül. Csak le kell majd cserélni a PCIe interfészt HT-re az ide illõ GPU-kon. És lõn, éppen ezt csinálják. Viszont, mivel ez elsõsorban GPGPU alkalmazás célzatú lesz, nem kell külön vram, meg képkimenet sem.
Kicsit más az olcsóbb kategóriás laptopok, és talán irodai célra gyártott asztali változat. Ott továbbra is a képmegjelenítés minnél gazdaságosabb megoldása lesz a cél. (Esetleg egy high-end laptopban mindkettõre használják majd.)
The Internet has evolved from smart people in front of dumb terminals to dumb people in front of smart terminals.
Az Intel Larrabee-járól túl sokat nem tudni, de állítólag 2009 elejére már kész termék lesz 24/32 maggal, 2010-tõl 48 maggal és Teraflops feletti teljesítménnyel. Mivel 2008 végén kijövõ új architektúrás Nahalem natív 4 magosát az Intel erõsen úgy csinálja hogy modulárisan jól összekapcsolható legyen dolgokkal. Egy lapkára integrálva mellé grafikus egység biztos lesz, de talán még egy Larrabee-t is mellé rakhatnak és máris lesz egy Cell-hez erõsen hasonlító egységük. Az Intel a demonstrációi alapján grafika terén inkább a ray-trace felé kacsingat, legalábbis emlékem szerint volt valami Quake4 féle ray-trace demonstráció a tavaszi IDF-en.
Az Intel másik multi-core fejlesztése a TeraScale ami szintén több éve zajlik, hisz lassan egy éve már mûködõ példány demonstráltak 1 teraflops teljesítménnyel, amit azóta már 2 TF-ra emeltek. Ez a jól ismert 80 magos CPU-juk. Ebbõl viszont az Intel elmondása szerint nem lesz késõbb konkrét piaci termék, inkább csak fejlesztési projectnek szánják, amolyan CPU-k Forma 1-je, ahol jõvõbeli technológiákat tesztegetnek, amit majd késõbb piaci termékekbe emelnek át. Szóval a Larrabee-t követõen 2010 után talán már a TeraScale fejlesztésekbõl is jelenik meg az azt követõ generációkban.
A Larrabbe kvázi egyszerûsített x86 magokból áll, jó sokból akár 24-48-ból, a TeraScale meg VLIW magokból ami inkább az Itanumhoz köti jobban.
A 64bit-es címzést azért kellett bevezetni, mert a 32bit-es címzés nem képes 4GB-nál több fizikai memóriát kezelni. Az Intel lényegében az AMD 64bit-es megoldását használja, a keresztlicensz szerzõdé értelmében jogot formált rá.
AZ nV szerepe egyelõre kétes, de van egy szép Via nevû cég akinek megvannak a megfelelõ licensszei, így még az is lehet, hogy egy bevásárlással az nV is elkezd valami fusion féle rendszert fejleszteni. Bár nagyobb esély van rá, hogy teljesen áttérnek a chipset fejlesztésre, legalábbis jelenleg nagy erõltetik ezt a területet.
Õszintén szólva én nagyon örülnék egy szép kis háromszereplõs piacnak.
Hallottál már az 3DNow!-ról? Nem lepõdnék meg ha nem. Elõbb jött ki, mint az SSE, sokak szerint jobb is volt, aztán kutya sem használta.
64bites kiterjesztés majdnem ugyanez. Elõbb jött ki, jobb volt mint az Intel elsõ hasonló megoldása (P4-ben lévõ) mégsem játszott túl nagy szerepet a Athlon64 piacszerzésében, mert a piaci részesedés nélkül nem fejlesztenek rá -> a sebességnövelõ hatása sem érvényesül.
Ugyanettõl félek ennél a cuccnál is, ha nem dolgoznak össze az Intellel, és nem lesz kompatibilis a megoldásuk.
nVidia viszont kapásból beperli õket ez esetben szerintem, mert számára ez a halált jelentené.
Természetesen el is távolodhatunk az IBM PC platformtól. Láthatjuk, hogy a Sun UltraSPARC-jai, az IBM PowerPC-jei, és az Intel Itanium-jai is elterjedtek, de ezek már tényleg nagyon professzionális eszközök. Amit fontos megjegyezni, hogy a fenti három platform küzöl egyik sem tartozik az IBM PC x86 családjába, tehát nem közvetlen ellenségei az Opteron-oknak és a Xeon-oknak.
A GPGPU borzasztó fontos üzleti szempont lesz, mert a GPU-k gyártása és fejlesztése nem olyan jövedelmezõ, mint kellene.
A keresztlicensz szerzõdés pont a kompatibilítás megörzése miatt jött létre, "ami az enyé az a tied is, és fordítva".
A piac választása erõsen függ a Microsoft-tól jelenleg, márpedig az AMD-vel az utóbbi idõben eléggé puszipajtások lettek a Redmondiak.
Blackmail the Universe
L3zl13: érdekes lenne a helyzet, ha az intel mondjuk jó háromnegyed, vagy akár egy év csúszással hozná kis a saját hasonló technológiájú megoldását->ha az AMDnek sikerül egy kis elõnyre szert tennie, borulhatnak ám a papírformák!
Szerintem a végsõ megoldás vagy az említett fordító lesz(külön AMD/intel), vagy egy közös megállapodás és egy szabvány bevezetése (utóbbi hát nem is tudom-valószínûbb-fõleg, ha az intel csúszik).
Szabvány azért is kérdéses, mert ha az intel nem vásárolja fel, vagy köt egy szorosabb együttmûködési szerzõdést az nVIDIA-val: kérdés: AMD gyárt-e intelnek ATI GPU-t, amit õk is tudnak integrálni? Egyáltalán: az nV gyárt-e majd az AMDnek? Kíváncsi vagyok, mit hoz a jövõ, addig is MacBook Pro xD
Blackmail the Universe
Sokkal rosszabbul is állt már ennél.
Tehát továbbra is érvényesek a #16-ban elmondott dolgok.
Attól tartok, ha az intel nem ilyen megoldást választ, vagy éppen ilyet választ, de nem lesz kompatibilis, akkor az AMD ötlete bukni fog, mert a fejlesztõk a nagyobb piaci részesedésre mennek rá.
Nem fogják a programokat külön AMD-s és Inteles változatban is kiadni. Vagy hanyagolják az egész optimalizációt, és így a platform rendszer nem hoz semmi sebességbeli elõnyt, vagy az Intel megoldására optimalizálnak.
Egyszerûen fogalmazva:
Te továbbra is ugyanúgy fejlesztesz - külön CPU- és GPU-specifikus kódrészleteket írhatsz, ahogy eddig. De maga a fordító ebbõl olyan alkalmazást épít fel gépi kóddal, amely ezeket a rutinokat a megfelelõ feldolgozó egységen futtatja, hatékonyabban managelve az erõforrásokat.
A teljesítmény növelésére a legkézenfekvõbb az órajel emelése, csak annak is megvannak a határai. Az IPC növelése is csak idõlegesen járható, sok függõség esetén nem lehet túl nagy. Innentõl kezdve kilõttük a legjobb lehetõségeket, így érdemes kutatni a kevésbé jók után. Több magos CPU-k bevezetése, életképes ötlet, de mivan akkor ha nincs két szálnál több a programban, akkor hiába van 8 magos procink. Meg ugye ezt sem könnyû programozni, így logikus lépés a célprocesszorok integárlása. Ez remélhetõleg kitart addig amíg valamelyik fejlettebb architektúra képes lesz az x86 emulálására.
Ez célfelhasználásnál nem gond (talán csak fordító kérdése), de általános PC programoknál (pl játékok) lehet, hogy nem foglalkoznak vele a fejlesztõk, és mehet az egész a kukába.
Ennek lenne értelme. Megvan minden technológiájuk hozzá.
Meglátásom szerint még mindig az lenne szép, ha egy többfoglalatos alaplapra lehetne pakolni különbözõ procikat, az alaplapon meg ott lenne egy buta framebuffer memória, meg egy DVI kimenet.
A Fusionnak egyébként nem kell feltétlenül egychipesnek lennie. Elõször két tokos rendszer lesz, majd egy tokban két lapkás, és csak még késõbb egy chipre integrált. Szal nem ez a lényeg benne, hanem a CPU és a GPU szorosabb, és nem csak grafikai célzatú összedolgozásra "szoktatása".