57
  • dez
    #57
    Ez nem feltalálás. Logikus lépés volt korábban a modularitás, és most logikus lépés a CPU és egy GPU közelebbi viszonyba hozása, a gyorsabb közös munka érdekében.
  • Csukii
    #56
    Ne szó szerint értsd, kicsit lássál a mondatok mögé.
  • dez
    #55
    Én vennék, ha lenne elegendő pénzem. Később, ha átvészeli ezt a pár hónapot a cég (szerintem át fogja), és visszaemelkedik az árfolyam, máris közel megdupláztam a pénzem...
  • maestro85
    #54
    Ez így jó, szép, csak szerezzenek már valami nagy tőkét. Nem jó a többfrontos háború tartalékok nélkül. Mindneki vegyen AMD részvényt! Hol maradnak a befektetők?
  • Sanyix
    #53
    Köze nincs ahhoz megintcsak.
  • Csukii
    #52
    A spanyolviasz ismét fel találásra került és újból el lehet adni azt, amit már 15-20 éve is eladtak, vagyis az integrált architektúrát.

    C64 forever.

  • Abu85
    #51
    Ahogy elnéztem az Itanium felépítését, nem éppen a programozók álma. Baromi jó ötletekre épül, de szvsz nem biztos, hogy a leghatékonyabb erőforráskihasználás a legjobb megoldás.
    Tipikusan Tanenbaum prof-nak való a rendszer. Ő szereti a gazdasági szempontból nem éppen életképes megoldásokat.
  • saba30
    #50
    Van
    Java-hoz JRE kell és JVM-en fut az előfordított kód.
    C# -hot .NET Framework kell és JIT-en fut az előfordított kód.

    http://en.wikipedia.org/wiki/Just-in-time_compilation
  • who am I 7
    #49
    hááá, az a durva" tuning ram 27embe került.800as kingmaxok :D:D:D teszik a dolgukat szépen a kis drágák whahah meg az ultra tuning alaplap 30 vót, vaniliapéötbé.jó, szerencse is kell hozzá, de sztem eleget kutakodtam, meg bevállaltam oszt helókiti.Persze, most kicsit tépem a hajam mert 1066-os ramokat kapok 11ért 1giga akkor meg 27 volt 1 giga szal bekaphassák.

    A lényeg a lényeg.lehet mondom bontott árba van nagyon jó ár/teljesítmény arányú amd masinéria de nekem a teljesítmény nagyon fontos volt, még ha ez az arany csökken, akkor is.Nem csak kánterezésre használom a gépet :D
  • Sanyix
    #48
    Hátcsak ehhez számold hozzá a drágább alaplapot, meg a drágább tuningos ramot is :)
  • who am I 7
    #47
    nem tom, sztem sztár vagyok :D:D:D mivel 38 ért vettem 8 hónapja...és akkor fel is rántottam 3.4G-re.szal 38as árkörül nézegessünk szét ár/teljesitménybe, milyen amd pocit is vehettem volna akkor ami megfelel egy 3.4-es c2dnek 38ért :P :D:D:D (asszem akkor még nem volt X2-tizen pár rongyé....szal az is kilőve, a másikmeg hogy 40 ezres árkategóriát nézzük ár/értékbe nehogy gyertek a szinte már bontott áron kaphat X2esekkel :D )
    dez neked +üzenem, hogy ki is használom.Ne erőködj :D és élvezem a 2 mag előnyét is...mivel a program multicpus :P szóval ez a 11-es hárítva :P
  • Sanyix
    #46
    Hádde lehethoty vanaki azt veszi ami ár/teljesítménype jopp :)
  • dez
    #45
    Ki is használod (akkor éri meg ugyebár a nagyobb költség), vagy csak májerkodsz vele?
  • who am I 7
    #44
    Nem kedvencem az intel te dez.Csak most az a jobb.Tavaly AMD-m volt mert az volt a JOBB.TUDOD ÉN nem vagyok VÉRFANBÓJ azt veszem ami a jó :P whehe
  • dez
    #43
    Amúgy tök jó, hogy mi itt tépjük a szánkat, a cikkekben meg olyan képtelenségek virítanak, mint pl. "A GPGPU, vagyis az általános célú grafikus vezérlő"...

    A GPGPU.org mottója (ha a kedves cikkíró nekem nem hisz - ha egyátalán olvassák a kommenteket):
    "GPGPU stands for General-Purpose computation on GPUs. With the increasing programmability of commodity graphics processing units (GPUs), these chips are capable of performing more than the specific graphics computations for which they were designed. They are now capable coprocessors, and their high speed makes them useful for a variety of applications. The goal of this page is to catalog the current and historical use of GPUs for general-purpose computation."
  • dez
    #42
    A piac már most ismerkedik a GPGPU-s témával, szóval a dolog "adja magát", és egy logikus fejlődési irány. Az Intel, akármilyen nagy, nem nagyon tehet mást, mint követi az AMD-t ebben is.

    Aztán hogy melyik oldalon mivé fejlődik tovább, az más kérdés. Mindenesetre, az Itanium is megmutatta, hogy még az Intel sem elég nagy ahhoz, hogy a piacra tudjon csak úgy kényszeríteni egy teljesen új, a meglévőtől teljesen eltérő platformot.

    Egy éves késése viszont akkor lenne, ha hamarosan a piacon lenne egy HT-s R6xx, ami nem nagyon várható egyelőre. Mondjuk a Cray még idén piacra dob olyan mini- és szuperszámítógépeket, amik az AMD Torrenza platformján alapulnak, és saját fejlesztésű célchipekkel egészítik ki a K10 alapú új Opteronokat.
  • dez
    #41
    Hát, elindult, de eléggé gyerekcipőben jár: nem tudok róla, hogy a GPU-s gyorsításra épülő Havok FX akár egyetlen játékban alkalmazva lenne már. :) Persze ami késik, nem múlik.

    Persze, az otthoni v. akár félprofi hang- és videofeldolgozásban is alkalmazható lesz, én is erre gondoltam.

    Ha jobban megnézed, én sem egybeépítettről beszéltem, sőt írtam is (az eredeti interjúban is benne van), hogy a Fusion nem feltétlenül csak egybeintegráltat jelent. A 4x4-et és a HT-t is elmítettem már. Talán ha nem csak minden 5. hsz-emet olvasnád el... :) Egyvalami azonban még hiányzik ehhez: egy HT interfészes GPU. (Abban ugye nem kételkedsz, hogy bizonyos feladatokra jobb egy GPU, mint akár 10 CPU?)
  • dez
    #40
    Azért tegyük hozzá, hogy a Javánál van egy előfordított, un. bytecode, amit már jóval könnyebb továbbfordítani a kérdéses platformra. Nem tudom, ilyen van-e, lesz-e C#-nél.
    Multitasking: not azért a Windowsos megvalósítás nem éppen az számtech csúcsa...
  • dez
    #39
    Oké, de én nem is azt mondtam, hogy a Larrabee nem ringbuszos lesz, hanem azt, hogy az első lépés Intelnél is a Nehalem + CSI + 1 GPU lesz, márpedig a CSI nem egy sokbites ringbusz. :)
  • L3zl13
    #38
    Az x64-et az intel kénytelen volt átvenni, de a lényeg, hogy egy fél-egy éves késéstől az intel részéről egy vadiúj technológiánál, ami még szoftvertámogatást, és a fejlesztők aktív közreműködését is igényli nem fog felborulni a piac.
  • shabba
    #37
    Intel Larrabee roadmap -- who says there ain't no Santa Cores?
  • L3zl13
    #36
    GPGPU már játékoknál is elindult. Lásd GPU-val történő fizika számítás/gyorsítás.
    Az otthoni hang és videó feldolgozás meg jóformán hasonló kategória.

    Bármilyen kis költségvetésűek is, a tudományos számítási feladatok megengedhetnek maguknak egy szervert amelyben viszont már nincs sok értelme egybe épített CPU/GPU-t használni, ugyanis ott már nyugodtan lehet több különálló processzort használni. És az AMD architektúrája már most is lehetővé is teszi, hogy célprocesszorokat kössenek össze hagyományos CPU-kkal Hypertranszporton keresztül.
  • shabba
    #35
    Pedig a Larrabee-nek is úgy tűnik ring busza lesz, és szerintem igen sok a hasonlósága a Cellhez. lásd:

    Clearing up the confusion over Intel's Larrabee

    Clearing up the confusion over Intel's Larrabee, part II
  • saba30
    #34
    Aki emlékszik rá az MS Vista fejlesztése úgy indult, hogy C#- ben lesz megírva, tehát futásidőben fordul a kód az éppen aktuális harveren, az éppen aktuális verziószámú Micrsoft .NET framework-ön (ála JAVA). Aztán ment a levesbe az egész, mert nem volt vas amin elfutott volna megfelelő teljesítménnyel. Igaz itt csak maga az op.rendszer kódja fordult, és futott volna valós időben, a külsős alkalmazásoké nem.
    Figyeljétek meg az MS meg fogja csinálni valamilyen szinten, implementálja a directX-et is (anno A JAVA-ba az openGL-t akarták) , rápirít a hardvegyártókra, a megfelelő C# driver-ekért és kész.
    Mondjuk kicsit szkeptikus vagyok a szoftveres megoldásokkal kapcsolatban, pl.: 15 évig ment, hogy milyen jó a szoftveres multitasking, aztán mégis kellett a több mag, és meg is látszik a különbség.
  • dez
    #33
    Hát, ha az anyagiak kisebb szerepet játszanak, akkor jöhet a Power, a Niagara, és a többiek...
  • dez
    #32
    Azt nem igazán tudjuk, mit tervez az AMD hosszabb távon, de az első lépések igencsak hasonlítanak a két cég között. Magyarán, elsőször az Intel is valószínűleg 1db GPU-t fog a Nehalem mellé tenni, egy a HyperTransportra hajazó buszon (CSI, Common System Interface). Ez azért még elég messze áll a Cell belső architektúrájától, pl. a belső sokbites ring busztól.
  • dez
    #31
    Az AMD64-nél sem úgy történt... Azt is az Intel volt kénytelen átvenni (pedig előtte szídta, mint a bokrot, mert ők az Itaniumot nyomták volna, mint új 64 bites platform az x86 helyett - kár, hogy az sem volt éppen az igazi). Igaz legtöbben ma is 32 bites Windowsokat futtatnak, azért koránt sem mindenki.
  • dez
    #30
    Ezt PC-n először valószínű nem is játékok terén fogják használni, hanem ott, ahol a GPGPU alkalmazás már elindult: video- és hangfeldolgozás, (kisebb költségvetésű) tudományos célzatú számítások. Lásd gpgpu.org. Ez azt teszi optimálisabbá a CPU és a GPU közelebbi kapcsolatba hozásával, mert a PCIe buszon keresztül nem az igazi, ha sokat kell adatot cserélni. (Márpedig kell, mert a GPU csak bizonyos részfeladatokat tud igazán gyorsítani, a többi a CPU dolga továbbra is.)

    Tehát, ha úgy tetszik, ez a dolog már most "támogatva van". Csak így még jobb lesz.
  • dez
    #29
    " "egyfajta speciális CrossFire technológia" = HypertTransport?
    Ennek lenne értelme. Megvan minden technológiájuk hozzá."

    Hát ja, HT, meg ugye a Torrenza platform. A nyilatkozó egyébként konkrétan CrossFire összeköttetésről beszélt (CPU és GPU között, szal nem több GPU-ról volt szó), de bizonyára valójában a HT-re gondolt. (A felsővezetők néha kicsit keverik a dolgokat. :D) (Máshol én is írtam, de itt már nem akartam túl sokat "okoskodni".)

    "Meglátásom szerint még mindig az lenne szép, ha egy többfoglalatos alaplapra lehetne pakolni különböző procikat, az alaplapon meg ott lenne egy buta framebuffer memória, meg egy DVI kimenet."

    A 4x4 (Quad FX) rendszer kapásból használható lenne erre, a Torrenza keretein belül. Csak le kell majd cserélni a PCIe interfészt HT-re az ide illő GPU-kon. És lőn, éppen ezt csinálják. Viszont, mivel ez elsősorban GPGPU alkalmazás célzatú lesz, nem kell külön vram, meg képkimenet sem.

    Kicsit más az olcsóbb kategóriás laptopok, és talán irodai célra gyártott asztali változat. Ott továbbra is a képmegjelenítés minnél gazdaságosabb megoldása lesz a cél. (Esetleg egy high-end laptopban mindkettőre használják majd.)
  • eax
    #28
    Igazabol az x86, mint architektura nem alkalmas "professzionalis felhasznalasra".
  • shabba
    #27
    Az Intel szerintem teljesen más irányba indult el GPGPU terén, inkább a Cell-hez jobban hasonlító irányba indult el a számítási teljesítmény növelése érdekében. Azok a fejlesztések meg már jó pár éve folynak, jóval az előtt hogy az AMD és az ATI egyesült volna.

    Az Intel Larrabee-járól túl sokat nem tudni, de állítólag 2009 elejére már kész termék lesz 24/32 maggal, 2010-től 48 maggal és Teraflops feletti teljesítménnyel. Mivel 2008 végén kijövő új architektúrás Nahalem natív 4 magosát az Intel erősen úgy csinálja hogy modulárisan jól összekapcsolható legyen dolgokkal. Egy lapkára integrálva mellé grafikus egység biztos lesz, de talán még egy Larrabee-t is mellé rakhatnak és máris lesz egy Cell-hez erősen hasonlító egységük. Az Intel a demonstrációi alapján grafika terén inkább a ray-trace felé kacsingat, legalábbis emlékem szerint volt valami Quake4 féle ray-trace demonstráció a tavaszi IDF-en.

    Az Intel másik multi-core fejlesztése a TeraScale ami szintén több éve zajlik, hisz lassan egy éve már működő példány demonstráltak 1 teraflops teljesítménnyel, amit azóta már 2 TF-ra emeltek. Ez a jól ismert 80 magos CPU-juk. Ebből viszont az Intel elmondása szerint nem lesz később konkrét piaci termék, inkább csak fejlesztési projectnek szánják, amolyan CPU-k Forma 1-je, ahol jővőbeli technológiákat tesztegetnek, amit majd később piaci termékekbe emelnek át. Szóval a Larrabee-t követően 2010 után talán már a TeraScale fejlesztésekből is jelenik meg az azt követő generációkban.

    A Larrabbe kvázi egyszerűsített x86 magokból áll, jó sokból akár 24-48-ból, a TeraScale meg VLIW magokból ami inkább az Itanumhoz köti jobban.
  • Abu85
    #26
    A legtöbb fejlesztő azt használja ami mindkét rendszerben elérhető. AZ AMD inkább az Intel magatartása miatt nem szerzett nagyobb piaci részesedést.
    A 64bit-es címzést azért kellett bevezetni, mert a 32bit-es címzés nem képes 4GB-nál több fizikai memóriát kezelni. Az Intel lényegében az AMD 64bit-es megoldását használja, a keresztlicensz szerződé értelmében jogot formált rá.

    AZ nV szerepe egyelőre kétes, de van egy szép Via nevű cég akinek megvannak a megfelelő licensszei, így még az is lehet, hogy egy bevásárlással az nV is elkezd valami fusion féle rendszert fejleszteni. Bár nagyobb esély van rá, hogy teljesen áttérnek a chipset fejlesztésre, legalábbis jelenleg nagy erőltetik ezt a területet.
    Őszintén szólva én nagyon örülnék egy szép kis háromszereplős piacnak.
  • L3zl13
    #25
    "érdekes lenne a helyzet, ha az intel mondjuk jó háromnegyed, vagy akár egy év csúszással hozná kis a saját hasonló technológiájú megoldását->ha az AMDnek sikerül egy kis előnyre szert tennie, borulhatnak ám a papírformák!"

    Hallottál már az 3DNow!-ról? Nem lepődnék meg ha nem. Előbb jött ki, mint az SSE, sokak szerint jobb is volt, aztán kutya sem használta.
    64bites kiterjesztés majdnem ugyanez. Előbb jött ki, jobb volt mint az Intel első hasonló megoldása (P4-ben lévő) mégsem játszott túl nagy szerepet a Athlon64 piacszerzésében, mert a piaci részesedés nélkül nem fejlesztenek rá -> a sebességnövelő hatása sem érvényesül.
    Ugyanettől félek ennél a cuccnál is, ha nem dolgoznak össze az Intellel, és nem lesz kompatibilis a megoldásuk.

    nVidia viszont kapásból beperli őket ez esetben szerintem, mert számára ez a halált jelentené.
  • Abu85
    #24
    Itt főleg azt kellene részletezni mit értesz professzionális felhasználás alatt. Pusztán maradva az IBM PC szerver piacán, látható, hogy igen erős az AMD Opteron. Ezt főleg a kiváló Unix-os fejlesztési dokumentációinak köszönheti. A munkaállomás réteg komolyabb rendszereket igényel a megfelelő hardverek kiválasztásában nagyon sok tényező játszik szerepet. Például nyilván nem mindegy, hogy egy szerverparknak mennyi a fogyasztása, mert a villanyszámla igencsak megdobhatja a cégek költségeit.

    Természetesen el is távolodhatunk az IBM PC platformtól. Láthatjuk, hogy a Sun UltraSPARC-jai, az IBM PowerPC-jei, és az Intel Itanium-jai is elterjedtek, de ezek már tényleg nagyon professzionális eszközök. Amit fontos megjegyezni, hogy a fenti három platform küzöl egyik sem tartozik az IBM PC x86 családjába, tehát nem közvetlen ellenségei az Opteron-oknak és a Xeon-oknak.
  • Abu85
    #23
    A GPGPU az általános feldolgozóként használt GPU. Lényegében a shader nyelv használható bármilyen adat számítására. Speciel az R600 számítási teljesítmény 475GFLOPS, ami a mai 20-30GFLOPS-os CPU teljesítmény többszöröse. Erősen párhuzamosítot számításokra ideális a rendszer, persze előbb meg kell írni az R600-hoz megfelelő fordítókat. Egyelőre CTM felület van az R580-R600 féle GPGPU fejlesztésekre, ami nem túl egyszerű.
    A GPGPU borzasztó fontos üzleti szempont lesz, mert a GPU-k gyártása és fejlesztése nem olyan jövedelmező, mint kellene.
  • Abu85
    #22
    Az Intel az új ütemtervében már hasonló elképzeléseket láthatunk, csúnyán fogalmazva, lemásolta a Fusiont.
    A keresztlicensz szerződés pont a kompatibilítás megörzése miatt jött létre, "ami az enyé az a tied is, és fordítva".
    A piac választása erősen függ a Microsoft-tól jelenleg, márpedig az AMD-vel az utóbbi időben eléggé puszipajtások lettek a Redmondiak.
  • Su0my
    #21
    már csak azért is kibírja, mert a notebook (esetleg aztali gép) gyártók szeretnek olcsóbb AMDs megoldásokat csinálni (amit aztán a vevők szeretnek megvenni:D). Meg van az AMD-nek is egy nem elhanyagolható tábora. Nem rossz procik az AMD-k, egyetlen bajuk, hogy professzionális felhasználásra NEM alkalmasak (valaki majd fogja írni, hogy amikor gyorsabbak voltak, akkor is ezt mondták: nem ettől függ).
  • Su0my
    #20
    Mindenesetre végre egy előre mutató fejlesztés! Hajrá AMD (még ha inkább inteles is vagyok :) ). Mondjuk kicsit érdekes lesz, hogy 10 GB-os gépek lesznek: 8 a 'CPU'-nak, 2 a 'GPU'-nak:). Meg kíváncsi vagyok egy hibrid megoldás árban hova lesz pozícionálva (GPGPU, tehát lényegében egy videókari+proci szintjére? nyilván kivéve videokarinál a kártya és a RAM költségét -> ami meg alap áránál viszajöhet :D)

    L3zl13: érdekes lenne a helyzet, ha az intel mondjuk jó háromnegyed, vagy akár egy év csúszással hozná kis a saját hasonló technológiájú megoldását->ha az AMDnek sikerül egy kis előnyre szert tennie, borulhatnak ám a papírformák!

    Szerintem a végső megoldás vagy az említett fordító lesz(külön AMD/intel), vagy egy közös megállapodás és egy szabvány bevezetése (utóbbi hát nem is tudom-valószínűbb-főleg, ha az intel csúszik).

    Szabvány azért is kérdéses, mert ha az intel nem vásárolja fel, vagy köt egy szorosabb együttműködési szerződést az nVIDIA-val: kérdés: AMD gyárt-e intelnek ATI GPU-t, amit ők is tudnak integrálni? Egyáltalán: az nV gyárt-e majd az AMDnek? Kíváncsi vagyok, mit hoz a jövő, addig is MacBook Pro xD
  • L3zl13
    #19
    Tőlem akár szeptikus is lehetsz. Kibírja.
    Sokkal rosszabbul is állt már ennél.
  • hiftu
    #18
    Lehetek egy kicsit skeptikus? Kibirja az AMD 2010-ig??