Gyurkity Péter

Az ARM irányába menekül az AMD

Az ARM ugyan már jóval korábban jelezte, hogy akár szerverekben is szeretné viszontlátni saját fejlesztéseit, a kezdeményezés most kaphat igazán erőre, miután az AMD is az ő irányukba mozdul el.

Tavaly még arról olvashattunk, hogy az AMD távol maradna az eddig többnyire a hordozható és beágyazott termékek szegmenseiben hódító cégtől, mivel kitart saját, "x86 Everywhere" stratégiája mellett. Azóta nagyot változott a világ, teljesen egyértelművé vált, hogy az AMD nem tud labdába rúgni az utóbbi években ismét magára találó Intel mellett, így új alternatíva után kell nézniük. Ezt most megtalálták az ARM fejlesztéseiben, amelyek az új Opteron processzorok alapjait jelenthetik.

A cég ugyanis közleményben jelezte, hogy licencelik az ARM 64 bites technológiáját, ezt pedig a korábban felvásárolt SeaMicro Freedom Fabric platformjával ötvözve a szerverek szegmensében indítanák harcba. A legnagyobb előny továbbra is az alacsony fogyasztás, valamint ezen megoldások alkalmassága az adatközpontokban történő mindennapos használatra, amely érdekessé teheti őket az olyan webóriások számára is, mint amilyen a Facebook vagy az Amazon. A vezetés véleménye szerint ez legalább akkora változás lesz, mint az első 64 bites chipek 2003-as bemutatása volt, és abban reménykednek, hogy a hatás is ahhoz fogható lesz.

Klikk ide! Klikk ide! Klikk ide! Klikk ide! Klikk ide! Klikk ide!
Klikk a képekre a nagyobb változathoz

Az egyetlen problémát az jelenti, hogy ezek a chipek valamikor 2014-re készülhetnek el, addig pedig rengeteg idő áll az Intel rendelkezésére, hogy valami hasonlóval rukkoljon elő. Ezen már most dolgoznak, hiszen bár ők továbbra sem kívánnak licencdíjat fizetni az ARM-nak, a Centerton és az Avoton architektúra révén jelentős mértékben csökkentenék saját szerverchipjeik fogyasztását, illetve bíznak abban, hogy a jelenlegi útiterv elegendő lesz pozícióik bebetonozására.

Az ARM a maga részéről az új 64 bites Cortex-A50 sorozat révén háromszoros teljesítménynövekedést ígér a jelenleg kapható csúcskategóriás szuperfonokhoz képest, ezen chipek pedig idővel utat találhatnak a szerverek szegmensébe is, immár többek között az AMD közreműködésével.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Komolytalan #25
    "Hosszú távon mégiscsak a külső spéci buszrendszer lenne szerintem a megoldás, nem az hogy a CPU-ba nyomorogtassanak mindenféle vezérlést, aminek hátránya:

    1.) Mivel nem az eszköz architektúrájának függetlenített és központi szereplője lesz a memóriavezérlő, ezért nem segíti a különböző procik CPU-GPU-stb. együttműködését
    2.) Emellett zabálják a sziliciumfelületet, nyilván növelik a belső fogyasztást, nehezítik a fejlesztést, bonyolítják és ezzel lassíthatják a CPU belső működését"
    Ha a processzor jelentősen gyorsabb, mint a memória, akkor oda kell cache. Különben a processzor - 1 magos is - csak áll és vár. Egy 486SX jóformán semmi másban nem tért el egy 386DX-től, mint 8Kbyte cache-ben - mégis a teljesítménye a duplája lett azonos órajelen. És a 486 még sokkal rosszabbul használta a cache-t, mint a mai procik.
    ARM - 386. Mai x86 - 486. Kicsi túlzással ennyiről szól az a történet, hogy mit érdemes, és mit nem érdemes tokon belül rakni. Pl. írod, hogy a GPGPU miatt... Én meg azt mondom, hogy egy modern proci, az egy AMD A-sorozatú APU, vagyis tartalmazza a GPU-t.
    "Ennek a részleteire elérhető valami dokumentum, mert érdekesen hangzik. Mondjuk a 8086-ost ne hozzuk ide, mert azt már a saját korában meghaladták, nemhogy az első ARM-ek..."
    Töltsd le az SDKját, és nézd meg. Engem ennyire azért nem érdekel - beérem azzal, hogy programozói fórumon ezt írták róla, akik foglalkoznak vele.

    "A 40bit még nem biztos hogy annyira gáz a 48bites vagy 64bites címzés helyett."
    Ja, az nem, csak az hogy 5 byte-os a pointer is (értsd: memóriában is 5 byte-ra van igazítva, a felső 3 byte-on van valami más).

    "Viszont ettől még a 64bites ARM-ekben van implementációtól függően 32db 64bites vagy 128bites általános regiszter, ez legalább olyan fontos mint a cache, és ebből a szempontból az x86 megintcsak sosem állt jól."
    32x128 bitbe nem sokminden fér bele, előbb-utóbb csak memóriához kell nyúlni, akkor meg elvérzik az ARM. Jelenleg a szuperalacsony órajele miatt még kevésbé fáj neki, hogy nincs tisztességes memória vezérlője, de ahogy nő az órajel, úgy romlik a skálázódása.
  • whesterz84 #24
    "Másik oldalról: a Motorola 68xxx sokkal komolyabb támogatással rendelkezett anno játékgépként, mint a PC. Akkor hogy lehet, hogy a PC mégis földbe döngölte?"

    Úgy, hogy nem döngölte sehova. Az iD Software "valami miatt" az akkori sláger FPS-eket (Wolfenstein3D, DOOM, meg talán Quake is) a még 68k alapú Next dobozokon fejlesztették, tesztelték, később portolták pécére a release-hez.

    Történelmileg megközelítve a dolgokat:
    A játékok lehetőségei sokban függtek a gépek tudásától is. Pl. az Amiga általánosan véve jóval hatékonyabb felépítésű volt mint egy pécé, csak egyrészt voltak ilyen dolgok, hogy annak videoprocesszora eredetileg bitplane módban működött, mely miatt a CPU-alapú 3D-gfx generálás jóval lassabban valósulhatott meg, mint chunky módban, mint amilyen módú pl. a VGA volt. Persze azért is írtam azt hogy CPU-alapú gfx, mert a Blitter, ami az egyik dolog, mely az Amigát erőssé tette, nagyobb kódolói tudással használható akár textúrázásra is, persze nemtom milyen szinten, de ezt talán egy-két demoban használhatták ki. Meg hát ugye videokártya az nemcsak a pécéhez volt, hanem az alap chipset mellett nyilván az Amigához is, csak nem olcsón. Akkor meg már ennyi erővel a lehetőségek "határtalanok".
    A másik vicces dolog az, hogy mindezek mellett ha megnézek egy DOOM-ot mely egy 50/60/75MHz-es 68060-al felbővített Amigán fut, akkor azt látom hogy a chunky-VGA-s 50/66MHz-es 486-oson futó DOOM kb. nem gyorsabb semmivel mint az említett amigás változat a képernyőmódok sajátosságai ellenére:

    Adoom (Amiga) running on 68060 at 75mhz
    Adoom Amiga 1200 blizzard 060
    486-os laptop és a Doom

    A többi nem ilyen jellegű, tehát nem realtime 3D-t igénylő tevékenységekben viszont ugyanazon az órajelen és a védett mód meg hasonló toldozások hiányában a 68k alapú gépek (of course, főleg az Amiga akkor még a custom chipjeivel) jóval gyorsabban is "viselkedett" pécés kortársainál, de ennek sok más oka is van hw/sw téren.

    Azt persze nem tudom igazolni, hogy mennyire igaz az a legenda, mely szerint az 50MHz-es 68060-as gyorsabban végzett valami Lightwave renderrel mint a 200MHz-es MMX Pentium, de az akkor még más erőviszonyoknak megfelelő compilerek, szoftveres környezet, virtuális memória RAM helyett, meg ilyenek miatt is lehetett, illetve a 060-as FPU is jóval erősebb dobás volt mint az MMX-féle erőlködés.
    Meg említik is több helyen hogy az Acorn Archimedes erős volt a 3d-ben az ARM-jük miatt, Amigával hasonlítgatták, azonban mivel a Blittert pl. 3D szinten vélhetőleg nem teljesen használták ki a játékfejlesztők ezért nehéz megmondani hogy ezekből a gépekből mit lehetett _volna_ kihozni... Nem beszélve a CD32-es játékokról, melyek nagy része semmit nem használt ki a hw adta chunky2planar adta lehetőségekből sem, amit egy külön IC-vel már implementáltak a gépbe.

    "Az ARM egy szög egyszerű dolog, amit bármilyen félhülye tudna tervezni"

    Mint az alábbi videón látható úriember is :P
    http://www.youtube.com/watch?v=3l-ME8A7RLY

    Egyébként akkoriban is az volt az előnye hogy 32000 tranzisztorból kihozta a nagyobb teljesítményt, persze nem volt mikrokód alapú sem.


    " Éppen ezért hiába bonyolult az x86, ha mögötte áll a világ legjobb chip tervező gárdája"

    A Core2-höz (ami a hype-n kívül szintén nem volt a CPU-k történelmének nagy lépése) egy egyetemi tanártól kellett a gárdának elcsípnie ötleteket, fejlesztéseket, amiből még pereskedés is lett ugye. Azelőtt a P4 nevű csodával szöttyögtek, amit nem kell jellemezni most.
    A világ legjobb gárdája az Alphán, meg ilyeneken dolgozott, aztán a P.A.Semi-be átcsábítottak néhányat PPC-n dolgozni, utána az Apple elriasztotta őket és szétszaladtak, másik részük az AMD-be ment, stb. Most ott tartanak hogy egy gyenge ARM lassan a termékeik vetélytársává válik... hát nemtom.
  • whesterz84 #23
    "Az AMD a 90-es években sokáig csak kullogott az intel után (5x86, K5, K6(-1, -2, -3)), míg végül a döglődő DEC-től átcsábított pár értelmes mérnököt, akik az Alpha processzorok mintájára megalkották az Athlont. "

    Na most akkor képzeljük el, hogy ha sikerült az Intel nyakára lépni és talán le is hagyni őket egy olyan x86 implementációval, ami az Aplha architektúrájára épülő mikrokódos környezetben gyakorlatilag emulációban futott, akkor egy Alpha vajon már mit jelenthetett fejlettségben akár egyebekhez, akár az x86-hoz képest. Rossz belegondolni... Bizonyára azért tűnt el az "Alpha" is mert gyenge volt

    "Szóval csináltak ők valamit, csak lehet, hogy nem jó lóra tettek 2006-ban. Az ATI árából építhettek volna +1 gyárat - és akkor lehetne most 2 gyáruk, nem 0."

    Így legalább volt egy gyáruk ami egy GPU alternatívát is előállított a processzorpiacon, aminek még értelme is lett volna...
  • whesterz84 #22
    "Az AMD amíg létezik, gyártani fog x86 processzorokat. Egyrészt jelenleg nincs ezeknél jobb architektúra."

    Ez a mondat hatalmas :D (Plusz pontot ér)

    "Lehet fújolni, hogy hőőőő, meg hűűű, meg fúúú, és ez is jobb, az is jobb - ezelőtt 15 évvel is jobb olt a Motorola 68xxx, aztán nézzük meg hogy hol van. Meg nézzük meg a Silicon Graphics, Sun, IBM Power, és a többi processzorokat - akár csak házon belül: Itanium -, hogy hol vannak. "

    1.) Pont az a bajom a közmentalitással és azért nem tart ez a világ ott ahol lehetne, mert érvnek tekintik az emberek azt hogy "hiába volt jobb technikailag valami, ha mára már eltűnt". Nos ez nem azt jelenti hogy fejlődünk, ez azt jelenti hogy a víz felszínén a jelenlegi rendszerben a leghígabb dolgok maradnak fent. Ha vannak dolgok, amiket régen jobban oldottak meg, akkor előbb-utóbb érdemessé válik inkább arra építeni, mint arra, amit csak toldoznak.
    Azt sem értem hogy ha az x86 a legjobb, akkor miért nem az van ARM helyett mindenhol azzal a (szerintem régóta túlhaladott) "logikával" hogy biztos az terjed el ami jobb. Ez már egy ideje nem érvényes "logika".
    Egyébként a PPC-k ottvannak egy rakás beágyazott rendszerben (Freescale), és a konzolokban azért még szintén (IBM). Szerintem is jobb lett volna ha az Apple a MIPS-féle vonalat vagy a P.A.Semi féle vonalat tartja fontosabbnak a gyenge ARM helyett, ami inkább extra kisfogyasztáshoz való.
    A Silicon Graphics érdekes módon az Intelékkel való összeállás után kezdett el lefelé ívelni, feladták a saját technikájuk fejlesztését és egyes vészmadárnak tekintett dudék már mondták akkor hogy "ez a vég kezdete" és igazuk lett... na itt van az SGi valahol. Érdekes, hogy a Sun esetében is valami hasonló dolog figyelhető meg (igaz ott Opteronozgattak), az Apple-t meg megmentették a kütyüi.


    "Az x86 lenyomott nála sokkal jobb architektúrákat is, mert az hogy valami papíron jobb, az szart se ér - az emberek tapasztalatok alapján vásárolnak."

    Az x86 az Intel üzleti módszereinek köszönhetően "nyomott le" bármit is. Az emberek pedig a _MARKETING_ alapján vásárolnak túlnyomó többségükben, ez ma már nem olyan nagy titok azt hiszem.
  • whesterz84 #21
    "Amit az intel tokozáson belül megold (4-6-8 mag), ahhoz az ARMnak már spéci buszrendszer, memóriavezérlő, stb kell (40-60-80 mag)."

    továbbá

    "Ezek a procik attól kicsik, hogy nincs bennük nagy cache, ami hadd ne magyarázzam mennyire fontos szerver területen. Nagy cache viszont akkor működik jól, ha van fejlett prefetch illetve elágazás előrelátás, ami megint csak elég nagy szilikon terület. Vagyis mire egy ARM magból közepesen szar szerver proci lesz, addigra felszed magára csomó plusz szilikont, vagyis se túl olcsó, se túl keveset fogyasztó nem lesz, de legalább x86-64 kompatibilis se."

    Hosszú távon mégiscsak a külső spéci buszrendszer lenne szerintem a megoldás, nem az hogy a CPU-ba nyomorogtassanak mindenféle vezérlést, aminek hátránya:
    1.) Mivel nem az eszköz architektúrájának függetlenített és központi szereplője lesz a memóriavezérlő, ezért nem segíti a különböző procik CPU-GPU-stb. együttműködését
    2.) Emellett zabálják a sziliciumfelületet, nyilván növelik a belső fogyasztást, nehezítik a fejlesztést, bonyolítják és ezzel lassíthatják a CPU belső működését

    A külső spéci buszrendszer és a DDR3-as szintnél gyorsabb, belső magsebességhez hasonló külső RAM talán hosszútávon élelmesebb megoldásnak tűnik, mint a CPU magot nehézkessé és úgymond ezzel "önzővé" is tenni a rendszerben.

    "Az ARM 64 bitje valójában 40 bit, a 8086-os procinál bevezetett szegmens-offset címzéshez hasonló, csak annál 3 fokkal bonyolultabb, elb.szottabb. Egyszóval maga a címszámítás is lassú. Ezzel szemben az x86-64 címzése az 64 bites pointerekkel dolgozik (és az lényegtelen, hogy ebből csak 48 bitet használ)."

    Ennek a részleteire elérhető valami dokumentum, mert érdekesen hangzik. Mondjuk a 8086-ost ne hozzuk ide, mert azt már a saját korában meghaladták, nemhogy az első ARM-ek...
    A 40bit még nem biztos hogy annyira gáz a 48bites vagy 64bites címzés helyett. Viszont ettől még a 64bites ARM-ekben van implementációtól függően 32db 64bites vagy 128bites általános regiszter, ez legalább olyan fontos mint a cache, és ebből a szempontból az x86 megintcsak sosem állt jól.
  • whesterz84 #20
    Ebben az a szomorú, hogy ezzel könnyen lehet hogy nem is járna messze a valóságtól.

    Mosógépekben, egyéb háztartási, konyhai gépekben, főleg tűzhelyekben még azt mondanám hogy elmegy az x86 (most persze ide jöhetne a régi poénkodás is, hogy mert még ma is sok hőt termel), de ha a technikai fejlettség nem csak divatduma lenne, akkor másból nyugodtan kihagyhatták volna, de úgy igazán...

    Persze az addig rendben van hogy gyermeteg szinten utálni bármit felesleges, de a doolog lényege nem ez.
  • WoodrowWilson #19
    Sanyix a mosógépvezérlő chipet is istenítené, a lényeg, hogy ne Intel vagy Nvidia legyen, mert azokat gyermeteg szinten utálja.
  • Komolytalan #18
    "Hülyeségekről te beszélsz... már attól nagy hőbörgés volt mert az ofisz 2007-ben talán lecserélték a guit... szóval ennyire hülyeség :D és a "szakemberek" is tudnak ilyet."
    A szalagmenü most se tetszik senkinek sem, mert:
    - helypazarló
    - az egyes csoportok mérete fix. Legördülő menünél felső korlát van, de nagyobb, illetve
    - szintek száma fix (2). Legördülő menünél ez szükség esetén több is lehetett.

    "Marhaság, szinte minden futott rajta, csak a komolyabb dos játékok nem."
    Semmi se futott, ami DOS-os volt, és grafikus, illetve ami DOS-os volt, és protected módot használt, illetve ami DOS-os volt, és konvencionális memóriából sokat használt, illetve ami DOS-os volt, és rezidens móddal rendelkezett.

    "Ja és a nevükből ítélve mind dos kompatibilis volt :DD óóóóriási változás. Én még dosoltam, és ezekről soha nem is hallottam, sőt, senki sem a környezetbemben."
    A te DOS-olásod annyiból állt, hogy elindítottál egy játékot alatta. Ahhoz meg tényleg nem volt értelme mást használni, mint amivel minden játékot teszteltek: az MS-DOS-t. És természetesen DOS kompatibilisek voltak, mert miért lettek volna mások? Hogy ne legyen alájuk egyetlen program sem? De mindegyik amit felsoroltam a maga idejében jobb volt az MS-DOS-nál.

    "mert az m$ monopóliumhelyzetben volt mindig is, így volt pénze kialakítani a hálózatot, "
    Lényeg hogy MS oktatás van. Az hogy ez miért alakult ki, és IBM-nek mondjuk miért nem volt pénze OS/2 oktatásra, az számomra lényegtelen.

    "Nekem egy 800 mhz-s a6-os van (jelenlegi előtti generáció), ez pl már izomból viszi az sd divx/xvidet, de h264 még szaggat Kb így volt a 750-es duronomnál is anno, úgyhogy azt a szintet már eléri."
    Látod ez veled a baj, mert szerinted a "viszi az SD divx-et/xvidet" az egy abszolút korrekt mérőszám. Nem bazmeg, mert az hogy milyen ratyi minőségbe dekódol egy egyébként veszteséges tömörítést, az rohadtul nem mind1. Tesztelni azzal lehet, ami egzakt. Pl. számold ki a PI első 1 millió számjegyét. Mert ha az ARMon futó alkalmazás netán hibázna, akkor ez a 2 txt fájl összehasonlításából simán kiderülne. Egy video lejátszásból - amit egyébként is nagyrészt GPU csinál ma már - csak abszolúte hozzá nem értők vonnak le következtetést CPU sebesség tekintetében.

    "Egyébként miért is számít annyira az a cpu erő ha minden a gpgpu felé mozdul?"
    Talán mert nem minden feladat párhuzamosítható olyan szinten, hogy megérné GPGPU-val vacakolni? Egy sima szintetikus rendezésnél mondjuk 10 milliós elemszámnál már kijön a különbség. De nem száz meg ezerszeres - ahogy a papíron lévő adatok alapján sejteni lehet - hanem mondjuk négyszeres.

    "A döglődő ati-t egyébként fillérekért vették meg"
    Pontosabban 5.4Mrd USD-ért.

    "Kár hogy ez nem így megy, lásd amd-nek is minimum 2 év kell hogy elkezdje az első arm alapú cpu-ját gyártani."
    Nem, ahhoz kell 2 év, hogy az első ARM alapú AMD szerver megjelenjen. Ráadásul egy mobiltelefonba tervezett procit valószínűleg rendesen át kell faragni, hogy a low-end szerverekbe legalább alkalmas legyen.

    "pedig leköti, atomot gyárt, ami a cpu gyártás szégyene a p4 után..."
    Mégis több profitot termel rajta.

    "Nem értem egyébként még is hogy van az hogy az arm az értéktelen, még is az intel nem tud olyan watt/teljesítmény arányt elérni."
    És egyik se tudja a 0.1khz-s mosógép vezérlő chipek watt/teljesítményét elérni. Más ligában fociznak, ha nem vetted volna észre. De felfelé nehezebb lépni, mint lefelé.
  • sanyicks #17
    "Bazmeg akkor mindenki homokozik egész életében, mert azon nevelkedett? Hagyjuk már a hülyeségeket."

    Hülyeségekről te beszélsz... már attól nagy hőbörgés volt mert az ofisz 2007-ben talán lecserélték a guit... szóval ennyire hülyeség :D és a "szakemberek" is tudnak ilyet.

    "A Win 3.x nem is volt igazi oprendszer, hanem csak egy shell. És Win3.x shell alól a DOS-os programok nagyon csekély része futott (grafikus kb 1 se)."

    Marhaság, szinte minden futott rajta, csak a komolyabb dos játékok nem. De ez mindegy volt, mert a 2 egymás mellett volt, és a lényeg ugyan az. Monopol dos, ami a win terjedését segítette ami átvette a helyét.

    "Csak hogy a jobbakat említsem. Ráadásul akkor nem volt olyan komoly szerepe az OS-nek, mivel a felhasználói programok - "

    Ja és a nevükből ítélve mind dos kompatibilis volt :DD óóóóriási változás. Én még dosoltam, és ezekről soha nem is hallottam, sőt, senki sem a környezetbemben.

    "De miért olcsóbbak? Mert van rendes oktatás, vizsgák hozzá? Mert ha megmutatja az XY certificate-et, akkor tudhatod, hogy ez tényleg ért hozzá? Más oprendszereknél mi van? Rákeresek google-val, és gányolok valamit."

    Van rá rendes oktatás (rendes ugye klikkdroidkodást jelent itt), mert az m$ monopóliumhelyzetben volt mindig is, így volt pénze kialakítani a hálózatot, megkenni az állami oktatás döntéshozóit. (lásd ma magyarországon nem szövegszerkesztést és számítógéphasználatot tanítanak, hanem ofiszt és vindóz makrókat (hova kell klikkelni)).

    "Akkor mondj valamit, ami jobb 1 magos nyers teljesítmény mérésére." ne tőlem kérdezd engem valahogy a valós teljesítmény érdekel... nem fos szintetikus tesztek. de pl egy komplex tömörítésű video lejátszásból kikapcsolt hardveres gyorsítással lehet következtetni egy mai arm proci sebességére.
    Nekem egy 800 mhz-s a6-os van (jelenlegi előtti generáció), ez pl már izomból viszi az sd divx/xvidet, de h264 még szaggat Kb így volt a 750-es duronomnál is anno, úgyhogy azt a szintet már eléri.

    Többet nem próbáltam, nem igazán érdekel. Működik, gördülékeny mennek rajta a programok ami elvárható, több nem érdekes.
    Érdekesség még hogy egy egy mai a7-es 1 magos armon 1 ghz körül, átlag gpu-val már olyan játékok mennek butítatlanul, mint a max payne, gta 3, gta vice city, androidon. Ezek pc-re 2001, 2002, és 2003-ban lettek kiadva, és kb az említett 750-es duron vitte ezeket jól élvezhetően, bár utóbbi 2-t azért nem röccenésmentesen.

    Egyébként miért is számít annyira az a cpu erő ha minden a gpgpu felé mozdul? Egyedül a zintelnek számít nagyon, érthető okokból :D már az epl is az arm soc-án 2 magos cpu mellé 4 modulnyi gpu-t csomagol.

    "Lett 20+% összesített részesedése, szerver piacon közel 50%, és lett annyi készpénze, hogy megvette a két jelentős videochip gyártó egyikét. Most az hogy ez jó döntés volt-e vagy sem, az tök más lapra tartozik."

    Előtte is volt 20% részesdése. Kapott kb +7%-ot. A készpénz nagyrészt meg ugye elúszott az intel ügyeskedéseinek hála. Kifejlesztette az athlonokat, és szinte semmit sem kapott érte, mert a zemberek (akik szerinted nem begyepesedettek) akkor is a p4-et vették inkább 3x olyan drágán 2x akkora fogyasztással, kisebb teljesítménnyel.
    A döglődő ati-t egyébként fillérekért vették meg(azt is egyékébként az nvidia miatt döglődött ami olyan mint az intel kistestvére ha a mocsokkos trükközésüket nézzük). Apropó nvidia, ők a gpu gyártásból kezdtek arm socok gyártására és fejlesztésére nyergelni, és valahogy nem panaszkodnak(ahhoz képest hogy kb a legszarabb arm socot gyártják gpu-ban, és cpu-ban is, de legalább olcsóbb mint a többség). Biztos hülyék.

    "...és kisebb csíkszélességen gyárthatná mint bárki más, így alacsonyabb lenne a fogyasztás, és övé lehetne a teljes ARM piac. Csakhogy az nem tudom megvan-e, hogy ARM procikon kurva kicsi a haszonkulcs. Egy ARM proci ára tokozással-mindennel kevesebbe kerül, mint amennyit az intel egy átlagos prociján keres."

    Kár hogy ez nem így megy, lásd amd-nek is minimum 2 év kell hogy elkezdje az első arm alapú cpu-ját gyártani. Másrészt a csíkszélesség csökkentésével járó fogyasztás csökkenés már nem annyi amennyinek hiszed. Ivy bridge hűtésproblémák megvannak? És az éppen beteljesülő jóslat hogy egy idő után egyre kevesebb előnye lesz a csíkszélesség csökkentésnek, viszont a gyárak átállítása nem lesz olcsóbb.

    Az megvan hogy az asztali cpu piac erősen zsugorodik? Tök jó hogy az intelnek nagy haszna van a proci gyártáson (nem meglepő, hiszen pofátlanul drágán adják), csak ez nem fog már sokáig tartani :)

    "Akkor meg miért is kötné le a gyárait ilyen értéktelen hulladék termelésére?"

    pedig leköti, atomot gyárt, ami a cpu gyártás szégyene a p4 után...

    Nem értem egyébként még is hogy van az hogy az arm az értéktelen, még is az intel nem tud olyan watt/teljesítmény arányt elérni. Arm kevesebből tud ugyanannyit, mint az intel, ebből nem éppen az jön le hogy az arm hulladék, hanem az hogy az intel az :)
  • Komolytalan #16
    " Mint írtam a begyepesedettségtől is függ, és a leendő szerveradminok wintel pc-n nevelkednek..."
    Bazmeg akkor mindenki homokozik egész életében, mert azon nevelkedett? Hagyjuk már a hülyeségeket.

    "Egyébként a vindóz a 3.x korban kezdett terjedni és mivel dos alapú 100%-ban kompatibilis volt :)"
    A Win 3.x nem is volt igazi oprendszer, hanem csak egy shell. És Win3.x shell alól a DOS-os programok nagyon csekély része futott (grafikus kb 1 se).

    "ibm pc kijön, olcsóért, elterjed, kizárólag dos van rá."
    Nana. Ott volt az Amiga, olcsóbbért, 32 bites, valódi multitaszkos, grafikus OS-el. Egyébként el is terjedt, csak hát szegény NEM FEJLŐDÖTT. A PC meg igen.

    "Szóval desktop pc-n a microsoft os-nek nem kellett versenyeznie soha semmivel, mert alapból monopolhelyzetből indult."
    Ez se igaz, mert már akkoriban is volt:
    - Norton DOS (későbbi DRDOS)
    - 4DOS
    - PTS DOS
    Csak hogy a jobbakat említsem. Ráadásul akkor nem volt olyan komoly szerepe az OS-nek, mivel a felhasználói programok - de még a rendszer programok egy része is - nem beleintegrált izék voltak, hanem sima exe programok, amikből azt használt az ember, amit akart. Ott volt pl. a QEMM386, ami egy memória (EMS) manager volt. Ma már elképzelhetetlen, hogy egy oprendszer alá külső memória kezelőt tölts be.

    "nocsak, apik sincsenek, kernel hívások, stb?"
    APIk nincsenek. Az első körben grafikához kell, ami szerver szoftvereknél nem igazán hangsúlyos, sokszor nem is szükséges. A rendszer hívásokban lehet eltérés - ezért mondtam, hogy kis túlzással - de ez általában 1 system package, amiben van idő lekérdezés, meg hasonló dolgok. Volt régebben valami cikk, hogy több mint 1 millió soros szerver szoftvert másik vasra, másik OS-re 2 nap alatt portoltak. Mondjuk segédprogram az volt hozzá, de akkor is.

    "Na meg ugye a csak wintel-hez értő szakemberek, akik nyilván olcsóbbak is, mivel többen vannak a desktop elterjedtség miatt."
    De miért olcsóbbak? Mert van rendes oktatás, vizsgák hozzá? Mert ha megmutatja az XY certificate-et, akkor tudhatod, hogy ez tényleg ért hozzá? Más oprendszereknél mi van? Rákeresek google-val, és gányolok valamit.

    "remélhetőleg nem sikerült, a superpi egyébként közröhelynek örvend már szerencsére, ha valaki benyögi hogy azzal tesztel :D annyira semmire sem jó az a cucc, hogy még x86 proci közötti tesztre sem érdemes használni."
    Akkor mondj valamit, ami jobb 1 magos nyers teljesítmény mérésére. És nem használ GPU-t, valós feladatot old meg, ellenőrizhető módon (ugye régi intel vicc a 2+2=5, de q.rva gyors voltam). Mind1 nekem mi a neve, ne legyen superpi: számolja ki a pi első 1 millió számjegyét, és mondja meg hogy hány másodperc. Vagy éppen óra.

    "Ja hiába, végül is ez a "legjobb gárda" képtelen egy olyan x86-os procit összehozni ami felveszi a versenyt egy arm cpu-val, ár/teljesítmény/fogyasztás arányban."
    Ha akarná az intel licenszelné az ARM-ot, és kisebb csíkszélességen gyárthatná mint bárki más, így alacsonyabb lenne a fogyasztás, és övé lehetne a teljes ARM piac. Csakhogy az nem tudom megvan-e, hogy ARM procikon kurva kicsi a haszonkulcs. Egy ARM proci ára tokozással-mindennel kevesebbe kerül, mint amennyit az intel egy átlagos prociján keres. Akkor meg miért is kötné le a gyárait ilyen értéktelen hulladék termelésére?

    " Intellel desktopon nem lehet versenyezni, mert izomból lenyom, lásd az amd, ami sokkal jobb cpukat gyártott egy időben, még is mit ért vele?"
    Lett 20+% összesített részesedése, szerver piacon közel 50%, és lett annyi készpénze, hogy megvette a két jelentős videochip gyártó egyikét. Most az hogy ez jó döntés volt-e vagy sem, az tök más lapra tartozik. Az viszont tény, hogy az AMD-nek 2 gyára volt (proci gyártásra már akkor is kb csak a Drezdai volt jó), az intelnek meg több mint 30. Szóval azért azzal, hogy 3-5 évig jobb teljesítményt nyújt a másiknál, az kevés volt.

    "Na meg valamiért az intel is erőlködik a sok gyenge mag kevés erős helyett koncepióval, lásd a 48 magos chipes cikket, meg a larrabee-t (igaz ezt részben azért csinálja mert képtelen egy normális gpgpu-t összehozni)."
    Egyrészt azt nézzük mi van a piacon, másrészt a Larrabee az ahogy mondod, GPGPU helyett volna, csak hát az intel nem vette még meg az nvidiát, szóval neki nehezebb dolga van mint az AMD-nek.