45
  • huuu
    #45
    A tápláléklánc csúcsa?
    Ezek itt elüzletelgetnek magukban, közben Kína és Délkórea régen a "tápláléklánc" csúcsán csücsül.
    Nézzünk be egy számtech. boltba. :)
    A Made in China felirat fityeg 99%-os arányba.
    Ezentúl nincs értelme vitatkozni, hogy milyen név alatt, ki jegyzi a tözsdén az említett cégeket. Vannak már teljesen kínai gyártósorok, nem universal(USA) Fuji Philips smd beültetők. innentől kezdve a Kínaiak vannak a csúcson.
  • BlackRose
    #44
    Kevesen optimizálunk! De azért akad aki igen. Az optimizálás tervezés nélkül lehetetlen, a legtöbb kód ma tervezés "nélkül" i.e. minimális tervezéssel kerül ki, ugyanakkor nem árt ismerni a hardware-t mert ez nélkül nem igen lehet optimizálni, a legtöbb fejlesztő pedig ma Javával kezdi a szakmát...

    Ami az Intel C++ fordítót illeti egyáltalán nem optimizálja jobban a kódot mint a Microsoft fordítója, a GCC szintén jól optimizál. Hogy miért is létezik Intel C++ compiler... egyszer egy fórumon olvastam (egy Inteles srác mondta), hogy növeljék a CPU minőségét, ugyanis ha fordítót is készítenek neki akkor jobban megismerik a processzort, jobb a design stb. Persze ez nem biztos, hogy így van, de lehet, hogy van benne valami :) Ugyanakkor nagyon kevés cég használja az Intel fordítót, és még kevesebb program lett vele fordítva.
  • dez
    #43
    "ma már ezeket sem kézzel írják asm-ben" --> na jó, persze azért van kivétel.
  • dez
    #42
    "A legegyszerubb pelda pont a tobb processzor mag kihasznalasa. Nem letezik olyan C/C++ fordito, ami magatol optimalizalna a kodot tobb processzor magra, tehat ha egy jatekfejleszto ceg ki akarja az osszes magot hasznalni, akkor bizony alapjaban ujra kell irni a kod egy reszet (hacsaknem mar korabban is tobb szalon dolgoztak)."

    Ez egy kicsit más téma, nem optimizáció a szó szokásos értelmében, hanem többszálúsítás, párhuzamosítás.

    "Kicsit alacsonyabb szinten megemlithetjuk a processzortipustol fuggo SIMD utasitasokat vagy egyeb nyalanksagokat pl a virtualizacioban, amit az AMD es az Intel mashogy valositott meg."

    Na ja, Intelen nincs 3DNow!, viszont az SSE-ket tekintve elég közel állnak egymáshoz.

    "Es ez meg csak a jeghegy csucsa, mivel egy jo programozo pl arra is figyel, hogy megfeleloen hasznalja a cache-et a prociban (nem mindegy, hogy ki, mikor, mit, hogyan es hova allokal, ir es olvas), pedig a cache teljesen transzparens meg a fordito szamara is. Erdemes arra visszaemlekezni, hogy ezt kevesbe nemes celokra is kihasznaltak korabban, amikor pont akkorara mereteztek egy-egy benchmarking programot, hogy beleferjen egy bizonyos processzor cache-sebe, ezzel novelve a teljesitmeny azon a CPU-n."

    Ez igaz, de itt már rég nem utasításonként kell optimizálni (kézzel), hanem csak egy-egy rutin/függvény méretére figyelni.

    "Bezony-bezony, egy jol megirt, nagyteljesitmenyu program bizonyos helyeken eltero kodot futtat eltero processzorokon (pl P4 vs Core 2 Duo)."

    Ez is igaz, de ma már ezeket sem kézzel írják asm-ben, hanem a fordítóra bízzák.

    BTW, optimizáció vs. optimalizáció: az első angol nyelvterületről jön, a második németről. (Nekem inkább az előbbi jön be. A fordítók szinte mindegyikében is így szerepel.)
  • dez
    #41
    A magasabb IPC nagyrészt onnan jön, hogy a proci optimálisabban hajtja végre a kódot! Ehhez tele van mindenféle okossággal. Out-of-order végrehajtás, fejlett branch prediction, mindenféle prefetchek, stb. stb. Ha ezek mind nem lennének, sokkal jobban kellene optimizáli magát a kódot, minden egyes procira. (Ezek miatt is elég "kövérek" tranzisztor-számot tekintve az x86-os procik, pl. egy PowerPC-hez képest, stb.)

    "Próbáld csak ki, írj valami rohadt egyszerű CPU benchmark progit(valami régi programnyelven, vagy pedig valami új, de elég lowlevel nyelven), hidd el, hogy a 3.8-as P4-em el fog verni vele minden AMD-t ;)"

    Butaság. Ilyen alapon a P4-ed minden Core2-nél (egy magot nézve) is gyorsabb lenne, de nem az. De különben sem igaz: pár ilyenben gyorsabbra jön ki, mint az A64, pár másikban meg nem. (Most arról nem beszélve, mennyivel többet fogyaszt, tehát milyen áron.)
  • A1274815
    #40
    A játékok az rossz példa, mert ott elsősorban a Videókártya szokott lenni a szűk keresztmetszet.
  • Sanyix
    #39
    Nézz meg egy mai játékot, és hogy milyen gép kell hozzá. Szerinted optimalizálnak? Amúgy senki sem beszélt többmagos támogatásról, meg virtualizációról, ipc növelésről volt szó. Egyébként létezik olyan hogy intel c++ compiler.Vajon miért intel? Mert az intel procik utasításkészletére optimalizál(nem több magra, és nemis virtualizációra). Gondolom amd-nél is van ilyesmi.
  • BlackRose
    #38
    Halottatok már fúzióról? Amikor gyakorlatilag két cég egyesül és a részvények cserebere történik a megállapodáskor. Ilyen esetben az egyik céget nem veszik meg a másik cég részvényesei, hanem egy közös cég részvényesei lesznek mindkét oldalról.

    IBM & AMD? Szerintem életképes lenne, ugyanis az IBM mára a legnagyobb az IT-ben (sőt magát a Microsoft-ot is megszoríthatja, ha a következő periódusban jól dolgoznak), ugyanis erős CPU részleg (amit az AMD még jobban erősítene), céges szoftver területen nagyon komoly DB2, WebSphere, Lotus, Rational, Tivoli, hogy csak soroljam, tanácsadás területen azt hiszem nincs párja, szerverek, szuperszámítógépek…

    És mind ez ma jól kifőtt és működőképes, nem szabad elfelejteni, hogy a Linux-ot is komolyan támogatják. A Microsoft ugyanakkor azt hiszem egy olyan pontba érkezett, amelyiktől sok minden függ a jövőben, ugyanis a Windows fejlesztésük egy picit túlfeszített (a Vistánál ez jól látszik) nincs nekik megfelelő fejlesztési folyamat, a menedzsment komolyan megkérdőjelezhető döntéseket hozott a Vista esetében, és ne legyünk nevetségesek, de azt hiszem Ozzie nem állhat Bill helyébe még álmában sem. Jelenleg a Szerver termékek (SQL, BizTalk, Exchange, stb.) és a Fejlesztői alkalmazások (Visual Studio) az egyetlen része az MS-nek amely jól működik. Ugyanakkor túlságosan nagy hangsúly helyez a Microsoftnál a consumer piacra, az üzleti felhasználók kárára, ha az IBM ezt a pillanatot ki tudja használni, minden meglehet. Szóval azt hiszem mondani, lehet lassan, hogy “The Empire Strikes Back”
  • zzebi
    #37
    Meghogy nem optimalizalnak? Ez hatalmas tevedes. A kodot igenis lehet, sot kell is optimalizalni a kulonbozo processzorokra, ha nagy teljesitmenyt akarunk. Nem eleg a forditoban kapcsolgatni, hogy milyen processzorra legyen a kod optimalizalva.

    A legegyszerubb pelda pont a tobb processzor mag kihasznalasa. Nem letezik olyan C/C++ fordito, ami magatol optimalizalna a kodot tobb processzor magra, tehat ha egy jatekfejleszto ceg ki akarja az osszes magot hasznalni, akkor bizony alapjaban ujra kell irni a kod egy reszet (hacsaknem mar korabban is tobb szalon dolgoztak).
    Kicsit alacsonyabb szinten megemlithetjuk a processzortipustol fuggo SIMD utasitasokat vagy egyeb nyalanksagokat pl a virtualizacioban, amit az AMD es az Intel mashogy valositott meg.
    Es ez meg csak a jeghegy csucsa, mivel egy jo programozo pl arra is figyel, hogy megfeleloen hasznalja a cache-et a prociban (nem mindegy, hogy ki, mikor, mit, hogyan es hova allokal, ir es olvas), pedig a cache teljesen transzparens meg a fordito szamara is. Erdemes arra visszaemlekezni, hogy ezt kevesbe nemes celokra is kihasznaltak korabban, amikor pont akkorara mereteztek egy-egy benchmarking programot, hogy beleferjen egy bizonyos processzor cache-sebe, ezzel novelve a teljesitmeny azon a CPU-n.

    Bezony-bezony, egy jol megirt, nagyteljesitmenyu program bizonyos helyeken eltero kodot futtat eltero processzorokon (pl P4 vs Core 2 Duo).

    -------------

    Az pletykaval kapcsolatban:
    Az IBM es az AMD mar hosszu evek ota gyakorlatilag kozosen fejleszti a gyartastechnologiat, igy biztosan jo kapcsolat van a fejleszto csapatok kozott.

    -------------

    Korabban irta valaki, hogy az AMD folyton hulyesegeket csinal. Ez szerintem baromsag. Az AMD hihetetlen jol teljesit egy ekkora behemot versenytarssal szemben. 2000-tol 2006-ig gyakorlatilag lenyegesen fejlettebb processzoruk volt, mint a 10x akkora R&D budget-tel rendelkezo Intelnek. Az lemaradas oka, hogy kisebb ceg leven nem tudott idoben elegendo processzort gyartani, nem volt fejlett gyartosora es nem tudta elegge megkenni az OEM gyartokat, hogy kizarolag az o cuccait aruljak.
  • A1274815
    #36
    "nvidiat 10 milliárd dollára becsülik értékileg...azt még a nagy Intel is megsinylené, nagy falat lenne neki, annyi pénze még neki sincs.... "

    Akkor mondjuk az nvidia-t meg veszi az MS (nekik van ennyí pénzük), aztán lehet, hogy még hozzá csapja az AMD-t is.
  • AnonyX
    #35
    Bár az is hülyeség hogy csak pl. Intel megvenné nvidiat... nvidiat 10 milliárd dollára becsülik értékileg...azt még a nagy Intel is megsinylené, nagy falat lenne neki, annyi pénze még neki sincs....
  • Sanyix
    #34
    A fordítót megírják különböző procikra, innentől a nem assemblyben programozóknak semmi különbség nem látszik procik között. 1szer optimalizálják a fordítót sok ipc-re, és onnantól jó, ennyi. Amúgy a programozók emellett úgyis csak programoznak, optimalizálni már rég nem optimalizálnak...
    Mégis inkább le vagy maradva jól.
  • Dodo55
    #33
    Jóval tovább vagyok lépve hidd el :)
    Csak ami most megy, az a párhuzamos számítás fejlesztése, ami nagyon nem tetszik a programozóknak.
    Meg azért az alacsonyabb órajelű(magasabb IPC-jű) procikra is optimalizálni kell kicsit, hogy olyan jól menjenek rajta a progik, mint egy magas órajelű procin.
    Próbáld csak ki, írj valami rohadt egyszerű CPU benchmark progit(valami régi programnyelven, vagy pedig valami új, de elég lowlevel nyelven), hidd el, hogy a 3.8-as P4-em el fog verni vele minden AMD-t ;)

    Ha a magasabb órajel, és a soros számolás gyorsítása irányába fejlesztenének továbbra is, akkor a programozók azt csinálhatnák, amit szeretnek: programozhatnának, nem pedig optimalizálhatnának.
  • Su0my
    #32
    jól látod
  • asysoft
    #31
    Látom, azért még akadt, aki a gigahertz=teljesítmény dolognál nem tud továbblépni:) Azonos architektúránál, felépítésnél valóban jó viszonyítási alap, de pl egy 3 gigás P4-et elver egy 2 gigás A64, s az 1.8as Sempronomnál is gyorsabb (egyszálú feladatoknál is) az 1.6-os Core(1)Duo. De gondolom te is inkább választanál egy 3GHz-s P4-et, mint egy 3.4-es Celeront, csak, hogy a Netburst architektúránál maradjunk.
  • sathinel
    #30
    Azt az IBM szintén azért csinálta, mivel így a cégek felkeresik, és a licence érdekli őket. Minek fejlesztene az intel vagy AMD egy megoldást ami már kész van? inkább az IBM-el fejleszt, és profitál belőlle. Egyébként a cisc, és risc procik közti különbségek egyre kisebbek ha jól tanultam. A kezdeti időkben nagy volt az eltérés, de manapság mindkét fél a másikból is bevett elemeket. Már ha jól emlékszek a tanulmányaimra:D
  • sathinel
    #29
    max részvényesként tudnám elképzelni, de az meg nem ugyanaz mintha felvásárolná. Jobban megéri ha minden gyártásban csak kicsit van benne, és nem tud akkorát bukni egy-egy terméken ha nem veszik. Neki a licencet úgyis kifizetik a gyártásnál.
  • sathinel
    #28
    Nem tudom ki hogy van vele, de pl az IBM nem épp leadta az összes gyártással kapcsolatos cégrészeket? Pl lenovo, a winyói, stb. Ha jól tudom bőven megél abból a liszenszből amit az intel, AMD, nvidia, ATI chip-ekből kap. Tavaj 8000 szabadalom felett adott be. Most meg felvásárollna valamit ami megint gyártás?
  • valaé valaé ná
    #27
    Azt írtam, hogy majdem ugyanaz az architektúra. Majdnem ua. az utasításkészlet is.
  • A1274815
    #26
    Látom még nem szenvedtél éltedben OS/2-vel.
  • Su0my
    #25
    Én programozás szintem megmaradtam a jó öreg Delphinél, szóval erről nem tudok nyilatkozni, viszont arr4ól igen, hogy eddig ahány IBM gépet láttam-jó kidolgozásúak, viszont kegyetlen nagy galibák fordulnak elő néha velük.. Én örülnék, ha ez a multicég-bekapja-másik multicéget féle táplálkozási lánc nem tetszik, mert könnyen kialakulhat egy, a sci-fikbe illő megamulti
  • Su0my
    #24
    és az aztán qrvára jobb, hogy a mikrofos ablakokkal kell szenvednünk..
  • dez
    #23
    (Persze az ARM is RISC, de eltérő az utasításkészlet.)
  • dez
    #22
    Valamit nagyon keversz, szerintem a PowerPC-re godolsz, ami a szerverekbe szánt Power architektúra desktop/ws/embedded változata.
  • dez
    #21
    A felvásárlásnak nem csak technológia-szerzés lehet a motivációja, hanem konkurencia-felszámolás is.
  • valaé valaé ná
    #20
    A Pocket PC-k ARM utasításkészlete is majdnem ugyanaz, mint a Power procié.
    Őszintén remélem, hogy ez az architektúra lesz a jövő. Sokkal korszerűbb, átláthatóbb és könyebben programozható assemblyben.
  • Sanyix
    #19
    Pont hogy nem hülyeség. Az a hülyeség amit te akarsz... a gigaherzkergetés =magas fogyasztás, alacsony teljesítmény, magas előállítási költségek.
  • dez
    #18
    Milyen hülyeségeit??? Pl. azt a "hülyeséget", hogy már az Intel sem csak a GHz-re gyúr a Core2-vel?
  • kvp
    #17
    Az nvidia sem all olyan jol, lehet hogy fel sem vasaroljak. Az uj intel fejlesztesek (80 magos cpu) kisertetiesen hasonlitanak az nvidia gpu-kra (128 magos cpu). Az intel sokkal fejlettebb technolgoiaval rendelkezik, gyarthatnanak akar 128 magos gpu-t is, 8 Ghz-es belso orajellel, csak meg nincs benne tapasztalatuk. Viszont ugy nez ki hogy felvasarlas helyett inkabb megcsinaljak maguk. Az itanium sorazat 'sikerebol' arra kovetkeztetek hogy nem fog siman menni, mindig tulbonyolitjak a hardvert. Az utolso korrekt intel cpu a 286-os volt, ott meg nem hack-eltek korbe az architkturat. Az x86-64 is amd talalmany, az intel csak licenszelte. Az ibm meg mar tobb mint 15 eve arulja szinte valtozatlan programozoi felulettel (utasitaskeszlettel) a powerpc-ket es meg mindig van belole haszna. (az osszes 'next gen' konzolban es sok uj tv-ben is ibm cpu van) Most ott tartunk hogy barmelyik nagyobb cegbol lehet piacvezeto (intel, ibm, amd, nvidia), a hardver fronton meg nincs teljes monopolium.
  • Genesis87
    #16
    Szerintem nem tűnne el az AMD neve a felvásárlás miatt. Nem hiszem, hogy jó marketing fogás lenne és ahogy az ATI neve sem tűnt el az AMD sem fog.
  • paleeca
    #15
    Már az is elég dúrva volt, hogy az ATI-t megvette, de hogy most az AMD-t venné meg az IBM. Nem akartam elhinni Majd meglátjuk
    Pali dslrendszerek . hu
  • Inquisitor
    #14
    Elvileg az ATI felvásárlásáho egy igen nagy kölcsönt vett fel az AMD, amihez a "kezes" egy meg nem nevezett nagy cég volt. Már akkor találgatták sokan, hogy az egész AMD/ATI biznisz mögött a nagy kék áll.

    Mellékesen:
    AMD Demo R600 Crossfire on Quad Core Barcelona Setup
    R600 Clocks Higher Than 800MHz
    AMD Demonstrates Accelerated Computing Solution that Breaks Teraflop Barrier
    http://biz.yahoo.com/bw/070301/20070228006340.html?.v=1
  • Dodo55
    #13
    Ha megvenné az IBM az AMD-t az szerintem jó lenne, mert az IBM nem hagyná, hogy az AMD folytassa a hülyeségeit.

    Az IBM is a magas órajel mellett van, már csináltak is 500GHz-es procit, igaz -250°C kell neki asszem, hogy 500GHz-en tudjon futni, dehát majd finomodik még ez.
  • assdf
    #12
    igen pl a cisco eléggé kimaradt pedig hát ugye...
  • dez
    #11
    De előbb az nVidia az IBM-et, aszerint a (kissé hibás) sor szerint. (A MS sem tudná felvásárolni a Google-t, és messze nem a MS van a csúcson.)
  • ewtoto
    #10
    Ezt hívják globalizációnak :) Turol 16 Nem az nVidia fogje felvásárolni az IBM-et hanem az Intel az nVidiát:))
  • Power
    #9
    Már Nem gyártanak pc-t, eladta a pc részlegét a Lenovonak.
  • A1274815
    #8
    "Az IBM aki ugye a PC apucija, nem igazán gyártott hozzá CPU-t/GPU-t és OS-t is csak utólag."

    Ha az IBM akkor így csinálta volna, akkor most nem lenne viszonylag "egységes" otthoni számítógépek. Lehet hogy csak az IBM operációs rendszere futna az IBM gépeken, stb.
  • A1274815
    #7
    "Igaz most már PC-t se igen gyártanak."

    Bár csak igaz lenne, de sajnos gyártanak és elég sok g.b. van vellük.
  • A1274815
    #6
    Remélem ez soha sem fog bekövetkezni. Az utóbbi időben rendesen meggyűlt a bajom az IBM gépekkel. És semmi kedvem sincs ahhoz, hogy az AMD procik 2x drágábak legyenek az Intel-nél.