74
  • Deus Ex
    #74
    Morgen.

    Meg kell kövesselek, felét írtam csak le annak, amit gondoltam. Belenyugodtam abba, hogy egy tisztán CNN szervezésű processzor nem általános célú proci, és azon kezdett el járni az agyam, hogy heydeszépis lenne, ha egyszer majd a CNN által villámnyorsan végezhető műveletekhez egy CNN alegységet építenének a processzorokba. Valahogy úgy, mint ahogyan a lebegőpontos egység szép lassan bemigrált a CPUba. Eközben eszembe jutott, hogy olvastam is valami effélét, és csak ezt írtam le. Valóban csak rendkívül felületesen értek a dologhoz, és talán helyesebb lenne, ha szabadidőmet műemlemzéssel tölteném.. ha ott kitalálok valami baromságot, akkor valahogy kimagyarázhatom magam, nem kell szembesülnöm azokkal a fránya tényekkel..:-)

    U.I.: A PC-be építhető CNN modul csak nagy jooindulattal nevezhető társprocesszornak.. ha jool emlékszem, akkor egy kupac PCI buszos kártya.
  • Deus Ex
    #72
    De CNN társprocesszor lehet.. ha jool tudom, gyártanak is valamiféle PC-be építhető modult.
  • Deus Ex
    #71
    Köszönettel.

    És a hiperkocka az mi fán terem?
  • MuERTe
    #68
    Szép, szép, de amíg az asztali gépembe nem tudok ilyet belepászítani különösebben nem érint. Konzolt meg elvből nem veszek.
  • mir
    #66
    A nagytávolságú hálózatok késleltetése túl nagy ahhoz, hogy nagybonyolultságú interaktív környezetet lehessen létrehozni thin-kliensekkel
    nem, nem, nem. nem így gondoltam. a hálózat nyilvántartja a környezetet, és ha te mondjuk a baltáddal suhintasz a gerenda felé, akkor van vagy fél másodperc, amíg a balta odaér. azalatt 1 broadband kapcsolattal, mint ami a PS3hoz kell majd bőven el lehet küldeni a problémát, hogy hogyan fog a balta lesúlytani a szerveren is nyilvántartott világ mely pontjára, és ott nem csak a texttúrák vannak meg, hanem mndjuk az anyag minősége, meg hasonlók is, és ott a szervernek van ideje kiszámolni, hogy mi történik, feldarabolni az objektumot, és minden szilánknak ami elrepuül megadni az indító erőket, aztán ki tudja számolni, hogy összedől-e az épület, és van ideje minden egyes gerendát feldarabolni, kiszámolni, hogy esnek le, és elküldeni az eredményt minden közelben tartózkodó kliensnek, akik ugyan úgy látják, hogy összeomlik az épület, mint az a barom, aki magárabontotta. nem kell a központi szervernek kiszámolni minden fizikát, csak mondjuk azt, amit télleg nem lehet a grafika mellé a PS3ra bízni. a PS3 már az akciógomb lenyomása pillanatában tudja, hogy hová fog az ütés becsapódni. és ha akkor elküldi, megkaphatja az eredményt, mire a fejsze valóban becsapódik. vagy ha ráüt valamelyik játékostársára, pontosabban lehet kiszámolni a sérülést. vagy esőben vagy porban lábnyomokat hagyhat.(na jó, ez nem új)

    télleg. cellről én is olvastam, hogy .09 mikron lesz.
  • versio
    #65
    "A Toshiba tervei szerint a cég ohitai gyárában még az év vége előtt megkezdődik a Sonyval közösen kifejlesztett 90 nanométeres gyártástechnológia bevezetése is.
    "

    ennyit az intelröl :LOL
  • Rive
    #64
    Aha.

    "hogy GRID technologiára tervezik a procit ez annyit jelent hogy a helyi Cell procis egységed mondjuk a PS3 hozzá kapcsolodik több 1000 GRID serverhez, amik segitenek neki egy komplett világ modellezéséhez"

    "Grid computing is a variation of distributed computing, and presumably involves networked game machines sharing software, processing power and data."

    Akkor szépen döntsd el végre, hogy is gondolod ezt az egészet, mert mostmár a SONY hivatalos dumáját vonod kétségbe, a saját szavaidról már nem is beszélve.
  • versio
    #63
    tévedésben vagy
    nem a ps3-ak fognak egymással kapcsolatban lenni

    hanem a ps3-ak a brutális központi serverekkel
  • Rive
    #62
    #61: Nem.
    #60: Döntsd el: időjárás-szimulátort akarsz, ez esetben ajánld fel a SONY-nak, hogy szerzel megrendelést a NASA-tol, vagy pedig játékgépek hálózatát, ahol az egyes gépek éppen eléggé el lesznek foglalva a saját nézőpontból látható kép kidolgozásával. Ez utóbbi esetben ugyanis semmi fölös kapacitást nem fognak hagyni arra, hogy egymásnak bármennyire is "segítsenek" az egyes konzolok.
    Más: az NPC karakterek viselkedésének modellezése még ma is igen jól megoldható akár XT-n is. A megjelenítésük pedig a grafikus motor dolga.
  • versio
    #61
    ezt irtam én:
    "hát nem azt ami a cache meg a memoria között van
    hanem azt ami a cache - ALU- regiszterek között van
    128 bites busznál minden regiszter 128 bites
    az alu is 128 bites stb...
    egyedül a cimbusz térhet el ettöl mert nincs értelme 128 bites cimzésnek"

    ezt meg te:
    "Az hogy egy proci hány bites, általában az általános célú regisztereinek a bitszáma határozza meg."

    mintha ugyanaz lenne nem ????????????????????
  • versio
    #60
    akkor modellezd le az idöjárást egy komplett világban te toronyeszü
    meg mondjuk az 1 millio karakter összes cselekvését számold 1 koszos gépen


  • Rive
    #59
    #58: így működik gyakorlatilag az összes virtuális 'világ' a SW galactic mittudoménmitől a Q3-ig. Amiről az eredeti állítás szólt: "ez annyit jelent hogy a helyi Cell procis egységed mondjuk a PS3 hozzá kapcsolodik több 1000 GRID serverhez, amik segitenek neki egy komplett világ modellezéséhez" nem működik. Ha a modellezésben szorul _segítségre_ a gép, már régen rossz...
  • Borg
    #57
    Végre valaki még megmondta a frankót rajtam kivül is.

    Remélem Version most már elhiszed, hogy hibás volt a gondolatmeneted.

    Az hogy egy proci hány bites, általában az általános célú regisztereinek a bitszáma határozza meg.

    Egyébként nem akartam az intelt jobb szinben feltüntetni mint amilyen, de azért nem szabad alábecsülni a képességeit, ne csak az asztali processzorait nézzétek, regeteg más terméke is van, és igensok szabadalom fűződik az ő nevéhez is.
  • Rive
    #56
    Nem megy. Bár az eredeti példám nem teljesen stimmel (elegendően sok képkocka előnnyel egy real-time mozi számításait össze lehetne hozni: a központi gép csak sorbaszedné a kész képeket), a lényeg mégiscsak benne van.

    A nagytávolságú hálózatok késleltetése túl nagy ahhoz, hogy nagybonyolultságú interaktív környezetet lehessen létrehozni thin-kliensekkel. A 3D mindenképpen a helyi gépre marad: a központi gép maximum tárolhatja az eseményeket, valamint jelezhet a klienseknek, ha valami történt - de a történés megjelenítése a helyi gépen kell, hogy maradjon.

    Amolyan Q3 server módra...
  • mir
    #55
    "A GRID technológia játéktechnikai szempontból semmit sem ér. Olyan, mintha a seti@home-ra bíznának valami real-time mozi renderelését. Ehhez nem készíthető elég gyors és kis késleltetésű összeköttetés, nagy távolságra (>4-5m). "
    éppen most gondolkoztam el ezen, és eszembe jutott, hogy az efféle hatalmas szerverfatrmokat mire lehetne használni. pl. az RPGkben 1 full+Ds világban lehetne a környezet változásait szimulálni vele. mondjuk hogyha te a baltáddal beleversz 1 gerendába, nem a te kis PS3madat kell majd izzasztanod a komoly műveletek elvégzésével, ami ráadásul nagyon komplikált programrészt is igényel, hanem a szerverfarm, ahová mindenki fel van csatlakoztatva, és ha te beleversz a baltáddal a gerendába, akkor rádzuhan a tető. és ezt mindenki láthatja, aki ott van. pl. ha a szerverfarmokat rendesen megcsinálják, akkor szerintem hihetetlen dolgokat meg lehet oldani... képzeld el, hogy 1 olyan világban játszhatsz, ahol télleg mindent szabad, azt, amit csak akarsz. pl. elkezded kapapálni a falat, és lebontod. efféle dolgokra, a virtuális világ szimulálására szerintem nagyon jól használható lenne 1 központi szuperszámítógép.
  • Rive
    #54
    Na, előről.

    #12: Ez az emuláló-áramkör dolog kissé sántít. Vagy számítsd ide az összes 486 után kijött processzort - mindegyik RISC-szerű kikroutasításokat használ a futószalagban -, vagy csak az Itanium alapúakat.
    A K7, K8 architektúra az x86 ISA-ra épül, semmi szüksége szigorúan vett emulálásra. Az Itanium más utasításkészletet használ, így ott valóban szükség van erre.

    #15 és egyébb Version: Azt, hogy egy processzor hány bites, általában a leghoszabb egyszeres integer-konstans méretével számítják, nem pedig az FSB szélességével. Mint már Mir is írta, pl. az Intel használ 256bites adatvonalakat a processzorain belül, valamint a regisztereket összekötő fő adatvonalak sem 32 (vagy éppen 64) bit szélesek. Valamelyik proci pl. összevont regiszter-file-ra épül: egy helyen tárolja az FX és a LP konstansokat (80 bit), a regiszter-file-hoz kapcsolódó adatvonalak szélessége is ennyi - ez tehát egy 80 bites proci? Megsúgom: nem...

    A GRID technológia játéktechnikai szempontból semmit sem ér. Olyan, mintha a seti@home-ra bíznának valami real-time mozi renderelését. Ehhez nem készíthető elég gyors és kis késleltetésű összeköttetés, nagy távolságra (>4-5m).

    #27: az alkatrészek gyártása során az egyik legnagyobb költségnövelő tényező a lábszám emelkedése. 256 bit széles memória-csatlakozás nem hozható ki 4-500 lábnál kevesebből. Ez, ha chipsetben tervezünk, egy ca. 1000 lábas BGA tokot jelent. A gyártási selejt, a chipset drágulása, a több nyák-réteg, nagyobb felület durván öt-tízszeres árat jelentene.
    Megoldható a dolog, persze, de akkor integrált memória-vezérlő kell: ilyenkor összességében elég nagy a megtakarítás. Ez van a GPU-k esetében.

    A Hammer-ben az AMD is azért használhat 128 bit széles külső adatbuszt, mert a memória-kontroller integrált: amennyivel emiatt többe kerül maga a processzor, annyival olcsóbb lehet az alaplap, így a rendszer ára korlátok között tartható.

    #43, Gunman: Jelenleg, ca. a P1-től nincs elég gyors memória-technológia a PC szegmensben. Na és akkor?

    #45: az a hír kacsa, amit pedig előtte írtál, eleve kétségbe vonja, hogy valaha is dolgoztál G4 alapú gépen.
    Megszerkeszteni valóban sokmindent lehet, de 1024 bites utasításokkal működő processzort már a nyolcvanas években _gyártottak_, katonai célokra, igen magas minőségben. Ha pedig az AMD becsődölne, akkor igen nagy valószínűséggel a VIA fogja megvenni.

    #49: itt inkább a hiperkockába rendezett processzorokról van szó, a CNN más téma.

    #50: a selejtarány valóban elég magas (relatív), de azért nem ennyire...

    #52: a tervezés elég sok fázisból áll. Egy új processzor kifejlesztése során a fele termékciklust lefoglalja a logikai tervezés, amikor még sehol semmi áramkör, csak cluster-be kapcsolt gépek garmadáján próbálják áramkörileg leszimulálni a tervezett processzort. Ilyenkor a sebesség úgy pár száz utasítás/másodperc :) Na, ezen vannak túl a SONY-nál.
    A következő lépés az, hogy a kész logikai tervekből kialakítják a chipgyártáshoz szükséges maszkokat, majd utána jöhet a próbapéldányok legyártása.

    Jó hosszú lett...
  • Power
    #52
    1-3 % nagyon gyenge, még az 50% is.
    Valahol valamit elovashattál.
    Vagy lehet, hogy az NV30-ról olvastál? :-)))

    A Cell-nek még a tervei sincsenek kész!!!
    Nem a mai gyártástechnológiához fejlesztik, másrészt több cpu magot raknak 1 chipben ami, azért egyszerűbb legyártani, mint 1 böszmét 1-ben.
  • Power
    #51
    Na akkor néhány dolog.
    1. Jelenleg az IBM-nek van, mind gyártásilag, mind teljesítményileg a legfejletebb procija(ez a Power4 (0,13 + réz + SOI), 170 millió tranzisztor) - 1,3 GHz).
    Tehát, ha a szellemi és technikai erőforrása megvan. Nem ez a kérdés, hanem az, hogy mennyibe fog kerülni.

    2. Az Intel az R&D az alapkutatásban már nem egyszer mutatta a gyengeségét(pl. IA64 - 7-8 éve), viszont a kutatási eredmények gyakorlatban való gyors átültetésében le a kalappal előtte.

    3. A Sony egyedül nem volna képes tartani az iramot, ezért volt szükség az IBM-re, viszont az IBM-nek is szüksége van rá, hogy eladja a vki procit(Sony + Toshiba). A Cell chip többféle lesz, kezdve az mp3 lejátszóktól, a ps3-on át, a nagygépekig alkalmazni fogják.
  • Deus Ex
    #50
    Hm.. a processzorgyártás, és úgy általában a hasonló szintű félvezetőgyártás területén mennyi a selejt hányada? Olyasmit hallottam, hogy a legyártott magoknak mindössze 1-3 százaléka megfelelő.. nekem ez nagyon rossz aránynak tűnik.
  • Deus Ex
    #49
    Morgen.

    Énnekem ez a Cell név a Cellular Neural Networkot juttatja az eszembe.. CNN szervezésű chip bizonyos alkalmazásokban egymaga lenyom egy szuperszámítógépet. Emlékeim szerint a CNN/UM is valamiféle egyszerű, de gyors magok célszerűen összekapcsolt hálózata.

    Akit érdekel a CNN annak:

    http://lab.analogic.sztaki.hu

    Innét el lehet indulni.

    Ja egyébként meg javarészt magyar ötleten alapul. Természetesen.

    További kellemest.
  • braindance
    #44
    hmm, de ez nem az az új 64 bit-es PowerPC processzor ami Power 4-re épül és októberben mutatja be az IBM, ugye... :)

    idézem:
    IBM to unveil 64-bit PowerPC in October

    August 8 - 10:29 EDT  
    IBM will disclose the details of its upcoming 64-bit PowerPC processor at the Microprocessor Forum on October 15, French-speaking Mac site MacPlus notes. The chip is based on IBM's Power4 design and features a vector processing unit similar to what Motorola employs in its 32-bit PowerPC G4 processor. IBM's new processor could theoretically find its way into Macs when it is complete.
  • mir
    #41
    veszett:"hogy lehetne pc-ben ki mondta azt hogy ez x86 -os proci? :) Annyira nem értek hozzá, de ugy tudom komoly hátrány Intelnek-amd-nek hogy kompatibilisnek kell maradnia magával, felülröl, balról, jobbról. "
    senki sem mondta, hogy minde PC x86 procira épül.
    Borg:"2 év sok idő! Gondoljatok csak arra, hogy mekkora ütemben gyorsulnak a mai processzorok is, és mennyi új technológia vár bevezetésre a közeljövöben."
    azért 100*os sebességnövekedáést 2 év alatt új architektúra meg 3 zseni nélkül elég nehéz elképzelni. és amint az a P4en, és az itanium1en látszik(mert a 2 az nagyrészt HP) az intelnek nem sok ilyen van. persze az AMDnek sem.

    "Hát a chipgyártás tapasztalatai nyomán. Egészen pontosan az Intel tapasztalatai nyomán"
    nem hiszem, hogy az intel bármit is taníthatna az IBMnek.

    "a processzor belsö adatbusz szélessége dönti el hogy hány bites a processzor

    intel,amd: 32
    sony 128
    ps3: 256"
    nem.
    1:azt, hogy a proci hány bites, a marketing dönti el. ha a megcímezhető memóriaterület dönti el, akkor P3óta 36bitesek a gépeink. ha az adatbusz, akkor meg 64. ha az elvégezhető legnagyobb integer, akkor 64bit, ha a legnagyobb float, akkor 80. azalatt, hogy belső adatbusz mit értesz? mert akkor a 128 sem elképzelhetetlen, mert a mai procik már nem nagyon hasonlítanak az őskorszak 10Ktranyós futószalag nélküli procijaira, ahol még valóban volt belső adatbusz.
    és a sony PS2ben található(ugyan úgy, mint a PS1ben található 64bites procit) a MIPS technologies gyártja, a saját régebbi(R12K, R6K) processzormagjaiból. pontosabban ő tervezte, és az TSMC gyártja, ha jól emléxem. de az a 128bit az 2 db. 64bites utasítást takar 1 órajel alatt.

    borg írta:"PROCESSZOR IA64 tehát 64bites VLIW (very long instucuon word) architektúrájú."
    nem egészen. EPIC, a célja hasonló, mint a VLIW, de a rugalmasság érdekében nem 1 nagyon hosszú utasításszót használ, hanem sok rövidet, így nem kell mindent mindíg feltétlenül újrafordítni, ha 1 új prociból többet akarsz kisajtolni, mert az autómatikusan több kis packetet dolgoz fel. tehát csak olyan, mint a VLIW, de nem az.

    version:miből gondolod, hogy a cell olyan olcsó lesz? azt nevezhetjük elhanyagolhatónak is. megkockáztatom, hogy 1 EE kerül akár 2-300$ba most...

    borg: annyira nem kell elájulni az inteltől. anyira nem nagy az. ha megnézed a grafikonokat, akkor persze azt látod, hogy 4*akkora, mint az IBM. dez nem ilyen egyszerű. ezek a grafikonok vagy a megtermelt tranyószámot, vagy a megtermelt prociszámot, vagy a félvezetőrészleg forgalmát mérik. namármost az intel az alacsony haszonrésű PCprocesszorokból nagyon nagyon sokat ad el, és ezek összértéke is nagyon nagy, de kicsi a haszonrés, és lehet, hogy az IBM 1/4edannyi forgalmából közel ugyanannyi összejön. az intel az IBMel összehasonlítani elég nagy amatőrség. no nem csak az előbb említett dolog miatt: pl. az IBMnek csak 1 kicsin jelentéktelen rész foglalkozik chipgyártással, mert sokkal nagyobb a bevétele az ezen chipekre épülő rendszerekből, ezek szoftvereiből, és az egyéb szoftverekből. csak a DB2ből több bevétele, és sokkal sokkal több nyeresége van, mint az össze POWER4es prociból.(goto www.ibm.com oszt nézegetni mérleg) hidd el: ha az IBM ki akar valamit fejleszteni, ami 100*olyan gyors, mint bármi más, akkor ki is fejleszti. és ha neki ehez partner kell, akkor nincolyan, aki ne csatlakozna hozzá. amint látod, ottvan a sony, és a toshiba. mindkettő nagyon nagyon nagy és tőkeerős cég, valószínűleg mind a kettő nagyobb, mint az INTEL. ha nagyon odáig akarsz lenni valamilyen nagy IT cégért, akkor talán nem az egyik legkisebbet kellene kiválasztanod. (Fujitsu/Siemens SONY, IBM, CISCO MAtschiusha, ST) ezeknek nem mindegyike hnagyobb, mint az INTEL, de egyikük sem függ annyira egyetlen1 szűkös piactól.
  • versio
    #40
    amugy meg az itanium 10000$ meg egy bukott hardver

    a CELL meg 300$-500$ lesz

    van egy kis különbség
  • Borg
    #37
    Szerinted a cache bus a memória és a cache között van? Jó, tényleg ne vitázzunk erről. Hidd el belátnám ha tévedek, de nem igazán tudsz meggyőzni róla, eddig minden elgondolásod logikailag hibás...

    ...Akkor te meg állj neki olvasni, ajánlom figyelmedbe a #33 itaniumról szóló bekezdését.
  • versio
    #36
    te balfék !!!

    a BELSö busz tudod mit jelent????

    hát nem azt ami a cache meg a memoria között van
    hanem azt ami a cache - ALU- regiszterek között van
    128 bites busznál minden regiszter 128 bites
    az alu is 128 bites stb...
    egyedül a cimbusz térhet el ettöl mert nincs értelme 128 bites cimzésnek

    olvasni tudsz de értelmezni azt már nem vazza

  • Borg
    #35
    Én is valami ilyesmi összeállást gyanitok (AMD,Intel, IBM, HP stb közül valakik..).

    Csak az a gáz, hogy mindössze a terv van készen. És köztudott, hogy a legtöbb ilyesmi a technoligiai/kivitelezési/gyártási nehézségeken bukik el, vagy legalábbis szépen átalakul, a kor technológiájához képest....
  • Laci73
    #34
    Uraim, hűvös fej!
    Erre bizony két évig várni kell. Bár nekem hirtelen erről az egészről a 3D számítások "netesítése" jutott eszembe, amikor is bejelentették hogy a 3D számítások zömét az összekapcsolt gépek (konzolok) egymást közt elosztják. Kb. ezen tudtam ekkorát ámulni. Éppen ezért ha csak a SONY mondaná, nem hinném el :), de az IBM-ről elhiszem hogy képes volt kierőlködni magából valamit. Amúgy az IBM elsősorban nem chip-gyár, hanem komplett rendszereket és megoldásokat kínáló, és a kutatás-fejlesztésben érdekelt cég. Annak idején, amikor a PC-t megalkották, egy "külsős" cégtől vették a processzort - ez volt az Intel, és az ő 8086 prockója (csodálták is sokan, hogy miért nem a Motorola 68000 processzorát választották, de ez egy másik sztori) Az IBM hátán sokan felkapaszkodtak!!! Gondolok itt a szoftverbárókra is... Na, de a lényeg a lényeg: az IBM fejlesztései és kutatásai valóban lenyűgözőek. Elképzelhető hgy ők megalkottak egy ilyen processzor-architektúrát, csak a gazdaságos gyártással (Csíkszélesség!!!) várniuk kelett ezidáig. Én úgy képzelem, hogy a mostanában kissé (pénzügyileg) visszakullogó IBM mögé anyagilag állt a két másik cég. Egy ilyen hiper PS3 pedig nagyobb reklámot jelentene a cégnek, mintha a PC vagy szerver-piacon jelenne meg egyedül.
  • Borg
    #33
    Ez LOL már tényleg:)

    "Quad QuadWord Wide (256bit) cache data bus provides extremely high througput on read/store operations"

    Ez csak egy idézet volt a Pentium III Tualatin szerver verzió doksijából.

    Version te annyira hülye vagy hogy az már fáj, és ráadásul görcsösen bizonygatod az igazad, mikor tök hülyeség amit irsz.

    Az Itanium 64 bites, 133 MHz-es "double pumped" buszt használ, amelynek maximális sávszélessége 2,1 Gbyte/sec, az Itanium 2 busza 128 bites és 200 MHz-en működik, elméleti maximális adatáteresztő képessége 6,4 Gbyte/sec. ETTŐL MÉG MINDKÉT PROCESSZOR IA64 tehát 64bites VLIW (very long instucuon word) architektúrájú.
    További specifikációkért ajánlom a tájékozódást, mielött megint a hülyeségeidet hajtogatod it..
  • versio
    #32
    a processzor belsö adatbusz szélessége dönti el hogy hány bites a processzor

    intel,amd: 32
    sony 128
    ps3: 256
  • Borg
    #30
    már ha eljutsz a 8.ig- két PS3 rulez között...
  • versio
    #28
    szerintem tanulni neked kellene:)))

    a CELL lesöpör mindent és ez igy van jol !!!!!!
  • Borg
    #25
    Akkor most nem kötök beléd.
    Majd valaki felvilágosit téged a témából, mert alapvető dolgokban el vagy tévedve.
    Talán majd 8.-ban számtech fakultáción megtanulod...
  • Borg
    #23
    Nem mondta senki hogy körülötte forog a világ.

    De jelen pillanatban ő a világ legnagyobb chipgyártója (igen még az IBMnél is nagyobb), és elég badarság lenne alábecsülni...

    Fejlesztés, pénzügy... szerinted ezek nem függenek össze? Pénzügy nélkül nincs fejlesztés... és az intel per pillanat nem éppen kifogásolható anyagi helyzetben van... szóval lehetne vitatkozni arról, hogy kinek van nagyobb anyagi kerete kifejleszteni egy ilyen procit..
  • versio
    #22
    szerintema hülye te vagy

    mivel a 256 bites proci nem nagy szám
    mivel a ps2 procija 3 éves és 128 bites

    az intel amd meg kullog a 32 bitjével :LOL
  • Borg
    #20
    Látom te zsir hülye vagy a számitástechnikához. Tudod te mit jelent az hogy 256bit?
  • versio
    #16
    és a másik fegyver az IBM -SONY kezében

    hogy GRID technologiára tervezik a procit

    ez annyit jelent hogy a helyi Cell procis egységed mondjuk a PS3 hozzá kapcsolodik több 1000 GRID serverhez, amik segitenek neki egy komplett világ modellezéséhez

    majd megnézzük meddig jut az intel csoda 2 év mulva max 5-8 Ghz.ig :LOL
  • versio
    #15
    ja

    aki még nem tudná a CELL 256 bites lesz

    szoval jöhet a hammer meg a többi loszar a 64 bitjével :LOOL
  • Borg
    #13
    "persze az intel amd felkötheti magát utána, na meg az egsz pc-s ágazat :DDDD"
    pont erről beszéltem, hogy ez egyátalán nem igy van...
  • Borg
    #12
    Ez részben igaz. Ne felejtsd el, hogy már a mai processzorok SEM x86 procik. A mai x86-64(a nagy mitosz, a hammer) és az IA64 64bites procik is mindössze kompatibilisek egy emuláló áramkör segitségével, ami a hammerben ÁLLITÓLAG sokkal jobban sikerült mint az Itaniumban.

    SZVSZ a piac hozzáállása miatt ez a 64bites mizéria születésétől fogva halálra van itélve, nem fog ez elterjedni még, hiába jönnek ki az opteronok stb.. nem hiába nem forszirozza az intel sem az itanium szerű desktop procik megjelenését, azért a marketingeseik sem hülyék, látható hogy ennek MÉG nincs létjogosultsága... (talán az opteronnak több lesz...)


    Persze ez csak az én véleményem, majd a történelem megmutatja mi lesz:)

    Meg azért az sem elfejetendő, hogy sok más processzor techológia is a tervező asztalon van, nem csak ilyen lineáris szinkron órajeles megoldások.
    Vannak olyanok is, amik tényleg merőben mások. Van egy cég pl aki aszinkron (órajel nélküli - elég kaotikus) processzorokat fejleszt már egy ideje, és azt állitják hogy jóval nagyobb teljesitményre lehetnek képesek, mint egy hagyományos proci. Vagy a nanotechnológia, optikai megoldások, és egyéb biotechnológiai cuccok. Szóval ez a cell hiába hangzik jól, szerintem akkora nagy durranás nem lesz, mint amekkorának tűnik. Főleg a dátuma miatt...
  • versio
    #11
    az IBM nem hazudik
    nem engedheti meg magának

    amugy egy risc proci 5-10 millio tranyobol áll
    ha 16 cpu-t raknak 1 chipre
    az 160 millio tranyo

    az nvidia uj chipje 120 millio tranyot tartalmaz

    és ez a Cell proci 2 év mulva jön ki
    semmi hihetetln nincs abban hogy ilyen gyors lesz a CELL

    persze az intel amd felkötheti magát utána, na meg az egsz pc-s ágazat :DDDD