22
  • Epikurosz
    #22
    Nem töröltek semmit, mert a számozás folyamatos. Vagy nem küldted el, vagy másik fórumba írtad, de elfelejtetted.
  • Dracad
    #21
    Ray Kurzweil megmondta, Ray Kurzweil megmondta

    2030-ra meg lesz az emberi AI és legyőzzük az öregedést, váháááhááá
  • Sanyix
    #20
    biztos mert nácirászistáhomofóbállamellenesterroristaholokauszttagadó voltál :)
  • KasztnerTokman
    #19
    Elárulná valaki miért törölték a hozzászólásomat?
  • kvp
    #18
    "Nem tudsz egy tranzisztorból álló kritikus utat létrehozni egy digitális áramkörben."

    Viszont kettobol allot mar igen. Ha a gep asszociativ cache memoriaval rendelkezik, tovabba egy fuggoseg generalo program megjelolte elore az utasitasokat, akkor lehetoseg van az out of order vegrehajtasra. Az intel core processzorok jelenleg is ezt hasznaljak, tehat a linearis programbol gyartanak egy munka tablat, amiben ha minden bemeno adat adott, akkor a cpu egy alu-ja kiveszi azokat es kiszamitja az eredmenyt, majd visszapakolja azt a cache-be/regiszter terbe. Igy lehetoseg van az egyszerre vegrehajtott utasitasok szamanak novelesere, azonos orajel mellet, amitol a linearis vegrehajtasi teljesitmeny is no. Tehat nem a pipeline-ok hossza, hanem szama no, mindezt a magok szamanak novelese nelkul. A masik lehetseges megoldas az architektura egyszerusitese lenne, amivel orajelben elvileg fel lehet menni a tranzisztorok maximalis sebessegenek kb. a nyolcadaig, tehat jelenleg olyan 40 GHz-ig.

    Rontgenes maszkolast probakeppen mar itthon is alkalmaztak, meg a szocialista idokben es mukodik. A szilicium-germanium felvezetok nagy sebesseget es alacsony kapcsolasi feszultseget meg mar nagyon regota ismerik, az elso erzekenyebb detektoros radiokban is germanium dioda volt.

    A sugarvedelem nagy problema vagy arnyekolni kell, vagy elfogadni, hogy a gepek ugyanolyan veletlenszeruen mennek tonkre mint a hagyomanyos villanyegok. (mivel a ket jelensegnek azonos az eloszlasi fuggvenye)

    A jovo valoszinuleg az optikai rendszerekben van, mar most is leteznek igeretes probalkozasok tisztan fenyt hasznalo szamitogepek letrehozasara. Ezek nem kvantum szamitogepek, csak sima optologikai rendszerek.
  • Sanyix
    #17
    az ájbíem évente átlagban 3szor feltalálja azt a dolgot ami örökre megváltoztatja a számítástechnikát... aztán mégsem, sőt semmi sem lesz belőle.
    Az ájbíem olyan mint egy bulvárlap, szenzációhajhász...
  • nkmedve
    #16
    Egyetértek.
    A helyzet az, hogy a tranzisztorok maximális frekvenciája és a proci maximális frekvenciája nagyon távol áll egymástól. Nem tudsz egy tranzisztorból álló kritikus utat létrehozni egy digitális áramkörben. Még egy egyszerű áramkörben sem, nem hogy egy X86 prociban ami meglehetősen komplex.
    Lehet emelni az órajelt, de csak úgy hogyha csökkented a kritikus utat, ami a feldolgozó pipeline hosszának növekedésével jár.
    Ide egy nagyon jó példa a Netburst. Itt a pipe hossza elérte a 30 szakaszt (31 volt ha jól emlékszem) ami a jól ismert magas órajeleket megengedte. De viszont hiába volt ilyen magas az órajel, teljesitményben azonos órajelen feleannyit tudott a proci mint egy fele olyan hosszú pipe-os Pentium M vagy Athlon. Akkor ezt engedte meg a technika, és most se járunk olyan sokkal előrébb (csikszélesség csökkenésével kicsivel jobb lett a helyzet).
    Most is tudnak 5-6GHzes procit csinálni simán ha hosszabb pipeline-t csinálnak, de ettől még a számitási teljesitmény elég harmatos lesz (viszont a hőtermelés, fogyasztás szépen emelkedhet). Mindenki tanult a P4 esetéből, azóta inkább a gyártók próbálják tartani a 16-20 szakaszos pipeline-nal sziliciumon elérhető 2-4GHz-et, egyre több magot belepakolnak a tokozásba, és remélik hogy lesz program ami ezt ki is tudja használni. Ezt a frekvenciát sikerülhet megtartani a magok számának növekedésével is ha csökkentik a csikszélességet.

    Persze új anyagokkal változik a helyzet, ahogy irtátok a germánium alapú félvezetők biztató tulajdonságokkal birnak késleltetés és fogyasztás szempontjából. Reméljük hamarosan elterjednek az ilyen technológiával készült chipek s akkor kapunk 4GHzes 8magos procit 20W-os fogyasztással.
  • marcee
    #15
    Nekem is a 10GHz volt az első, ami eszembe jutott.
    Éppen nemrég figyelmeztetett az IBM, hogy 22 nanó alatt következnek olyan problémák, amire még nincs orvosság, persze kutatják.
  • halgatyó
    #14
    A méretek csökkenésével megjelenik egy olyan probléma, aminek a megbízható megoldását nem látom: az anyag sugársérülései egyre észrevehetőbbé válnak.
    A környezetünkben ugyanis van egy háttérsugárzás (főleg kozmikus eredetű, "mű" mezonok és szekunder részecskéik) ami a földfelszínen kb. 30 nSv/h.

    Ha repülőgéppel felrepülümk a sűrű légkör főlé, akkor ez a sugárzás jelentősen megnő.

    Ennek a hatására a nagyon parányi struktúrák maradandóan megváltoznak (és van egy gyakoribb, de nem maradandó, hamis jeleket generáló effekt is).
    Vagyis az ennyire apró struktúrákkal felépült számítógép -- minden tartalék tranzisztor meg egyéb tartalék meg minden hibajavító csoda-algoritmus ellenére is -- idővel bizony tönkremegy.
    Ez az idő ráadásul sok véletlenszerű elemet is tartalmaz.
  • 5c0rp330n
    #13
    szerintem ugorhatnák ezt a technológiát már akkor és fejlesszenek kvantumprocesszorokat :)
  • shabba
    #12
    Az a gond hogy ezeknek a tranzisztor cut-off frenvenciáknak, semmi közük nincs egy cpu valós órajeléhez. A ma használatos chipeknek, akár egy olyannak is mint ami a gépedben van a tranzistor cut-off frequency-je 200Ghz körül van, de attól még a procid órajele nem lesz ennyi max 3-4Ghz körüli.

    A III-V tranzisztorok cut-off frequency-je magasabb 400Ghz körül vagyis közel duplája a ma használatos tranzisztoroknak. A teoreikus elméleti fizikai maximumuk pedig 1Thz körül van. A graphen tranzisztorok teoretikus elméleti fizikai maximuma is 1Thz körüli, de a jelenleg elért legmagasabb cut-off frekvenciájuk 26Ghz körüli, ami a ma használt tranzisztorok már az múlt évtized eleje felé is tudtak, szóval ott még a kutatások igen korai fázisában tartanak.

    A III-V tranzisztorok kutatása előrébb jár, ott már a jelen évtized első felében 400Ghz körüli cut-off frekvenciákat értek el a fejlesztők, nem csak az IBM, máshol is. Ezek a tranzisztorok úgy a következő évtized második felébe jelenhetnek meg és válthatják le a jelenlegi megoldásokat, szóval ezek még odébb vannak.

    Viszont az előnyük nem a magas frekvenciában van. Hisz a cut-off frekijük dupljája a jelenlegi megoldásoknak, így cpu órajelben is hasonló dupla órajelet lehetne elérni azonos hőtermelés mellett. Ez viszont nem jelent túl nagy előnyt. Ellenben igen alacsony feszültség mellett is üzemelhetnek 0.3-0.5V, így pedig azonos teljesítményt akár tized akkora fogyasztás mellett is elérhetnek. Ez a tulajdonságuk sokkal érdekesebb, hisz így alacsony fogyasztású, de nagy teljesítményű chipek is gyárthatók, vagy azonos hőtermelés mellett akár 10x több magot összepakolva akár 10x nagyobb teljesítmény is elérhető, ami messze több mint amit órajel duplázás mellett el lehetne érni.

    Az órajel emelgetések trendje ennek az évtizednek az első felének végére lezárult, azóta párhuzamosság növelése a teljesítmény növelésének az új eszköze. És ez a következő évtizedbe sem fog megváltozni. A cél most már az hogy minél kisebb méretű és viszonylag mérsékelt órajelű, de alacsony feszültségen és fogyasztással üzemeltethető magokból minél többet szorítsanak bele egy adott fogyasztás keretbe. A magok számosságának növelése az órajelet a jővőben csökkenteni fogja, hisz alacsonyabb órajel mellett sokkal kisebb feszültség is elegendő lehet. A fogyasztás pedig az órajellel lineárisan, a feszültséggel pedig négyzetesen csökken. Így egy kellően jó teljesítményű, de viszonylag kis fogyasztású magból kellően sokat lehet egy adott teljesítmény keretbe beszorítani.

    Ezt a tendenciát pl. már most is meg lehet figyelni. 2 magos Netburst még elment 3.8Ghz-ig, 4 magos Core2, Nehalem 3.4Ghz körül megállt, egy 6 magos Dunnington, Opteron Hexa Core, Gulftown már 3Ghz alá szorul, egy 8 magos Nehalem-EX 2.4-2.6Ghz körüli maximumra lesz majd képes, egy 2x6 magos MCM Opteron órajele pedig alig lesz már 2Ghz fölött.
  • Alfa Of NS
    #11
    Mondjuk mai azt illeti egy átlag mai processzor az átlag feladatokra bőven elég most is, csak a szoftvert kell már fejleszteni.

    Persze van egy két teljesítménycentrikus dolog, de az csak kis szelete a dolgoknak.
  • Sir Ny
    #10
    az IBM Tesla nyomdokain halad tovább.
  • readswift
    #9
    netburst fhó lhájf intel bhörszt yó bics ezzz
  • Frayer
    #8
    At room temperature, the chip operated at 350 GHz, slightly slower than the record but still over 87 times faster than the fastest commercially available chips. According to IBM, SiGe chips operate faster at very cold temperatures.

    "This groundbreaking collaborative research by Georgia Tech and IBM redefines the performance limits of silicon-based semiconductors," said Bernie Meyerson, vice president and chief technologist at IBM. "IBM is committed to working closely with our academic and industry partners to deliver the insight and innovation that will enable a new generation of high-performance, energy efficient microprocessors."

    The two organizations said that these ultra-high performance chips could have several important uses, including commercial communications systems, defense electronics, space exploration, and remote sensing.


    -- cpu-kat gyártsatok már belőle, akkor mindenki boldog lenne. Még az is akinek két annya van.
  • Frayer
    #7
    Szerintem lehetséges az a 4nm.
    Eddig fotólitográfiát alkalmaztak, ahol a legkisebb kialakítható objektum az áramkörben olyan nagy mint a hullámhossza a fénynek amivel levilágítják a hordozó felületét.
    Most majd jönnek röntgentsugarak, az ultra rövid hullámok helyett, aztán meg az extra rövid hullámok, amiknek már csak alig pár nm a hullámhosszuk.

    Ezután jöhetnek az elektronnyalábok, amikkel precíz felületek hozhatóak létre, elvileg, és gyakorlatilag, de vagy idő igényes a folyamat, vagy nagyon nehéz kontrollálni az elektronokat, hogy precízen párhuzamosan haladjanak.

    Az elektronok nagyon érzékenyek a mágneses terekre.
    Pá nanométer eltérés, akár a föld apró mágneses ingadozásából adódóan, és már hibás részegységet hoz létre.

    Meg egyébként is, az a 4 nm már igencsak feszegeti a nagyobb molekulák mérettartományát.
    Nemtom milyen anyaggal lehetne megoldani.

    Az IBM tudott csinálni olyan anyagokból is csippet, amivel extrém hűtéssel 500 Ghz-et tudtak elérni. Szoba hőmérsékleten meg hozta a 300 ghz-t.

    Kár hogy nem gyártanak ilyet a kommersz piacra processzornak.
  • zola2000
    #6
    Én azt bírom, hogy a cpu órajel először csak nőtt, aztán 3 ghz körül megállt, teljesítményt növelni, már csak a sokmagos chipekkel tudnak, de mostanában, már nem hogy három, hanem olyan 4x2 ghz cpuk vannak a legjobb pckben.
  • nkmedve
    #5
    4nm? Na azt megnézzük, kicsit nagyot akartak mondani szerintem. Állitolag már a 22vel lehet rengeteg gond, az is valószinű fog csúszni s minél lennebb mennek annál nehezebb és drágább lesz a fejlesztés.
    De nembaj, majd Intel megold minden gondok, sőt a fizikát is megkerüli.
  • Frayer
    #4
    Én nem hagytam volna, hogy egy ilyen surmó taníthasson.
    Megalomán és kuki lover is egyben.

    Vissza kell verni a hőt.
    Nem szabad hagyni, hogy az ilyenek elszaporodjanak.
  • NEXUS6
    #3
    Ja, a gimis magyar tanárom mondta mindig, hogy az ember a világuralom alatt ne adja. Egy buzi faxxopó volt (szó szerint), szal az ő esetében nem tudom hogy hogyan értette ezt pontosan.
  • Sanyix
    #2
    én a világuralmat célzom :)
  • NEXUS6
    #1
    A 4 nm-es P4 már isten bizony 10 GHz-en fog menni!