29
  • Sanzistift
    #29
    Egyetértek veled is, meg item-mel is.
    Tény, hogy a mandró (meg a haverjai) ősei kb 2500 évvel ezelőtt bukkantak fel a sivatagból, mint pajeszosok.

    Az is tény, hogy valszeg az agya élteti csak, de ha csak a két kezére lenne utalva, kurva gyorsan felfordulna.

    Mondom én, aki mindig a két keze munkájából élt meg, de azért elnavigálok az ő területén is. Közelebb a negyvenhez elprogramozgatok én még olyan dolgokat, amikhez a kis kocka hozzá sem tudna köpni.

    Nem vagyunk egyformák, ezt figyelembe kell venni...
  • acdc
    #28
    Ennek a gyereknek a seggen levo szornek is tobb esze van mint neked.Foggd az amds abit lapodat a linuxoddal egyutt es huzd le magad a vecen.
    Te mutass fel valamit es ne csak a cs aimbootjat futtasd rajta.
  • rigidus
    #27
    > A Sun-nál debugoltam nagyszervereket

    Megegy okkal tobb, hogy utana olvassal elmeleti dolgoknak es ha mar leirod akkor az jol definialt legyen, kulonben nem hiszik el.
  • roliika
    #26
    Köszi...de talán nincs rá szükségem. A Sun-nál debugoltam nagyszervereket, talán képben vagyok. :D
  • rigidus
    #25
    Ez kb. olyan cikk volt mint a multkori "vilag elso 64 bites szervere"...
  • rigidus
    #24
    > Szóljon, aki nem tud magához térni a döbbenettől...

    Hat ja, en is kapkodtam az infuzios uveg utan.
  • rigidus
    #23
    Rolika, megint megvialgosodtunk. Semmi rosszmajusag csak megcsinaltad az estemet... :D

    Na, gyorsan nezzuk at es korrigaljuk:
    A másik ok a clusterbe rendezésnek a redundancia.

    Telepeket kismillio felhasznalasi teruletre epitenek megannyi kulonbozo igeny mellett. A hardveres redundancia csak egy lehetseges igeny - sok massal szemben vagy parhuzamban. Nem mindig szempont a hw redundancia es a hotplug foegysegek. Ez altalaban allando uzemu telepeknel szamit ahol a magas rendelkezesreallas kritikus szempont.

    Ugyanez megforditva is igaz, a rendkivuli teljesitmeny sem mindig szempont es nem a hardvergyartotol lesz egy telep telep, hanem azoktol az alkalmazasoktol amik az utemezest, elosztast, IO muveleteket es a celfeladatot elvegzik. Tehat hiaba dugdosol ossze 500 T2-est 10Gb/s buszon ha meg nyamvadt operacios rendszered sincs amivel bebootolod oket - atobbirol nem is beszelve.

    A "szuper számítógép" több clusterből épül fel és ez nem véletlen(ki gondolta volna).

    2. Akarod mondani a klaszter epul fel tobb node-bol...
    telep = klaszter

    > A fő ok, hogy az alaplapon az adatátviteli sebesség még a 32processzoros Sun szervereknél is korlátozott

    Mint egyebkent az eletben minden korlatos. (Kiveve az emberi hulyeseg. Ezt nem Rad ertettem, csak most hirtelen eszembe jutottak "emberi" "talalmanyok" :D )

    > A clustereket optikai kábellel...4 gigabites fiber chanell kábellel közik össze, hogy a clusterek között a feladatot megosszák.

    Az autoknak pedig 1.50m hosszusagu motorhazteteje.

    PS: Ha ebbol akarsz szakdogat irni akkor alaposan olvass utana mert ez kevesnek tunik. Talaltam itt Neked egy magyar nyelvu oldalat ahol nagyjabol leirtak a lenyeget. Ha valami nem tiszta akkor PM nekem es kerdezz. ;)
  • dez
    #22
    Akkor már jobb a cikkbeli megoldás, ott nem egy x16-os buszon osztozik több kártya, hanem GPU-páronként van egy x16, de legalábbis x8, és így van ugyanúgy összesen 8 GPU.

    "az idealis mag szam az 1024. (es veletlenul pont annyit hasznalnak)"

    Itt véletlenül nem shader egységre gondolsz (ami valójában 128db 8-way SIMD egység, egyenként 8 szálra használva, így látszólag scalar egységek)?

    "Az a ps3 cell cpu-ja, ott nincs rendes 64 bites pontossag."

    Ezt meg honnan szeded, vagy inkább te találtad ki? Nem hinném, hogy igaz lenne, nem hallottam még róla, miközben használják tudományos célra is.

    Egészen véletlenül nem azzal kevered, hogy a jelenlegi Cell verzió az SP FP (32 bit) ~220 GFLOPS-ához képest csak 14 GFLOPS-t hoz DP FP-nen (64 bit) (ami még mindig nem olyan nagyon kevés)?

    Hallottál a Cell új verziójáról (PowerXCell)? Ez már 100 GFLOPS-t hoz DP FP-ben - többek között az IBM Roadrunner nevű új szuperszámítógépében kerül majd felhasználásra (ami egy ideig új csúcstartó lesz).

    Arról ugyancsak nem hallottam, hogy a jelenlegi Nvidia GPU-k 64 bitesek (mármint Double Precisiont natívan tudók) lennének (meg az ATI-k sem). És ezt honnan szedted?
  • kvp
    #21
    "Az Nvidia tavaly óta kínál tudományos célokra blade szerver dobozokba rakott grafikus kártyákat, és van hozzá fejlesztői szoftverkörnyezete is (CUDA) - bár fejlsztők szerint kicsit bénácska még."

    Van egy kulso dobozos valtozatuk is, ott egy pcie16-os buszt hoznak ki adapterrel es optikaval egy kulso hazba es ott osztjak szet a 4 kartya kozott. Ez a megoldas 8 magot (4*2-ot) tudott egy alaplapra hozni, meghozza kulon bovito nelkul es teljes szavszelesseggel. Nem forradalmi, de otletes. Egyebkent nekik boven eleg a 16 bites fixpontos (integer) precizitas is, mivel a hasonlo feladatokra regebben ilyen hardvert hasznaltak, viszont az altaluk felvazolt kepmerethez az idealis mag szam az 1024. (es veletlenul pont annyit hasznalnak)

    "olyasmit is olvastam, hogy nem is a cuda-val van a legtöbb gondjuk, hanem hogy nem elég pontos a hardver. pl nem támogatja a 64 bites lebegőpontos számokat mivel ugye 32 biten már minden látványelem jól néz ki, ezért aztán nagy pontosságot igénylő alkalmazásoknál vagy trükköznek, vagy meg kell elégedni a 32 bites pontossággal."

    Az a ps3 cell cpu-ja, ott nincs rendes 64 bites pontossag. Az nvida eseten csak a kerekites pontatlan (a legalso 1 bit) es a gyoknvonas kritikan aluli (kevesebb mint 32 bites) Tobbek kozott ezert sem tudnak kihozni rendes dx10.1-es gpu-t, mert ezeket is ki kellene javitaniuk.

    ps: Azert az jo poen volt, hogy nalluk megy full-on a crysis... (raadasul a jatek alatt amikor odament a srac csak 1 kartya volt aktiv)
  • Dinosaur
    #20
    Csávó kiharapja a pókot a sarokból! Ilyen kapafogakat vaszki!!!
  • torjoz
    #19
    Egy fogászati kezelés nem ártott volna a videó előtt! Egyébként meg nVidia reklám(ATI már az x1900-as szériával is képes volt a folding@home projektbe számolási teljesítményt vinni a GPU-val)!
  • waterman
    #18
    olyasmit is olvastam, hogy nem is a cuda-val van a legtöbb gondjuk, hanem hogy nem elég pontos a hardver. pl nem támogatja a 64 bites lebegőpontos számokat mivel ugye 32 biten már minden látványelem jól néz ki, ezért aztán nagy pontosságot igénylő alkalmazásoknál vagy trükköznek, vagy meg kell elégedni a 32 bites pontossággal. vagy csak félrefordítottam annó valamit?:)
  • dez
    #17
    Nem olyan nagyon különleges ez, inkább kicsit bulváros, a címmel együtt. :) Az Nvidia tavaly óta kínál tudományos célokra blade szerver dobozokba rakott grafikus kártyákat, és van hozzá fejlesztői szoftverkörnyezete is (CUDA) - bár fejlsztők szerint kicsit bénácska még.
  • Flatron123
    #16
    Ezt nem értem, magyarázza már el valaki: Mért olyan nagy cucc, hogy grafikai probléma megoldására grafikus kártyát használ? A grafikus kártyákat már jelszófeltörésre és adatbázisrendezésre is használják akik nagyon unatkoznak, nem igaz, hogy ilyen eddig senkinek nem jutott eszébe...
  • item
    #15
  • who am I 7
    #14
    az isten is kockának teremtette baxátok meg ááááááá

  • dez
    #13
    Neki a sport az egér emelgetése. :D
  • item
    #12
    Durva ez a csávó, ő a megtestesült hiperkocka Figyelitek milyen vékony és hosszú keze van, ez nem ember az hótziher!
  • dez
    #11
    Természetesen van már 4 PCIE x16 slotos alaplap, mármint nem fejlesztett egyet gyorsan a srác. Csak eddig 4db 1-GPU-s, vagy 2db 2-GPU-s kártyát volt értelme benne használni, mert SLI-ben csak 4 GPU-t lehet összekötni. Itt meg 8db van, de nem SLI-ben, mert nem játszani akar, hanem saját kódot futtatni (vélhetően CUDA alatt), ahhoz meg nem kell SLI.
  • egyember1
    #10
    imádom az akcentusát.
  • dez
    #9
    "A belga szakember a Folding@home programra utalt"

    Természetesen nem csak arra, már több területen alkalmazzák a Cellt (PS3 nélkül).
  • uniu
    #8
    A csóka szerint ez az első ilyen gép 4 kártyával.
  • BCS pixel
    #7
    nem vagy egyedül :)
  • haxy27
    #6
    Az vajon milyen alaplap hogy 4db 16x PCIE slot van benne. eddig csak olyat láttam amiben 3db PCIE slot van.

    Bár nem tom mért nem olyat gyártanak amelyiken 8db 16x PCIE slot van. az lenne ám a nagy teljesítmény ha meg pakolnák.
  • roliika
    #5
    Aham...vaalmit azért csávesz elfelejt.

    A "szuper számítógép" több clusterből épül fel és ez nem véletlen(ki gondolta volna).

    A fő ok, hogy az alaplapon az adatátviteli sebesség még a 32processzoros Sun szervereknél is korlátozott, bár többszöröse mint 1 akármilyen szerver PC busz sebessége. A clustereket optikai kábellel...4 gigabites fiber chanell kábellel közik össze, hogy a clusterek között a feladatot megosszák.

    A másik ok a clusterbe rendezésnek a redundancia. Magyarul egy szuperszámítógép csak úgy szuper, ha egy procija meghal és az menet közben cserélhető.

    A fent említett okok miatt a PCből készült szuper számítógép elnevezés oka fogyott, értelmetlen. Az alaplap nem tudja ennek a sok processzornak az adatmennyigégét átvinni. Bármilyen számítást nem lehet vele elvégeztetni.
  • DarthPeeter
    #4
    Nekem is olyan monitorom van :D 22"-osban :) ( ezt meg kellet osztanom :D ) Am az a csávó sztem kockának született, ehh szörnyű.. Ez a 4 9800 meg miért is olyan nagy szám? :D
  • waterman
    #3
    különben ettől a videótól rémálmaim lesznek.
  • waterman
    #2
    pont ezért csinálta az nvidia a cuda-t. szerintem csak az arányok miatt lett belőle hír, 4 videókártya vs. 175 proci..
  • Axon
    #1
    Szóljon, aki nem tud magához térni a döbbenettől...