7
  • t_robert
    #7
    Azért messze nem természetes állapot, hogy egy grafikai kártya 500-700 wattot fogyaszt. Nem is olyan régen úgy 8-10 éve még olyan videó kártyám volt, ami beérte a PCI buszból felvett áram mennyiséggel nem kellett rácsatlakoztatni 100 vezetékből álló külön tápcsatlkaozást 1 KW-os tápegységből. egy RX 460 simán beérte a PCI busz áram mennyiségével. Amig az a tendencia, hogy a kártyák egyre magasabb órajele igényelnek egyre több feldolgozó egységgel és regiszterrel egyre nehezebben hüthető eszközöket állítanak elő . lassan lesz a gépben egy tápkábel, amit a legközelebbi távvezetékhez kell kihúzniEgyszer nár elindultak ezen az úton a CPU-k tekintetében ez volt az intel duocore procik kora. . :) Mikor megakadtak már a CPU magok órajel emelélsével. Nem igen tudták már rendesen hűteni a 3,2-3,4 Ghzen felül a CPU-kat mert annyira melegedtek. Aztán végül csak megoldották, mert ma már simán fel boostol egy cpu akár 6 Ghz fölé is. Akkor teljesen át kellet tervezni a proci magot. Az lett a core 2 duo CPU-k
  • duke
    #6
    orulet hogy normalisnak gondoljak ezeket az 1000 wattokat fogyaszto kartyakat.
  • nirriti
    #5
    https://youtu.be/kb5YzMoVQyw

    Nem a kábel az igazi gond, maga a vezérlő áramkör van szarul tervezve.
    Buildzoid elmagyarázza, hogy 3090 óta mi változott a tervezésben úgy, hogy nem kell diploma elektronikából, hogy mi is megértsük. Talán majd a 60-as szériában kezdenek valamit ezzel a problémával addig meg marad a 3080 a gépben.
  • Kissssss0 #4
    valószínűleg a következő két NV gpu generáció is ugyan ettől fog szenvedni, szokjatok hozzá.
  • kvp
    #3
    Az egyetlen gond az, hogy csak 10% tartalekot hagytak az alkatreszek abszolut maximuma es a tenyleges elvart aram kozott. Ez azt jelenti, hogy ha tobb mint 10%-al elter egy alkatresz (ami meg a tolerancia hataran van), akkor tulterhelodik. Egyszerubb lett volna, ha a 4 darab 8 tus csatlakozot egy darab 32 tusre cserelik, vagy ha az tul nagy, akkor a 12V-os tapot 24V vagy 48V-osra. A 48V-os tap pl. megoldana a vezetekek kerdeset is, mert sokkal kisebb atmeron tudnanak sokkal kisebb veszteseggel ugyanannyi energiat atvinni. Persze specialis 48V-os tapegysegek kellenenek ezeknek a kartyaknak, de megoldodna a problema. Meg az USB-C is kepes 48V-os modban mukodni azokkal az apro dugokkal. Ehhez kepest az NVIDIA nem volt kepes egy rendes tap szabvanyt kitalalni es csak az aramot noveltek eppen hogy a tulterheles hatara ala. Aztan ha picit elter valami vagy csak picit poros a csatlakozo vagy elmegy a haz elott egy teherauto (lasd: rezonancia), akkor mar olvad is le minden.

    ps: A mostani 12 tus csatlakozoval es 48V-os tappal 1728 wattot is at tudnanak vinni gond nelkul. Igy viszont csak 432 wattig stabil a megoldas, ha minden 100%-os, barmifele tartalek nelkul. Szemely szerint en 12V-al 240 watt fole nem engednem ezt a csatlakozot. Ehhez kepest van amikor 600 wattot nyomnak at rajta. A ceg nem igazan akarja bevallani, hogy alulmereteztek az egesz megoldast es biztosan nem akarnak atallni az egyedi, direkt ezen videokatyak szamara gyartott tapegysegek hasznalatara. Pedig ez lenne a korrekt megoldas. (ha nem akarnak 32 tus csatlakozokat hasznalni, ami a mostani feszultsegszinten az abszolut minimum elvaras lenne)
  • barret
    #2
    OHM törvénye nem viccel! Főleg ebben a végletekig kispórolt világban. Semmi meglepő nincs ebben.
  • Gabbbbbbbbbbbb
    #1
    Talán nem kellene egy végfelhasználói GPU fogyasztását 300, nemhogy 500W fölé tolni. *lesokkolt pikacsuarc*