7
-
t_robert #7 Azért messze nem természetes állapot, hogy egy grafikai kártya 500-700 wattot fogyaszt. Nem is olyan régen úgy 8-10 éve még olyan videó kártyám volt, ami beérte a PCI buszból felvett áram mennyiséggel nem kellett rácsatlakoztatni 100 vezetékből álló külön tápcsatlkaozást 1 KW-os tápegységből. egy RX 460 simán beérte a PCI busz áram mennyiségével. Amig az a tendencia, hogy a kártyák egyre magasabb órajele igényelnek egyre több feldolgozó egységgel és regiszterrel egyre nehezebben hüthető eszközöket állítanak elő . lassan lesz a gépben egy tápkábel, amit a legközelebbi távvezetékhez kell kihúzniEgyszer nár elindultak ezen az úton a CPU-k tekintetében ez volt az intel duocore procik kora. . :) Mikor megakadtak már a CPU magok órajel emelélsével. Nem igen tudták már rendesen hűteni a 3,2-3,4 Ghzen felül a CPU-kat mert annyira melegedtek. Aztán végül csak megoldották, mert ma már simán fel boostol egy cpu akár 6 Ghz fölé is. Akkor teljesen át kellet tervezni a proci magot. Az lett a core 2 duo CPU-k -
duke #6 orulet hogy normalisnak gondoljak ezeket az 1000 wattokat fogyaszto kartyakat. -
nirriti #5 https://youtu.be/kb5YzMoVQyw
Nem a kábel az igazi gond, maga a vezérlő áramkör van szarul tervezve.
Buildzoid elmagyarázza, hogy 3090 óta mi változott a tervezésben úgy, hogy nem kell diploma elektronikából, hogy mi is megértsük. Talán majd a 60-as szériában kezdenek valamit ezzel a problémával addig meg marad a 3080 a gépben. -
Kissssss0 #4 valószínűleg a következő két NV gpu generáció is ugyan ettől fog szenvedni, szokjatok hozzá. -
kvp #3 Az egyetlen gond az, hogy csak 10% tartalekot hagytak az alkatreszek abszolut maximuma es a tenyleges elvart aram kozott. Ez azt jelenti, hogy ha tobb mint 10%-al elter egy alkatresz (ami meg a tolerancia hataran van), akkor tulterhelodik. Egyszerubb lett volna, ha a 4 darab 8 tus csatlakozot egy darab 32 tusre cserelik, vagy ha az tul nagy, akkor a 12V-os tapot 24V vagy 48V-osra. A 48V-os tap pl. megoldana a vezetekek kerdeset is, mert sokkal kisebb atmeron tudnanak sokkal kisebb veszteseggel ugyanannyi energiat atvinni. Persze specialis 48V-os tapegysegek kellenenek ezeknek a kartyaknak, de megoldodna a problema. Meg az USB-C is kepes 48V-os modban mukodni azokkal az apro dugokkal. Ehhez kepest az NVIDIA nem volt kepes egy rendes tap szabvanyt kitalalni es csak az aramot noveltek eppen hogy a tulterheles hatara ala. Aztan ha picit elter valami vagy csak picit poros a csatlakozo vagy elmegy a haz elott egy teherauto (lasd: rezonancia), akkor mar olvad is le minden.
ps: A mostani 12 tus csatlakozoval es 48V-os tappal 1728 wattot is at tudnanak vinni gond nelkul. Igy viszont csak 432 wattig stabil a megoldas, ha minden 100%-os, barmifele tartalek nelkul. Szemely szerint en 12V-al 240 watt fole nem engednem ezt a csatlakozot. Ehhez kepest van amikor 600 wattot nyomnak at rajta. A ceg nem igazan akarja bevallani, hogy alulmereteztek az egesz megoldast es biztosan nem akarnak atallni az egyedi, direkt ezen videokatyak szamara gyartott tapegysegek hasznalatara. Pedig ez lenne a korrekt megoldas. (ha nem akarnak 32 tus csatlakozokat hasznalni, ami a mostani feszultsegszinten az abszolut minimum elvaras lenne) -
#2
OHM törvénye nem viccel! Főleg ebben a végletekig kispórolt világban. Semmi meglepő nincs ebben. -
Gabbbbbbbbbbbb #1 Talán nem kellene egy végfelhasználói GPU fogyasztását 300, nemhogy 500W fölé tolni. *lesokkolt pikacsuarc*