36
  • dez
    #36
    Ugye beszélsz:
    Megmondtam:
    "* CORRECTION We mean "over" 1920 by 1200 rez. Sorry."
  • dez
    #35
    Vagy belinkelhetnéd a forrást, mert érdekelne, mi a gond vele. De szerintem csak félreértés.
  • dez
    #34
    Miért is?
  • Inquisitor
    #33
    Arra akartam kilyukadni, hogy ha p720-nál nagyobb felbontást akarsz kitolni a HDMi cstaiján, akkor nix kép.
  • dez
    #32
    Ja, és a sima, szokásás (Type A) HDMI eleve single-linkes, egyszerűen nincs elég vonal benne a dual-linkhez. Annyi van itt, hogy a HDMI 1.3 jóval magasabb sávszélt enged, amibe már belefér pl. a ~2500x1500 is.
  • dez
    #31
    1920x1080-1200-hoz még nem kell dual-link. Még HDMI 1.3 sem. hdmi@wiki
  • Inquisitor
    #30
    "Az sg.hu-n meg nem irnak rola, de idokozben kiderult hogy az R600-as kartyak egy komplett 3D-s HD hangmodult is tartalmaznak."

    Nagy felfedezés, az 1.57-es driver óta kint van a Realtek oldalán (február 08.!), kicsit lassúak az IT oldalak? ;)

    "Az Nvidia ugy oldotta meg a dolgot, hogy a gepben levo hangkartyanak a kimenetet egy kabellel kell a 8800-as kartyara rakotni, ami ezutan a hangjelet tovabbitja a HDMI csatlakozora ..."

    Ez szerintem így volt a tübbi HDMI VGA esetén is (GF7600, X1600, S3 Deltachrome,stb.) ...
    Egyébként ha jól tudom a GF8800 HDMI-n keresztül NEM tud Dual-Link DVI üzemmódot, ezért nem tudna kiküldeni HDMI-n egy 1920x1080-as videot, pedig ez lenne a csatlakozó lényege. (Ezért szerelték HDMI nélkül a legtübb HDCP-s ATI kártyát is.)
    Szóval az első normális megoldás az R6xx/Rv6xx sorozatban van erre.
  • Inquisitor
    #29
    Rosszul tudod, van RV535 (X1300XT/X1650pro), RV560 (X1650XT), RV515 (X1300, X1550) is 80 nanométeres. (Kivéve amikor gyártó még se ilyen GPU-val szereli, de az más tészta.)
  • dez
    #28
    Persze, ez a leginkább valószínűsített ok - bár ők ezt tagadják legjobban. De egyébként 65nm-re tértek, legalábbis az alsó és középkategóriában, ami elég merész, bár az AMD-nek már van benne tapasztalata.
  • Televan
    #27
    Lehet,hogy technológiai okokból nem hozzák ki az új kártyákat. Itt most arra gondolok, hogy a 90nm -ről 80nm -re való váltás nem hozott akkora előnyt mint a CPU -k(90nm-65nm)esetében.1950pro -m van és tudtommal ez az egy tipus készült eddig 80nm -en. 1950 XT és XTX -eknél visszatértek a 90nm -re. Lehet, hogy a váltás sem a hőmérségletben, sem a fogyasztásban, nem hozta a várt eredményeket.
    Ha tévedek akkor bocs az okoskodásomért...

    Javítva!
  • Televan
    #26
    Lehet,hogy technológiai okokból nem hozzák ki az új kártyákat. Itt most arra gondolok, hogy a 90nm -ről 80nm -re való váltás nem hozott akkora előnyt mint a CPU -k(90nm-65nm)esetében.1950pro -m van és tudtommal ez az egy tipus készült eddig 80nm -en. 1950 XT és XTX -eknél visszatértek a 90nm -re. Lehet, hogy a váltás sem a hőmérségletben, sem a fogyasztásban nem várt eredményeket.
    Ha tévedek akkor bocs az okoskodásomért...
  • dez
    #25
    Mondjuk ez csak a középkatot magyarázhatja.
    Azt el tudom hinni, hogy az R600-at tényleg azért tartják vissza, mert egy időben akarják kihozni az azon alapuló professzionális GPGPU alkalmazású kártyákkal, amiket viszont jóval drágábban adnak majd. Nem akarják, hogy előtte sima kommersz kártyákkal vásároljanak be, akik ebben érdekeltek.
  • maestro85
    #24
    Aki ilyen drágán vesz karit nem fogja sajnálni az áramszámlát sem.
  • fourgee
    #23
    Ez aaaz, optimalizáljunk a 256kbyte-os Realtek videókártyámra :) Még megvan, biztosan működik. De akkor már inkább a VLB-s Cirrus kártyát üzemelném be, amin elképesztő mennyiségű, 2Mb ram volt. Lehet hogy hosszabb, mint a legnagyobb 8800-as GeForce :)

    Most már jöhetne az új ATi, mert minél később jelenik meg, annál később esik az ára. Most karácsonykor sikerült 40-ért beszereznem egy 1900GT-t (akkor sokkal-sokkal többe került), idén karácsonykor hasonló kategóriájú, hasonló árú, de DX10-es karit akarok :)
  • Anotino
    #22
    Azert ha megnezed a huzosabb/hw igenyesebb progikat, olyan grafikai megoldasokkal talalkozol, amikhez szimplan kell az izom. Kell ps teljesitmeny a csilivili shaderekhez, vs a sokmillio poligonhoz, ram a nagymeretu texturakhoz, stb. Akarhogy veresre optimalizalhatod, akkor sem fog jol menni egy gf6 -on.. Hacsak az optimalizalas alatt nem butitast ertesz. Azert ha megnezzuk 1-2 ev alatt (mig egy vga generacio-csere lezajlik), eleg sokat ugrik a jatekok szinvonala is. Bar sajnos csak a grafikai szinvonal :/
  • Juszufka
    #21
    hehe eddig ez a legelképzelhetőbb magyarázat
  • zzebi
    #20
    Az sg.hu-n meg nem irnak rola, de idokozben kiderult hogy az R600-as kartyak egy komplett 3D-s HD hangmodult is tartalmaznak.
    Ennek az az oka, hogy a HDMI csatolo, ami az uj HVTV-khez valo csatlakozast szolgalja nem csak a kepet, de a hangot is tovabbitja.

    Az Nvidia ugy oldotta meg a dolgot, hogy a gepben levo hangkartyanak a kimenetet egy kabellel kell a 8800-as kartyara rakotni, ami ezutan a hangjelet tovabbitja a HDMI csatlakozora.
    A gond ezzel az, hogy a Microsoft egy ilyen kulso csatlakozas eseten nem engedi meg az OEM gyartoknak a Vista Logo hasznalatat. Emogott pedig az a logika, hogy a Vista-t nagyon DRM barat OS-nek reklamozzak, de egy kulso kabeles hangcsatlakozovan konnyebbe valik a jogvedett anyagok ellopasa. Ertheto, hogy ezek utan az Nvidia megoldasat a MS nem tamogatja, mig az R600-as kartyakkal szerelt gepek majd a MS osszes tamogatasat elvezik majd.
  • WinfIlka
    #19
    Amugy fejlodjon csak a megjelenites, mert a mostani jatekok meg nem eleg meggyozoek grafika szempontjabol. A jatekelmeny meg rosszabb, mint tiz eve.
  • Sanyix
    #18
    Ez a baj, hogy TI megveszitek. Ezért nem szükséges optimalizálni. Minek? Úgyis megveszitek jól...
  • dez
    #17
    Nem lehet, hogy az Nvidia középkategóriásaira várnak, tehát a végső specre, hogy rálicitálhassanak (órajel, beállítások)? Az Nvidia meg ugyanemiatt halasztgat, erre-arra hivatkozva?
  • Marko001
    #16
    én biztosan nem...
  • Inquisitor
    #15
    Ezt mások is tippelték, és lenne is rá értelmes magyarázat (lásd Terraflops bemutató), de nem hiszem. Viszont nem csak ATI szív a kisebb DX10 kártyákkal, ugye a GF8300, 8500, 8600 is csúszott/csúszik, elöbb Bios probléma, utóbb SLI nem működése miatt.
    Pedig hát mind nekik, mind a vevőknek a középkategória lenne fontos.

    Amúgy meg semmi nem változik. R600 picit lesz csak gyorsabb a GF8800-nál, aztán a GF8800Ultra egyenlít, aztán kiadnak valami picit méggyorsabbat, és így tovább. Mi meg megvesszük ...
  • MEdievil
    #14
    nem hinném hogy bármikor lenne olyan gondjuk hogy ne tudnának megvenni egy új házat
  • JZO
    #13
    150-230W ??? Ezeknek semmi nem drága
  • Caro
    #12
    Lehet megvárják vele a K8L-t :)
  • AnonyX
    #11
    Hát ez olyan, amit majd akkor tudunk meg amikor hivatalosan kint lesznek a karik... Remélem elég szépen fognak telyesíteni és kedvező árszinten lesznek értékesítve.... Csak jöjjönek máááár.... Meg azért az AMD chipkészletek is jöhetnének intenzívebben.
  • Morden23
    #10
    Ha nem is egészen így, de simán el lehet képzelni ezt :D

    Végülis Intel vs. AMD fronton is folyamatos hullámhegy-hullámvölgy megy. Anno AMD szenvedett, intel élt, mint hal a vízben. Utána AMD keményít, intel lassul. Aztán AMD él, mint hal a vízben, intel kullog. Most meg intel keményít, amd lassul.
    Mint egy inga. Szépen, lassan, jobbra-balra.
  • GVG
    #9
    :D
    biztos jó haverok a főnökök (AMD és NVidia)

    "-te, haver, kéne pénz egy új villára, nem lehetne kicsit halasztjátok a megjelenést?
    -ó, persze...de holnap jössz golfozni nem?
    -ja, kösz mindenesetre...középkategóriát majd alaposan felárazzuk oszt visszajön a pénzed
    -csá
    "
  • N0S
    #8
    'Az AMD szerint a komoly halasztásnak nincsenek negatív következményei'

    csak a konkurencia elhuz, persze nem komoly ha jovore mar nem is lesz ilyen ceg, hogy AMD..
  • M0RN1NGST4R
    #7
    amd próbálja eljátszani, hogy minden a legnagyobb rendben van, de közbe egyre nagyobb hülyét csinál magából. Ennyi erővel azt is irhatták volna, hogy azért nem jelent még meg, mert túl erős az nvidia 8800as kártyái mellett, és nem akarták, hogy megölje a konkurenciát.
  • Evogordon
    #6
    Leveri a gec*-be a 8***-as családot
  • dirty dogg
    #5


    Jobb mint a távfűtés. :)
  • BCs design
    #4
    szerintem az utóbbi :)
  • AgentKis
    #3
    "150-230 watt közötti fogyasztás várható"

    Tehát vasalni tutira lehet majd vele...
  • scorpeeon
    #2
    Eléggé gyenge duma. Vagy gond van a gyártással vagy gyengére sikerült és szégyenlik kiadni a 8800 mellé :)
  • alma2
    #1
    Mar lassan nekem eg a pofam, hogy ilyen rossz dumaval etetik a nepet :)
    Persze legyartottam, majd betettem a vitrinbe, addig hagy vegyek a vetelytars kartyait...