Intel-MS háttéralku a Vista Capable matricákról
Jelentkezz be a hozzászóláshoz.
A textúrára annyit, hogy a Wikipedia szerint a textúrát '74-ben találták föl, az XT 1983-tól van és a legrégebbi egyértelmûen 100%-ig tutibiztosan textúrákat és modelleket használó játék, amit most 2 perc alatt találtam a super mario bros., ami '85-ös, tehát elvileg simán lehetett már akkor, fõleg azt nézve, hogy DX10-es kártya is elõbb volt mint játék, meg 64-bites proci is évekkel elõbb mint bármi ami kihasználná. (x86-64-re értem, tudom, hogy x64 már elõbb is volt az IA-64-esekkel)
Az MMX pedig az intel lebegõpontos mûveletek felgyorsítására szolgáló instrukciókészlete, ami minden mai processzorban megtalálható, enélkül még a windows XP sem indulna el, de lehet hogy már a 98 se. Mivel ez a pentium újdonsága volt, ezért hívják "pentium MMX"-nek is. Így ha egy halmazábrán akarnánk ábrázolni egy atom procit, akkor így nézne ki:
(x86->(
És intelbõl MOST jobb a középkat, mint AMDbõl, fõleg, ha a tuningot is belekalkulálod 😉
És bocs hogy úgy beszóltam, csak a - látszólag - értelmetlen flémelés-anyázás-személyeskedés nagyon fel tud baszni, fõleg ha nem is látok mögötte elég szilárd "tudományos hátteret" elsõre 😊
Köszönöm
Már ismerem, ezért tudom hogy szeretné(intel m$ vérfanboy). Úgy is írta hogy látszódjon.
"#14 Igaza van, mert néha tényleg szar az ati driver, intel driver meg soha nem szar, igazából teljesen 100%-osan a célnak megfelelõ GPU drivert még csak az inteltõl láttam... :\ (ezért is veszek intel GPUs notit, mivel játszani azt nem akarok rajta) Meg az is igaz, hogy RÉGEN az AMD procik leégHETtek (lásd TomsHardware), mert az intellel ellentétben nem volt bennük hõvédelem (most már van, intel X-ben viszont nincs xD) És ne személyeskedj."
Én 2004 óta ati-t használok, és még nem találkoztam rossz driverrel, se xp-n, se xp64-en, se vistán, se linuxon... ellenben addig amíg nvidiám volt, találkoztam rossz driverrel, és utána is hallottam szépeket.
régen az amd procik leghettek, ha egy olyan idióta kezébe kerültek, aki volt olyan hülye fasz, hogy kikapcsolta az alaplap védelmét (nekem a 2001-ben vett k7-es lapom már tudott ilyet, úgyhogy nem lehet azt mondani, hogy nem volt), és leszedte a hûtõt a prociról. Ilyet csak egy címeres ökör csinál.
"19 Shader nemcsak az árnyékkezelést jelentheti, amúgymeg az is lehetett már akkor. 2D állóképek megjelenését támogatja HARDVERBÕL. Vicces lenne ha wordhöz kéne a hardveres 3D, vagy ha valaki integrált vidkarin olyat akarna csinálni, amihez kevés a szoftveres."
Sõt, egyáltalán nem. Shadernek a nevén kívül annyi a köze az árnyékoláshoz, hogy azt is lehet programozni vele. De ez a shader dx8 elõtt SEHOL sem volt, vadi új dolog volt az, hogy a gpu-t a fejlesztõ programozhatta, és nem fix pipeline-ok voltak.
"Volt akkor már textúra és modell is. Nemcsak "vektoros izé"."
Hol?
"Az atom Intel MMX architektúrára épül, mint MINDEN mai PC processzor (AMD-kis)"
Aham. A p4 mire épül? És a p4-re mi épül? és a pentium mire épül? És az amd-k hogy épülnek a pentiumra, amikor az intel nem szereti kiadogatni a dolgait, és az amd akkor egy igencsak máshogy mûködõ processzort fejlesztett a pentium mellé? Azt mondják a core2 a p3 tech továbbfejlesztése, aminek elõdje a p2, és a p mmx, de valahogy az atom mindig sokkal lassabb azonos órajelen mint a többi pc proci. Talán mégsem ugyanaz az elõdje?
De azt is lehet írni, hogy minden proci az intel8086-ra épül. Az még igaz is, csak értelme nincs.
Én meg azt veszem, ami jobb ár/teljesítményben ergo amd-t már 8 éve... szarok arra hogy melyiknek van a leggyorsabb csúcsprocija, nem dobok ki pénzt rá, csak középkatot veszek.
Én éppen nem rokonszenvezek az intellel, mert ez szarszemét cég, mint az nvidia (lefizetések hogy amd-t ne áruljanak üzletláncok), ócsárolja az amd fejlesztéseit, majd lemásolja, és akkor már jó (integrált memóriavezérlõ pl), és meg is látszik hogy sok magyar vonatkozása van, minden vállalatnál befigyelnek ezek a fantasztikusan jól sikerült p4-ek, amikkel kész öröm dolgozni... meg hûteni. Persze ha gépvásárláskor intel lenne jobb ár/teljesítményben, akkor azt venném, bár még számítana az intel "sohasemkompatibilisalegújabbprocivalarégebbilap" és az amd 5éveslapbaismegyalegújabbprocesszor" viszonya.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Röviden: szerintem túllõttek a célon a technológiát illetõen. Az elérni kívánt eredmény nem volt arányos a választott alappal, amire építkeztek. De ez az egész egy vicc, ha azt hitték h megúszható...
#5 AMD most épp szénné keresi magát a HD4-es szérián és úgy néz ki hogy végre egy rendes procit is ki fog hozni, legalábbis notikra, úgyhogy ne szaladjunk ennyire elõre 😄
#6 Remélem a mocskos, geci intel nem kap túl nagy büntetést, mert akkor mocskos geci drágák lesznek a procijaik és mocskos geci szar AMD procit kell helyettük venni
#7 Ki?
#8 Ki mondta hogy szeretné? Csak az igazságot mondta, hogy az AMD könnyebben tönkremenne az intelnél adott esetben. Hanyas voltál szövegértésbõl? És mitõl lesz "vérfanboy"? És különben is, téged az mit zavar?
#9 Az AMD már régen írt normális drivert az überfasza GPUihoz (tényleg überfasza, remélem ezt nem ironikusnak szántad), max a crossfire és a kétgpus kártyakezelés bugos kicsit, de az se nagyon. Ha szarul fut valami atin, akkor az kizárólag a fejlesztõ/kiadó/geci nvidia hibája (nvidia még az intelnél is gyakrabban fizet le/zsarol meg cégeket hogy a programjuk nvidián jól fusson atin meg ne)
#11 Én meg azért nem veszek AMD procit mert - most - szar és még tuningolni se lehet rendesen.
#14 Igaza van, mert néha tényleg szar az ati driver, intel driver meg soha nem szar, igazából teljesen 100%-osan a célnak megfelelõ GPU drivert még csak az inteltõl láttam... :\ (ezért is veszek intel GPUs notit, mivel játszani azt nem akarok rajta) Meg az is igaz, hogy RÉGEN az AMD procik leégHETtek (lásd TomsHardware), mert az intellel ellentétben nem volt bennük hõvédelem (most már van, intel X-ben viszont nincs xD) És ne személyeskedj.
#16 De ha 3-nak mondják az meg CSALÁS. És mûködik.
#17 nice, grat 😄
#19 Shader nemcsak az árnyékkezelést jelentheti, amúgymeg az is lehetett már akkor. 2D állóképek megjelenését támogatja HARDVERBÕL. Vicces lenne ha wordhöz kéne a hardveres 3D, vagy ha valaki integrált vidkarin olyat akarna csinálni, amihez kevés a szoftveres.
Volt akkor már textúra és modell is. Nemcsak "vektoros izé".
Az atom Intel MMX architektúrára épül, mint MINDEN mai PC processzor (AMD-k is)
"Ezzel a megoldassal az gpu-nak hasznalt x86-osok elerhetik a hasonlo sebessegu es magszamu ati chipek sebesseget is. Viszont a magok szamaban viszonylag nagy elteres lesz az ati javara."-kvp - magyarul az ATI jelentõsen gyorsabb lesz végeredményben. Szövegértés 😉
"a larabee az amd fusion lemásolására épül" ami meg az nvidia Tesla lemásolására. Amúgy meg laRRabee, és az intelnek is van valamennyi saját tapasztalata GPU gyártásban, az AMDnek pedig csak az Ati révén.
Lehet hogy úgy tûnik most hogy én is intel "vérfanboy" vagyok, pedig nem, csak egyszerûen azt szeretem ami jobb, és nem zavar, hogy akárki hogy próbál akármit eladni amíg az az akármi jó és olcsó. Különben meg azért is rokonszenvezek az intellel, mert sokat kutat-fejleszt és magyar vonatkozása is van, és én meg "büdös náci" vagyok, ahogy egyesek mondanák (pedig nem, egyszerûen csak szeretek kérkedni azzal a kevéssel ami van) És ha kicsit intel-hypeolásba is csapott át a dolog, az csak azért van, hogy egyesek elvekult és ebben mértékben ok- és jogtalan intel-fikázásait ellensúlyozza. És én ugyanúgy megvenném az AMD procit is az AMD vidkarim mellé, ha jobb lenne az intelnél.
Köszi a figyelmet és további szép délutánt
Most jöhet az "amd nagyon melegszik, és elég" faszság is, olyan szépen mutat ez a 2 idiótaság egymás mellett." -- na figyi bumbi. Ha majd a nagyon fasza integrált hd atinak nem fagy fossá a legwhqlebbebb drivere xp alatt minden másnap, és villogásmentesen tud majd lejátszani compizmentesített x11 sessionben, akkor lehet okostojáskodni. Érdekes hogy tesvérszériás modellben x3100as és nv chipekkel a driverek tünetileg problémamentesek.
Egyébként nagyon jó lenne ha végre valóban pöccre menne, mert nem enne annyi áramot a gép, mint nvidia karival akár egy nyitott fagyasztószekrény.
"GPU ütemezõt ésGPU videómemória virtualizációt" -- egy átlagos customert marhára nem fog érdekelni, hogy milyen megoldással, de mûködjön. Ezt nem fogja fel sok informatikus kolléga a környékünkön sem... Meg hogy SM2.0, meg jászkaszaf.sza... Meg tudták oldani h menjen?! Nem mert olyan alapokra építenek, ami az intel üzleti felfogása szerint akkor nem volt reális. És van némi igazuk benne, de elég gáz megoldást találtak ki.
Nekem a Radeon HD3870-es Minden max +16AF+4AA 230FPS Vista alatt, DOOM3 131FPS hasonlóan (1024x768-ban mind kettõ és Vista x64 alatt). 40-60 FPS-est Geforce FX 5700-esemen produkált High-on, miután a 3DAnalyzer-rel meggyõztem róla, hogy ATI 9800-am van. Szóval még mindig "szar" az Intel GPU.
ATinak nem a drivereivel vannak bajok (bár néha azzal is, de átlag egygpus karinál nem szokott lenni) hanem hogy a sok b.zi játékfejlesztõ/kiadó csak nvidiára optimalizál/tat és azon így jobban fut, akármilyen f.sza drivert is hegesztenek atiék. Amúgy meg azért mert utáljátok az intelt lécci ne flémeljetek és csak akkor anyázzatok valakit, ha fölfogtátok mit írt, mert ciki valakinek olyanért beszólni amit nem is mondott...
Ja, és a "szar" intel GPUkról annyit, hogy a 3000Ft-os integrált X3100 vigyorogva viszi 30-40 FPS-sel a Source engine-t (Half-Life 2 ugye) 1024*768-ban közepes beállításokkal, az X4100 (vagy 4500, tuggyaf.szom) meg már Unreal3 enginnel is egész korrektül elboldogul. Integráltan, irodai alkalmazásokra tervezve, 5000 forintért.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
2d állóképek megjelenítését támogatja? omg
ibm xt-nél textúra meg modell? Max pár 2d-s vektoros izé...
atomnak mi köze a pentium mmx-hez?
az egy hülyeség, hogy x86-os magokkal utol fogják érni egy gpu sebességét. Max álomföldén... ja de persze úgy menne, ha 8x akkora, és 8x olyan drága chipeket használnak.
a larabee az amd fusion lemásolására épül, ahol a gpu magok x86 kódot tudnak majd futtatni a cpu magokkal, és szépen szét lehet osztani, hogy melyik mit csináljon, aszerint hogy melyikben melyik a hatékonyabb. Csak a különbség az, hogy míg az amd-nek van tapasztalata mind2 alkotóelemben, az intelnek csak az egyikben van...
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Wddm drivert barki tud irni. A referencia implementacio pl. vesa-t hasznal. (lasd: windows safe mode) A problemat a hardveres gyorsitas megletet jelento flag-ek jelentik. Az intel chipkeszlete gyakorlatilag egy sima ramdac, ami csak 2d allokepek megjeleniteset tamogatja hardverbol, tehat gyakorlagilag egy nagyfelbontasu es szinmelysegu cga kartya. Minden mas x86 alapu szoftveres emulaciot igenyel, amiben az intel regebben is eleg jo volt. A vista uj felulete szamara viszont szukseges a hardveres 3d gyorsitas. Valojaban eleg lett volna ezt a limitaciot eltorolni es meg mindig lenne egy 2-3 sec/frame sebessege a 3d gyorsitatlan uj feluletu vista-nak. Ha a microsoft nem gondolja meg magat es engedelyezik az inteles chipekre az uj feluletet, akkor semmi gond nem lenne es per sem lett volna belole. Legfeljebb mindenki varna 2-3 masodpercet gepeles kozben amire egy-egy leutott karaktere megjelenne a kepernyon, vagy levenne a felbontast 800x600x8bpp-re, hogy gyors legyen.
"Az már csak extra érdekesség, hogy az Intel egyes DX10-esnek titulált videó kártyáiból hiányzik a hardwares vertex shader."
Gyakorlatilag ez az uj intel-es dx10-es design koveti az nvidia regi kartyait (riva128, tnt) amik meg nem tartalmaztak vertex shader-t csak pixel kezelo egysegeket (egyszeru blitter kartyak voltak). A hardveres vertex gyorsitas az nvidia-nal csak a geforce-okkal jott be. Az intel-nel emiatt a regi technologia miatt tudjak olcsobban eloallitani a chipeket. Aki ezen meglepodik annak megemlitenem az elso intel fele hardveres gyorsitokartyat, ami 640x480 true color-t tudott, video kimenettel rendelkezett es meg az xt-khez jott ki. A kartya harom aramkori lapbol allt. Egy cga kartya a bios boot-hoz, egy memoriakartya a grafikus ram-nak es egy szabvanyos i8086-os cpu ami a shader kodokat futtata. A rendszerrel egy az isa buszon ulo 4KB-os bufferen kereszult kommunikalt, ahol fel lehetett tolteni a texturakat, a modelleket, a shader kodot es a vegrehajtando parancsokat. A kartyat az ibm forgalmazta aranyar folott. Az uj intel-es videokartya project (larabee) is erre epul. Fognak jopar modern technologiaval gyartott pentium mmx-es magot (lasd: atom) es futtatjak rajta a sajat szoftveres renderelojuket. A dolog azert fog mukodni, mivel a shader kodokat fordito szoftver nativ x86-os kodot general. Ezzel a megoldassal az gpu-nak hasznalt x86-osok elerhetik a hasonlo sebessegu es magszamu ati chipek sebesseget is. Viszont a magok szamaban viszonylag nagy elteres lesz az ati javara. Az nvidia ezzel szemben butabb, de gyorsabb magokat hasznal, tehat nyers teljesitmenyben tovabba is jobbak lesznek, mig komplexebb shader-ek eseten jelenleg az ati a nyero (mar ha a driverek ellenere eppen mukodik a kartyajuk).
ps: A microsoft meg legalabb beismerte hogy ezt uzleti erdekbol ugyan, de nagyon elrontotta.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Most jöhet az "amd nagyon melegszik, és elég" faszság is, olyan szépen mutat ez a 2 idiótaság egymás mellett.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
De mûködik. Volt már példa hasonló megoldásokra. Mondjuk mikor ati 3 futószalagot mutatott kifelé, de belül csak kettõ volt.
Itt most elsõ sorban a WDDM driver írásáról van szó, amit az NVidia még GeforceFX-ekhez is sikerrel véghez vitt. Szóval el het képzelni menyíre sz* lehet ha WDDM drivert sem tudott hozzá írni az Intel.
(Kérdés: azok a "mások", akik "csicsás effektes felületet optimalizálni" erre a kacatra is, vajon az a "csicsás effektes felületet" is ad GPU ütemezõt ésGPU videómemória virtualizációt?)
Az már csak extra érdekesség, hogy az Intel egyes DX10-esnek titulált videó kártyáiból hiányzik a hardwares vertex shader. <#ravasz1>#ravasz1>
Abu Dhabi, muhalaba Dabi, nem érdekel, csak tolja a dezső milliárdokat az AMD-be. :)
\"Faterral és öcsémmel játszottunk az udvaron, amikor anya kikiabált, hogy ki fogjuk taposni a füvet. Apám visszaszólt, hogy srácokat nevelünk nem füvet.\"
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Remélem a mocskos, geci intel akkora pénzbüntetést kap, hogy jövõre nem lesz pénze más cégeket kg-ra megvenni, de az M$-t is nyugodtan meg lehet büntetni, büdös csicskák.
Értem én, csak leszarom. :) Nem kell válaszolnod, igazam van.
Népi szájhagyomány.
Nesze neked "bitangerõshardwaregyártó" Intel - sajna pénzzel mindent el lehet érni, így lesznek az utolsókból elsõk.<#levele>#levele>
8,4 GHzx 24 magos Cell, NVIDIA-Ati-3dfx-SCEI RSX, 120Tb HDD, 24x BluRay, 512GB XDR, 512 GB GDDR10, OS: MyOS, LCD 1320\" Sony Bravia