33
-
krajcsovszkig #33 Köszi a normális választ! :) (tényleg! ;) )
A textúrára annyit, hogy a Wikipedia szerint a textúrát '74-ben találták föl, az XT 1983-tól van és a legrégebbi egyértelműen 100%-ig tutibiztosan textúrákat és modelleket használó játék, amit most 2 perc alatt találtam a super mario bros., ami '85-ös, tehát elvileg simán lehetett már akkor, főleg azt nézve, hogy DX10-es kártya is előbb volt mint játék, meg 64-bites proci is évekkel előbb mint bármi ami kihasználná. (x86-64-re értem, tudom, hogy x64 már előbb is volt az IA-64-esekkel)
Az MMX pedig az intel lebegőpontos műveletek felgyorsítására szolgáló instrukciókészlete, ami minden mai processzorban megtalálható, enélkül még a windows XP sem indulna el, de lehet hogy már a 98 se. Mivel ez a pentium újdonsága volt, ezért hívják "pentium MMX"-nek is. Így ha egy halmazábrán akarnánk ábrázolni egy atom procit, akkor így nézne ki:
(x86->([pentium ]MMX->(x86-64->(em64t->(atom))))) a vidkarik procijaival (gpuival) ellentétben, amik még csak nem is x86-osok, nemhogy MMX-esek.
És intelből MOST jobb a középkat, mint AMDből, főleg, ha a tuningot is belekalkulálod ;)
És bocs hogy úgy beszóltam, csak a - látszólag - értelmetlen flémelés-anyázás-személyeskedés nagyon fel tud baszni, főleg ha nem is látok mögötte elég szilárd "tudományos hátteret" elsőre :)
Köszönöm -
#32 "#8 Ki mondta hogy szeretné? Csak az igazságot mondta, hogy az AMD könnyebben tönkremenne az intelnél adott esetben. Hanyas voltál szövegértésből? És mitől lesz "vérfanboy"? És különben is, téged az mit zavar?"
Már ismerem, ezért tudom hogy szeretné(intel m$ vérfanboy). Úgy is írta hogy látszódjon.
"#14 Igaza van, mert néha tényleg szar az ati driver, intel driver meg soha nem szar, igazából teljesen 100%-osan a célnak megfelelő GPU drivert még csak az inteltől láttam... :\ (ezért is veszek intel GPUs notit, mivel játszani azt nem akarok rajta) Meg az is igaz, hogy RÉGEN az AMD procik leégHETtek (lásd TomsHardware), mert az intellel ellentétben nem volt bennük hővédelem (most már van, intel X-ben viszont nincs xD) És ne személyeskedj."
Én 2004 óta ati-t használok, és még nem találkoztam rossz driverrel, se xp-n, se xp64-en, se vistán, se linuxon... ellenben addig amíg nvidiám volt, találkoztam rossz driverrel, és utána is hallottam szépeket.
régen az amd procik leghettek, ha egy olyan idióta kezébe kerültek, aki volt olyan hülye fasz, hogy kikapcsolta az alaplap védelmét (nekem a 2001-ben vett k7-es lapom már tudott ilyet, úgyhogy nem lehet azt mondani, hogy nem volt), és leszedte a hűtőt a prociról. Ilyet csak egy címeres ökör csinál.
"19 Shader nemcsak az árnyékkezelést jelentheti, amúgymeg az is lehetett már akkor. 2D állóképek megjelenését támogatja HARDVERBŐL. Vicces lenne ha wordhöz kéne a hardveres 3D, vagy ha valaki integrált vidkarin olyat akarna csinálni, amihez kevés a szoftveres."
Sőt, egyáltalán nem. Shadernek a nevén kívül annyi a köze az árnyékoláshoz, hogy azt is lehet programozni vele. De ez a shader dx8 előtt SEHOL sem volt, vadi új dolog volt az, hogy a gpu-t a fejlesztő programozhatta, és nem fix pipeline-ok voltak.
"Volt akkor már textúra és modell is. Nemcsak "vektoros izé"."
Hol?
"Az atom Intel MMX architektúrára épül, mint MINDEN mai PC processzor (AMD-kis)"
Aham. A p4 mire épül? És a p4-re mi épül? és a pentium mire épül? És az amd-k hogy épülnek a pentiumra, amikor az intel nem szereti kiadogatni a dolgait, és az amd akkor egy igencsak máshogy működő processzort fejlesztett a pentium mellé? Azt mondják a core2 a p3 tech továbbfejlesztése, aminek elődje a p2, és a p mmx, de valahogy az atom mindig sokkal lassabb azonos órajelen mint a többi pc proci. Talán mégsem ugyanaz az elődje?
De azt is lehet írni, hogy minden proci az intel8086-ra épül. Az még igaz is, csak értelme nincs.
Én meg azt veszem, ami jobb ár/teljesítményben ergo amd-t már 8 éve... szarok arra hogy melyiknek van a leggyorsabb csúcsprocija, nem dobok ki pénzt rá, csak középkatot veszek.
Én éppen nem rokonszenvezek az intellel, mert ez szarszemét cég, mint az nvidia (lefizetések hogy amd-t ne áruljanak üzletláncok), ócsárolja az amd fejlesztéseit, majd lemásolja, és akkor már jó (integrált memóriavezérlő pl), és meg is látszik hogy sok magyar vonatkozása van, minden vállalatnál befigyelnek ezek a fantasztikusan jól sikerült p4-ek, amikkel kész öröm dolgozni... meg hűteni. Persze ha gépvásárláskor intel lenne jobb ár/teljesítményben, akkor azt venném, bár még számítana az intel "sohasemkompatibilisalegújabbprocivalarégebbilap" és az amd 5éveslapbaismegyalegújabbprocesszor" viszonya. -
Iamzozo #31 Fére értettem valamit? Arról szól, hogy botrány volt mert az volt rajta hogy capable, de csak basic. Miért az nem vista? Nem az van ráírva hogy vista with aero capable. Amikor az áruházban ki van írva nagy betűkkel, hogy tv 100etől, akkor nem látok hosszú sorokat kigyózni, akik verik az asztalt, hogy a 100cm-s plazma nem 100e. Ez körülbelül a macska szárítása a mikróban perre hasonlít... -
krajcsovszkig #30 Ja, most veszem észre hogy ez a 23-masra ment :) -
floatr #29 Azért elég nagy hype volt a vista, annyira, hogy rengetegen nekifutottak. Napersze óccsó géppel, aminek meg is lett az eredménye.
Röviden: szerintem túllőttek a célon a technológiát illetően. Az elérni kívánt eredmény nem volt arányos a választott alappal, amire építkeztek. De ez az egész egy vicc, ha azt hitték h megúszható... -
krajcsovszkig #28 Meg amiatt, mert a Microsoft szarul optimalizált oprendszere nem fut normálisan az intel 3-4-5 éves integrált legalsó kategóriás laptopgpuin, ennek és az MS eredeti terveinek ellenére az intelke néhány jólirányzott kenőpénzadaggal megtámogatva "rábeszélte" a májkrémszaftot, hogy vegye fel ezeket a támogatott hardverek listájára. Nemtom mondjuk minek, úgyse használ túl sok ember Vistát, főleg nem az ilyen őskövület notikon. -
krajcsovszkig #27 De azt tessékszíveslenni figyelembe venni - ahogy írtam is - hogy az X3100 egy 2 éves, 3000 forintos, wordre optimalizált integrált GPU egy elsősorban CPUkat gyártó cégtől, míg a HD3870 egy 1 éves, (megjelenéskor) 40 ezer forintos, jáűtékra optimalizált KÜLÖNÁLLÓ VIDEOKÁRTYA egy elsősorban videokártyákat és GPUkat fejlesztő cégől. Szóval célcsoport/ár/érték arányban MINDEN IDŐK LEGJOBB GPUJA az intel X3100 (ha nem az X négyezernemtomhányszáz), még akkor is ha a HD3870 kurvajó, nem véletlenül van nekem is olyanom. -
krajcsovszkig #26 #3-4 Ki terjesztette itt bárkinek/bárminek is a halálhírét?
#5 AMD most épp szénné keresi magát a HD4-es szérián és úgy néz ki hogy végre egy rendes procit is ki fog hozni, legalábbis notikra, úgyhogy ne szaladjunk ennyire előre :D
#6 Remélem a mocskos, geci intel nem kap túl nagy büntetést, mert akkor mocskos geci drágák lesznek a procijaik és mocskos geci szar AMD procit kell helyettük venni
#7 Ki?
#8 Ki mondta hogy szeretné? Csak az igazságot mondta, hogy az AMD könnyebben tönkremenne az intelnél adott esetben. Hanyas voltál szövegértésből? És mitől lesz "vérfanboy"? És különben is, téged az mit zavar?
#9 Az AMD már régen írt normális drivert az überfasza GPUihoz (tényleg überfasza, remélem ezt nem ironikusnak szántad), max a crossfire és a kétgpus kártyakezelés bugos kicsit, de az se nagyon. Ha szarul fut valami atin, akkor az kizárólag a fejlesztő/kiadó/geci nvidia hibája (nvidia még az intelnél is gyakrabban fizet le/zsarol meg cégeket hogy a programjuk nvidián jól fusson atin meg ne)
#11 Én meg azért nem veszek AMD procit mert - most - szar és még tuningolni se lehet rendesen.
#14 Igaza van, mert néha tényleg szar az ati driver, intel driver meg soha nem szar, igazából teljesen 100%-osan a célnak megfelelő GPU drivert még csak az inteltől láttam... :\ (ezért is veszek intel GPUs notit, mivel játszani azt nem akarok rajta) Meg az is igaz, hogy RÉGEN az AMD procik leégHETtek (lásd TomsHardware), mert az intellel ellentétben nem volt bennük hővédelem (most már van, intel X-ben viszont nincs xD) És ne személyeskedj.
#16 De ha 3-nak mondják az meg CSALÁS. És működik.
#17 nice, grat :D
#19 Shader nemcsak az árnyékkezelést jelentheti, amúgymeg az is lehetett már akkor. 2D állóképek megjelenését támogatja HARDVERBŐL. Vicces lenne ha wordhöz kéne a hardveres 3D, vagy ha valaki integrált vidkarin olyat akarna csinálni, amihez kevés a szoftveres.
Volt akkor már textúra és modell is. Nemcsak "vektoros izé".
Az atom Intel MMX architektúrára épül, mint MINDEN mai PC processzor (AMD-k is)
"Ezzel a megoldassal az gpu-nak hasznalt x86-osok elerhetik a hasonlo sebessegu es magszamu ati chipek sebesseget is. Viszont a magok szamaban viszonylag nagy elteres lesz az ati javara."-kvp - magyarul az ATI jelentősen gyorsabb lesz végeredményben. Szövegértés ;)
"a larabee az amd fusion lemásolására épül" ami meg az nvidia Tesla lemásolására. Amúgy meg laRRabee, és az intelnek is van valamennyi saját tapasztalata GPU gyártásban, az AMDnek pedig csak az Ati révén.
Lehet hogy úgy tűnik most hogy én is intel "vérfanboy" vagyok, pedig nem, csak egyszerűen azt szeretem ami jobb, és nem zavar, hogy akárki hogy próbál akármit eladni amíg az az akármi jó és olcsó. Különben meg azért is rokonszenvezek az intellel, mert sokat kutat-fejleszt és magyar vonatkozása is van, és én meg "büdös náci" vagyok, ahogy egyesek mondanák (pedig nem, egyszerűen csak szeretek kérkedni azzal a kevéssel ami van) És ha kicsit intel-hypeolásba is csapott át a dolog, az csak azért van, hogy egyesek elvekult és ebben mértékben ok- és jogtalan intel-fikázásait ellensúlyozza. És én ugyanúgy megvenném az AMD procit is az AMD vidkarim mellé, ha jobb lenne az intelnél.
Köszi a figyelmet és további szép délutánt -
floatr #25 "Ezt az idióta elavult faszságot honnan sikerült újra előszedned? Nemhiszem el hogy ilyen hülyék tudnak lenni az emberek.
Most jöhet az "amd nagyon melegszik, és elég" faszság is, olyan szépen mutat ez a 2 idiótaság egymás mellett." -- na figyi bumbi. Ha majd a nagyon fasza integrált hd atinak nem fagy fossá a legwhqlebbebb drivere xp alatt minden másnap, és villogásmentesen tud majd lejátszani compizmentesített x11 sessionben, akkor lehet okostojáskodni. Érdekes hogy tesvérszériás modellben x3100as és nv chipekkel a driverek tünetileg problémamentesek.
Egyébként nagyon jó lenne ha végre valóban pöccre menne, mert nem enne annyi áramot a gép, mint nvidia karival akár egy nyitott fagyasztószekrény. -
floatr #24 A botrány amiatt robbant ki, hogy az intel cuccain ugyebár nem futott az új felület, csak "szórványosan". Ennek oka az volt h erősebb tudású hardvert igényelt a vista ablakozása.
"GPU ütemezőt ésGPU videómemória virtualizációt" -- egy átlagos customert marhára nem fog érdekelni, hogy milyen megoldással, de működjön. Ezt nem fogja fel sok informatikus kolléga a környékünkön sem... Meg hogy SM2.0, meg jászkaszaf.sza... Meg tudták oldani h menjen?! Nem mert olyan alapokra építenek, ami az intel üzleti felfogása szerint akkor nem volt reális. És van némi igazuk benne, de elég gáz megoldást találtak ki. -
A1274815 #23 "Ja, és a "szar" intel GPUkról annyit, hogy a 3000Ft-os integrált X3100 vigyorogva viszi 30-40 FPS-sel a Source engine-t (Half-Life 2 ugye) 1024*768-ban közepes beállításokkal"
Nekem a Radeon HD3870-es Minden max +16AF+4AA 230FPS Vista alatt, DOOM3 131FPS hasonlóan (1024x768-ban mind kettő és Vista x64 alatt). 40-60 FPS-est Geforce FX 5700-esemen produkált High-on, miután a 3DAnalyzer-rel meggyőztem róla, hogy ATI 9800-am van. Szóval még mindig "szar" az Intel GPU. -
krajcsovszkig #22 Az 1TFlopsot a HD4850 lépte át (a 4870 pedig 1,2TFlops az X2 verziók meg értelemszerűen ezeknek a duplái), nvidiának pedig még mindig nincs olyan sebességű kártyája (ha jól tudom a jelenlegi leggyorsabb GT280OC 936 vagy hány GFlops).
ATinak nem a drivereivel vannak bajok (bár néha azzal is, de átlag egygpus karinál nem szokott lenni) hanem hogy a sok b.zi játékfejlesztő/kiadó csak nvidiára optimalizál/tat és azon így jobban fut, akármilyen f.sza drivert is hegesztenek atiék. Amúgy meg azért mert utáljátok az intelt lécci ne flémeljetek és csak akkor anyázzatok valakit, ha fölfogtátok mit írt, mert ciki valakinek olyanért beszólni amit nem is mondott...
Ja, és a "szar" intel GPUkról annyit, hogy a 3000Ft-os integrált X3100 vigyorogva viszi 30-40 FPS-sel a Source engine-t (Half-Life 2 ugye) 1024*768-ban közepes beállításokkal, az X4100 (vagy 4500, tuggyaf.szom) meg már Unreal3 enginnel is egész korrektül elboldogul. Integráltan, irodai alkalmazásokra tervezve, 5000 forintért. -
A1274815 #21 És akkor azt még tegyük hozzá, hogy a Gefrorce 8800 GTX és az ATI Radeon HD 3870 volt az első GPU-k melyek túllépték az eddigi 1TFLOPS határt, míg eddig (Corei7-nél nem tudom), a leg gyorsabb Intel CPU 4 magjában volt 51 GFLOPS. Nagyon messze van a kettő egymástól. A PPC Xenon (XBox360), kb. 215 és 117 GFLOPS között van, míg a Cell PS3-ban használt változata: 1TFLOPS és 100 GFLOPS között van. -
#20 cpu magokkal együtt -
#19 mivan? xt? shader???? hol volt az még akkor!
2d állóképek megjelenítését támogatja? omg
ibm xt-nél textúra meg modell? Max pár 2d-s vektoros izé...
atomnak mi köze a pentium mmx-hez?
az egy hülyeség, hogy x86-os magokkal utol fogják érni egy gpu sebességét. Max álomföldén... ja de persze úgy menne, ha 8x akkora, és 8x olyan drága chipeket használnak.
a larabee az amd fusion lemásolására épül, ahol a gpu magok x86 kódot tudnak majd futtatni a cpu magokkal, és szépen szét lehet osztani, hogy melyik mit csináljon, aszerint hogy melyikben melyik a hatékonyabb. Csak a különbség az, hogy míg az amd-nek van tapasztalata mind2 alkotóelemben, az intelnek csak az egyikben van... -
A1274815 #18 Ugyan akkor az Intel GPU szerencsére a Geometry és a Pixel Shadereeket ha lassabban is, mint a vetélytársak legalább hardwaresen csinálja, de akkor meg miért nem lehett volna a Vertex Shader-t is úgy megcsinálni? -
kvp #17 "Itt most első sorban a WDDM driver írásáról van szó, amit az NVidia még GeforceFX-ekhez is sikerrel véghez vitt. Szóval el het képzelni menyíre sz* lehet ha WDDM drivert sem tudott hozzá írni az Intel."
Wddm drivert barki tud irni. A referencia implementacio pl. vesa-t hasznal. (lasd: windows safe mode) A problemat a hardveres gyorsitas megletet jelento flag-ek jelentik. Az intel chipkeszlete gyakorlatilag egy sima ramdac, ami csak 2d allokepek megjeleniteset tamogatja hardverbol, tehat gyakorlagilag egy nagyfelbontasu es szinmelysegu cga kartya. Minden mas x86 alapu szoftveres emulaciot igenyel, amiben az intel regebben is eleg jo volt. A vista uj felulete szamara viszont szukseges a hardveres 3d gyorsitas. Valojaban eleg lett volna ezt a limitaciot eltorolni es meg mindig lenne egy 2-3 sec/frame sebessege a 3d gyorsitatlan uj feluletu vista-nak. Ha a microsoft nem gondolja meg magat es engedelyezik az inteles chipekre az uj feluletet, akkor semmi gond nem lenne es per sem lett volna belole. Legfeljebb mindenki varna 2-3 masodpercet gepeles kozben amire egy-egy leutott karaktere megjelenne a kepernyon, vagy levenne a felbontast 800x600x8bpp-re, hogy gyors legyen.
"Az már csak extra érdekesség, hogy az Intel egyes DX10-esnek titulált videó kártyáiból hiányzik a hardwares vertex shader."
Gyakorlatilag ez az uj intel-es dx10-es design koveti az nvidia regi kartyait (riva128, tnt) amik meg nem tartalmaztak vertex shader-t csak pixel kezelo egysegeket (egyszeru blitter kartyak voltak). A hardveres vertex gyorsitas az nvidia-nal csak a geforce-okkal jott be. Az intel-nel emiatt a regi technologia miatt tudjak olcsobban eloallitani a chipeket. Aki ezen meglepodik annak megemlitenem az elso intel fele hardveres gyorsitokartyat, ami 640x480 true color-t tudott, video kimenettel rendelkezett es meg az xt-khez jott ki. A kartya harom aramkori lapbol allt. Egy cga kartya a bios boot-hoz, egy memoriakartya a grafikus ram-nak es egy szabvanyos i8086-os cpu ami a shader kodokat futtata. A rendszerrel egy az isa buszon ulo 4KB-os bufferen kereszult kommunikalt, ahol fel lehetett tolteni a texturakat, a modelleket, a shader kodot es a vegrehajtando parancsokat. A kartyat az ibm forgalmazta aranyar folott. Az uj intel-es videokartya project (larabee) is erre epul. Fognak jopar modern technologiaval gyartott pentium mmx-es magot (lasd: atom) es futtatjak rajta a sajat szoftveres renderelojuket. A dolog azert fog mukodni, mivel a shader kodokat fordito szoftver nativ x86-os kodot general. Ezzel a megoldassal az gpu-nak hasznalt x86-osok elerhetik a hasonlo sebessegu es magszamu ati chipek sebesseget is. Viszont a magok szamaban viszonylag nagy elteres lesz az ati javara. Az nvidia ezzel szemben butabb, de gyorsabb magokat hasznal, tehat nyers teljesitmenyben tovabba is jobbak lesznek, mig komplexebb shader-ek eseten jelenleg az ati a nyero (mar ha a driverek ellenere eppen mukodik a kartyajuk).
ps: A microsoft meg legalabb beismerte hogy ezt uzleti erdekbol ugyan, de nagyon elrontotta. -
#16 nem működik. Az szoftveres, nem hardveres. A szoftveres vécépapírnak használhatják. Milyen futószalag? Nemtudom miről beszélsz, de ha 3 helyett 2-vel oldanak meg valamit az általában gyorsít, és olcsóbb is. -
#15 Nézd meg a közeljövő céljait, és a gpu és cpu viszonyát... -
#14 Ezt az idióta elavult faszságot honnan sikerült újra előszedned? Nemhiszem el hogy ilyen hülyék tudnak lenni az emberek.
Most jöhet az "amd nagyon melegszik, és elég" faszság is, olyan szépen mutat ez a 2 idiótaság egymás mellett. -
gkalcso #13 > Az már csak extra érdekesség, hogy az Intel egyes DX10-esnek titulált videó kártyáiból hiányzik a hardwares vertex shader.
De működik. Volt már példa hasonló megoldásokra. Mondjuk mikor ati 3 futószalagot mutatott kifelé, de belül csak kettő volt. -
A1274815 #12 "Azt azért hozzátenném h érdekes módon mások képesek voltak erre a chipsetre is csicsás effektes felületet optimalizálni."
Itt most első sorban a WDDM driver írásáról van szó, amit az NVidia még GeforceFX-ekhez is sikerrel véghez vitt. Szóval el het képzelni menyíre sz* lehet ha WDDM drivert sem tudott hozzá írni az Intel.
(Kérdés: azok a "mások", akik "csicsás effektes felületet optimalizálni" erre a kacatra is, vajon az a "csicsás effektes felületet" is ad GPU ütemezőt ésGPU videómemória virtualizációt?)
Az már csak extra érdekesség, hogy az Intel egyes DX10-esnek titulált videó kártyáiból hiányzik a hardwares vertex shader. -
LOTR|Atocha #11 Na pontosan ez a fajta hozzállása miatt nem fogok sohasem Intelt venni. Nem tetszik a stilusuk. Lehet hogy a legjobb CPU-kat gyártják a világon (bár emléxem én más időkre is), de akkor is AMD-t fogok venni, mert százszor emberségesebbek mint az Intel. -
#10 Az a baj, hogy itt most CPU-król van szó, ad2 jóval több gépbe kerül cpu mint komolyabb gpu ergo jóval több lóvé, vagyis fontosabb piac jóval -
floatr #9 Hát az amd inkább írjon egy nooormális drivert az űberfasza gpu-ihoz, aztán majd tapsolok hozzá. Bár legalább a szándék megvan... -
#8 szeretnéd mi? fizetnél 500k-t a legolcsóbb i7-ért, mert vérfanboy vagy. Az amd max leáll a processzorgyártással, ha az nagyon rossz helyzetben van (de nincs), és gpu-t gyárt (amivel ugye mindent üt), és majd ha kész gpu-cpu-t, amit az intel még jó sokáig csak szánalmas szinten tud majd utánozni, mivel 1 normális gpu-t nem sikerült nekik összehozni... -
floatr #7 Azt azért hozzátenném h érdekes módon mások képesek voltak erre a chipsetre is csicsás effektes felületet optimalizálni -
#6 Nem ezen múlik hanem, hogy az AMD a saját tervét végre tudja-e hajtani, vagyis időben kiadni az új termékeket, nem pedig annyit csúszni mint eddig.
Remélem a mocskos, geci intel akkora pénzbüntetést kap, hogy jövőre nem lesz pénze más cégeket kg-ra megvenni, de az M$-t is nyugodtan meg lehet büntetni, büdös csicskák. -
#5 Az AMD szerintem közelebb van a sírhoz, ha Intel i7 procik is akkora sikert hoznak mint a Core 2 Duo akkor az AMD-nek befellegzett -
Tripax #4 Szerintem nem kell még temetni az Intelt. Nem olyan gyenge cég. -
Tripax #3 Akinek halál hírét terjesztik, hosszú időt él meg.
Népi szájhagyomány. -
Csaba42 #2 "..., hogy az i915 jelzésű chipkészlet még mindig a forgalom nagy részét teszi ki, ez pedig nem alkalmas egyik követelmény teljesítésére sem."
Nesze neked "bitangerőshardwaregyártó" Intel - sajna pénzzel mindent el lehet érni, így lesznek az utolsókból elsők. -
#1 Abba: Money, money, money