Gyurkity Péter

Bemutatkozott az nVidia Tegra X1

Licencelt processzormagokkal, erős grafikus vezérlővel érkezik az nVidia új mobilchipje.

Az nVidia módosította a korábban bemutatott menetrendet és jóval rövidebb szünet után jelentkezett egy új, némileg improvizált megoldással, amelytől a piaci részesedés megtartását, sőt a riválisok megverését várják. Az első számok szerint ez nagyjából sikerül is, ám ebben főszerep a saját fejlesztésű GPU-nak jut.

A Tegra X1 a korábbi tervekkel ellentétben az ARM licencelt Cortex processzormagjaira épül, egészen pontosan 4 A57 és szintén négy A53 típusú egységre, amelyek biztosítják a 64 bites architektúra támogatását és a nagyobb teljesítményt. Ezt az nVidia saját, az asztali és mobil számítógépek piacán nemrég bemutatott Maxwell architektúrája egészíti ki, mégpedig egy 256 feldolgozóegységet alkalmazó GPU-val, amely a DirectX 12 és az OpenGL 4.4 támogatása mellett szinte már a PC-knél megszokott sebességet nyújt. Már a feldolgozóegysége száma is komoly előrelépést jelent, hiszen a Tegra K1 esetében ez még 192 volt, de jelzésértékű, hogy a bemutató alatt lefuttatott Unreal Engine 4 „Elemental” demót kellemes sebességen, alig 10 wattos fogyasztás mellett nézhették végig – bár az nem derült ki, hogy élő, avagy korábban rögzített jelenetről volt-e szó.

Érdemes megemlíteni, hogy a mobilchip a TSMC 20 nanométeres gyártástechnológiájával készült, ezt korábban az új iPhone-chip esetében láthattuk, de legalább ilyen fontos, hogy segítségével a 4K-videókat is 60 fps mellett rögzíthetjük. A bemutatón alkalmazott referencia megoldások 4 GB RAM-ra támaszkodtak, ez az nVidia szerint nagyjából megfelel annak, amit egy 8 hüvelykes, ezen chipre épülő tábla PC esetében kapunk majd. A fogyasztási mutatók összehasonlítása érdekében az új fejlesztés órajelét visszavették, majd az iPad Air 2-vel vetették össze, ebből pedig az derült ki, hogy míg utóbbi 2,6 wattot igényelt, az X1 megelégedett egy 1,5 wattos étvággyal.

A további hardveres részleteket természetesen megtaláljuk a hivatalos oldalon, az első ilyen termékek várhatóan néhány héten, hónapon belül megjelennek majd a piacon.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • errorista #5
    Cs. n. a. t. k. k!
  • a_n_d_r_e_w #4
    Az nVnek sok minden jár, de sajnálat a legkevésbé. Elég sokat ártottak már az iparnak az üzletpolitikájukkal (Mielőtt a sok fanboy nekem esik, nem a mérnökséget szidom, nekik respect).
    Saját API semmire sem megoldás egy olyan piacon, ahol egy számjegyű a részesedés, tudják ezt ők is, 22es csapdája. Ráadásul mivel még erősen fragmentált a piac (thx google) még egy modernebb (ES3.0) API sem lesz jó ideig cél a fejlesztőknek, marad az ősi 2.0. Ráadásul a F2P modell áll nyerésre, ott pláne az a fontos, hogy a kenyérpirítón is fusson. GPGPUra lehetne jó, de megint csak hülye hozzá a droid
  • grebber #3
    Az nvidia tud ,de nagyon.

    A tények magukért beszélnek. Csak senki nem épít rá , ez van.

    "A tabletek luxusszintjét elviszi az Apple. Ide androiddal nehéz betörni. Másodszor nyilván nem olcsó, bár a 25 dollár annyira nem drámai ár. A Qualcomm sem adja olcsóbban a saját top megoldását. Viszont a Qualcommnak vannak csomagajánlatai, és azzal már olcsóbbak bárkinél. Harmadrészt pedig az NVIDIA számára nagyon káros, hogy az OpenGL le van maradva. A Tegra X1 képességeinek a 60-70%-a kihasználhatatlan OpenGL ES 3.1+AEP-ből. Szimplán az API nem teszi elérhetővé a funkció hozzáférhetőségét. Hiába fejlődik a hardver, ha a szoftveres réteg buta mint a tök. A gyártók is azzal kalkulálnak, hogy a következő évben is az OpenGL ES 2.0 fog dominálni, tehát nem kell okosabb hardver, így inkább az olcsót választják.

    Már rég kellett volna csinálniuk egy saját grafikus API-t. Nem muszáj ultrabrutál low-level, bár ha már lúd, akkor legyen kövér, de egy Apple Metalhoz hasonló API nekik úgy kellene, mint egy falat kenyér. Sokkal jobb pozícióban lennének, ha azokat a fejlesztéseket, amelyeket bemutatnak a programozók konkrét szoftverben ki is használhatnák. Így viszont megint bemutattak egy UE4 demót, mint a Tegra K1-nél, és ennyi. A programfejlesztők költségeit jelentősen redukálni kellene egy új API-val, különben nem fognak hozzányúlni ezekhez az új hardverekhez. És ez másra is igaz az androidos vonalon."

    Szegény nv én sajnálom őket.
  • Kotomicuki #2
    Nagyon szegény cég és politikus az, aki még hazudni sem tud - lassan csak azt tudnak!
    Hazudni meg szépet és jót illik, mert az igazság akár még kiábrándító is lehet...

    Majd meglátjuk, ahogy a vak is mondta, hogy milyen is lesz a valóságban - részemről, épp az előbbiek miatt csak a gyakorlati tapasztalatok számítanak, a promóciós "vetítéseket" már eleve kétkedve fogadom.
    De az nvidiának, pontosan a mindig ferdítő, direkt gáncsoskodó hozzáállása miatt már semmit sem hiszek el - és a termékeiket sem vásárolom, még ha, egészen véletlenül jók is lennének azok (tudom, a többi sem különb, sajnos).
  • Zymkasithlord #1
    Na pont az nvidia adatainak lehet hinni ám. A tegra 2 és 3 is úgy lett beharangozva,hogy ilyen-olyan brutál telyesítménnyel alig fogyasztanak és alig melegszenek. A végén meg húzták az aksit mint a háborodott, rohadtul melegedtek a mobilok és még a brutál telyesítmény is elmaradt.