Gyurkity Péter

AI tervezi az nVidia új chipjeit

Ezzel nemcsak a munkaerőt, de rengeteg időt is megspórolnak, bár még szükség van emberekre.

Az nVidia kapcsán többnyire a cég grafikus kártyáiról, azok pontos részleteiről számolunk be, legutóbb például arról írtunk, hogy az RTX 3080 legyűrte riválisát. A vállalat több másik területen is jelen van, a mesterséges intelligencia ezek egyike, most pedig e kettőt ötvözik, amely komoly előnyöket kínál számukra.

Egy külsős lap adott hírt a napokban a hosszabb interjúról, amelyet a kutatási részlegért felelős alelnökkel készítettek. Ebben többek között kitértek az új, jövőben megjelenő grafikus vezérlők tervezésére, annak részleteire is, a cégvezető pedig elmondta, hogy ezen a téren már szintén bevetik az AI-t, amely több komoly előrelépéssel kecsegtet. Megtudtuk például, hogy az NVCell névre keresztelt technológiával alaposan felgyorsul és egyben leegyszerűsödik a folyamat, hiszen a gépi tanulás alkalmazásával a szükséges cellák mintegy 92 százaléka már a meglévő GPU-k bevetésével megtervezhető, alig van tehát szükség emberi beavatkozásra, közreműködésre.

A mellékelt számokból az rajzolódik ki, hogy a cég méretes összeget spórol a munkaerőn és a teljes folyamaton, mivel mindössze 2 grafikus vezérlő erejének bevetésével alig néhány nap alatt elvégzik azt a munkát, ami eddig 10 embernek csaknem egy teljes évet vett igénybe. Ezzel alakul ki a cellák fent említett magas aránya, azok 92 százaléka, a maradék 8 százalékon pedig már a munkatársak dolgozhatnak, véglegesítve a GPU kialakítását, tovább optimalizálva a végeredményt, bár ebben az AI is jelentős mértékben szerepet vállal, hiszen ez is kiküszöbölheti az emberek által vétett hibákat.

Az elkövetkező években tehát arra számíthatunk, hogy már nagyrészt a mesterséges intelligencia által tervezett chipeket dobnak piacra, ahogy azt a Google és több másik cég is tervezi.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Sir Cryalot #6
    Todd megy kocsikázni, a jövő hazudós videóiban már az nvidia lesz a főszereplő

    Utoljára szerkesztette: Sir Cryalot, 2022.04.22. 13:06:50
  • Gabbbbbbbbbbbb #5
    Ez igaz, de nem az eszközök javításával van a probléma, mert chipeket nem lehet javítani, hanem amennyiben valami tervezési gebasz van a chippel, akkor ember nem fogja tudni annak az okát hatékonyan vizsgálni.
  • Macropus Rufus #4
    anno ezt már kifejtette egy szaki a Chip magazinban is még vagy 20 éve. Ott is azt okfejtették, hogy a nem emberi logikával készített eszköznél még a hiba forrását is nehéz lesz detektálni.
  • Sequoyah #3
    Ez nem problema, hanem a jovo maga.
    A komplexitas felso hatara mar most is az, hogy egy bizonyos bonyoultsagon tul az ember keptelen megerteni es atlatni a rendszert. Az egesz AI koncepcionak az a lenyege, hogy ezt a korlatot atlepjuk.
    Maga a deep learning is azon alapul, hogy nagy adathalmazban talal olyan osszefuggeseket, amit egy ember mar keptelen atlatni.

    Egy darabig meg el lehet jutni azzal hogy modularizalunk, es egy embernek csak egy kisebb modult kell egyszerre megerteni, de akkor meg a modulok kozotti kommunikacio lesz az overhead, es a modulok kezdenek szaporodni.
  • Gabbbbbbbbbbbb #2
    Ez ostobaságnak tűnik.

    1.) Ember chipeket eddig sem tudott javítani.
    2.) A kísérő áramkör komplexitását minimalizálni fogja a gépi tanulós logika is, a költségek minimalizálása miatt, ebből kifolyólag meg lehet érteni és javítani is lehet.
  • Macropus Rufus #1
    ez király. A gond akkor lesz, ha az MI olyan logika mentén fog tervezni amit az emberek már nem fognak megérteni. Ez némileg nehezíteni fogja az eszközök javítását. Jelenleg emberi logika tervezte eszközeink vannak. Ezért némi utána járással kvázi bárki meg tud javítani bármit. (meg hát szaktudás is kell)
    De ha egy nem emberi logika alkot meg valamit azt megérteni is marha nehéz, ha nem lehetetlen. Ez némi gondot fog okozni a jövőben az MI által tervezett eszközök terén. Sztem.