• Sequoyah
    #4
    Az LLM modellek pont ugyanugy mukodnek, rengeteg az ures ter, ami egyaltalan nem esik ki, maximum kihasznalatlanok. Egy milliard parameteres LLM modell sokkal tobb dolgot kepes leirni, mint ahany dolog van a vilagon.

    Ebben a sok dimenzios modellben vannak gyakran hasznalt pontok, amik azok a dolgok, amikre nekunk kulon szavaink is kifejezeseink vannak. Es vannak ritkan hasznalt pontok, aminek eleresehez tobb szavas kombinaciokra van szuksek, ahol tobb szo lehet egy mondat, egy paragrafus, vagy akar tobb oldalas szoveg is, ami mind egy adott koncepcio reszletes leirasahoz szukseges.
    Az LLM-ekben ezek egyaltalan nem vesznek el, sot eppen ez adja az erejuket. Epp ezert kepesek ertelmezni olyan szovegeket is, amiket soha nem lattak korabban, viszont kepesek elhelyezni oket a vilagmodelljukben.