5
  • Sequoyah
    #5
    A legtobb cegnek a novekedes a celja, nem pedig a koltsegek megvagasa.
    Szoval ha valaszthat akozott, hogy kirug egy dolgozot es AI-val helyettesiti, vagy megtartja a dolgozot, es az AI segitsegevel meg egy dolgozo munkajaval felero erteket termel, akkor az utobbit fogja valasztani.
  • Sequoyah
    #4
    "Meg a mondatok kozti osszefuggeseket se erti"
    De erti. Az egesz "attention" mechanizmus lenyege, hogy a teljes prompt szovegen belul kepes megtalalni az osszefuggeseket. Peldaul ha szerepel benne az a szo, hogy "nap", akkor az 5 mondattal korabbi szavakbol ki tudja talalni, hogy most egy csillagrol, vagy egy idotartamrol beszelsz.

    Es nem, nem hasznal statisztikai eszkozoket. 2010 korul voltak olyan AI verziok, amik statisztikai eszkozokkel talaltak ki hogy mi a kovetkezo szo, es viszonylag ertelmes eredmenye volt, de kozel sem jart ahhoz amit a ChatGPT tud generalni.
    Az LLM erti a koncepciot a kerdes mogott, es kitalalja hogy melyik szo viszi kozelebb a valasz mogotti koncepciot a kerdes mogotti koncepciohoz.
  • kvp
    #3
    "Vannak direktívái esetleg,"

    Nincsennek. :-D Nem direktivai vannak, hanem valasz mintai es azokbol general ujakat. Tehat a betanitasi adatbazison futtatja a prompt es prompt history adatokat es azokbol probalja statisztikai eszkozokkel meghatarozni a kimenetet. Meg a mondatok kozti osszefuggeseket se erti, csak tudja, hogy ez utan az kell, mert a mintakban tobbnyire igy lattak. Csak egy statisztikai predikcios modell, nincs ontudata es remelhetoleg meg nem jott ra senki, hogyan lehet egy statisztikai predikcios modellnek ontudatot adni. (sejtesem nekem is van, de van annyi eletosztonom, hogy nem fogom kiprobalni)

    Szoval ha eleg tanulo mintat kap, akkor egyre bonyolultabb feladatokat fog tudni elvegezni, de nem azert mert erti mit csinal, hanem egyszeruen megkeresi hozza a lemasolhato peldat a tanulo adatbazisabol es azt koveti. A gond ott van, hogy a jelenlegi kodok nem kepesek ujat letrehozni. Csak arra jok, hogy pl. ha mar valaki ezt a feladatot egyszer elvegezte es betanithato formaban leirta a megoldast, akkor azt lemasolja. Gyakorlatilag az osszes modell egy hatalmas proceduralis fuggvenyabla, amiben egy statiszikai modell valasztja ki a kiolvasando sorokat.

    ps: Ez a csomo feladat amit az MI automatizal mar reges regen automatizalhato es kivalthato lett volna manualisan elkeszitve az automatizacios kodokat. Regen wizard-oknak, microsoft terminologiaban agent-eknek vagy regi berkeley-s nevvel demonoknak hivtak az ilyen kezzel keszitett automatizacios kodokat.

    ps: Erdekes info: https://en.wikipedia.org/wiki/BSD_Daemon
  • NEXUS6
    #2
    Két dolog teszi képtelenné a jelenlegi AI-t bármilyen komolyabb döntéshozatali kérdés megoldására:
    1. Nem rendelkezik összetett, értékekből és tiltásokból (tabukból) álló személyiséggel, és
    2. a képességgel, hogy megítélje, hogy az általa generált eredmények, ebbe a társadalmi elvárásokat is tükröző rendszerbe mennyire illeszkednek.

    Vannak direktívái esetleg, de azt hogy az adott eredmény, feladat, vagy az annak megoldására generált megoldások, közelítenek a személyiségből következő kritériumrendszerhez, vagy távolodnak tőle, majd hogy a kiválasztott jó eredményeket megfeleő hatékonysággal szintetizálja, gyak képtelen.
    Utoljára szerkesztette: NEXUS6, 2025.04.03. 11:05:47
  • barret
    #1
    Mert nem tudja a munkámat elvégezni.