• repvez
    #4
    NEkem csak egy problémám van , hogy amilyen sok paramétert és funkciot tudnak használni ezek a modellek, hogy miért nem tudják már fixen szinte hiba nélkül, azokat a dolgokat amikben nem lehet téveszteni? gondolok itt olyanra mint a matek és a fizika vagy mint a programozás. Mindegyiknek van egy fix szabályrendszere amit tudunk is tehát ezek fixen betáplálhatok vagy megtanithatoak a modelleknek, ugy ahogy egy diákot ,csak ök fixen emlékezni kellene a jo képletekre mindig és használni is tudnák ugy hogy ne hibázzanak. Mert lényegében most is ezt csinálja a CPU és a GPU is, hogy matematikai dogokat végeznek el dolgoznak fel. és ahhoz, hgogy megbizhatoak legyenek mindig ugyan azt az eredményt is kell , hogy adják, tehát most ugyan ezt kellene átultetni egy nyelvi modellre, hogy azt amit a CPU vagy a GPU számolt azt szavakkal vagy számokkal is meg tudja jeleniteni az emberek számára.

    DE sajnos valamiért nem igy csinálják, hanem valahogy máshogy tréningezik öket és csak egy olyan eszköz aminél legalább is jelenleg még nem lehet komoly dolgokra használni, mármint ezeket a nyilvános általános modelleket, Persze specializálodott és laborookban használtak már ennél jóval többre képesek.

    Hát lehet hogy ott nem a GPT a hibás 100% ban, ha számodra mindig csak elhasal és nem jó választ ad. Vagy ugy teszed fel a kérdést olyan témában ami egyáltalán nem általános, vagy olyan választ ad amiről neked nincs fogalmad , hogy el tudd dönteni, hogy jó vagy nem, kettő nagy elvárásod van vele szembe és nem tudod mit kezdj azzal az infoval amit neked ad és abből kiszurd azt ami neked kell.

    Nálam se mindig ad olyan eredményt amire vártam, de pár pontositással már legalább közelebb vagyok ahhoz amit szerettem volna mintha egfyáltalán nem tudnék rola semmit. ÉS az már egy jo kiindulopont.
    A kérdésedre is adott nekem olyan választ ami számomra kinai és megkérve , hogy érthetően elmagyarázva már megtette és ugy már érthető volt. DE ha neked ez igy nem jó az nem biztos , hogy a modell hibája.