kvp#2
"Annyira teleszórták a netet felszínes tudást adó vacakokkal, hogy szinte lehetetlen kiszűrni a valóban értékes tartalmakat."
Ezek nagy resze szemet, de legalabb valodi emberi tartalmak. A cikk arrol beszel, hogy MI generalt tartalombol van egyre tobb es ha tulsulyba kerulnek, akkor az uj MI modellek mar a korabbi benabb modellek anyagai alapjan tudnak csak tanulni. Tehat pl. ha egy uj grafikus modell a korabbi 6+ ujjat generalo modellek alapjan tanul, akkor soha nem fogja megtanulni, hogy az embereknek altalaban 5 ujjuk van egy vegtagon. Nem a mi alaltunk latott szemet miatt aggodik, hanem azon, hogy a cege elveszti az ingyenes betanitasi adatbazisat, mert az megtelik a korabbi hibas szemettel. Az aggodalom jogos, de ezert van az, hogy minden olyan MI modell amit MI modellek kimeneteibol tanitanak degradalodik. Ez sok sok iteracio utan mar csak feher zajt eredmenyez a kimeneten. Jelenleg egy olyan modell, ami az MI korszak elott lementett internetes adatokbol dolgozik jobb eredmenyt produkal mint egy olyan modell ami friss internetes adatokat hasznal es a kulonbseg folyamatosan no.