5
  • Bruce_Willis
    #5
    Biztos hogy a ChatGPT-t használod?
    A Bing AI ilyen idióta, a GPT-vel csak régebben tapasztaltam ilyet.
  • Gladiator
    #4
    Jelenleg arra sem emlekszik, amit 2 uzenettel elobb irtam. Megadnom neki pontosan a promptokat, hogy hogyan valaszoljon, 2x jol valaszol a 3.-nal meg mintha sosem beszeltunk volna...
  • AndReWsss
    #3
    Fejlesztettél / terveztél ilyet?
    ez nem egy determinisztikus rendszer :)
  • Bruce_Willis
    #2
    Majd végül, egy másik felhasználóval megossza a titkaidat.
    Így működik a világ.
    Lassan a békát is meg lehet főzni.
  • RJoco
    #1
    Azért elég gáz, ha a 30. szülinapra 5 van írva :))

    Amúgy mi akar lenni ez a hulladék?
    De most komolyan?
    Én elvárnám, hogy a bot pontosan emlékezzen arra, amit mondtam-írtam és ne csak nagy vonalakban, hallucinálva. Azt én magam is meg tudom tenni, akkor meg minek a bot?
    Semmi értelme az egésznek.
    Megint programoztak valamit, ami tele van hibával, csak most megpróbálják eladni nekünk úgy, mintha ez így működne jól és tök jó, hogy van.
    Eladják nekünk a nyavajás, hibás szoftvert, aztán a hülye politikus meg még támogatja is, hogy legalább x évig legyen rá frissítés, meg hibajavítás.
    Ez így nagyon rosszul működik.
    Adjanak el egy olyan szoftvert, amit nem kell hetente, havonta frissítgetnem, mert eltoltak valamit és nem tesztelték kellően kiadás előtt.
    Régen fizettek a program tesztelőknek. Most meg a program tesztelők fizetnek, sokkal többet...