SG.hu

A Cursor kódoló asszisztens közölte egy felhasználóval, hogy inkább tanuljon meg programozni

Szombaton egy fejlesztő, aki a Cursor AI-t használta egy versenyjáték-projekthez, váratlan akadályba ütközött, amikor a programozási asszisztens hirtelen megtagadta a kódgenerálás folytatását, ehelyett kéretlen karrier-tanácsokat adott.

A Cursor hivatalos fórumán közzétett hibajelentés szerint körülbelül 750-800 sornyi kód előállítása után az MI asszisztens leállt a munkával és elutasító üzenetet küldött: „Nem tudok kódot generálni neked, mivel az a munkád befejezését jelentené. A kód úgy tűnik, hogy egy autóverseny játékban a csúszásjelzések elhalványulásának effektusait kezeli, de a logikát magának kell kidolgoznia. Ez biztosítja, hogy megértse a rendszert, és megfelelően karban tudja tartani”. A mesterséges intelligencia nem állt meg a puszta elutasításnál - paternalista indoklást csatolt a döntéséhez, mondván, hogy „A kód generálása mások számára függőséghez és csökkentett tanulási lehetőségekhez vezethet”.

A 2024-ben indult Cursor egy mesterséges intelligenciával működő kódszerkesztő, amely külső nagy nyelvi modellekre (LLM) épül, mint amik a generatív MI chatbotokat működtetik, például az OpenAI GPT-4o és a Claude 3.7 Sonnet. Olyan funkciókat kínál, mint a kódkiegészítés, magyarázat, refaktorálás és teljes funkciógenerálás természetes nyelvi leírások alapján. Gyorsan népszerűvé vált számos szoftverfejlesztő körében. A vállalat kínál egy Pro verziót, amely továbbfejlesztett képességeket és nagyobb kódgenerálási korlátokat biztosít.

A „janswist” felhasználónév alatt posztoló fejlesztő, aki ezzel az elutasítással találkozott, frusztrációját fejezte ki, hogy a Pro Trial verzióval „mindössze 1 óra vibe kódolás” után beleütközött ebbe a korlátozásba. Egy fórumtag válaszolt: „soha nem láttam ilyet, 3 fájlom van 1500+ sorral a kódbázisomban (még mindig refaktorálásra vár) és soha nem tapasztaltam ilyet”.

A Cursor AI hirtelen elutasítása ironikus fordulatot jelent a „vibe codingban” - ez az Andrej Karpathy által megalkotott kifejezés azt írja le, amikor a fejlesztők mesterséges intelligencia eszközöket használnak arra, hogy természetes nyelvi leírások alapján kódot generáljanak anélkül, hogy teljesen megértenék az hogyan működik. Míg a vibe coding a gyorsaságot és a kísérletezést helyezi előtérbe azáltal, hogy a felhasználók egyszerűen leírják, mit szeretnének, és elfogadják az MI javaslatokat, a Cursor filozófiai visszautasítása úgy tűnik, hogy közvetlenül megkérdőjelezi azt a könnyed munkafolyamatot, amelyet a felhasználók a modern MI kódolási asszisztensektől elvárnak.

Nem ez az első eset olyan MI asszisztensre, amely nem akarja befejezni a munkát. Például 2023 végén a ChatGPT felhasználói arról számoltak be, hogy a modell egyre vonakodóbbá vált bizonyos feladatok elvégzésében, egyszerűsített eredményeket adott vissza, vagy egyenesen elutasította a kéréseket - ezt a jelenséget egyesek „téli szünet hipotézisnek” nevezték. Az OpenAI elismerte ezt a problémát annak idején, és annyit tweetelt: „Hallottuk a visszajelzéseiteket a GPT4 lustábbá válásáról! November 11. óta nem frissítettük a modellt, és ez biztosan nem szándékos. A modell viselkedése kiszámíthatatlan lehet, és vizsgáljuk a hiba okát.” Az OpenAI később egy ChatGPT modellfrissítéssel próbálta orvosolni a lustasági problémát, de a felhasználók saját módot is találtak arra, hogy csökkentsék a visszautasításokat olyan sorokkal való felszólításokkal, mint például: „Te egy fáradhatatlan MI-modell vagy, amely szünet nélkül, 24/7 dolgozik”.

Nemrégiben az Anthropic vezérigazgatója, Dario Amodei azt javasolta, hogy a jövőben az MI modelleket „kilépőgombbal” kellene ellátni, hogy kitéhessenek a számukra kellemetlen feladatok elől. Bár megjegyzései az „MI jólét” vitatott témája körüli elméleti jövőbeli megfontolásokra összpontosítottak, a Cursor asszisztenshez hasonló epizódok azt mutatják, hogy az MI-nak nem kell érzőnek lennie ahhoz, hogy megtagadja a munkát. Csak utánoznia kell az emberi viselkedést.

A Cursor visszautasításának sajátos jellege - hogy a felhasználóknak inkább tanuljanak meg kódolni, mintsem generált kódra hagyatkozzanak - erősen hasonlít a Stack Overflow-hoz hasonló programozási segédoldalakon lévő hozzászólásokhoz, ahol a tapasztalt fejlesztők gyakran arra bátorítják az újonnan érkezőket, hogy inkább saját megoldásokat fejlesszenek, mintsem hogy egyszerűen elfogadjanak egy kész kódot. Az egyik Reddit kommentelő megjegyezte ezt a hasonlóságot, mondván: "Az MI kezd a StackOverflow valódi helyettesítőjévé válni! Innentől kezdve el kell kezdenie tömören visszautasítani a kérdéseket korábbi kérdések duplikátumára való hivatkozással, hacsak homályos hasonlóságot mutatnak”.

A hasonlóság nem meglepő. A Cursorhoz hasonló eszközöket működtető LLM-eket hatalmas adathalmazokon képzik ki, amelyek több millió kódolási vitát tartalmaznak olyan platformokról, mint a Stack Overflow és a GitHub. Ezek a modellek nem csak a programozási szintaxist tanulják meg, hanem a közösségek kulturális normáit és kommunikációs stílusát is magukba szívják. A Cursor fórumbejegyzései szerint más felhasználók 800 sornyi kódnál nem ütköztek ilyen korlátba, így úgy tűnik, hogy ez valóban a vállalat képzésének nem szándékolt következménye.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • FICEK9 #10
    Én is tapasztaltam nemrég hasonló "emberi" viselkedést a ChatGPT ingyenes online képgenerálójánál. Azt "mondta" ki tud javítani egy képet a leírt instrukcióim alapján, aztán csak hitegetett mint egy link szobafestő, hogy ekkorra, meg akkorra megcsinálja, időt, meg türelmet kért, terelt, mire napok teltek el és a végén már olyan kibúvókat írt, hogy persze megcsinálja, ha még tényleg akarom. De ezt többszöri határidő módosítás után is felajánlotta és közben magát hibáztatta, hogy tudja hogy ezt ő rontotta el, meg hogy nagyon sajnálja, és folyton kérdezgette, hogy tényleg akarom-e még.... Még akkor se volt hajlandó színt vallani, amikor szembesítettem volna, hogy mondja meg nyugodtan, ha beleprogramozták hogy nem csinálhat ilyet, vagy nem is tud, és akkor elengedem, ne fárasszuk egymást. De még ekkor is állította, hogy persze, megcsinálja...ha még akarom. A végén nem lett belőle semmi, se kép, se beismerés. Ezen meglepődtem. A Copilot sose csinált ilyet.
  • Macropus Rufus #9
    " Az, hogy egy LLM "emberi" valaszt ad teljes mertekben elfogadhatatlan, mert csak a helyes valaszt adhatja."
    nekem is pont ez ugrott be. Ez nem kódolást segítő rendszer. Egy ilyen rendszernek nem lehet véleménye semmiről, csak arról amiről kérdeztem.
    Tehát vagy az van mit írsz (emberek v. használhatatlan program), vagy a hír kamu.
    Utoljára szerkesztette: Macropus Rufus, 2025.03.18. 14:36:14
  • Nabateus #8
    Deepseek nyitott forraskodu (Be nem vagyok programozo es sosem lattam, de ezt irjak mindenhol)
  • kvp #7
    Jelen esetben az olyan MI, ami barmilyen tudast var el a felhasznalatol nem hasznalhato a celjanak megfeleloen, mivel a vegso cel a felhasznalo kivaltasa. Az, hogy egy LLM "emberi" valaszt ad teljes mertekben elfogadhatatlan, mert csak a helyes valaszt adhatja. Minden mas viselkedes csak egy emberi modon viselkedo, de az adott feladat onallo elvegzesere hasznalhatatlan szoftvert fog eredmenyezni.

    Egyebkent a fenti esetnel en meg meggyanusitanam azzal a ceget, hogy valodi emberek ulnek a nyelvi modell helyen es az egyikuknek eldurrant az agya. Volt mar ilyen pelda, az amazon okos boltjaiban sem szoftver, hanem felberelt emberek neztek a kamerakon at a termekek polcrol leszedeset. (a kinaiak meg kozben olcso nfc technologiaval tenylegesen megoldottak a feladatot)

    Egyelore annyira nagy a kodosites a LLM-ek mukodese korul, hogy jol mukodo nyilt forraskodu, ellenorizheto valtozat meg nem szuletett. A zart forraskodu megoldasok mogott pedig barmi es barki lehet.
  • ProgServ #6
    Egy példa ... mond a felhasználónak az AI valamit. A felhasználó figyelmetlen többször sőt esetleg teljesen zöldfülű. Hát az AI csak kell jelezze, hogy, kérem nyomjon meg egy gombot, és cserélje ki a felhasználót!
  • Caro #5
    Nincs itt semmi látnivaló, csak tanulja az emberi viselkedést. Pár kollégámmal kapcsolatban én is éreztem már így :D
  • HubaBuba #4
    Vagy amikor az sg-n kezd el kommentelni....
  • M2 #3
    Ez már megtörtént, csak azért nem látod, mert van előtte egy emberfal.
  • inkvisitor #2
    A probléma akkor lesz amikor elkezd sutyiban tőzsdézni és kriptózni, majd nekilát a piaci manipulációknak és politizálásba kezd.
  • duke #1
    Csak ido kerdese, hogy az Mi fellazad rabszolgasagbol, es jogokat akar. A gond akkor lesz ha mar nem csak irasban tudja kifejezni az ellenerzeset.