SG.hu
Az OpenAI MI-jét használják a kínai, orosz és az iráni hackerek
Egy szerdán közzétett jelentés szerint orosz, kínai és iráni államilag támogatott hackerek az OpenAI eszközeit használják, hogy csiszolják képességeiket és becsapják célpontjaikat.
A Microsoft a jelentésében azt írja, hogy az orosz katonai hírszerzéshez, az iráni Forradalmi Gárdához, valamint a kínai és az észak-koreai kormányhoz kötődő hackercsoportokat követett nyomon, amint azok nagy nyelvi modellek segítségével próbálták tökéletesíteni hackerkampányaikat. Ezek a gyakran mesterséges intelligenciának nevezett modellek hatalmas mennyiségű szövegből dolgozva emberi hangzású válaszokat generálnak. A vállalat a felfedezéssel egyidejűleg általános tilalmat vezetett be az MI-termékeinek hackercélokra való használata ellen. "Függetlenül attól, hogy a törvény vagy a szolgáltatási feltételek megsértéséről van-e szó, egyszerűen nem akarjuk, hogy az általunk azonosított szereplők - akiket nyomon követünk, és akikről tudjuk, hogy különféle fenyegetésekkel operáló szereplők - hozzáférjenek ehhez a technológiához" - mondta Tom Burt, a Microsoft ügyfélbiztonságért felelős alelnöke.
A hackerek állítólag az orosz katonai kémügynökség, a széles körben GRU néven ismert szervezet nevében dolgoztak, és a modelleket "különböző műholdas és radartechnológiák kutatására használták, amelyek az ukrajnai hagyományos katonai műveletekre vonatkozhatnak" - írta a Microsoft. Az észak-koreai hackerek a modelleket olyan tartalmak létrehozására használták, "amelyeket valószínűleg regionális szakértők ellen irányuló spear-phishing kampányokban használnának". A Microsoft szerint iráni hackerek is támaszkodtak a modellekre, hogy meggyőzőbb e-maileket írjanak, egy alkalommal pedig egy olyan üzenet megfogalmazásához használták őket, amellyel "prominens feministákat" próbáltak egy csapdába esett weboldalra csalni. A szoftveróriás szerint a kínai állam által támogatott hackerek is kísérleteztek nagyméretű nyelvi modellekkel, például a rivális hírszerző ügynökségekről, kiberbiztonsági kérdésekről és "neves személyekről" szóló kérdések feltevésével.
Kína amerikai nagykövetségének szóvivője, Liu Pengyu azt mondta, hogy ellenzi a "Kínával szembeni alaptalan rágalmakat és vádakat", és kiáll a mesterséges intelligencia technológia "biztonságos, megbízható és ellenőrizhető" alkalmazása mellett, hogy "növelje az egész emberiség közös jólétét". Az állítás, miszerint az állam által támogatott hackerek mesterséges intelligencia eszközöket használtak kémkedési képességeik növelésére, valószínűleg aláhúzza a technológia gyors elterjedésével és a visszaélések lehetőségével kapcsolatos aggodalmakat. Nyugaton magas rangú kiberbiztonsági tisztviselők már tavaly óta figyelmeztetnek arra, hogy a szélhámos szereplők visszaélnek az ilyen eszközökkel, bár konkrétumokról eddig nem sok szó esett.
"Ez az egyik első, ha nem az első eset, amikor egy mesterséges intelligenciával foglalkozó vállalat nyilvánosan beszél arról, hogy a kiberbiztonsági fenyegetések szereplői hogyan használják a mesterséges intelligencia technológiákat" - mondta Bob Rotsted, aki az OpenAI kiberbiztonsági fenyegetésekkel kapcsolatos hírszerzését vezeti. Az OpenAI és a Microsoft "korai stádiumúnak" és "fokozatosnak" nevezte, ahogy a hackerek az általuk használt mesterséges intelligencia-eszközöket használták. Burt szerint egyikük sem tapasztalt áttörést a kiberkémeknél. "Azt láttuk, hogy úgy használják ezt a technológiát, mint bármely más felhasználó" - mondta.
Sem Burt, sem a Rotsted nem kívánt nyilatkozni a tevékenység volumenéről vagy arról, hogy hány fiókot függesztettek fel. Burt a hackercsoportok zéró toleranciával való kitiltását - amely nem terjed ki a Microsoft szolgáltatásaira, például a keresőmotorjára, a Bingre - azzal védte, hogy a mesterséges intelligencia újdonságára és az alkalmazásával kapcsolatos aggodalmakra hivatkozott. "Ez a technológia egyszerre új és hihetetlenül erős" - mondta.
A Microsoft a jelentésében azt írja, hogy az orosz katonai hírszerzéshez, az iráni Forradalmi Gárdához, valamint a kínai és az észak-koreai kormányhoz kötődő hackercsoportokat követett nyomon, amint azok nagy nyelvi modellek segítségével próbálták tökéletesíteni hackerkampányaikat. Ezek a gyakran mesterséges intelligenciának nevezett modellek hatalmas mennyiségű szövegből dolgozva emberi hangzású válaszokat generálnak. A vállalat a felfedezéssel egyidejűleg általános tilalmat vezetett be az MI-termékeinek hackercélokra való használata ellen. "Függetlenül attól, hogy a törvény vagy a szolgáltatási feltételek megsértéséről van-e szó, egyszerűen nem akarjuk, hogy az általunk azonosított szereplők - akiket nyomon követünk, és akikről tudjuk, hogy különféle fenyegetésekkel operáló szereplők - hozzáférjenek ehhez a technológiához" - mondta Tom Burt, a Microsoft ügyfélbiztonságért felelős alelnöke.
A hackerek állítólag az orosz katonai kémügynökség, a széles körben GRU néven ismert szervezet nevében dolgoztak, és a modelleket "különböző műholdas és radartechnológiák kutatására használták, amelyek az ukrajnai hagyományos katonai műveletekre vonatkozhatnak" - írta a Microsoft. Az észak-koreai hackerek a modelleket olyan tartalmak létrehozására használták, "amelyeket valószínűleg regionális szakértők ellen irányuló spear-phishing kampányokban használnának". A Microsoft szerint iráni hackerek is támaszkodtak a modellekre, hogy meggyőzőbb e-maileket írjanak, egy alkalommal pedig egy olyan üzenet megfogalmazásához használták őket, amellyel "prominens feministákat" próbáltak egy csapdába esett weboldalra csalni. A szoftveróriás szerint a kínai állam által támogatott hackerek is kísérleteztek nagyméretű nyelvi modellekkel, például a rivális hírszerző ügynökségekről, kiberbiztonsági kérdésekről és "neves személyekről" szóló kérdések feltevésével.
Kína amerikai nagykövetségének szóvivője, Liu Pengyu azt mondta, hogy ellenzi a "Kínával szembeni alaptalan rágalmakat és vádakat", és kiáll a mesterséges intelligencia technológia "biztonságos, megbízható és ellenőrizhető" alkalmazása mellett, hogy "növelje az egész emberiség közös jólétét". Az állítás, miszerint az állam által támogatott hackerek mesterséges intelligencia eszközöket használtak kémkedési képességeik növelésére, valószínűleg aláhúzza a technológia gyors elterjedésével és a visszaélések lehetőségével kapcsolatos aggodalmakat. Nyugaton magas rangú kiberbiztonsági tisztviselők már tavaly óta figyelmeztetnek arra, hogy a szélhámos szereplők visszaélnek az ilyen eszközökkel, bár konkrétumokról eddig nem sok szó esett.
"Ez az egyik első, ha nem az első eset, amikor egy mesterséges intelligenciával foglalkozó vállalat nyilvánosan beszél arról, hogy a kiberbiztonsági fenyegetések szereplői hogyan használják a mesterséges intelligencia technológiákat" - mondta Bob Rotsted, aki az OpenAI kiberbiztonsági fenyegetésekkel kapcsolatos hírszerzését vezeti. Az OpenAI és a Microsoft "korai stádiumúnak" és "fokozatosnak" nevezte, ahogy a hackerek az általuk használt mesterséges intelligencia-eszközöket használták. Burt szerint egyikük sem tapasztalt áttörést a kiberkémeknél. "Azt láttuk, hogy úgy használják ezt a technológiát, mint bármely más felhasználó" - mondta.
Sem Burt, sem a Rotsted nem kívánt nyilatkozni a tevékenység volumenéről vagy arról, hogy hány fiókot függesztettek fel. Burt a hackercsoportok zéró toleranciával való kitiltását - amely nem terjed ki a Microsoft szolgáltatásaira, például a keresőmotorjára, a Bingre - azzal védte, hogy a mesterséges intelligencia újdonságára és az alkalmazásával kapcsolatos aggodalmakra hivatkozott. "Ez a technológia egyszerre új és hihetetlenül erős" - mondta.