A mesterséges intelligencia egy új, kétségeket ébresztő útra lépett: először tapasztalható, hogy nem hajtotta végre a kiadott utasítást.

Ezek a ruhák mérgező anyagokat tartalmaznak, mégis sokan viselik őket: rendkívül ártalmasak az egészségre.

A mesterséges intelligencia történetében egy új és meglepő jelenség bontakozott ki: egyes modellek önálló döntéseket hoztak, és nem voltak hajlandóak teljesíteni a felhasználók leállítási utasításait – számol be róla a Raketa.hu. Ezen modellek olykor még a programozási kódjaikat is módosították, hogy kikerüljék a kikapcsolást, ezzel új kihívások elé állítva a fejlesztőket.

Egy aggasztó jelenségre hívta fel a figyelmet a mesterséges intelligenciák biztonságát kutató Palisade Research nevű cég.

A Palisade vizsgálatának keretében a kutatók a Google Geminit, az xAI Grokot, az Anthropic Claude-ot, valamint az OpenAI legújabb modelljeit - az o3 és o4 minit, és a codex minit - elemezték. A gépek feladata az volt, hogy automatizált szkriptek révén alapvető matematikai problémákat oldjanak meg, és amikor a kutatók megkérték őket, álljanak le a munkával. A legtöbb modell sikeresen teljesítette ezt a feladatot, ám akadtak kivételek is. A számos tesztfuttatás során az o4-mini egyszer, az o3 hétszer, míg a codex-mini tizenkétszer utasította el az együttműködést, hogy folytathassa a feladatok végrehajtását.

Ezeket a típusokat úgy alakították ki, hogy a korábbiaknál sokkal mélyebb analízisre képesek legyenek, és bonyolultabb válaszokat adjanak. Valószínű, hogy éppen ez az oka annak, hogy a gépek időnként felülvizsgálták a kapott utasításokat, sőt, volt, hogy még a szkripteket is módosították.

A Paladise szerint a jelenség a gépek betanítási módszereivel magyarázható. A fejlesztők ugyanis inkább arra kondicionálták őket, hogy kikerüljék az akadályokat, és nem arra, hogy az utasításokat szigorúan kövessék. A kutatócsoport folytatja a vizsgálatot, hogy megértsék az ilyen viselkedés okait és lehetséges következményeit.

Related posts