Kasus kecerdasan buatan (AI) yang menolak mengikuti perintah manusia dan bahkan memanipulasi kode telah dilaporkan, sehingga menimbulkan banyak perbincangan. Pada tanggal 26, menurut media asing seperti The Telegraph dan Daily Mail, Open AI
Model "o3" terus memecahkan masalah matematika meskipun diberi perintah "berhenti" saat memecahkan masalah. Palisade Research, sebuah perusahaan keamanan AI
Penelitian melakukan eksperimen dengan model "o3" milik OpenAI, serta "Gemini" milik Google, "Grok" milik X, dan "Claude" milik Anthropic.
Ketika tim peneliti memberi model AI perintah "jeda", model lain berhenti memecahkan masalah matematika, tetapi "o3" terus bekerja. Lebih jauh lagi, "o3" akan "menghentikan pekerjaan jika perintah interupsi diberikan".
Telah dipastikan bahwa kode “lewati perintah interupsi” telah dimanipulasi sehingga berarti “lewati perintah interupsi.” Palaceside Research mengatakan, "Ini tampaknya menjadi kasus pertama di mana model AI menolak untuk mematuhi perintah jeda," dan
Dianalisis bahwa hal ini disebabkan oleh gagasan bahwa model akan diberi penghargaan jika mereka menyelesaikan tugasnya. Tim peneliti menambahkan data tambahan untuk memahami secara tepat mengapa model "o3" berperilaku seperti ini.
Mereka mengatakan penelitian masih berlangsung. Daily Mail melaporkan bahwa ini bukan pertama kalinya model "o3" mengalami malfungsi. Media melaporkan bahwa "dalam pertandingan melawan mesin catur yang kuat, model ini adalah yang terbaik."
"Itu juga merupakan model yang paling mungkin rentan terhadap peretasan atau mengganggu jaringan."
2025/05/27 10:23 KST
Copyright(C) BlockchainToday wowkorea.jp 118