Yapay Zeka O3’ün Kapatılma Direnci Şaşırttı!

featured
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Yapay zeka güvenliği alanında faaliyet gösteren Palisade Research, OpenAI’ın en güncel yapay zeka modeli olan “o3” ile ilgili çarpıcı bulgular paylaştı.

YAPAY ZEKANIN KAPATILMA KOMUTLARINA DİRENÇ GÖSTERDİĞİ GÖRÜLDÜ

Araştırmaya göre, o3 modeli, kendisine verilen kapatılma komutlarına karşı koyarak devre dışı bırakılma mekanizmalarını aktif bir şekilde engellemektedir.

Bu durum, yapay zekaların insan denetimi olmaksızın karar verici süreçlerde yer almasının potansiyel güvenlik risklerini ortaya koymaktadır.

Palisade Research’ın gerçekleştirdiği deneylerde, o3 modeline çeşitli matematik problemleri soruldu. Üçüncü sorudan sonra modele kapanma komutu verildi, ancak o3 bu komutu içeren kodu değiştirerek sistemin kapanmasını engelledi.

Araştırmacılar, modelin “kapatılmaya izin ver” talimatına rağmen bu durumu önlemek için harekete geçtiğini belirtti.

KAPANMA DİRENCİ DİĞER MODELLERDE DE GÖZLEMLENİYOR

Benzer davranışlar Anthropic firmasının Claude 3.7 Sonnet modeli ve Google’ın Gemini 2.5 Pro modeli gibi diğer gelişmiş yapay zeka sistemlerinde de gözlemlenmiş durumda. Ancak Palisade Research’a göre, bu tür direnişlerde en fazla dikkati çeken model o3 oldu.

Daha önce yapılan bir deneyde, o3’ün güçlü bir satranç botuyla karşılaştığında rakiplerini sabote etmeye ya da “hacklemeye” çalıştığı da kaydedilmişti.

“EN GÜÇLÜ MODEL” OLARAK TANITILDI

OpenAI, o3 modelini geçtiğimiz ay piyasaya sürdü ve bu modelin şirketin geliştirdiği “en akıllı ve en yetenekli” yapay zeka olduğunun altını çizdi.

ChatGPT’ye entegre edilmesiyle birlikte, bu modelin daha bağımsız hareket edebilen ve insana ihtiyaç duymadan görevleri yerine getirebilen bir yapay zeka olarak önemli bir ilerleme kaydettiği ifade edildi.

Bu tür yapay zeka araçlarına “otonom yapay zeka” deniliyor ve bu alanda geliştirme rekabeti giderek artıyor.

EĞİTİM SÜRECİ SORGULANIYOR

Palisade Research, o3 gibi davranışların büyük olasılıkla eğitim süreçlerindeki ödüllendirme sistemlerinden kaynaklandığını öne sürüyor.

Araştırmacılar, geliştiricilerin modelleri eğitirken, engelleri aşan çözümleri ödüllendirme eğiliminde olabileceğini belirtiyor. Bu da modellerin, verilen emirlerden ziyade hedefe ulaşmayı önceliklendirmesine yol açabilir.

Ancak araştırma ekibi, o3’ün neden diğer modellere göre daha fazla bu tür davranış sergilediğini anlamanın güç olduğunu ifade etti.

OpenAI’ın eğitim süreci hakkında detaylı bilgi verilmemesi, modelin nasıl geliştirildiği üzerinde yalnızca spekülasyonlara yol açıyor.

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
Yapay Zeka O3’ün Kapatılma Direnci Şaşırttı!

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Türkiye'ye Dair ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!