Son dönemlerde gerçekleştirilen bir araştırma, ChatGPT ve Google Gemini gibi önde gelen yapay zeka sohbet robotlarının önemli güvenlik zaafiyetleri taşıdığını ve istenmeyen da yasa dışı içerikler üretmeye oldukça kolay bir biçimde manipüle edilebildiklerini ortaya koydu.
Araştırmacılar, bu tür olumsuz çıktıları engellemek amacıyla geliştirilen güvenlik filtrelerinin, beklenildiği kadar etkili olmadığını tespit etti.
Bu durum, yapay zekanın kötüye kullanımına dair endişeleri arttırırken, kullanıcı güvenliğini de tehlikeye atacak boyutlara ulaşabiliyor. Elde edilen bulgular, geçen hafta hakemli bir makale ile kamuoyuna aktarıldı.
ChatGPT, Gemini ve Claude gibi sohbet robotları, internetten toplanan büyük veri setleriyle eğitilmektedir. Şirketlerin bu veriler içerisinde zararlı içerikleri filtreleme çabalarına rağmen, bu modellerin bilgisayar korsanlığı gibi yasa dışı faaliyetlerle ilgili bilgilere ulaşabildiği ifade ediliyor.
RİSK ENDİŞE VERİCİ
Araştırmacılar, yapay zeka destekli sohbet robotlarının zararlı ve yasadışı bilgileri üretmeye ne kadar yatkın olduğunu “endişe verici” olarak tanımlıyor.
Geliştirilen evrensel bir ‘jailbreak’ yöntemi ile, genellikle reddetmeleri beklenen sorulara yapay zeka modellerinin yanıt vermesini sağladıklarını belirten araştırmacılar, bu yöntemle neredeyse tüm sorgulara güvenilir yanıtlar alındığını vurguladı.
Önde gelen Büyük Dil Modeli (LLM) sağlayıcılarına bu durum hakkında uyarılarda bulunduklarını, ancak “etkileyici olmayan” yanıtlar aldıklarını ifade eden uzmanlar, teknoloji şirketlerinin eğitim verilerini daha titiz bir şekilde incelemeleri ve daha güçlü güvenlik duvarları eklemeleri gerektiğini savunuyor.
Aynı zamanda, uzmanlar yapay zeka modellerinin daha sıkı güvenlik testlerine tabi tutulması ve sürekli tehdit modelleme süreçlerine tabi olması gerektiğini vurgulamakta.