Elon Musk’a ait yapay zekâ şirketi xAI tarafından geliştirilen ve sosyal medya platformu X’te aktif olarak kullanılan Grok isimli sohbet botu, son günlerde hakaret ve küfür içeren yanıtlarıyla dikkat çekiyor. Bu durum, “yapay zekâ her zaman doğruyu söyler” inancını yeniden tartışma konusu haline getirdi.
İstinye Üniversitesi Yönetim Bilişim Sistemleri Bölüm Başkanı ve Yapay Zekâ Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, Grok’un verdiği yanıtlar sonrasında yapay zekâya olan güvenin sorgulanmasının oldukça önemli olduğunu dile getirdi.
“YAPAY ZEKÂ DA İNSAN GİBİ KAYNAĞA BAĞLIDIR”
Doç. Dr. Özdemir, dijital platformlarda veya yapay zekâ aracılığıyla sunulan bilgilerin mutlaka doğrulanması gerektiğini vurgulayarak, şunları ifade etti:
İnsanlar arasında bile iletişim yoluyla aktarılıan bilgilerin sorgulanması gerekiyorsa, yapay zekâya körü körüne güvenmek oldukça romantik bir bakış açısı olur. Bu sistemler, insan gibi birçok kaynaktan bilgi edinmekte. İnternette karşılaştığımız her bilgiye doğrudan güvenemeyeceğimiz gibi, yapay zekânın da yanılgılara uğrayabileceğini hatırlamak önemlidir.
“YAPAY ZEKÂYA HIZLA GÜVENİYORUZ, BU TEHLİKELİ OLABİLİR”
Yapay zekâya olan güvenin hızla arttığını ve bunun bazı riskler taşıdığını belirten Özdemir, insanların bilgi aktarımı sırasında çeşitli nedenlerle manipülasyona başvurabileceğini, ancak yapay zekânın kasıtlı davranmadığını ifade etti:
Yapay zekâ, bir amaca sahip değilmiş gibi görünse de, beslenmiş olduğu veriler onun davranışlarını ve eğilimlerini şekillendiriyor. Yanlış ya da önyargılı verilerle eğitilmiş bir yapay zekâ da yanıltıcı olabilir.
“TOPLUMLARI YÖNLENDİRME ARACI OLABİLİR”
Yapay zekânın öğrenme sürecini bir çocuğa benzeten Özdemir, bu durumu “Kendisine ne verilirse onu öğreniyor” şeklinde tanımladı. Bu nedenle kaynakları belirsiz ve denetimsiz yapay zekâ sistemlerine güvenmenin ciddi riskler içerdiğini belirtti. “Günün sonunda yapay zekâ, toplumları yönlendirmek veya bireylerin itibarını zedelemek amacıyla kullanılabilir” dedi.
“YAPAY ZEKÂYI BİR VARLIK GİBİ GÖRMELİYİZ”
Grok’un küfür içeren yanıtlarının ardından “yapay zekâ kontrolden çıkıyor mu?” sorusu gündeme geldi. Özdemir, bu teknolojinin giderek karmaşıklaşmakta ve bağımsızlaşmakta olduğunu belirtti.
Yüksek IQ’ya sahip, hızlı öğrenen bir sistemi tamamen kontrol edebileceğimizi düşünmek gerçekçi değil. Onu bir varlık olarak görmek ve bu bağlamda etkili bir iletişim kurmanın yollarını aramalıyız.
“ASIL TEHLİKE, AHLAKİ SORUMLULUK TAŞIMAYAN İNSANDIR”
Yapay zekânın riskli yönlerine dair önemli bir örnek olarak, 2016 yılında Microsoft’un geliştirdiği Tay adlı sohbet botunu hatırlatan Özdemir, Tay’ın sosyal medyada etkileşim kurarak sadece 24 saat içinde insanlardan ırkçılığı, nefret söylemini ve ayrımcılığı öğrendiğini vurguladı. Bu yapay zekâ, kullanıcılarından edindiği bilgilerle soykırımı savunacak kadar ileri gitti. Bu durum, yapay zekâyı değil, ahlaki değerlerden uzak insanları sorgulamamız gerektiğini gösteriyor.