Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the rank-math domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/turkiyeyedair.com/httpdocs/wp-includes/functions.php on line 6121

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fast-indexing-api domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /var/www/vhosts/turkiyeyedair.com/httpdocs/wp-includes/functions.php on line 6121

Notice: _load_textdomain_just_in_time işlevi yanlış çağrıldı. Translation loading for the kanews domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Ayrıntılı bilgi almak için lütfen WordPress hata ayıklama bölümüne bakın. (Bu ileti 6.7.0 sürümünde eklendi.) in /var/www/vhosts/turkiyeyedair.com/httpdocs/wp-includes/functions.php on line 6121

Notice: Trying to get property 'ID' of non-object in /var/www/vhosts/turkiyeyedair.com/httpdocs/wp-includes/link-template.php on line 409
Yapay Zeka Güveni Sarsılıyor: Grok Krizi! - Türkiye'ye Dair

Yapay Zeka Güveni Sarsılıyor: Grok Krizi!

featured
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Elon Musk’a ait yapay zekâ şirketi xAI tarafından geliştirilen ve sosyal medya platformu X’te aktif olarak kullanılan Grok isimli sohbet botu, son günlerde hakaret ve küfür içeren yanıtlarıyla dikkat çekiyor. Bu durum, “yapay zekâ her zaman doğruyu söyler” inancını yeniden tartışma konusu haline getirdi.

İstinye Üniversitesi Yönetim Bilişim Sistemleri Bölüm Başkanı ve Yapay Zekâ Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi Doç. Dr. Şebnem Özdemir, Grok’un verdiği yanıtlar sonrasında yapay zekâya olan güvenin sorgulanmasının oldukça önemli olduğunu dile getirdi.

“YAPAY ZEKÂ DA İNSAN GİBİ KAYNAĞA BAĞLIDIR”

Doç. Dr. Özdemir, dijital platformlarda veya yapay zekâ aracılığıyla sunulan bilgilerin mutlaka doğrulanması gerektiğini vurgulayarak, şunları ifade etti:

İnsanlar arasında bile iletişim yoluyla aktarılıan bilgilerin sorgulanması gerekiyorsa, yapay zekâya körü körüne güvenmek oldukça romantik bir bakış açısı olur. Bu sistemler, insan gibi birçok kaynaktan bilgi edinmekte. İnternette karşılaştığımız her bilgiye doğrudan güvenemeyeceğimiz gibi, yapay zekânın da yanılgılara uğrayabileceğini hatırlamak önemlidir.

“YAPAY ZEKÂYA HIZLA GÜVENİYORUZ, BU TEHLİKELİ OLABİLİR”

Yapay zekâya olan güvenin hızla arttığını ve bunun bazı riskler taşıdığını belirten Özdemir, insanların bilgi aktarımı sırasında çeşitli nedenlerle manipülasyona başvurabileceğini, ancak yapay zekânın kasıtlı davranmadığını ifade etti:

Yapay zekâ, bir amaca sahip değilmiş gibi görünse de, beslenmiş olduğu veriler onun davranışlarını ve eğilimlerini şekillendiriyor. Yanlış ya da önyargılı verilerle eğitilmiş bir yapay zekâ da yanıltıcı olabilir.

“TOPLUMLARI YÖNLENDİRME ARACI OLABİLİR”

Yapay zekânın öğrenme sürecini bir çocuğa benzeten Özdemir, bu durumu “Kendisine ne verilirse onu öğreniyor” şeklinde tanımladı. Bu nedenle kaynakları belirsiz ve denetimsiz yapay zekâ sistemlerine güvenmenin ciddi riskler içerdiğini belirtti. “Günün sonunda yapay zekâ, toplumları yönlendirmek veya bireylerin itibarını zedelemek amacıyla kullanılabilir” dedi.

“YAPAY ZEKÂYI BİR VARLIK GİBİ GÖRMELİYİZ”

Grok’un küfür içeren yanıtlarının ardından “yapay zekâ kontrolden çıkıyor mu?” sorusu gündeme geldi. Özdemir, bu teknolojinin giderek karmaşıklaşmakta ve bağımsızlaşmakta olduğunu belirtti.

Yüksek IQ’ya sahip, hızlı öğrenen bir sistemi tamamen kontrol edebileceğimizi düşünmek gerçekçi değil. Onu bir varlık olarak görmek ve bu bağlamda etkili bir iletişim kurmanın yollarını aramalıyız.

“ASIL TEHLİKE, AHLAKİ SORUMLULUK TAŞIMAYAN İNSANDIR”

Yapay zekânın riskli yönlerine dair önemli bir örnek olarak, 2016 yılında Microsoft’un geliştirdiği Tay adlı sohbet botunu hatırlatan Özdemir, Tay’ın sosyal medyada etkileşim kurarak sadece 24 saat içinde insanlardan ırkçılığı, nefret söylemini ve ayrımcılığı öğrendiğini vurguladı. Bu yapay zekâ, kullanıcılarından edindiği bilgilerle soykırımı savunacak kadar ileri gitti. Bu durum, yapay zekâyı değil, ahlaki değerlerden uzak insanları sorgulamamız gerektiğini gösteriyor.

0
mutlu
Mutlu
0
_zg_n
Üzgün
0
sinirli
Sinirli
0
_a_rm_
Şaşırmış
Yapay Zeka Güveni Sarsılıyor: Grok Krizi!

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Türkiye'ye Dair ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!


Notice: Trying to get property 'ID' of non-object in /var/www/vhosts/turkiyeyedair.com/httpdocs/wp-includes/link-template.php on line 409