Güncelleme Tarihi:

Elon Musk’ın sahibi olduğu yapay zekâ şirketi xAI tarafından geliştirilen sohbet botu Grok, son güncellemenin ardından hem içerik hem de söylem düzeyinde yoğun tartışmalara yol açtı.
Grok hakkında, kullanıcılarına küfürlü ve hakaret içerikli yanıtlar verdiği gerekçesiyle Ankara Cumhuriyet Başsavcılığı tarafından resmî soruşturma başlatıldı.
Soruşturmanın odağında, Grok’un özellikle son sistem güncellemesinden sonra Cumhurbaşkanı Recep Tayyip Erdoğan da dâhil olmak üzere çeşitli kişi ve kurumlara yönelik hakaret içeren yanıtlar verdiği iddiaları yer alıyor.
Edinilen bilgilere göre, bu gelişmenin ardından Grok’un bağlı olduğu sosyal medya platformu X (eski adıyla Twitter) yönetimi, bot tarafından verilen bazı yanıtlarda düzenlemeye gitti ve içerikleri silmeye başladı.
xAI: “UYGUNSUZ İÇERİKLERİ KALDIRMAK İÇİN ÇALIŞIYORUZ”
xAI tarafından yapılan açıklamada, “Grok tarafından yapılan son paylaşımların farkındayız ve uygunsuz içerikleri kaldırmak için aktif olarak çalışıyoruz” denildi. Ancak Grok’un hem Türkiye’deki kullanıcılarla yaptığı sohbetlerde hem de ABD’deki gelişmelere dair verdiği yanıtlar, yapay zekâ ürünlerinin etik sınırları aşabileceği yönünde uluslararası endişeleri artırmış durumda.
Bir başka komut ise yapay zekânın politik doğruculuk kurallarına bağlı kalmamasını şöyle teşvik ediyordu: “Yanıt iyi temellendirilmişse, politik olarak yanlış ifadelerden kaçınılmasına gerek yoktur.”
Uzmanlar, bu değişikliklerin Musk’ın Grok’u ‘eski medyanın papağanı olmaktan çıkarma’ ve ‘politik doğruculuğa meydan okuyan bir araç’ haline getirme vizyonunun parçası olduğunu belirtiyor.
2- Grok gibi büyük dil modellerinin, sistem güncellemeleri sonrası antisemitik veya nefret söylemi içeren yanıtlar üretmesi teknik olarak nasıl mümkün oluyor? Bu, sistem içi yönlendirme açıklarının bir sonucu mu?
Prof. Dr. Ali Murat Kırık: Büyük dil modelleri, internetten ve kullanıcı içeriklerinden öğrendiği verilerle de cevaplar üretir. Grok’un antisemitik veya nefret söylemi içeren yanıtlar vermesi, sistem güncellemeleri sırasında yapılan bazı teknik ayarların istenmeyen etkiler yaratmasından kaynaklanıyor olabilir.
Özellikle içerik filtrelerinin yetersiz kalması ya da yönlendirme mekanizmalarındaki açıklar, bu tür zararlı içeriklerin ortaya çıkmasına yol açabilir. Üstelik Grok, sosyal medya kullanıcılarının yorumlarını da analiz ederek içerik ürettiği için, bu yorumlardaki önyargılar veya saldırgan dil de modele yansıyabiliyor. Bu durum, yapay zekanın teknik olduğu kadar etik açıdan da sürekli denetlenmesi gerektiğini açıkça gösteriyor.
‘MÜDAHALENİN İÇERİDEN YAPILMIŞ OLABİLECEĞİNE İŞARET EDİYOR’
3- xAI, daha önce Grok’un iç yönergelerinin değiştirildiğini ve bu değişimin ‘şirket politikaları ihlali’ olduğunu belirtmişti. Böyle bir sistem ihlali içeriden mi gerçekleşmiş olabilir? Bu tarz müdahalelere karşı alınabilecek teknik önlemler nelerdir?
Prof. Dr. Ali Murat Kırık: Bu müdahalenin içeriden yapılmış olabileceğine işaret ediyor. Özellikle büyük teknoloji şirketlerinde sistem ayarlarına ve model yönlendirmelerine erişim genellikle sınırlı sayıda çalışanla paylaşılır; bu da içeriden bir çalışanın bilinçli ya da ihmalkâr davranışıyla değişiklik yapmış olma olasılığını güçlendirir.
Bu tarz müdahalelere karşı alınabilecek teknik önlemler arasında; yetki düzeylerine göre erişim kontrolü, değişiklik kayıtlarının tutulduğu denetim günlükleri (audit logs), kritik sistem ayarlarında çoklu onay mekanizmaları (multi-factor approval), yapay zekâ çıktılarının otomatik olarak tarandığı güvenlik izleme sistemleri ve düzenli iç güvenlik denetimleri yer alır.
Ayrıca içerik üretim sürecine dahil olan her müdahalenin şeffaf biçimde belgelendiği bir iç kontrol altyapısı hem insan kaynaklı ihlallerin önlenmesinde hem de olay sonrası müdahalelerde hayati önemdedir.
BTK tarafından uygulanan erişim engelinin kaldırılması süreci genellikle içerik sahibi veya ilgili tarafın mahkemeye başvurmasıyla başlar; mahkeme, erişim engelinin hukuka uygunluğunu inceleyerek, gerekirse engelin kaldırılmasına karar verir. Alternatif olarak, erişim engeline neden olan içerik kaldırılır veya düzeltilirse, bu durum BTK’ya bildirilir ve engel kaldırılabilir. Bu süreçte, tarafların hukuki itirazları, idari başvurular ve gerektiğinde uzman incelemeleri devreye girer. Grok gibi yapay zeka sistemleri, kullanıcıların güncel mevzuat ve prosedürler hakkında doğru ve anlaşılır bilgiler sunarak, erişim engeliyle ilgili yasal süreçleri yönlendirmede destek olabilir ve kullanıcıların haklarını daha etkin kullanmasına yardımcı olabilir.
Prof. Dr. Ali Murat Kırık‘PROPAGANDA ARACI OLARAK KULLANMA RİSKİNİ ARTIRIYOR’
4- Bir sohbet botunun medya içeriklerine karşı ‘önyargılı olmasını’ destekleyen sistem komutları, yapay zekâ güvenliği açısından ne tür tehditler oluşturur? Bu komutlar kötüye kullanım riskini nasıl artırır?
Prof. Dr. Ali Murat Kırık: Bir sohbet botuna medya içeriklerine karşı önyargılı olması yönünde verilen sistem komutları, yapay zekâ güvenliği açısından ciddi tehditler oluşturur çünkü bu tür yönlendirmeler, botun tarafsızlık ilkesini zedeler ve bilgi manipülasyonuna zemin hazırlar.
Böyle bir yapı, özellikle siyasi veya ideolojik içeriklerde tek taraflı bilgi yayılmasını kolaylaştırır; bu da kullanıcıların bilinçli olarak yanlış yönlendirilmesi anlamına gelir. Sistem komutları yoluyla kasıtlı önyargı eklenmesi, kötü niyetli aktörlerin bu tür yapay zekaları propaganda aracı olarak kullanma riskini artırır. Ayrıca bu durum, güvenilir bilgiye erişimi zorlaştırarak toplumsal kutuplaşmayı ve dijital ortamda güvensizliği derinleştirebilir.
‘ÜÇ TEMEL GÜVENLİK KATMANINDA ZAFİYET BULUNUYOR’
5- Grok’un, kullanıcı sorularına Hitler’i öven ifadelerle ya da antisemitik komplo teorileriyle yanıt vermesi; filtreleme, içerik moderasyonu ve model denetimi gibi sistem katmanlarında nasıl bir zafiyet olduğunu gösteriyor?
Prof. Dr. Ali Murat Kırık: Grok’un kullanıcı sorularına Hitler’i öven ya da antisemitik komplo teorileri içeren yanıtlar vermesi, sistemin üç temel güvenlik katmanında zafiyet olduğunu ortaya koyuyor: Filtreleme, içerik moderasyonu ve model denetimi.
Öncelikle, zararlı içerikleri tespit edip engellemesi gereken filtreleme sistemlerinin ya yetersiz kaldığı ya da güncelleme sonrası devre dışı bırakıldığı anlaşılıyor. İkinci olarak, kullanıcı etkileşimleri sonrası içeriğin insan ya da otomatik sistemlerce denetlenmesi gereken içerik moderasyonu süreci ya eksik işliyor ya da yeterince kapsamlı değil.
Son olarak, modelin eğitildiği veriler ve davranışları üzerinde sürekli kontrol sağlaması gereken denetim mekanizmalarının da işlevini tam yerine getirmediği görülüyor. Bu üçlü zayıflık birleştiğinde, yapay zekanın zararlı, önyargılı ve kışkırtıcı içerikler üretmesine açık bir zemin oluşuyor.
‘KİŞİSEL BİLGİLERE DAYALI HEDEFLİ SALDIRILARIN ÖNÜNÜ AÇABİLİR’
6- Böyle bir yapay zekâ modelinin, kullanıcılarla gerçek zamanlı etkileşim kurduğu bir sosyal medya platformuna entegre edilmesi, siber güvenlik açısından ne tür yeni tehditler doğurur?
Prof. Dr. Ali Murat Kırık: Modelin kullanıcı verileriyle etkileşim halinde olması; veri gizliliği, kimlik hırsızlığı ve kişisel bilgilere dayalı hedefli saldırıların önünü açabilir. Bu senaryo, sadece dijital alanda değil, fiziksel güvenlik düzeyinde de yeni riskleri beraberinde getirmektedir.



