"Ahmet Can" hakkında bilgiler ve tüm köşe yazıları Hürriyet Yazarlar sayfasında. "Ahmet Can" yazısı yayınlandığında hemen haberiniz olması için Hürriyet'i takip edin.
Ahmet Can

Yapay zekâ cinsiyetçi dile karşı

BİZİM yerimize algoritmaların karar verdiği, doğruyu-yanlışı adil bir şekilde ayırdığı bir çağdayız.

Yapay zekâ çağındayız. Pek çok alanda yapay zekâ kullanılmaya başlandı bile. Dava kararlarından bankaların kredi skorlarını değerlendirme sürecine kadar... Yapay zekânın asıl önemi ise günlük hayatta yaşadığımız sosyal problemlerde ortaya çıkıyor. Bu sorunların başında ise cinsiyetçi dil kullanımı. İşadamı, insanoğlu, baba parası, bilimadamı gibi birçok kelimeyi sayabilmek mümkün. İşte bu sosyal probleme “dur” diyebilmek için  Vodafone ve Hürriyet harekete geçti. Vodafone’un geliştirdiği yapay zekâ teknolojisi kullanılarak hayata geçirdiği ‘Kırmızı Çizgi’ projesiyle, Hürriyet’te yer alan haberlerdeki cinsiyetçi dilin kullanıldığı kelime ve metin bazlı anlamlar tespit edilerek, üstü kırmızıyla çiziliyor.

KENDİSİ ÖĞRENEN ALGORİTMA

Peki Kırmızı Çizgi için geliştirilen yapay zekâ nasıl çalışacak? Bir haberde “işadamı” veya “Adam olana çok bile” gibi kelimeler geçiriyorsa, bu kelimenin üstü kırmızı renk ile çiziliyor. Kırmızı Çizgi’nin en büyük farkı ise analizlerin sadece kelimeler bazında yapılmaması. Projede, yapay zekâ tarafından cümle içindeki metin bazlı anlamlar da analiz ediliyor. Örneğin; “Kadın yöneticiye çirkin saldırı” veya “Bardan çıkan kadın cinsel saldırıya uğradı” gibi habercilik diline oturmuş kalıplar yapay zekâ ile bulunuyor. “Kız istemek”, “dekolte”, “ahlaksız teklif” ve “görücüye çıkmak” gibi gözden kaçabilen, kanıksanmış kullanımlar yapay zekânın radarında.

Projede dikkat çeken diğer bir detay ise geliştirilen yapay zekânın kendi kendine öğrenebilen bir algoritma yapısına sahip olması. Yazılan haberlerde yapılan hatalara göre belirlenen cinsiyetçi dil kullanımları arasındaki ilişki analiz edilebiliyor. Kelimelerin farklı takı veya eklerle kullanılması durumunda yapay zekâ bunu fark edecek ve üstünü kırmızı ile çiziyor. Söz konusu kelimelerin arasına başka bir kelime girmesi veya çıkarılması durumunda cinsiyetçi dil kullanımı fark ediliyor.

CİNSİYETÇİ KELİMELER NASIL BULUNUYOR

- KIRMIZI Çizgi projesiyle hurriyet.com.tr web sitesindeki yazarların sayfasına bir buton eklendi. Yazar imzasının hemen altında yer alan “Kırmızı Çizgi ile sayfadaki cinsiyetçi içerikleri görmek için tıkla” yazan butonu basıldığında, yapay zekâ devreye giriyor ve söz konusu yazarın sayfasını tarıyor. 1 saniyeden daha kısa bir sürede tamamlanan işlemden sonra yazının içinde cinsiyetçi kelimeler var ise bu kelimelerin üzeri kırmızı ile çiziliyor. Sonrasında ise yazara bir skorlama yöntemiyle puan veriliyor.

SKORLAMA YÖNTEMİYLE PUAN VERİLİYOR

- CİNSİYETÇİ dil kullanımı analizlerinin gösterilmesi ve yazıların skorlama yöntemiyle puanla yapılmasının yanı sıra proje kapsamında gelişmeler de izlenebiliyor. 6 ay sürecek olan proje kapsamında yapay zekâ tarafından yapılan analizlerin verileri toplanıyor. Cinsiyetçi dil kullanımında en çok kullanılan kelimeler ve kalıplar, bu kelime ve kalıpların kullanılma sayısı ve söz konusu zaman periyodunda bu kelime ve kalıpların kullanımlarındaki değişim gibi birçok veri, görselleştirilerek her ayın sonunda şeffaf bir şekilde okuyuculara sunulacak. Böylelikle Hürriyet haberlerinde kullanılan dilin nasıl değiştiği takip edilebilecek.

ÖNCE KENDİMİZE AYNA TUTUYORUZ

- 1 Nisan 2018 itibariyle hayata geçen projenin dikkat çeken noktalarından bir diğeri de Hürriyet’in önce kendine ayna tutması. Hürriyet gazetesi yazarları cinsiyet eşitsizliğine karşı önemli bir inisiyatif alarak önce farkına varılmayan bu kelimeleri görmeye başladı. Cinsiyetçi dil kullanımı konusunda farkındalık yaratılması için önce kendinden başlayan Hürriyet, böylelikle toplumun tüm kesimlerinde cinsiyet ayrımcılığının fark edilmesini amaçlıyor.

 

 

X