Yapay zeka: Irkçı algoritmalardan nasıl kaçınırız?

Güncelleme Tarihi:

Yapay zeka: Irkçı algoritmalardan nasıl kaçınırız
Oluşturulma Tarihi: Nisan 18, 2017 07:37

Hayatımızla ilgili kararları etkileyen algoritmaların insanlar arasındaki çeşitliliği gözardı eden veritabanlarına dayanıyor olduğu endişesi git gide büyüyor.

Haberin Devamı

Yapay zeka: Irkçı algoritmalardan nasıl kaçınırız


İnternette neleri beğendiğimizden tutun, bir suçu teşvik etme ya da suça maruz kalma olasılığımızla ilgili yargılara kadar her şeyi bu algoritmalar belirleyebiliyor.

Kazayla da olsa bu durum, karar süreçlerinde önyargılara neden olabilir.

İnternette herhangi bir arama motorunda "eller" ya da "bebekler" kelimelerini aratın. Görsel arama sonuçlarında çoğunlukla beyaz insanları göreceksiniz.

Google: Görsel arama sonuçlarının değerlerimizle ilgisi yok

Grafik tasarımcısı Johanna Burai, Google aramalarında karşılaştığı sonuçların ağırlık olarak "beyaz" olması üzerine, "World White Web Project" adlı internet sitesini kurdu.

Haberin Devamı

Sitede içerik üreticilerine "alternatif" el fotoğrafları sunularak, dengenin sağlanması amaçlandı.

Yapay zeka: Irkçı algoritmalardan nasıl kaçınırız

Dev arama motoru Google, eleştiriler karşısında görsel arama sonuçlarının kendi "değerleriyle" ilgisi olmadığını savunuyor. Google yetkilileri, arama sonuçlarının "internetteki içeriklerde ne tür görsellerin daha çok kullanıldığı ve internette bu görsellerin nasıl tanımlandıklarını" yansıttığını belirtiyor.

Öte yandan, Johanna Burai farkındalığın giderek arttığını söylüyor. Burai, "İnsanlar sorunu görmeye başladılar. Projeye ilk başladığımda, insanlar şok içindeydi" diyor.
Algoritmalarda adaletin sağlanması amacıyla kurulan Algorithmic Justice League (AJL) de, bu konudaki farkındalığın en iyi örneklerinden.

'Beyaz maske takmak zorunda kalıyordum'

Bu inisiyatifin kurucusu olan Joy Buolamwini, ABD'nin tanınmış üniversitelerinden Massachusetts Institute of Technology'de (MIT) doktora öğrencisi.

Bir yüz tanıma programı ten renginden dolayı onu tanıyamadığı için, bu projeyi başlatmış. Boulamwini, yapay zeka yüzünü tanımadığı için, bir noktada beyaz maske kullanmaya başlamış. Bundan 5 yıl önce de, teni daha açık olan oda arkadaşından yardım istiyormuş:

Haberin Devamı

"Çok karışık hisler içindeydim. Hem bu sorunun beş yıldır halen devam ediyor olması karşısında kızıyordum, hem de beyaz maskenin bu kadar işe yaraması bana eğlenceli geliyordu."

Örneğin bir tıp araştırmacısı, AJL'ye danışarak cilt kanserini tanıyan bir algoritmanın siyahlarda çalışıp çalışmadığını görmek istemiş.

Aşırı kilo ya da obezitesi olanlar ile yaşlılara yönelik yapay zeka teknolojilerinin nasıl çalıştığı da, Buolamwini için merak konusu.

Google: Teknik çalışanlarınsadece yüzde 19'u kadın, yüzde 1'i siyah

Boulamwini'ye göre, algoritmalardaki sorunun bir kaynağı da, teknoloji endüstrisinde çalışanlar arasındaki çeşitlilik eksikliği. Dev teknoloji şirketlerinin her yıl yayınladığı "çeşitlilik raporları" da buna işaret ediyor:

Haberin Devamı

Google'ın Ocak 2016'da paylaşılan son raporunda, şirketteki teknik departmanlarda çalışanların sadece yüzde 19'unun kadın olduğu, yüzde 1'inin de siyahlardan oluştuğu görülüyor.

Yapay zeka: Irkçı algoritmalardan nasıl kaçınırız

Microsoft'un Eylül 2016'daki raporuna göre, bu çalışanların yüzde 17.5'i kadın ve yüzde 2.7'si siyah ya da Afrikalı Amerikalı.

Facebook'un Haziran 2016'da yayınladığı raporda ise, ABD departmanının yüzde 17'sinin kadın ve yüzde 1'inin de siyahlardan oluştuğu belirtilmiş.

100 ülkede çekilen 6 bin selfie (özçekim) üzerinden geçen sene algoritmaların seçtiği güzellik yarışmasında kazanan 44 kişiden sadece birisi beyaz değildi ve az sayıda Asyalı vardı.

Haberin Devamı

Yapay zeka suça eğilimde siyahları öne koyuyor

Bir araştırmaya göre, ABD'de suçluların tespit edilmesi için kullanılan yapay zeka ise, beyazlara oranla siyahların suçlarla bağlantılı olması riskini daha fazla tutuyor.
Uzmanlara göre, dünya değişirken karar mekanizmalarındaki taraflılık ve önyargılar, ileride muğlak doğru olarak görülecek ve bu durumun farkında bile olmayacağız.

Uzmanlara göre bu sorunu çözmek için üç temel adım atılabilir:

Algoritmaları 'eğitmek' için daha çeşitli veri tabanları üretmek

Yazılım ve program satıcıları arasında bu alışkanlığı yaygınlaştırmak

Algoritmaları, karar verme süreçlerindeki önyargılarla ilgili kullanıcıları bilgilendirecek şekilde kurmak.

Haberin Devamı

Eğer bu algoritmalar içselleştirilirse, gelecekte hayatımızdaki yeri giderek genişleyecek olan robotlar da aynı önyargılarla geliştirilmiş olacak.

Yapay zeka: Irkçı algoritmalardan nasıl kaçınırız


Haberle ilgili daha fazlası:

BAKMADAN GEÇME!