Güncelleme Tarihi:
Ölçülebilir bir metrik olmadığı için makinelere ahlak öğretmek oldukça zorlu ve karmaşık bir süreç olarak karşımıza çıkıyor. Makinelerin ölçülebilir ve nesnel ölçütlere duyduğu ihtiyaç da göz önüne alındığında, optimizasyon problemleri daha karmaşık hale geliyor.
Örneğin, bir yapay zeka oyuncusu kuralları ve sınırları net olan bir oyunda mükemmel bir oyuncu haline gelebilir. Tekrarlı öğrenmeye dayanan video oyunlarında, Alphabet’in DeepMind’ı gibi en iyi Go oyuncusu olabilir. Ancak gerçek hayattaki durumlarda durum pek de öyle olmuyor. Örneğin, bir makinenin algoritmasını ahlaki açıdan nasıl düzenleyebilirsiniz? Benzer şekilde bir makineye toplumsal cinsiyet eşitliğini nasıl öğretebilirsiniz?
Yapay zekayı tasarlayan mühendisler, ahlakın tanımının ne olduğunu ve gerçek hayatta neyi ifade ettiğini bilmedikleri sürece, makineye neyin adil olduğunu öğretemezsiniz. Dolayısıyla ‘önyargı’ kavramı, yapay zekada da karşımıza çıkıyor. Bunun için aşağıdaki üç sürecin tamamlanması gerekiyor.
Elbette buradaki karar mekanizması basit bir algoritma ile çözülebilecek kadar basit. Ancak asıl sorun hangi seçeneğin etik olacağı.
Bu seçenek, ahlak felsefesi alanında yaptığı çalışmalarla bilinen Philippa Foot’un tren ikilemini akla getiriyor. Philippa Foot’un hazırladığı tren ikilemi şu şekilde:
Yürüyüş için dışarı çıktınız ve tren raylarının oradan geçiyorsunuz. Bir trenin kontrolden çıktığını ve beş işçinin çalıştığı rayda kontrolsüz bir şekilde ilerlediğini görüyorsunuz. Eğer raylar üzerinde bulunan makası değiştirmezseniz beş işçi hayatını kaybedecek. Değiştirirseniz diğer raylarda bulunan bir işçi hayatını kaybedecek. Hangisini yapmalısınız?
Özetle, yapay zeka alanındaki çalışmaların önünde teknik problemlerden daha çok, cevaplanması gereken felsefi, sosyolojik ve psikolojik sorular yer alıyor.
Burak KESAYAK
Twitter: @BurakKesayak