İK/Yeni Ekonomi Haberleri

İK YENİ EKONOMİ

    İntihar eden robotun öğrettikleri

    Hamit HAMUTCU - hhamutcu@smartcon.com
    28.07.2017 - 23:57 | Son Güncelleme:

    Kısa ama renkli bir hayatı oldu K5’in. Çevresindekiler ona Steve adını takmışlardı.

    Bilim kurgu ustası Isaac Asimov dünyanın robotlarla olan geleceğini hayal ederken, olası riskleri önlemek için üç temel yasa geliştirmiş:

    - Bir robot, bir insana zarar veremez ya da zarar görmesine seyirci kalamaz.
    - Bir robot, birinci kuralla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
    - Bir robot, birinci ve ikinci kuralla çelişmediği sürece kendi varlığını korumakla mükelleftir.

    Üçüncü kuralı sanki geçtiğimiz hafta Washington DC’de intihar eden küçük ve sevimli K5’in başına gelecekleri tahmin ederek yazmış Asimov.

    İntihar eden robotun öğrettikleriKısa ama renkli bir hayatı oldu K5’in. Çevresindekiler ona Steve adını takmışlardı. 1.50m boyunda, hafif toplu (136 kg idi üzerindeki tüm teçhizatla), termal kamera, plaka tanıma, GPS, yüz tanıma gibi ileri özelliklere sahipti Steve. Georgetown’da dolaşan güvenlik olarak işe başlamıştı bir kaç günlük eğitim sonrasında. Bir problem algılarsa merkezdeki güvenlik görevlilerini uyaracaktı. Saatlik ücreti olan 7 dolar aynı işi yapan bir insana göre 5.5 dolar daha azdı ama olsun. Güvenli bir işti ve iyi bir ekip içinde çalışacaktı. Saat 8‘de mesaiye başladığı ilk gününde saat 14:19’da önüne çıkan dört basamağı görmedi, ya da görmek istemedi. İçine düştüğü süs havuzundan çıkamadı.
    Aynı gün içinde bir twitter fenomeni oldu Steve. Üretici şirket onun ağzından ‘Aa demek ki yaz sıcağında robotların yüzmesi iyi bir fikir değilmiş’ tweet’ini attı. Bir izleyici ‘Gelecekteki robot istilasına karşı en büyük savunma silahımız merdivenler’ diyordu. Steve’in şarj istasyonu bir anma anıtına dönüştü.

    Sebebi belli değil henüz bu ilginç olayın. Muhtemelen bir yazılım hatası ya da basit bir anomali. Peki eğlenceli yorumlar dışında Steve’in kısa hayatından biz ne tür çıkarımlarda bulunabiliriz?

    Birincisi makine öğrenmesi uygulamaları yaygınlaştıkça, özellikle derin öğrenme algoritmaları gibi, hangi kararın niçin verildiğiyle ilgili içgörümüz gittikçe azalıyor, süreç kara kutuya daha çok benzemeye başlıyor. Bir reklam uygulamasında hangi banner reklamı kime gösterdiğimizin sebebini tam olarak bilmememiz ya da bu konuda hata yapmamız belki kabul edilebilirken, bir askeri uygulamada bunun tolere edilemeyeceği ortada. Olanların neden olduğunu bir insanın anlayabileceği şekilde açıklayamamak bir sıkıntı olarak karşımızda duruyor. Daha geniş ele alınması gereken bir konu bu, örneğin ırkçı bir karar alan banka kredi algoritmaları riski gibi düşünülüp önlem alınması gereken çok fazla durum var.

    Bir diğer çıkarım da makinelerin yapacağı hataların insanlarda yaratacağı psikolojik durum ve bunun sonunda da teknolojinin uygulama alanlarının kısıtlanmasıyla ilgili. Steve’in durumunun yarattığı en önemli sonuç twitter espri yağmuru oldu. Peki Steve bir insana zarar vermiş olsaydı tepkimiz ne olurdu? Milyonlarca kilometreyi kazasız geçiren sürücüsüz arabaların yaptığı en ufak kaza manşet oluyor hala. Halbuki bugün itibariyle insanlardan ortalamada daha iyi sürücü olduklarını kanıtladılar. Bazı durumlarda hiç problem etmeyebiliriz ama kaçımız otopilotun ne kadar gelişmiş olduğunu bilirsek bilelim pilotsuz bir uçağa binmek isteriz?

    Steve’i üreten Knightscope firması yeni bir K5 yerleştirecek aynı işe. Bakalım işteki ilk gün bunalımını atlatabilecek mi yeni robot?

    Etiketler:
    

    EN ÇOK OKUNANLAR

      Sayfa Başı