Paylaş
Medeniyetimizde bir dönüm noktası... İnsanlar tarihte ilk kez bir teknolojinin ilerleyişini durdurmak için ortak çabaya girişiyor. Hafta ortasında ABD’li saygın eğitim kurumlarının desteklediği ‘Yaşamın Geleceği Enstitüsü’ (FLI) tarafından yayımlanan ‘Süper Zekâ Üzerine Bildiri’ başlıklı mektup dolaşıma girdi ve teknoloji dünyasının gündemine yerleşti. Aralarında teknoloji, medya, din ve sanat dünyasından dikkat çekici isimlerin, hatta kraliyet mensuplarının olduğu 800’den fazla figürün imzaladığı mektubun ortak talebiyse açık ve net: “Süper yapay zekâ istemiyoruz!”
Yapay zekânın duraklatılmasıyla ilgili talep aslında yeni değil. 2023 Mart ayında biliminsanları aynı konuda ortak bir bildirge yayımlamış fakat henüz yeni şahlanan endüstri tarafından pek umursanmamıştı. Şimdiyse ‘yapay zekânın babaları’ olarak bilinen isimler bile durumun olası vahametine dikkat çekiyor. Sorun şu ki; teknoloji şirketleri insanlığın kaderini değiştirecek bir makine geliştiriyorlar fakat kimse insanlığa fikrini sormuyor! Tam da bu yüzden ‘süper zekâ geliştirilmesine yönelik bir yasağın getirilmesi’ gerektiğini savunan mektupta bu yasağın ancak geniş bir bilimsel uzlaşı ve toplumun güçlü onayı sağlandıktan sonra kaldırılabileceği belirtiliyor.
Yoshua Bengio
Steve Wozniak
Geoffrey Hinton
Mektuba imza ve görüş bırakanlar arasında; Apple’ın kurucu ortağı Steve Wozniak ve Virgin’in kurucusu Richard Branson gibi önde gelen teknoloji ve iş dünyası figürleri; Amerikan toplumunda etkili medya isimleri ve uluslararası sanatçılar var. Ayrıca Sussex Dükü Prens Harry ile Düşesi Meghan, George W. Bush ve Barack Obama dönemlerinde genelkurmay başkanlığı yapan Amiral Mike Mullen, Papa’nın yapay zekâ danışmanı rahip Paolo Benanti, ayrıca Turing Ödülü sahibi Yoshua Bengio ve Nobel ödüllü Geoffrey Hinton gibi ‘yapay zekânın babaları’ olarak anılan iki önemli araştırmacı...
Trump esnek davranıyor
Mektupta, MIT Üniversitesi iştirakiyle kurulan ‘Yaşamın Geleceği Enstitüsü’nün yakın tarihli bir anketine de atıfta bulunuluyor. Ankete göre Amerikalıların yalnızca yüzde 5’i gelişmiş yapay zekâ araçlarının serbestçe gelişimini destekliyor. Yüzde 73’ten fazlası yapay zekâ üzerinde güçlü bir yasal düzenleme yapılmasından yana. Katılımcıların yüzde 64’üyse insan zekâsını aşan bir süper yapay zekâ modelinin güvenilirliği kanıtlanmadıkça geliştirilmemesi gerektiğini düşünüyor. Öte yandan Trump hükümetinin yapay zekânın önünü açmak istediği ve bu konuda olabildiğince esnek davrandığı biliniyor.
Peki, teknoloji şirketleri neden duraksamak bir yana, daha da hızla ilerlemeyi tercih ediyor? Wall Street Journal’a demeç veren Richard Sutton bilgisayar biliminin en prestijli ödülü Turing’e geçen yıl layık görülmüştü. Yapay zekâ geliştirmeyi ‘çocuk sahibi olmaya’ benzeten Sutton’ın bakış açısı her şeyi daha anlamlı kılıyor: “Yanlış şeyler yapınca çocuklarını kapatabileceğin bir düğmen olsun ister miydin? Bu tartışma aslında bununla ilgili. Onu kontrol etmek isteyeceğimizi sanıyoruz yalnızca.”
Siz de imzalayabilirsiniz
Küresel aklın eseri olarak dikkat çeken bildiri dünya kamuoyu tarafından desteklenmeyi bekliyor. İnsanlığın geleceğine katkı sağlayacağını düşünüyorsanız siz de aşağıda çevirisini verdiğimiz mektubun altına imzanızı bırakabilirsiniz. superintelligence-statement.org
“Yenilikçi yapay zekâ araçları, eşi görülmemiş bir sağlık ve refah düzeyi sunabilir. Ancak tüm bunların yanında, önde gelen birçok yapay zekâ şirketi gelecek 10 yıl içinde neredeyse tüm bilişsel görevlerde insanların çok ötesine geçebilecek bir süper zekâ geliştirmeyi hedeflediğini açıkça belirtiyor.
Bu durum; insanların ekonomik olarak değersizleşmesi, yetki ve özgürlük kaybı, sivil hakların ve insan onurunun zedelenmesi, kontrolün yitirilmesi, ulusal güvenlik riskleri ve hatta insan soyunun tükenmesi gibi ciddi endişeleri gündeme getirmiştir.
Aşağıdaki kısa bildiri, süper zekâ için acele edilmesine karşı çıkan uzman ve kamuoyu figürlerinin ve giderek büyüyen bir kesiminin farkındalığını görünür kılmayı amaçlıyor:
Biz, süper zekâ geliştirilmesine yönelik bir yasaklama çağrısında bulunuyoruz. Bu yasak, ancak şu koşullar sağlandığında kaldırılmalıdır:
Süper zekânın güvenli ve denetlenebilir şekilde geliştirileceği geniş kapsamlı bir bilimsel uzlaşma açıkça ortaya konduğunda ve güçlü bir toplumsal onay sağlandığında.”
KISA KISA
Şimdiden deneme sürüşü yapalım diye!
Yapay zekâyla ilgili endişelerin yükselmeye başladığı ilk günlerde OpenAI CEO’su Sam Altman’dan “Tarihin doğru tarafında olmalıyız” şeklinde bir itiraf gelmişti. Tarihin bir tarafında konuşup diğer tarafında işini sürdürdüğü görülen Sam Altman, Sora 2 video platformuyla ilgili önemli açıklamalar yaptı. “Çok yakında dünya artık istediğiniz kişiyi taklit edebilen inanılmaz video modelleriyle baş etmek zorunda kalacak” diyen Altman, “Kötü şeylerin olmasını bekliyorum” sözleriyle gerilimin dozunu arttırdı. Altman neden teknolojiyi geliştirmeye devam ettikleri sorusunaysa çok mantıklı bir açıklama sunuyor: Deep fake videolar üreten yapay zekâ versiyonlarını sunmalarının sebebi, insanların şimdiden deneme sürüşü yapıp gelecekteki realiteye
karşı hazırlıklı olabilmesiymiş!
Paylaş