GeriTeknoloji FaceApp ile güldük eğlendik, ama DeepFake videoların şakası yok!
MENÜ
  • Yazdır
  • A
    Yazı Tipi
  • Yorumlar
    0
    • Yazdır
    • A
      Yazı Tipi

FaceApp ile güldük eğlendik, ama DeepFake videoların şakası yok!

FaceApp ile güldük eğlendik, ama DeepFake videoların şakası yok!

FaceApp uygulamasıyla başlayan ve sosyal medyada geniş kitlelere yayılan fotoğraf üzerinde gerçekçi değişiklikler yapma akımı, kullanıcıların yüzünü güldürmeyi başardı. Bu uygulama her ne kadar zararsız ve eğlence odaklı görünse de kullandığı teknoloji yakın gelecekte karşımıza çıkabilecek kötü amaçlı ve tehlikeli uygulamaların habercisi. Deepfake videolar da bunun en canlı örneği…

Öncelikle, FaceApp ve benzeri uygulamaların kullandığı tekniği tanımakta fayda var. Bu uygulamalar ‘’machine learning’’, yani ‘’makine öğrenmesi’’ tekniğini kullanıyor. Temel prensip ise üretken rakip ağlar aracılığıyla, sıfırdan üretilen verilerin, orijinal veriler ile etkileşime girmesine dayanıyor. Veri üreten 1. ağ, gerçeğe en yakın verileri sunup 2. ağı ikna etmeye çalışırken, 2. ağ ise tahmin yeteneklerini en üst seviyeye taşıyıp kendisine sunulan verilerin gerçek olup olmadığını anlamak üzere eğitiliyor. 1. ağ 2. ağ’ı kandırabilecek seviyeye ulaştığında ise karşımıza FaceApp’in yaşlandırma uygulamalarındaki gibi başarılı örnekler çıkıyor. 

Dijital mecralarda gerçeklik algısını kaybedebiliriz

Geliştirilen bu teknolojilerle yakın zamanda çok daha farklı uygulamalar göreceğimiz aşikar. Bu uygulamalarla birlikte, özellikle dijital mecralarda neyin gerçek neyin sahte olduğunu anlamamız da giderek zorlaşacak. En kötüsü de yapay zeka ile desteklenecek bu uygulamaların, belirli bir süre sonra manipülasyon amaçlı kullanıma çok açık olması. Örneğin; büyük kitleler üzerinde etkiye sahip kişilerin, siyasetçilerin, sanatçıların, düşünürlerin, toplumdaki kanaat önderlerinin yapmadıkları bir şeyi yapmış gibi göstermek, söylemedikleri bir sözü söylemiş gibi duyurmak, hiç de zor olmayacak. Hatta daha mikro bir idea ile devam edecek olursak; tüm akıllı cihaz kullanıcıları, saniyeler içinde indirebildikleri uygulamalarla, hoşlanmadıkları herhangi biri hakkında kolaylıkla karalayıcı içerikler hazırlayıp paylaşabilme, servis edebilme imkanı bulacak, dolandırıcılık faaliyetleri de hızla artacak. 

Jack Nicholson canlandırması, Jim Carrey’nin değil Deepfake’in başarısı

Yakın bir örneği ele alacak olursak; geçtiğimiz günlerde Twitter’da çok sayıda kullanıcı, Jim Carrey’nin Jack Nicholson’ın oynağı The Shinning filminden bir sahneyi canlandırdığını düşünerek ilgili videoyu paylaşmaya ve konuyla ilgili yorumlar yapmaya başladı. Paylaşımı yapan kullanıcılar, Jim Carrey’nin çok iyi taklit yeteneği oldFuğunu, çok başarılı bir iş çıkardığını hatta bunu dünya üzerinde yapabilecek başka oyuncu olmadığını iddia etti. İşin aslında gelecek olursak; Jim Carrey elbette herkes tarafından sevilen ve başarıları kabul gören bir oyuncu; ancak o videodan haberi bile olmadığını söyleyebiliriz. Çünkü video, oyuncunun sadece yüzü kullanılarak oluşturulmuş başarılı bir Deepfake video örneği. ‘’Ctrl Shift Face’’ isimli YouTube kanalı tarafından paylaşıldığı anlaşılan bu video gibi sayısız örnek de sosyal ağlarda mevcut. 

Deepfake video akımı bir Reddit kullanıcısının sorusuyla başladı

Forbes trafından paylaşılan bir habere göre, Deepfake video akımı, 2017 yılında Deepfakes isimli bir Reddit kullanıcısının ortaya attığı bir düşünceyle başlıyor. Kullanıcı, ‘’Neden yapay zeka yardımıyla insan yüzlerinin başka insan yüzleriyle birleştirilmesi mümkün olmasın?’’ sorusunu soruyor ve olaylar gelişiyor. Ayrıca, 2015 yılında Fast and Furious 7 filminin çekimleri devam ederken Paul Walker’ın hayatını kaybetmesi sebebiyle, benzer bir teknoloji kullanılarak yüzünün kardeşinin vücuduna yerleştirildiğini ve filmin bu şekilde tamamlandığını da hatırlatalım. Bakalım önümüzdeki günlerde bu teknolojiler hayatımıza nasıl girecek, hangi uygulamalar ne gibi etkiler yaratacak, kötü amaçlı kullanımlara karşı ne gibi önlemler alınacak, merakla takip ediyoruz.

 

Şinasi FURKAN AVCI
twitter.com/snsfrknvc

False
Haber Yorumlarını Göster
Haber Yorumlarını Gizle