Mona Lisa’nın “konuşturulduğu” yapa zeka temelli “Deepfake” teknolojisinin, sinema bölümünde işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip uydurma görüntüler üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.
AA muhabirinin derlediği bilgilere nazaran, son günlerde ismi sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz sözlerini kullanan uydurma görüntüler üretilmesine imkan sağlıyor, bunun yanı sıra rastgele bir görüntüdeki konuşmayı değiştirip düzenleyebiliyor.
Farklı yapay zeka sistemleri kullanılarak görüntüler elde edilen kelam konusu teknoloji, rastgele bir görüntüdeki konuşmacının söylediklerinin çarçabuk değiştirilmesine müsaade veriyor. Konuşmaya yeni kelamlar eklenip çıkarılabilen programla, rastgele bir görüntüdeki konuşmanın değiştirilmesinin, bir yazının ya da sözün kopyalanıp yapıştırılması kadar kolay hale geldiği argüman ediliyor.
Sinema ve televizyon kesiminde kullandığında, yanılgı yapılan bir diyaloğun tekrar çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, makûs niyetli bireylerin kullanımı açısından bakıldığında ise değerli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.
“Algı idaresi emeliyle kullanılabilir”
“Deepfake” teknolojisi hakkında AA muhabirine değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Başkanı Rahmi Aktepe, söz konusu teknolojinin, görüntülerin manipüle edilmesinde ve düzmece görüntüler üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, “Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı idaresi hedefiyle kullanılabilir.” dedi.
Aktepe, birtakım ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, “ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır.” tabirlerini kullandı.
İnsanların hayatını kolaylaştırmak, iş süreçlerinin uygunlaştırmak emeliyle geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne üzere ziyanlar verebileceğine “Deepfake” teknolojisinin yeterli bir örnek olduğunu savunan Aktepe, “Söz konusu teknik, manzara sürece ve sinema bölümüne yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından berbat maksatlar için, yani etik dışı olarak yaygın bir biçimde kullanılmaktadır.” değerlendirmesinde bulundu.
Aktepe, şahıslara özgün manzara ve ses işleyebilme özelliği sayesinde kelam konusu teknolojinin sinema ve televizyon dalında maliyet faal olarak kullanılmaya başlandığına lakin etik dışı kullanıma yönelik kimi riskleri de barındırdığına da dikkati çekti.
“Deepfake”in siber zorbalık hedefiyle kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber ataklarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, “Söz konusu teknolojinin toplumlarda algı idaresi ile kaos yaratılması ve toplumsal olayların tetiklenmesi gayesiyle da kullanılabileceğini kıymetlendiriyoruz.” tabirlerini kullandı.
“Hayata döndürülen” ünlüler
Samsung’un Moskova’daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip düzmece görüntü elde etme teknolojisi geliştirildiği duyurulmuştu.
“Deepfake” teknolojisiyle Mona Lisa’nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein üzere ünlü isimlerin de fotoğraflarını görüntü haline getirerek YouTube’da yayınlamıştı.