Deepfake Nedir?

157

Deepfake’ler, mevcut bir görüntü veya videodaki bir kişinin başka birinin benzeriyle değiştirildiği sentetik medyadır. İçeriği taklit etme eylemi yeni olmasa da, derin sahtekarlıklar, yüksek aldatma potansiyeline sahip görsel ve işitsel içeriği manipüle etmek veya oluşturmak için makine öğrenimi ve yapay zekadan güçlü teknikleri kullanır. Deepfake oluşturmak için kullanılan ana makine öğrenimi yöntemleri, derin öğrenmeye dayanır ve otomatik kodlayıcılar veya üretken rakip ağlar (GAN’lar) gibi üretken sinir ağı mimarilerinin eğitimini içerir.

Deepfake’ler, ünlülerin pornografik videolarında, intikam pornolarında, sahte haberlerde, aldatmacalarda ve mali dolandırıcılıkta kullanımları nedeniyle geniş çapta ilgi topladı. Bu, hem endüstriden hem de hükümetten, kullanımlarını tespit etmek ve sınırlamak için tepkiler aldı.

Deepfake’in Tarihçesi

 Fotoğraf manipülasyonu 19. yüzyılda geliştirildi ve kısa süre sonra hareketli görüntülere uygulandı. Teknoloji, 20. yüzyılda istikrarlı bir şekilde ve dijital video ile daha hızlı bir şekilde gelişti.

Deepfake teknolojisi, 1990’lardan başlayarak akademik kurumlardaki araştırmacılar tarafından ve daha sonra çevrimiçi topluluklardaki amatörler tarafından geliştirildi. Daha yakın zamanlarda yöntemler, endüstri tarafından benimsenmeye başladı.

Teknikler

Deepfake’ler, otomatik kodlayıcı adı verilen bir tür sinir ağına güvenir. Bunlar, bir görüntüyü daha düşük boyutlu bir gizli uzaya indirgeyen kodlayıcıdan ve görüntüyü gizli temsilden yeniden yapılandıran bir kod çözücüden oluşur. Deepfake’ler, bir kişiyi gizli alana kodlayan evrensel bir kodlayıcıya sahip olarak bu mimariyi kullanır. Gizli temsil, yüz özellikleri ve vücut duruşu hakkında temel özellikleri içerir. Bu daha sonra özellikle hedef için eğitilmiş bir modelle çözülebilir. Bu, hedefin ayrıntılı bilgilerinin, gizli alanda temsil edilen orijinal videonun altında yatan yüz ve vücut özellikleri üzerine bindirileceği anlamına gelir.

Bu mimariye yapılan popüler bir yükseltme, kod çözücüye üretken bir rakip ağ ekler.

Bir GAN, bir üreticiyi, bu durumda kod çözücüyü ve çekişmeli bir ilişkide bir ayrımcıyı eğitir. Oluşturucu, kaynak materyalin gizli temsilinden yeni görüntüler oluştururken, ayırt edici görüntünün oluşturulup oluşturulmadığını belirlemeye çalışır. Bu, oluşturucunun gerçekliği son derece iyi taklit eden görüntüler oluşturmasına neden olur, çünkü herhangi bir kusur ayrımcı tarafından yakalanır. Her iki algoritma da sıfır toplamlı bir oyunda sürekli olarak gelişir. Bu, sürekli olarak geliştikleri için Deepfake’ler ile savaşmayı zorlaştırır; bir kusur belirlendiğinde, düzeltilebilir.

Uygulanan Alanlar

Şantaj

Deepfake’ler, bir kurbanı haksız yere suçlayan şantaj materyalleri oluşturmak için kullanılabilir. Bununla birlikte, sahteleri gerçek malzemelerden güvenilir bir şekilde ayırt edilemediğinden, gerçek şantaj mağdurları artık gerçek eserlerin sahte olduğunu iddia edebilir ve onlara makul bir inkar edilebilirlik verir. Bunun etkisi, mevcut şantaj materyallerinin güvenilirliğini geçersiz kılmaktır, bu da şantajcılara olan bağlılığı silip şantajcının kontrolünü ortadan kaldırır. Bu olgu, gerçek şantajı “değersizleştirdiği” ve onu değersizleştirdiği için “şantaj enflasyonu” olarak adlandırılabilir. Bu şantaj içeriğini herhangi bir sayıda konu için büyük miktarlarda oluşturmak için küçük bir yazılım programı ile emtia kripto para madenciliği donanımını yeniden kullanmak ve sahte şantaj içeriği arzını sınırsız ve yüksek oranda ölçeklenebilir bir şekilde artırmak mümkündür.

Pornografi

Deepfake pornografisi, internetteki birçok derin sahtekarlık insanların pornografisini içeriyor, bunlar genellikle benzerleri genellikle rızaları olmadan kullanılan kadın ünlüleri kapsıyor. Deepfake pornografisi 2017’de internette, özellikle Reddit’te belirgin bir şekilde ortaya çıktı. Hollandalı siber güvenlik girişimi Deeptrace tarafından Ekim 2019’da yayınlanan bir raporda, tüm çevrimiçi derin sahtekarlıkların %96’sının pornografik olduğu tahmin ediliyor. Dikkat çeken ilki, birkaç makalede yer alan Daisy Ridley deepfake idi. Diğer öne çıkan pornografik derin sahtekarlıklar çeşitli ünlülere aitti. Ekim 2019 itibariyle internetteki Deepfake konuların çoğu İngiliz ve Amerikalı aktrislerdi. Ancak, deneklerin yaklaşık dörtte biri, çoğunluğu K-pop yıldızları olan Güney Koreli.

Haziran 2019’da, kadın görüntülerinden kıyafetleri çıkarmak için sinir ağlarını, özellikle üretken hasım ağlarını kullanan DeepNude adlı indirilebilir bir Windows ve Linux uygulaması piyasaya sürüldü. Uygulamanın hem ücretli hem de ücretsiz bir sürümü vardı, ücretli sürümün maliyeti 50 dolardı. 27 Haziran’da içerik oluşturucular uygulamayı kaldırdı ve tüketicilere geri ödeme yaptı.

Sanat

Mart 2018’de multidisipliner sanatçı Joseph Ayerle, Un’emozione per semper 2.0 (İngilizce adı: The Italian Game) adlı video sanat eserini yayınladı. Sanatçı, 1978’den 2018’e kadar zamanda yolculuk yapan 80’lerin film yıldızı Ornella Muti’nin sentetik bir versiyonu olan bir yapay zeka aktrisini yaratmak için Deepfake teknolojisiyle çalıştı. Massachusetts Teknoloji Enstitüsü, “Yaratıcı Bilgelik” çalışmasında bu sanat eserine atıfta bulundu. Sanatçı, Ornella Muti’nin zaman yolculuğunu nesiller boyu yansımaları keşfetmek için kullandı ve aynı zamanda sanat dünyasında provokasyonun rolüyle ilgili soruları araştırdı. Teknik gerçekleştirme için Ayerle, fotomodel Kendall Jenner’ın sahnelerini kullandı. Program, Jenner’ın yüzünü Ornella Muti’nin yapay zeka hesaplanmış yüzüyle değiştirdi. Sonuç olarak, yapay zeka aktris, İtalyan aktris Ornella Muti’nin yüzüne ve Kendall Jenner’ın vücuduna sahip oldu.

Oyunculuk

 Gelecekteki filmler için dijital aktörler oluşturmak için kullanılan Deepfake’ler ile ilgili spekülasyonlar bulunuyor. Dijital olarak oluşturulmuş/değiştirilmiş insanlar daha önce filmlerde kullanılmıştı ve Deepfake’ler yakın gelecekte yeni gelişmelere de katkıda bulunabilir. Deepfake teknolojisi, Harrison Ford’un genç yüzünün Solo: A Star Wars Story’de Han Solo’nun yüzüne yerleştirilmesi gibi mevcut filmlere yüz eklemek için hayranlar tarafından zaten kullanılıyordu ve Deepfake’ler tarafından kullanılanlara benzer teknikler, birçok film için kullanıldı.

Deepfake teknolojisi giderek ilerledikçe, Disney yüksek çözünürlüklü derin sahte yüz değiştirme teknolojisini kullanarak görsel efektlerini geliştirdi. Disney, yüz ifadelerini belirlemek, bir yüz değiştirme özelliği uygulamak ve çıktıyı stabilize etmek ve iyileştirmek için yineleme yapmak için programlanmış aşamalı eğitim yoluyla teknolojisini geliştirdi. Bu yüksek çözünürlüklü derin sahte teknoloji, film ve televizyon prodüksiyonuna uygulanarak önemli işletim ve üretim maliyetlerinden tasarruf sağlayacak. Disney’in derin sahte nesil modeli, 256 x 256 çözünürlükte medya üreten yaygın modellerden çok daha büyük ve daha gerçekçi sonuçlar üreten 1024 x 1024 çözünürlükte yapay zeka tarafından oluşturulan medyayı üretebilir. Ayrıca bu teknoloji ile Disney, ölü oyuncuları ve karakterleri hızlı ve basit bir yüz değişimi ile canlandırabilme imkanına sahip oluyor; Disney artık hayranların eğlenmesi için karakterleri diriltebilir ve canlandırabilir.

Sosyal Medya

Deepfake’ler, popüler sosyal medya platformlarında, özellikle de kullanıcıların Romeo + Juliet ve Game of Thrones gibi film ve televizyon dizilerindeki karakterlerin yüzlerini kendi yüzleriyle değiştirmelerine olanak tanıyan bir Çin Deepfake uygulaması olan Zao aracılığıyla kullanılmaya başlandı. Uygulama, başlangıçta, istilacı kullanıcı verileri ve gizlilik politikası üzerinde incelemeyle karşı karşıya kaldı ve ardından şirket, politikayı revize edeceğini iddia eden bir açıklama yaptı. Ocak 2020’de Facebook, platformlarında buna karşı koymak için yeni önlemler aldığını duyurdu.

Deepfake’in Endişe Verici Yönleri

Dolandırıcılık

Ses derin sahtekarlıkları, sosyal mühendislik dolandırıcılıklarının bir parçası olarak kullanıldı ve insanları, güvenilir bir kişiden talimat aldıklarını düşünmeleri için kandırdı. 2019’da, İngiltere merkezli bir enerji firmasının CEO’su, firmanın ana şirketinin genel müdürünün sesini taklit etmek için derin ses teknolojisini kullanan bir kişi tarafından 220.000 €’yu Macar banka hesabına aktarması emredildiğinde telefonla dolandırıldı.

Güvenilirlik ve Özgünlük

Sahte fotoğraflar uzun zamandır bol olmasına rağmen, hareketli görüntüleri taklit etmek daha zordu ve derin sahtekarlıkların varlığı, videoları gerçek ya da değil olarak sınıflandırmanın zorluğunu artırıyor. Yapay zeka araştırmacısı Alex Champandard, insanların Deepfake teknolojisiyle işlerin ne kadar hızlı bozulabileceğini bilmesi gerektiğini ve sorunun teknik bir sorun değil, bilgi ve gazeteciliğe güvenerek çözülmesi gerektiğini söyledi. Deepfake’ler, karalamak, kimliğine bürünmek ve dezenformasyon yaymak için kullanılabilir. Birincil tuzak, insanlığın, bir ortamın içeriğinin gerçeğe karşılık gelip gelmediğinin artık belirlenemeyeceği bir çağa düşebilmesidir.

Deepfake’in Olumlu Etkileri

Deepfake’lerin artan popülaritesi ve yaratılmasının yanı sıra potansiyel olumlu yenilikler de ortaya çıktı. Örneğin, sahte avatarlar ve sesleri kullanılarak kurumsal eğitim videoları oluşturulabilir. Buna bir örnek, kişiselleştirilmiş videolar oluşturmak için avatarlarla birlikte Deepfake teknolojisini kullanan Synthesia’dır.

Microsoft, kör ve/veya az gören kişilere yardımcı olmak için çevrenizdeki dünyayı anlatmak için yapay zeka ve Deepfake teknolojisi kullanan “Seeing AI” adlı bir uygulama geliştirdi. Deepfake teknolojisi ile bu uygulama, belgelerdeki metinleri anlatabilir, ürünleri ve barkodları tarayabilir, insanları ve duygularını tanıyabilir, etrafınızdaki konumu ve ortamı tanımlayabilir, para birimini ve faturaları tanımlayabilir ve bu özellikleri farklı dillerde en uygun ses ve tonda iletebilir.