KİM KİMDİR FİRMA REHBERİ Hemen Üye Ol Üye Girşi
Uye Girişi
Giriş
Beni Hatırla
Yeni Üye Kayıt
Haber sitemizin aktivitelerinden yararlanmak için üyelik başvuru yapın.
Hemen Üye Olun
Uye Hizmetleri
 
14 Ekim 2025 Salı
°C

'Korkutan teknoloji' Deepfake

Mona Lisa'nın 'konuşturulduğu' yapa zeka temelli 'Deepfake' teknolojisinin, yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.

`Korkutan teknoloji` Deepfake
13 TEMMUZ 2019 CUMARTESİ 10:01
1
2316
0
AA aa

Mona Lisa'nın "konuşturulduğu" yapa zeka temelli "Deepfake" teknolojisinin, sinema sektöründe işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.

Son günlerde adı sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor, bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor.

Farklı yapay zeka sistemleri kullanılarak videolar elde edilen söz konusu teknoloji, herhangi bir videodaki konuşmacının söylediklerinin kolaylıkla değiştirilmesine izin veriyor. Konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geldiği iddia ediliyor.

Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine olanak sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.

"Algı yönetimi amacıyla kullanılabilir"

"Deepfake" teknolojisi hakkında değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Başkanı Rahmi Aktepe, söz konusu teknolojinin, videoların manipüle edilmesinde ve sahte videolar üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, "Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı yönetimi amacıyla kullanılabilir." dedi.

Aktepe, bazı ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, "ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır." ifadelerini kullandı.

İnsanların hayatını kolaylaştırmak, iş süreçlerinin iyileştirmek amacıyla geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne gibi zararlar verebileceğine “Deepfake” teknolojisinin iyi bir örnek olduğunu savunan Aktepe, "Söz konusu teknik, görüntü işleme ve sinema sektörüne yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından kötü amaçlar için, yani etik dışı olarak yaygın bir şekilde kullanılmaktadır." değerlendirmesinde bulundu.

Aktepe, kişilere özgün görüntü ve ses işleyebilme özelliği sayesinde söz konusu teknolojinin sinema ve televizyon sektöründe maliyet etkin olarak kullanılmaya başlandığına ancak etik dışı kullanıma yönelik bazı riskleri de barındırdığına da dikkati çekti.

"Deepfake"in siber zorbalık amacıyla kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber saldırılarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, "Söz konusu teknolojinin toplumlarda algı yönetimi ile kaos yaratılması ve toplumsal olayların tetiklenmesi amacıyla da kullanılabileceğini değerlendiriyoruz." ifadelerini kullandı.

"Hayata döndürülen" ünlüler

Samsung'un Moskova'daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip sahte video elde etme teknolojisi geliştirildiği duyurulmuştu.

"Deepfake" teknolojisiyle Mona Lisa'nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein gibi ünlü isimlerin de fotoğraflarını video haline getirerek YouTube'da yayınlamıştı.

YORUM YAZIN
Profiliniz ziyaretci statüsünde görünüyor. Yorumlarınız aşağıdaki isimle yayınlanacaktır
Değiştir
Dilerseniz web sitemize üye olarak daha özgün bir profil oluşturabilir ve yorumlarınızı hesabınızdan takip edebilirsiniz
Kodu Girin
Yapacağınız yorumların şiddet ve hakaret içermemesine lütfen dikkat edin. Aksi taktirde yorumlarınız onaylanmayacaktır. Gönder
13.10.2025
19:31
Bingöl`de ‘Deprem Master Planı` Çalıştayı
Bingöl'de 'Deprem Master Planı' Çalıştayı
Bingöl Belediyesi'nce 15-16 Ekim tarihlerinde düzenlenecek çalıştay, Bingöl'ün deprem hazırlık sürecine bilimsel bir boyut kazandıracak.
13.10.2025
19:30
Elektrik faturalarında yeni dönem! Destek verilmeyecek
Elektrik faturalarında yeni dönem! Destek verilmeyecek
Bakanlığın 2026 başında devreye almaya planladığı yeni tarife düzenlemesine göre; daha önce destekten faydalanan bazı yüksek tüketimli haneler, 2026 itibarıyla elektriği gerçek maliyetinden ödemeye başlayacak.
13.10.2025
19:29
Silah kaçakçılığı operasyonu: 78 gözaltı
Silah kaçakçılığı operasyonu: 78 gözaltı
Bingöl dahil 12 ilde düzenlenen silah ve mühimmat kaçakçılığı operasyonunda 78 şüpheli gözaltına alındı.
13.10.2025
19:28
Bingöl`de 15 yıl cezası bulunan zanlı tutuklandı
Bingöl'de 15 yıl cezası bulunan zanlı tutuklandı
Bingöl'de polis ekipleri tarafından yapılan çalışmada, hakkında 15 yıl 1 ay kesinleşmiş hapis cezası bulunan zanlı yakalandı. Zanlı işlemlerinin ardından tutuklanarak cezaevine gönderildi.
13.10.2025
19:27
Bingöl`de karla mücadele erken başladı
Bingöl'de karla mücadele erken başladı
Bingöl'ün Adaklı ilçesine bağlı Çevreli köyü mezralarında, mevsimin ilk kar yağışı etkili oldu. Kısa sürede beyaza bürünen bölgede, kapanan yolların açılması için İl Özel İdare ekipleri hızlı bir şekilde sahaya indi.
13.10.2025
19:27
Bingöl`de 2 şüpheli tutuklandı
Bingöl'de 2 şüpheli tutuklandı
Bingöl'de polis ekipleri tarafından yapılan çalışmada uyuşturucu madde, ruhsatsız tüfek ve silah ele geçirilirken 2 şüpheli tutuklandı.
Sitemizde yayınlanan haberlerin telif hakları gazete ve haber kaynaklarına aittir
©Copyright 2017
Haberler, Fotoğraf Galerisi, Video Galerisi, Köşe Yazıları ve daha fazlası için arama yapın