KİM KİMDİR FİRMA REHBERİ Hemen Üye Ol Üye Girşi
Uye Girişi
Giriş
Beni Hatırla
Yeni Üye Kayıt
Haber sitemizin aktivitelerinden yararlanmak için üyelik başvuru yapın.
Hemen Üye Olun
Uye Hizmetleri
 
19 Nisan 2024 Cuma
10 °C Açık

'Korkutan teknoloji' Deepfake

Mona Lisa'nın 'konuşturulduğu' yapa zeka temelli 'Deepfake' teknolojisinin, yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.

`Korkutan teknoloji` Deepfake
13 TEMMUZ 2019 CUMARTESİ 10:01
1
1984
0
AA aa

Mona Lisa'nın "konuşturulduğu" yapa zeka temelli "Deepfake" teknolojisinin, sinema sektöründe işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip sahte videolar üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.

Son günlerde adı sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor, bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor.

Farklı yapay zeka sistemleri kullanılarak videolar elde edilen söz konusu teknoloji, herhangi bir videodaki konuşmacının söylediklerinin kolaylıkla değiştirilmesine izin veriyor. Konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geldiği iddia ediliyor.

Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine olanak sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.

"Algı yönetimi amacıyla kullanılabilir"

"Deepfake" teknolojisi hakkında değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Başkanı Rahmi Aktepe, söz konusu teknolojinin, videoların manipüle edilmesinde ve sahte videolar üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, "Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı yönetimi amacıyla kullanılabilir." dedi.

Aktepe, bazı ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, "ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır." ifadelerini kullandı.

İnsanların hayatını kolaylaştırmak, iş süreçlerinin iyileştirmek amacıyla geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne gibi zararlar verebileceğine “Deepfake” teknolojisinin iyi bir örnek olduğunu savunan Aktepe, "Söz konusu teknik, görüntü işleme ve sinema sektörüne yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından kötü amaçlar için, yani etik dışı olarak yaygın bir şekilde kullanılmaktadır." değerlendirmesinde bulundu.

Aktepe, kişilere özgün görüntü ve ses işleyebilme özelliği sayesinde söz konusu teknolojinin sinema ve televizyon sektöründe maliyet etkin olarak kullanılmaya başlandığına ancak etik dışı kullanıma yönelik bazı riskleri de barındırdığına da dikkati çekti.

"Deepfake"in siber zorbalık amacıyla kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber saldırılarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, "Söz konusu teknolojinin toplumlarda algı yönetimi ile kaos yaratılması ve toplumsal olayların tetiklenmesi amacıyla da kullanılabileceğini değerlendiriyoruz." ifadelerini kullandı.

"Hayata döndürülen" ünlüler

Samsung'un Moskova'daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip sahte video elde etme teknolojisi geliştirildiği duyurulmuştu.

"Deepfake" teknolojisiyle Mona Lisa'nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein gibi ünlü isimlerin de fotoğraflarını video haline getirerek YouTube'da yayınlamıştı.

YORUM YAZIN
Profiliniz ziyaretci statüsünde görünüyor. Yorumlarınız aşağıdaki isimle yayınlanacaktır
Değiştir
Dilerseniz web sitemize üye olarak daha özgün bir profil oluşturabilir ve yorumlarınızı hesabınızdan takip edebilirsiniz
Kodu Girin
Yapacağınız yorumların şiddet ve hakaret içermemesine lütfen dikkat edin. Aksi taktirde yorumlarınız onaylanmayacaktır. Gönder
18.04.2024
15:19
Karahan`a TRT`de yöneticilik görevi
Karahan'a TRT'de yöneticilik görevi
Uzun süreden beri TRT'de programcılık yapan, ekranlardan tanınan ve herkesin beğenisini kazanan hemşerimiz Faysal Karahan'a TRT'de yöneticilik görevine verildi.
18.04.2024
15:02
BİŞHAK`tan Şehitler Haftası Anması
BİŞHAK'tan Şehitler Haftası Anması
Bingöl Şehit Aileleri Gazileri ve İnsan Hakları (BİŞHAK) Derneği Yönetim Kurulu Başkanı Vahap Baysal, şehitleri andı.
18.04.2024
12:59
AYM`den kamu işçilerini ilgilendiren kritik karar
AYM'den kamu işçilerini ilgilendiren kritik karar
Anayasa Mahkemesi, sendika konfederasyonları ile hükümet tarafından imzalanan ve kamu işçilerinin mali-sosyal haklarını belirleyen 'çerçeve anlaşma protokolleri'nin bağlayıcı olacağına dair düzenlemeyi anayasaya aykırı olduğu gerekçesiyle iptal etti.
18.04.2024
12:14
Bingöl`de ‘Hüzün Çiçeği` kartpostallık görüntüler oluşturdu
Bingöl'de 'Hüzün Çiçeği' kartpostallık görüntüler oluşturdu
Bingöl dağlarında 'ağlayan gelin' veya 'hüzün çiçeği' olarak bilinen ters laleler, bahar ayının gelişiyle kendini göstermeye başladı. Açan çiçekler kartpostallık görüntüler oluşturdu.
18.04.2024
11:53
Bingöl`de ayı sürüsü görüntülendi
Bingöl'de ayı sürüsü görüntülendi
Bingöl'de karların erimesiyle kış uykusundan uyanan ayılar cep telefonu kamerasıyla görüntülendi.
18.04.2024
11:27
Bingöl ekibi sunduğu lezzetler birinciliği kaptı!
Bingöl ekibi sunduğu lezzetler birinciliği kaptı!
Bitlis'in Tatvan ilçesinde düzenlenen 'MEB Gastronomi Festivali ve Yemek Yarışması'nda Bingöl Karşıyaka Mesleki ve Teknik Anadolu Lisesi birinci oldu.
Sitemizde yayınlanan haberlerin telif hakları gazete ve haber kaynaklarına aittir
©Copyright 2017
Haberler, Fotoğraf Galerisi, Video Galerisi, Köşe Yazıları ve daha fazlası için arama yapın