Tgrt Haber

Yapay zekanın tehlikeli yüzü: Deepfake ile ünlülerin sesini taklit edip vurgun yapıyorlar

17 Şubat 2024 10:58 - Güncelleme : 17 Şubat 2024 11:05
Yapay zekanın tehlikeli yüzü: Deepfake ile ünlülerin sesini taklit edip vurgun yapıyorlar
deepfake,sahte video,yapay zeka

Yazılım uzmanı Doç. Dr. Mehmet Zeki Konyar, deepfake teknolojisinin kötüye kullanımının arttığını ve sahte videoların dolandırıcılık ve dezenformasyon amacıyla kullanıldığını belirterek, vatandaşları bu konuda uyardı.

Yapay zekanın korkutan yanlarından biri olan "deepfake" (derin sahte) teknolojisi, dolandırıcıların elinde hem vatandaşı mağdur ediyor hem de dezenformasyona sebep oluyor. Ünlü isimlerin seslerini taklit ederek yatırım vaadi yalanıyla hazırladıkları videoları internet ortamına yayan dolandırıcılar, vatandaşların gerçeklik algısını hedef alıyor.

Yapay zekanın ateş ve bıçak gibi olduğunu, birçok faydası bulunduğunu fakat kötü ellerde zarara sebebiyet verdiğini söyleyen KOÜ Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, bu teknolojinin tüm detaylarını anlatarak, önemli uyarılarda bulundu.

'DEEPFAKE' TEHLİKESİ, DEZENFORMASYON DOĞURUYOR

Hızla büyüyen yapay zeka, bir yandan hayatı kolaylaştırırken, diğer yanda kötü amaçlar için kullandığında çeşitli endişelere sebep olabiliyor. Özellikle yapay zekanın hem hayran bırakan hem de korkutan örneklerinden biri olan deepfake videoları, sorumsuzca kullanıldığında dezenformasyonun hızla yayılmasına yol açıyor.

Son olarak internet ortamında sponsorlu olarak paylaşılan ve yayılan videolarda kullanılan yöntem, yazılım mühendislerini bile şaşkına çevirdi. Ünlü kişilerin seslerini yapay zeka ile taklit eden dolandırıcılar, Türkiye’nin önemli şirketlerinin isimlerini de kullanarak, "Yatırım yapın, para kazanmaya başlayın" vaadinde bulunuyor. Yapay zeka ile elde edilen sahte ünlü görüntüleri ve sesleri, vatandaşları mağdur ediyor.

"YAPAY ZEKA İNSAN GİBİ DÜŞÜNÜP EYLEME GEÇEBİLİR"

Kocaeli Üniversitesi (KOÜ) Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, hem hayat kurtaran hem de korkutan yapay zekanın tehlikeli yönüne ilişkin bilgilendirmelerde bulunarak, vatandaşları uyardı.

Yapay zekanın, bilgisayarın neredeyse bir insanmış gibi düşünmesine, eyleme geçmesine ve yanıt vermesine imkan sağladığını ifade eden Doç. Dr. Mehmet Zeki Konyar, bilgisayarların düşünme kabiliyetleri olmadığını ve aslında bilgisayarlara birtakım şeyler öğreterek karar vermesini sağladıklarını ifade etti.

Yapay zekanın tehlikeli yüzü: Deepfake ile ünlülerin sesini taklit edip vurgun yapıyorlar - 1. Resim

Örnek olarak, "Mesela elma ve armutun fotoğrafını gösteriyoruz. Yüzlerce, binlerce veri kümeleri içerisinden 'Bu elmadır', 'Bu armuttur' diyoruz ve birtakım matematiksel formüller ile bunlara ait özellikleri çıkarıyor. Bu özelliklerden sonra karar oluşturuyor. Örneğin elmaya ve armuta dair özelliklerin neler olduğuyla ilgili bir karar çıkarıyor. Bundan sonra gösterdiğimiz elma ve armuta bakıp, 'Bu elmadır', 'Bu armuttur' diyerek karar veriyor." dedi.

SES KAYDI YETERLİ OLUYOR

Günümüzde yapay zekanın çok ilginç bir hal almaya başladığını söyleyen Konyar, pandemi döneminde sonra yeni yazılımlar çıktığını belirtti. Sohbet robotlarından, deepfake teknolojisine kadar birçok yazılımın popüler olduğunu anlatan Konyar, bu yazılımların çok basit çalıştığını şöyle anlattı:

Artık çok basit bir ses kaydınızla sizin için bir video oluşturabiliyorlar. Veya yazdığınız metin ile sizin için yeni bir fotoğraf üretebiliyorlar. Bunun içinde yapay zekanın güncel teknolojileri kullanılıyor. Binlerce, milyonlarca görüntü kullanılarak bu iş yapılıyor.

Yapay zekanın tehlikeli yüzü: Deepfake ile ünlülerin sesini taklit edip vurgun yapıyorlar - 2. Resim

Örneğin, ’Ben kuş görmek istiyorum. Gagası, kanatları şu şekilde olsun’ dediğinizde, böyle bir kuş gerçekte olmayabiliyor ama milyonlarca kuş görüntüsüyle eğitildiği için bunlara ait özellikleri öğrenmeye başlıyor. Mesela artık gagaların nasıl olabileceğini biliyor. Tüm varyasyonları biliyor. Dolayısıyla sizin istediğiniz enteresan özellikteki kuşu üretip, karşınıza çıkarıyor. 

ÜNLÜ KİŞİLERİ ALET EDİYORLAR

Doç. Dr. Mehmet Zeki Konyar, son zamanlarda yapay zeka teknolojisi kullanılarak yapılan dolandırıcılık olaylarında artış yaşandığına dikkati çekti. Bu sahte videolarda birtakım ünlü kişilerin kullandığını söyleyen Konyar, aralarında Selçuk Bayraktar’ın ve Aydın Doğan’ın olduğu videoların yapılmaya başlandığını belirtti.

'Şuraya yatırım yapın', 'Ben şuraya katıldım çok para kazandım', 'Şuraya para gönderin' gibi videolar çıkmaya başladığını vurgulayan Konyar, "Maalesef birçoğumuz buna inanmak durumunda kalabiliyoruz. Eğer ki biraz bilinçli değilsek kanabiliyoruz. Selçuk Bey'in böyle bir işe girmeyeceğini biliyoruz. Biz biliyoruz fakat bazen bazı vatandaşlarımız bu durumun farkında olmayabiliyor. Ya da Aydın Doğan'ın ismi, cismi bilinmeyen bir yere yatırım çağrısı yapmayacağını biliyoruz. Halkımızın bunu biliyor olması gerekiyor. Ünlülerin adı sanı bilinmeyen bir yerden reklam yapmayacağını herkes bilir. Çünkü bir ünlü reklam alıyorsa bunu sosyal medya hesaplarında paylaşabiliyor." dedi.

Yapay zekanın tehlikeli yüzü: Deepfake ile ünlülerin sesini taklit edip vurgun yapıyorlar - 3. Resim

İnternet ortamına yayılan sahte videoların profesyonel yazılımcılar tarafından hazırlandığını kaydeden Doç. Dr. Konyar, "Yurt içinden veya yurt dışından birtakım siparişlerle yazılım yaptırabiliyorlar. Mesela bugün Hindistan'a istediğiniz yazılımı yaptırabilirsiniz. Orada Hindistanlı yazılımcılar ucuza çalıştığı için sizin tarif ettiğiniz özelliklerle size yazılım yapıp, gönderebiliyorlar." diye konuştu.

Dolandırıcılar da maalesef çok popüler işler yapıyorlar. Yazılımı son teknolojisine kadar kullanabiliyorlar. Yurt dışından birisi yaptığı için Türkiye’de kimse de töhmet altında kalmamış oluyor. Zaten dolandırıcılar bu işi çok iyi biliyorlar. Nasıl dolandırılacağını, hangi yazılımla, hangi teknolojiyle bunları biliyorlar. Bazen biz bile şaşırıyoruz. O kadar güncel teknolojiler kullanıyorlar ki... Çünkü kazandıkları devasa paralar var ve bu devasa paranın bir kısmını kendilerini, dolandırıcılık yöntemini geliştirmek için harcıyorlar." diye de ekledi.

'BİR ŞEY OLMAZ' DİYE DÜŞÜNMEMEK LAZIM

Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, sahte videoların internet ortamında reklam olarak vatandaşların karşısına çıktığını, bunun ise "phishing (oltalama)" olarak adlandırılan bir yöntem olduğu bilgisini verdi.

Bazı vatandaşların kişisel bilgilerine zaman zaman ilgisiz davranabildiğini ve 'Deneyelim. Bir şey çıkmazsa en fazla telefon numaram gider' diye düşündüklerini belirten Konyar, bu dolandırıcılık yöntemlerinin sadece telefon bilgilerini almadığını ve ses kaydını da alabildiğini belirterek şu uyarıyı yaptı:

Bu ses kaydınızı yapay zeka yöntemi ile kullanarak akrabalarınızı dolandırabilir. Nasıl Selçuk Bayraktar'ın, Aydın Doğan'ın sesini kullanabiliyorsa sizin sesinizi de üretebilirler. Karşımıza bir video, reklam çıktığı zaman kesinlikle şüphelenmemiz gerekiyor. Çokça söylüyoruz, bedava peynir sadece fare kapanında olur. Kimse bize düşük bir yatırımla yüksek paralar vermez"

PEKİ DEEPFAKE VİDEOLAR NASIL ANLAŞILIR?

Yapay zekanın ürettiği sahte videolar da ipuçları da bulunduğunu dile getiren Konyar, "En bilenini ses ve dudak senkron şekilde hareket etmez. Dudak hareketlerimizi tam olarak taklit edemiyor. Her insanın farklı harf ve ses hareketleri var. Bizim çıkardığımız harfleri ve kelimeleri taklit edemiyor." diye konuştu.

Deepfake denilen derin sahtelik videolarında gözlerin hareketlerini de takip etmek gerektiğine dikkati çekti, "İnsanların gözlerini doğal davranışı bellidir. Gözlerdeki davranış doğal mı, kirpik kaşlar doğal oynuyor mu?" gibi soruları akla getirmek gerektiğini vurguladı. Konyar sözlerine şöyle devam etti:

Sahte videolar yavaşlayınca saçmalamaya başlıyor. Görüntüler tuhaflaşıyor. Dudak hareketleri yüz, el, kol değişmeye başlıyor. Yazılım, yapay zeka aynı bıçak ve ateş gibidir. Binlerce faydası var ama bıçağı başka amaçla kullanmaya başladığınızda zararları var. Ateşin birçok faydası var ama bir yerleri de yakmamak lazım. Yapay zeka harikadır, yazılım çok güzeldir birçok kişinin, birçok firmanın hayatını kolaylaştırıyor ama bir de zarar tarafı var. Uyanık olmak lazım"

Doç. Dr. Mehmet Zeki Konyar, sahte videoların ilgili mercilere bildirilmesi gerektiğine de dikkat çekerek, "Karşımıza çıkan böyle videolar olduğunda kesinlikle yetkililere bildirelim. Bilişim Teknolojileri ve İletişim Kurumu’nun ihbar hattı var. Vatandaşlarımızın o ihbar hattı ile iletişime geçerek, bu güvenli olmayan ya da şüpheli olan videoları, işlemleri bildirmeleri gerekiyor" dedi.

Kaynak: İHA
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...