Murat Gülderen Binbir surat yapay zeka!
HABERİ PAYLAŞ

Binbir surat yapay zeka!

Yüz ve sesi olduğu gibi taklit edebilen ‘deepfake’ teknolojisi ile yapılan dolandırıcılıklar hızla artıyor. Peki bu videoların sahte olup olmadığı nasıl anlaşılır? Sahtekarlara karşı hukuki yaptırımlar neler? Mağdurlar ne gibi yollar izlemeli? İşte detaylar...

İnsanların seslerini taklit edebilen (klonlayabilen), çok gerçekçi yüz montajları yapabilen ve gerçekte söylenmeyen şeyleri söylenmiş gibi gösterebilen yapay zeka teknolojisi ‘deepfake’ (derin sahtecilik), kötü niyetli kişilerin silahı oldu. Başta dolandırıcılar olmak üzere toplumsal düzeni bozmak isteyenler, bu teknolojinin gücünü arkasına alarak siyasilerin, futbolcuların, sanatçıların, sosyal medya fenomenlerinin ve iş insanlarının seslerini kopyalamaya, videolarını manipüle etmeye başladılar.

Haberin Devamı

ERDOĞAN’IN SESİ BİLE TAKLİT EDİLDİ

Örneğin telefonunuz çaldı ya da mailinize veya sosyal medya hesabınıza bir video gönderildi. Karşı tarafta da tüm Türkiye’nin tanıdığı bir kişi var. Görüntüsü ve sesi de tamamen aynı ve sizden depremzedeler için yardım istiyor. Kuşkusuz buna kayıtsız kalamazsınız. Aynı şekilde önceden çekilen videolar da kolaylıkla manipüle edilebiliyor. Geçtiğimiz günlerde Cumhurbaşkanı Erdoğan’ın sesini yapay zekayla taklit ederek iş insanlarını dolandırmaya çalışan kişiler de MİT tarafından tespit edilmiş ve yakalanmışlardı.

ÇOCUĞUNUN SESİYLE FİDYE İSTEDİLER

Pek çok kişi de, arkadaşının ya da yakın bir akrabasının sesi ve görüntüleri ile dolandırıldı. Hatta ABD’de bir sahtekar, küçük bir çocuğun sesini taklit ederek annesinden fidye bile istedi. Bu tür teknolojileri kullanmak uzmanlık bile gerektirmiyor. Çünkü bununla ilgili birçok uygulama halihazırda uygulama mağazalarında yer alıyor. Peki bu işin cezası nedir? Yapılan sahtekarlıklar dolandırıcıların yanına kâr mı kalıyor? Mağdurların yapması gereken işlemler neler? Tüm bunları Avukat Özlem Baysal Sezgin, POSTA okurları için açıkladı.

Binbir surat yapay zeka

BUNLARI TESPİT EDEN YAZILIMLAR HIZLA ARTIYOR

Deepfake videolarını normal gözle anlamak genelde aşırı zordur ancak bazı yöntemlerle tek bakışta sahteleri tespit etmeye çalışabilirsiniz. Öte yandan bunları tespit eden yazılımlar da hızla artıyor. Örneğin thesentinel.ai adlı platformdan bir video içeriğinin sahte olup olmadığını kontrol edebilirsiniz. Sentinel, yüklenen medyayı analiz etmek ve manipüle edilip edilmediğini belirlemek için geliştirilmiş yapay zeka algoritmaları kullanıyor. weverify.eu adlı site de yine yanıltıcı ve uydurma içerikleri tespit etmek için geliştirdi. Öte yandan şu taktikler de büyük işinize yarayacaktır:

Haberin Devamı

SESE VE MİMİKLERE ÇOK DİKKAT EDİN

Deepfake videolarında bazen belirgin hatalar olabilir. Örneğin, yüz ifadesi ile sesin ağza uyumsuzlukları gözlenebilir.

Ses ve konuşma kalitesine dikkat edin. Deepfake videolarında ses ve diksiyon hataları olabilir. Ses tonu veya konuşma tarzı anormal olabilir.

Yüz ifadelerini ve mimikleri yakından inceleyin. Bazen ifadelerde ciddi alakasızlıklar görülebilir.

Deepfake videolarında, arka plan veya diğer nesnelerde görüntü düzenlemesi veya distorsiyon olabilir. Bu nedenle arka planı ve nesneleri yakından incelemek önemlidir.

Haberin Devamı

Deepfake olduğundan şüphelendiğiniz bir video varsa, orijinal veya referans bir video ile karşılaştırın. Bu, farklılıkları daha iyi görmeye yardımcı olabilir.

KENDİNİZDEN BİLE ŞÜPHE EDEBİLİRSİNİZ

Deepfake teknolojisinin kötüye kullanımlarının arttığını ifade eden Sezgin, “Yapay zeka temelli, dezenformasyona dayalı bir manipülasyon sistemi olarak, söz konusu videolar şantaj, tehdit, dolandırıcılık, pornografi, seçim propagandası ve seçim manipülasyonu gibi amaçlarla kullanılabilmekte. Görüntüler öyle inandırıcı ki söz konusu kişi siz bile olsanız bir an kendinizden şüphe edebilirsiniz” dedi. Sezgin, deepfake mağduru olduğunuzda hukuki yolları ve argümanları şu şekilde sıraladı:

Deepfake oluşturmak için kullanılan kişisel veriler (kişinin sesi, yüzü ve dış görüntüsü) için kişinin rızasının, hatta haberinin bile olmadığı düşünüldüğünde kişisel verilerinin korunmasına ilişkin haklar gündeme gelecektir. Fail için hapis cezaları öngörülmüştür.

Deepfake ile kişinin onur ve şerefini rencide edecek bir durum yaratılmışsa, TCK’nın 125’inci maddesi baz alınarak hakaret davası açılabilir.

Kişinin deepfake ile aldatılması halinde somut durum özelinde TCK’nın 157-158’inci maddelerinde yer alan dolandırıcılık suçu gündeme gelebilir.

İnternet ortamında yayınlar yoluyla işlenen suçlarla mücadele edilmesi hakkında kanun uyarınca, kişilik hakları ihlal edilen kişi, içerik sağlayıcısına, buna ulaşamaması halinde yer sağlayıcısına başvurarak uyarı yöntemi ile bu içeriğin internet ortamında yapılan yayından çıkarılmasını talep edebileceği gibi doğrudan sulh ceza hakimine başvurarak içeriğin çıkarılmasını ve/veya erişimin engellenmesi isteyebilir.

Sıradaki haber yükleniyor...
holder