Dolandırıcılar, bu kez teknolojiyi de oyunlarına alet etti. Yapay zeka yöntemlerini kullanarak vatandaşları dolandırmaya çalışan sahtekarların kurduğu oyun, bu kadar da olmaz dedirtti.
YAPAY ZEKAYLA ÜRETTİLER
Ünlülerin benzerliklerine sahip bir yapay zekâ asistanı ortaya çıkarması ile sahtekarlar, devlet yetkililerinin ve tanınmış kişilerin sesleri ve görüntülerini taklit ederek içerikler üretti.
ŞİKAYETE RAĞMEN VİDEOLARI KALDIRMIYOR
Ünlü isimlerin görüntü ve sesleri üzerinden sahte reklamlar üreten dolandırıcılar, binlerce kişiyi mağdur etti. Dolandırıcıların yapay zeka ile hazırladığı videoların yayılmasına izin veren Facebook, farklı farklı binlerce kullanıcının şikayetine rağmen sahte içerikleri yayından kaldırmayarak birçok kişiyi de mağdur etti.
DEFNE SAMYELİ İSMİNİ KULLANIP TUZAĞA ÇEKTİLER
Dolandırıcıların ismini kullandığı isimlerden birisi, Defne Samyeli'ydi. Ses ve görüntüsü kullanılarak konuşmasının değiştirildiğini ve "Paranızı artıracağız ve katlayacağız" vaadiyle bahis sitelerinde kullanıldığını gören Samyeli, durumu hemen savcılığa bildirdi.
Ses ve görüntüsünün kullandığını gören Samyeli, "Habere söz konusu olan bu videonun tamamen uydurma bir montaj işi olduğu ilk bakışta anlaşılsa da anlıyorum ki birçok vatandaşımızın dolandırılmasına neden olmuş. Bu bir yandan yapay zeka kullanımının ne tehlikeli boyutlara ulaşabileceği konusunda bize fikir vermesi açısından anlamlı. İnsanları herhangi bir yatırıma yönlendirecek bir yayın yapmadım, bu gibi sponsorlu yayınları gördüğü zaman demek ki insanların misliyle dikkatli olması gerekiyor, hele işin içinde para varsa. Sadece ben değil, en güvendiğiniz başka kim varsa bu devirde 'paranızı şuraya yatırın' şeklinde bir video gördüğünüzde yüzlerce kez sorgulamanızı öneririm. Yüzümü ve YouTube kanalımdaki yayınlarımı kullanarak vatandaşları dolandıran, bu videoları yayan, yayınlayan sorumlular hakkında yasal süreci başlatacağımı bu vesileyle duymak isterim" dedi.
AFRA SARAÇOĞLU'NUN SESİNİ TAKLİT ETTİLER
Dolandırıcılar, vatandaşların güvenini kazanmak için genellikle sosyal medyada popüler olan isimlerin görüntülerini tercih etti. Son dönemde popüler olan oyuncu Afra Saraçoğlu da o isimlerden biriydi. Dolandırıcılar güzel oyuncunun sesini taklit ederek bir internet sitesi üzerinden sahte yatırım tavsiyeleri verdi.
BURAK ÖZÇİVİT İSYAN ETMİŞTİ!
Dolandırıcıların yakın zamanda mağdur ettiği isimlerden biri de Burak Özçivit'ti. Yapay zeka ile konuşturulan başarılı oyuncuyu kullanarak sahte yatırım çağrısı yapılması üzerine Övçivit bir basın açıklaması yapmış ve reklamın gerçek olmadığını dile getirmişti.
Dolandırıcılar BAYKAR Teknoloji Lideri Selçuk Bayraktar'ın da sesini taklit ederek vatandaşları tuzağa çekmeye çalıştı.
ESRA EROL ŞİKAYETÇİ OLDU
Dolandırıcılar, Esra Erol'un daha önceden çekmiş olduğu bir videoyu yapay zeka yöntemiyle değiştirerek yeniden seslendirdi. Ünlü sunucunun güvenilirliğini kullanarak vatandaşları kandırmak istedi. Esra Erol, sesinin ve görüntüsünün kullanılarak insanların dolandırılmaya çalışıldığı videosunu görür görmez mahkemeye gitti.
Esra Erol'un avukatı Hülya Kuran ise konu ile ilgili açıklama yaparak, " Kamuoyuna duyurulur… Sosyal medya ve bazı internet sitelerinde müvekkil Esra Erol Özbir'in görselleri ve sesi kullanılarak hatta inandırıcılığı arttırmak adına deepfake yöntemi ile 'yatırım fırsat' gibi başlıklarla yayınlanan ilanlar, oltalama yöntemiyle dolandırıcılık girişimidir. Mali ve hukuki yönden suç teşkil etmektedir. Bahse konu internet siteleri ve hesaplar hakkında yasal işlemler ivedilikle başlatılmıştır. Dijital mecralarda, para kazandırma vaadiyle yürütülen bu tür dolandırıcılık faaliyetlerine itibar etmeyiniz" dedi.
AYIRT ETMESİ OLDUKÇA ZOR
Uzmanlar ise yapay zeka ile üretilen içeriklerin ayırt edilmesinin zor olduğuna dikkat çekti. Ancak dikkatli bir incelemeyle, yapay zekanın robotik yapısının farkına varılabileceğini söyledi.