Talepte artış var: Darkweb’de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı

HomeTeknoloji

Talepte artış var: Darkweb’de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı

Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve kapalı dataların çalınması üzere çeşitli maksatlar için yapay zeka takviyeli görüntü oluşturma hizmeti sunuyor.

festival408 Açılış Etkinliğinde Kelam Alan Oyuncu Tilbe Saran: ‘Sanat bize birlik olacak ve soluk alacak alanlar sağlıyor’
Çocuk genel seçimlerle ilgili gerçekçi ve temel bilgiyi evde edinmeli
StripedFly: Sofistike koda sahip ve casusluğa dair yeteneklerini gizleyen bir madenci solucan

Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve kapalı bilgilerin çalınması üzere çeşitli hedefler için yapay zeka takviyeli görüntü oluşturma hizmeti sunuyor. Deepfake oluşturma yahut satın alma fiyatları, projenin karmaşıklığına ve en son eserin kalitesine bağlı olarak değişebiliyor. Kaspersky uzmanlarının varsayımlarına nazaran bir dakikalık deepfake görüntü başına fiyatlar 300 ila 20 bin dolar ortasında değişebiliyor. Bu durum Kaspersky Cyber Security Weekend – META 2023 etkinliğinde paylaşıldı.

Kaspersky, farklı makûs niyetli hedefler için deepfake görüntü ve ses oluşturma hizmeti veren çeşitli Darknet pazarlarını ve yeraltı forumlarını tahlil etti. Birtakım durumlarda bireyler, deepfake oluşturmak için ünlüler yahut siyasi figürler üzere belli amaçlar talep edebiliyor.

Siber hatalılar, üretilen yapay zeka görüntülerini yasa dışı faaliyetler için çeşitli hallerde kullanıyor. Bireyleri yahut kuruluşları dolandırmak için kullanılabilecek geçersiz görüntüler yahut manzaralar oluşturmak için deepfake örnekleri kullanabiliyor. Örneğin bir CEO’nun banka havalesi talep ettiği yahut bir ödemeyi yetkilendirdiği düzmece bir görüntü hazırlanabiliyor ve bu görüntü kurumsal fonları çalmak için kullanabiliyor. Uydurma görüntüler, şahıslardan para ya da bilgi sızdırmak için kullanılabilecek görüntüler ya da imajlar oluşturmak için de kullanılabiliyor. Siber hatalılar ayrıyeten yanlış bilgi yaymak yahut kamuoyunu manipüle etmek için deepfake’lerden faydalanabiliyor. Örneğin bir siyasetçinin tartışmalı açıklamalar yaptığı geçersiz bir görüntü oluşturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabiliyor.

Deepfake teknolojisi, yasal hesap sahibinin gerçekçi geçersiz görüntülerini yahut ses kayıtlarını oluşturarak ödeme hizmetlerinde doğrulama kademesini atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti sağlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düşünmeleri için kandırmak ve böylelikle hesaba ve ilgili fonlara erişim elde etmek için kullanılabiliyor.

Kaspersky Önder Data Bilimcisi Vladislav Tushkanov, şunları söyledi: “Deepfake’ler giderek artan bir formda şantaj ve dolandırıcılık hedefiyle kullanılıyor. Örneğin, bir İngiliz güç firmasının CEO’su, ana şirketinin liderinin acil fon transferi talep eden bir ses deepfake’i ile 243.000 dolar dolandırıldı. Sonuçta fonlar dolandırıcının banka hesabına aktarıldı. Durum lakin hatalı öbür bir transfer talebinde bulununca ortaya çıktı, lakin o vakte kadar zati transfer edilmiş olan fonları geri almak için çok geç kalınmıştı. Benzeri bir olay BAE’de rapor edildi ve burada da ses deepfake’i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake’lerin sırf işletmeler için değil, tıpkı vakitte ferdi kullanıcılar için de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir yahut isteği olmadan öteki birinin kimliğine bürünebilir. Dijital okuryazarlık düzeyinizi artırmak, bu tehditlere karşı koymak için anahtar niteliğindedir.”

Darkweb kaynaklarının daima izlenmesi, deepfake sanayisi hakkında pahalı bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine imkan tanıyor. Araştırmacılar darknet’i izleyerek deepfake’lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu çeşit bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ait anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler kelam konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu tıp bir izleme içeriyor.

Kaspersky, deepfake ile ilgili tehditlerden korunmak için şunları öneriyor:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını denetim edin. Sadece yazılımları değil, birebir vakitte gelişmiş BT maharetlerini de ele alın. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
  • Kurumsal “insan güvenlik duvarınızı” güçlendirin. Çalışanların deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve yol açabilecekleri sorunları anlamalarını sağlayın. Çalışanlara bir deepfake’i nasıl tespit edeceklerini öğretmek için daima farkındalık ve eğitim çalışmaları yapın. Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler konusunda aktüel kalmasına yardımcı olur ve dijital okuryazarlık düzeylerini artırır.
  • Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan kıymetli bir etken olmaya devam ediyor.
  • ‘Güven fakat doğrula’ üzere âlâ protokollere sahip olun. Sesli bildiri ve görüntülere kuşkuyla yaklaşmak insanların asla kandırılmayacağını garanti etmez, fakat yaygın tuzakların birçoklarından kaçınmaya yardımcı olabilir.
  • Deepfake görüntülerin dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden başkasına ışık kaymaları, cilt tonunda kaymalar, garip biçimde göz kırpma yahut hiç göz kırpmama, dudakların konuşmayla senkronize olmaması, manzaradaki dijital kalıntılar, görüntünün kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipuçlarıdır.

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

COMMENTS

WORDPRESS: 0
DISQUS: