• BIST 10971.52
  • Altın 5416.903
  • Dolar 42.0453
  • Euro 48.5078
  • Bursa 13 °C
  • İstanbul 11 °C
  • Ankara 3 °C

“Duyduklarınıza inanmayın!”

“Duyduklarınıza inanmayın!”
Kaspersky uzmanları ses odaklı sahtekarlıkların nasıl tespit edileceğini paylaştı...

Kaspersky uzmanları, deepfake yöntemiyle hazırlanmış sesleri ayırt etme konusundaki bilgilerini paylaştı. "Derin öğrenme" ve "sahte" kelimelerinin birleşiminden oluşan yapay zeka odaklı deepfake sahtecilik yöntemleri son birkaç yıldır hızlı bir şekilde yaygınlaşıyor. Bu teknikte makine öğrenimi teknikleri görüntü, video ve ses içeriğinin ilgi çekici sahte örneklerini oluşturmak için kullanılıyor. Bir sesin sahte mi yoksa gerçek bir insana mı ait olduğunu belirlemek için konuşmanın tınısına, tarzına ve tonlamasına dikkat etmek gerekiyor. Örneğin deepfake yöntemi ile oluşturulmuş sahte bir ses, doğal olmayan bir monotonluğa sahip olacaktır. Dikkat edilmesi gereken bir diğer özellik de sesin kalitesidir. Bu nedenle bir sesli mesajı veya aramayı dinlerken, anlamsız kelimelere ve garip seslere şüpheyle yaklaşılmalıdır.

Deepfake teknolojisi kendi başına zararsız olsa da, dolandırıcıların elinde aldatma, karalama ve dezenformasyon için fırsatlar sunan tehlikeli bir araç haline gelebiliyor. Neyse ki bugüne dek ses sahteleri içeren herhangi bir kitlesel dolandırıcılık vakası yaşanmadı. Ancak ses odaklı deepfake örneklerini içeren birkaç yüksek profilli dolandırıcılık vakası yaşandı. Dolandırıcılar 2019'da bu teknolojiyi İngiltere merkezli bir enerji firmasını dolandırmak için kullandı. Yapılan bir telefon görüşmesinde dolandırıcı, firmanın Alman ana şirketinin genel müdürü gibi davranarak belirli bir tedarikçi şirketin hesabına acilen 220 bin Euro transfer edilmesini talep etti. Bir yıl sonra, 2020'de, dolandırıcılar bir Japon şirketinden 35 milyon dolara varan parayı çalmak için deepfake kullandı.

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, şunları söyledi: "Şu anda yüksek kaliteli deepfake teknolojisi yaygın kullanıma açık değil. Ancak gelecekte bu teknoloji serbestçe kullanılabilir hale gelebilir ve bu da söz konusu dolandırıcılık örneklerinin sayısının artmasına yol açabilir. Büyük olasılıkla saldırganlar gerçek zamanlı sesler üretmeye çalışacaklardır. Böylece örneğin birinin akrabasının kimliğine bürünebilir ve para koparabilir. Böyle bir senaryo şimdilik gerçekçi değil. Yüksek kaliteli deepfake örnekleri oluşturmak çok fazla kaynak gerektiriyor. Ancak düşük kaliteli bir ses sahtesi yapmak daha az kaynak gerektirir ve dolandırıcılar bu yola başvurabilir. Yukarıda bahsettiğimiz ipuçları, böyle bir sahtekarlığı tespit etmenize yardımcı olabilir."

Kaspersky uzmanları kendinizi deepfake'lerden korunmak için şunları öneriyor:

Şüpheli aramalara dikkat edin. Düşük ses kalitesi, doğal olmayan ve monoton ses, anlaşılmaz konuşma şekli ve yabancı gürültüyü bir uyarı olarak alın.
Duygularınıza göre karar vermeyin. Bilgilerinizi kimseyle paylaşmayın ve karşınızdaki ses ikna edici olsa bile para transferi yapmayın. Böyle bir durumda aramayı sonlandırmak ve alınan bilgileri birkaç ayrı kaynak üzerinden iki kez kontrol etmek daha iyidir.
Cihazlarınızda Kaspersky Premium gibi güvenilir güvenlik çözümleri kullanın. Bu cihazlarınızın kullanımını daha da güvenli hale getirecektir.
 

  • Yorumlar 0
  • Facebook Yorumları 0
    UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
    Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
    Bu habere henüz yorum eklenmemiştir.
Diğer Haberler
  • Veri hırsızlığına dikkat! t26 Eylül 2025 Cuma 14:04
  • Sahte sosyal medya videolarına dikkat!23 Eylül 2025 Salı 13:08
  • 2024 yılında 3,2 milyardan fazla kimlik bilgisi çalındı19 Eylül 2025 Cuma 13:21
  • Çerezlerin kurbanı olmayın!11 Eylül 2025 Perşembe 11:39
  • Destek mi risk mi?09 Eylül 2025 Salı 18:01
  • Eğlenceli paylaşımlar siber suçlular için altın madeni!27 Ağustos 2025 Çarşamba 16:24
  • Siber tehditler sınırları zorluyor27 Ağustos 2025 Çarşamba 16:19
  • Sosyal medyada tedbiri elden bırakmayın27 Ağustos 2025 Çarşamba 16:15
  • Yapay zeka 'Halisülasyon' görüyor!27 Ağustos 2025 Çarşamba 15:45
  • Siber zorbalığı hafife almayın26 Ağustos 2025 Salı 19:57
  • Tüm Hakları Saklıdır © 2015 Bursa Bakış | İzinsiz ve kaynak gösterilmeden yayınlanamaz.
    Tel : Haber İhbar Hattı: 0544.201 80 43 Faks : 0544.201 80 43