• BIST 9994.61
  • Altın 2439.282
  • Dolar 32.4246
  • Euro 34.6533
  • Bursa 17 °C
  • İstanbul 15 °C
  • Ankara 15 °C

Derin ses sahtekarlığına dikkat

Derin ses sahtekarlığına dikkat
Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?..

Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi. Ancak grubun yeni başyapıtından dolayı duyulan sevinci bir tarafa bırakırsak, yapay zekanın sahte sesler ve görüntüler yaratmak için kullanılmasının karanlık tarafları da var.

Neyse ki bu tür derin sahteler ve bunları yapmak için kullanılan araçlar şimdilik çok gelişmiş veya yaygın değil. Yine de dolandırıcılık alanında kullanılma potansiyelleri son derece yüksek ve teknoloji de yerinde durmuyor.

Derin ses sahtekarlığıyla neler yapılabilir?

Open AI kısa süre önce gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu Open AI yazılımı, şimdilik gerçek insan konuşmasına en yakın olan şey.

Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API'si belirtilen metni yeniden seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle telaffuz edileceğini seçebilir. Open AI modeli mevcut haliyle deepfake sesler yaratmak için kullanılamasa da, ortaya koyduğu nitelikler ses üretme teknolojilerinin hızla geliştiğinin bir göstergesi niteliğinde.

Günümüzde gerçek insan konuşmasından ayırt edilemeyen yüksek kaliteli derin sahte ses üretebilen neredeyse hiçbir cihaz mevcut değil. Ancak son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Önceleri bunları kullanabilmek için kullanıcıların temel programlama becerilerine ihtiyacı vardı, ancak gün geçtikçe bunları kullanmak çok daha kolay hale geliyor. Yakın gelecekte hem kullanım kolaylığını hem de kaliteli sonuçları bir araya getirecek modeller görmemiz pekala mümkün.

Yapay zeka kullanarak dolandırıcılık yapmak nadir görülen bir durum. Ancak halihazırda "başarılı" vaka örnekleri mevcut. Ekim 2023'ün ortalarında Amerikalı risk sermayedarı Tim Draper, Twitter takipçilerini dolandırıcıların sesini kullanabileceği konusunda uyardı. Tim, sesiyle yapılan para taleplerinin her geçen gün daha akıllı hale gelen yapay zekanın bir sonucu olduğunu paylaştı.

Kendinizi bundan nasıl koruyabilirsiniz?

Şimdiye dek toplumda ses taklitleri olası bir siber tehdit olarak algılanmamış olabilir. Kötü niyetle kullanıldıkları çok az vaka var. Bu nedenle korunmaya yönelik teknolojilerinin ortaya çıkışı da yavaş seyrediyor.

Şimdilik bu durumdan kendinizi korumanın en iyi yolu, arayan kişinin telefonda size söylediklerini dikkatle dinlemekten geçiyor. Eğer kayıt kalitesizse, arada gürültüler varsa ve ses robotik geliyorsa, bu duyduğunuz bilgilere güvenmemeniz için yeterli sebep.

Karşınızdakinin "insanlığını" test etmenin bir başka iyi yolu da alışılmışın dışında sorular sormak. Örneğin sizi arayan bir ses modeliyse, en sevdiği renkle ilgili soracağınız bir soru genellikle karşılaşmayı beklediği türden bir şey olmadığı için onu şaşkına çevirebilir. Saldırgan bu noktada manuel olarak çevirip cevabı oynatsa bile, yanıttaki zaman gecikme kandırıldığınızı açıkça ortaya koyar.

Bir diğer güvenli seçenek de güvenilir ve kapsamlı bir güvenlik çözümü kullanmak. Bunlar deepfake sesleri yüzde 100 tespit edemeseler de, tarayıcıları koruyarak ve bilgisayardaki tüm dosyaları kontrol ederek kullanıcıların şüpheli web sitelerinden, ödemelerden ve kötü amaçlı yazılım indirmelerinden kaçınmalarına yardımcı olabilirler.

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, şunları söylüyor: "Şu an genel tavsiyemiz, tehdidi abartmamak ya da var olmadıkları yerde ses taklitlerini tanımaya çalışmamak yönündedir. Şimdilik mevcut teknolojinin insanların ayırt edemeyeceği kalitede bir ses yaratacak kadar güçlü olması pek olası değil. Yine de olası tehditlerin farkında olmanız ve yakın gelecekte yeni bir gerçeklik haline gelecek olan gelişmiş deepfake dolandırıcılığına hazırlıklı olmanız gerekiyor."

  • Yorumlar 0
  • Facebook Yorumları 0
    UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
    Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
    Bu habere henüz yorum eklenmemiştir.
Diğer Haberler
  • E-kitap okurları artıyor22 Nisan 2024 Pazartesi 11:30
  • En yaygın mobil tehditler20 Nisan 2024 Cumartesi 10:25
  • Giyilebilir cihazlar risk taşıyor mu?19 Nisan 2024 Cuma 11:50
  • Konsol devri kapanıyor mu?18 Nisan 2024 Perşembe 15:33
  • Bitcoin dolandırıcılığına dikkat18 Nisan 2024 Perşembe 12:42
  • Veri hırsızlarına dikkat17 Nisan 2024 Çarşamba 12:21
  • Fidye yazılımının kurbanı olmayın16 Nisan 2024 Salı 11:57
  • Sosyal medyada stresle mücadele15 Nisan 2024 Pazartesi 12:46
  • Call of Duty: Mobile’da 4. sezon başlıyor15 Nisan 2024 Pazartesi 12:42
  • Yazılım testinde güncel trendler08 Nisan 2024 Pazartesi 12:56
  • Tüm Hakları Saklıdır © 2015 Bursa Bakış | İzinsiz ve kaynak gösterilmeden yayınlanamaz.
    Tel : 0224. 408 35 78- Haber İhbar Hattı: 0544.201 80 43 Faks : 0224.408 35 78