• BIST 11089.53
  • Altın 2542.986
  • Dolar 32.8293
  • Euro 35.6289
  • Bursa 22 °C
  • İstanbul 25 °C
  • Ankara 21 °C

Blenderbot manşetlere çıkıyor

Blenderbot manşetlere çıkıyor
AI, ML güvenilirliği ve güvenliği: BlenderBot ve diğer vakalar..

Ağustos 2022'nin başlarında piyasaya sürülmesinden bu yana, Meta'nın yapay zeka (AI) odaklı araştırma projesi Blenderbot manşetlere çıkıyor. Bir sohbet botu olan Blenderbot’un insanlar, şirketler ve siyaset hakkındaki açıklamaları beklenmedik ve bazen radikal görünüyor. Bu, makine öğrenmesinin (ML) önemli zorluklarından biri ve işlerinde ML kullanan kuruluşların bununla özellikle ilgilenmesi gerekiyor.

Diğer benzer projeler daha önce Blenderbot’un yaşadığına benzer problemle karşı karşıya kaldı. Örneğin Microsoft'un Twitter için hazırladığı sohbet botu Tay ırkçı açıklamalarıyla dikkat çekmişti. Bu, internetten gelen metinler ve görüntüler üzerinde eğitilen makine öğrenimi modellerinin zayıf noktasını yansıtıyor. Çıktılarını inandırıcı kılmak için çok büyük ham veri kümeleri kullanıyorlar, ancak bu tür modeller web üzerinde eğitildikleri takdirde yakaladığı önyargıları davranışlarına yansıtıyorlar.

Şimdiye kadar bu projeler çoğunlukla araştırma ve bilim amacıyla ortaya koyuluyordu. Bununla birlikte kuruluşlar artık dil modellerini müşteri desteği, çeviri, pazarlama metni yazma, metin düzeltme ve benzeri alanlarda kullanıyorlar. Bu modelleri daha az önyargılı hale getirmek için geliştiriciler, eğitim için kullanılan veri kümelerini düzenleyebilirler. Ancak web üzerindeki veri kümeleri söz konusu olduğunda bu çok zordur. Yüz kızartıcı hataları önlemek için ilgili belgeleri kaldırmak, modelin bunları öğrenmesini önlemek için belirli kelimeleri veya ifadeleri verinin dışında tutmak adına önyargılara karşı veriyi filtrelemek gerekir. Diğer bir yaklaşım, modelin şüpheli metin oluşturması durumunda uygun olmayan çıktıları kullanıcılara ulaşmadan filtrelemektir.

Daha geniş açıdan bakıldığında koruma mekanizmaları önyargıların ötesinde herhangi bir ML modeli için gereklidir. Geliştiriciler modeli eğitmek için açık verileri kullanırsa, özel hazırlanmış, hatalı biçimlendirilmiş verilerin saldırganlar tarafından veri kümesine eklendiği "veri zehirlenmesi" adı verilen tekniğin kurbanı olabilirler. Sonuç olarak model bazı olayları tanımlayamayacak, onları başkalarıyla karıştıracak ve yanlış kararlar verecektir.

Kaspersky Baş Veri Bilimcisi Vladislav Tushkanov, şunları söylüyor: “Çok fazla çaba ve uzmanlık gerektirmesi nedeniyle gerçekte bu tür tehditler nadir olsa da, şirketlerin hala önleyici tedbirler alması gerekiyor. Bu aynı zamanda eğitim modelleri sürecindeki hataları en aza indirmeye yardımcı olacaktır. Öncelikle kuruluşların eğitim için hangi verilerin kullanıldığını ve nereden geldiğini bilmeleri gerekiyor. Ayrıca çeşitlendirilmiş verilerin kullanılması zehirlenmeyi daha da zorlaştırır. Son olarak, modeli devreye almadan önce kapsamlı bir şekilde test etmek ve performansını sürekli olarak izlemek önemlidir."

Kuruluşlar, makine öğrenimi sistemlerine yönelik tehditler hakkında özel bir bilgi kaynağı olan MITRE ATLAS'a da başvurabilirler. ATLAS ayrıca ML saldırılarında kullanılan bir taktik ve teknik matrisi sağlar.

Kaspersky'de olası güvenlik açıklarını ortaya çıkarmak, hasarı görmek ve bu tür bir saldırı riskinin nasıl azaltılacağını anlamak için siber saldırıları taklit ederek istenmeyen posta önleme ve kötü amaçlı yazılım algılama sistemlerimiz üzerinde belirli testler gerçekleştirdik.

Makine öğrenimi, Kaspersky ürün ve hizmetlerinde tehditlerin tespiti, Kaspersky SOC'de uyarı analizi veya üretim süreci korumasında anormallik tespiti amacıyla yaygın olarak kullanılmaktadır. Kaspersky ürünlerinde makine öğrenimi kullanımı hakkında daha fazla bilgi edinmek için bu sayfayı ziyaret edin.

 

  • Yorumlar 0
  • Facebook Yorumları 0
    UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
    Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
    Bu habere henüz yorum eklenmemiştir.
Diğer Haberler
  • Kripto piyasalarının 6 aylık karnesi12 Temmuz 2024 Cuma 13:41
  • Yapay zeka yapay zekaya karşı12 Temmuz 2024 Cuma 13:38
  • Seyahat dolandırıcılıklarına dikkat12 Temmuz 2024 Cuma 12:34
  • Saldırganların yeni hedefi olimpiyatlar12 Temmuz 2024 Cuma 12:13
  • 10 milyar parola sızdırıldı10 Temmuz 2024 Çarşamba 11:28
  • Sahte iş ilanları nasıl anlaşılır?08 Temmuz 2024 Pazartesi 09:21
  • Akıllı telefonları nasıl kullanmalıyız?08 Temmuz 2024 Pazartesi 08:22
  • Bir kurban iki kez dolandırılır mı?08 Temmuz 2024 Pazartesi 07:29
  • Çalışanlar yapay zekaya güveniyor06 Temmuz 2024 Cumartesi 10:32
  • Telegram üzerindeki siber suçlar arttı05 Temmuz 2024 Cuma 12:18
  • Tüm Hakları Saklıdır © 2015 Bursa Bakış | İzinsiz ve kaynak gösterilmeden yayınlanamaz.
    Tel : 0224. 408 35 78- Haber İhbar Hattı: 0544.201 80 43 Faks : 0224.408 35 78