• BIST 11429.69
  • Altın 4464.714
  • Dolar 41.0444
  • Euro 47.5682
  • Bursa 28 °C
  • İstanbul 25 °C
  • Ankara 29 °C

Yapay zeka 'Halisülasyon' görüyor!

Yapay zeka 'Halisülasyon' görüyor!
Yapay zekâ 'Halüsinasyon' görüyor ve sahte gerçeklikler üretiyor!

Yapay zekânın topladığı verilerdeki kalıpları öğrenip yeniden içerik ürettiğini, ancak bazı durumlarda sistemin, gerçek dünyayla uyuşmayan bilgiler üretebildiğini kaydeden Dr. Öğr. Üyesi Burak Çeber, “Halüsinasyonun nedenleri arasında eğitim verisinin yetersizliği, bağlamın doğru kurulmamış olması, fazla genelleme yapılması ve sistemin ‘bilmiyorum’ demek yerine tahmin yürütmesi bulunuyor.” dedi.

Sahte içerikleri tespit etmek için öncelikle iyi bir medya okuryazarlığı gerektiğini söyleyen Dr. Öğr. Üyesi Burak Çeber, “İçerikleri farklı kaynaklardan doğrulama alışkanlığı kazanmak büyük önem taşıyor. Bunun yanında, yapay zekâ uygulamalarına dair farkındalık da şart.” dedi.

Üsküdar Üniversitesi İletişim Fakültesi Reklamcılık Bölümü Dr. Öğr. Üyesi Burak Çeber, yapay zeka ve bilgi kirliliği konusunu değerlendirdi.

Yapay zeka araçları zaman zaman yanıltıcı içerikler de üretiyor

Son yıllarda üretken yapay zekâ uygulamalarının gündelik yaşamın vazgeçilmez bir parçası hâline geldiğini dile getiren Dr. Öğr. Üyesi Burak Çeber, “Evde, okulda, işte veya alışverişte farklı amaçlarla kullanılan yapay zekâ araçları artık herkesin hayatına dokunuyor. Gündelik yaşamda sıkça kullanılan yapay zekâ araçları, doğru sonuçlar vermelerinin yanında zaman zaman yanıltıcı içerikler de üretebiliyor. Bu durumu ‘yapay zekâ halüsinasyonu’ kavramı ile açıklamak mümkün.” dedi.

Sistem ‘bilmiyorum’ demek yerine tahmin yürütüyor

Yapay zekâ sistemlerinin, sosyal medya paylaşımlarından web sitelerine, formlardan bilimsel makalelere kadar pek çok kaynaktan toplanan büyük veri kümeleriyle eğitildiğini anlatan Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâ, bu verilerdeki kalıpları öğrenip yeniden içerik üretiyor. Ancak bazı durumlarda sistem, eğitim verilerinde yer almayan veya gerçek dünyayla uyuşmayan bilgiler üretebiliyor. Bu hatalar, olmayanı varmış gibi göstermek, mantık hataları yapmak ya da yanlış bilgi vermek şeklinde ortaya çıkıyor. Halüsinasyonun nedenleri arasında eğitim verisinin yetersizliği, bağlamın doğru kurulmamış olması, fazla genelleme yapılması ve sistemin ‘bilmiyorum’ demek yerine tahmin yürütmesi bulunuyor. Kısacası, yapay zekânın halüsinasyonları, gerçekte olmayan bilgileri üretiyor oluşu bakımından, insanların hayal gördüğü veya yanlış algıladığı durumlara benzetilebilir.” diye konuştu.

Yapay zeka da önyargılı

İnsanların sahip olduğu önyargıların, yapay zekâya da yansıdığını kaydeden Dr. Çeber, şöyle devam etti:

“Bu durum, ‘algoritmik önyargı’ olarak adlandırılıyor. Algoritmik önyargı iki şekilde ortaya çıkabiliyor. Birincisi, algoritmayı tasarlayan kişinin bilinçli ya da bilinçsiz tercihleri modelin davranışına yansıyabiliyor. İkincisi, yapay zekâyı eğiten veri setlerinde yer alan toplumsal önyargılar sistemin çıktılarına yansıyabiliyor. Yani veri setinde hata veya önyargı varsa, yapay zekânın ürettiği içeriklerde de aynı önyargılar görülebiliyor. Örneğin Yapay zekâ, işe alım süreçlerinde bazı demografik gruplar arasında ayrım yapabiliyor. 2018 yılında Google, özgeçmiş tarama aracının kadın adayların başvurularını geri plana atması nedeniyle eleştirildi. Benzer bir örnek de Apple Card’da yaşandı. Algoritma, gelir seviyesi aynı olan çiftlerde erkeklere kadınlardan daha yüksek kredi limiti verdi.”

Yapay zekanın sahte içerikleri hızla yayılıyor

Yapay zekânın, insanlar tarafından üretilen içeriklere kıyasla dezenformasyonun boyutunu büyük ölçüde artırdığını ve yayılma hızını ciddi şekilde yükselttiğini de ifade eden Dr. Öğr. Üyesi Burak Çeber, “Bir insanın günlerce hazırlayabileceği içerikleri, yapay zekâ dakikalar hatta saniyeler içinde üretebiliyor. Bu da yanlış bilgilerin hızla viral hâle gelmesine yol açıyor. Örneğin, deepfake teknolojisiyle bir liderin veya ünlünün yüzü ve sesi dijital ortamda taklit edilebiliyor ve video şeklinde hızla yayılabiliyor.” dedi.

Reklam stratejileri belirleyenleri de var

Yapay zekânın iş süreçlerine girdikçe, reklam profesyonellerinin daha önce hiç karşılaşmadıkları türden bilgilere ulaşmaya ve bunları anlamlandırmaya başladığını da dile getiren eden Dr. Öğr. Üyesi Burak Çeber, “Artık reklamla ilgili kararlar, sadece bir grup uzmanın görüşüne dayanmak yerine, tüketicilerin konuşmalarına, dijital davranışlarına ve onların bıraktığı ipuçlarına göre verilebiliyor. Bu sayede hazırlanan reklamın türü, içeriği ve özellikleri konusunda daha net fikirler elde edilebiliyor. Son dönemde yapay zekâ, reklam üretiminde somut sonuçlar da vermeye başladı. Reklam metni yazabilen, görsel ve video üretebilen, hatta strateji belirleyebilen yapay zekâ teknolojileri geliştirildi. Üretken yapay zekâ uygulamaları, reklam verenlere başarılı sonuçlar sunsa da tüketiciyi her an ve her koşulda tüketime yönlendirecek şekilde işliyor. Bu durum beraberinde doyumsuz bir tüketim anlayışını getiriyor. Bu anlayışı deniz suyu içmeye benzetebiliriz: Susuzluğunu gidermek için deniz suyu içen kişi, daha çok susar ve susadıkça daha fazla içer. Yapay zekâ da kullanımına bağlı olarak tüketimde susuzluğu artıran veya hatırlatan bir araç görevi görebiliyor.” ifadesinde bulundu.

Veri analitiğine dayalı yapay zekâ uygulamalarının artık sadece demografik bilgiler veya tüketim alışkanlıklarını değil, insanların psikolojik profillerine dair verileri de toplayabildiğini söyleyen Dr. Öğr. Üyesi Burak Çeber, “Cambridge Analytica skandalında gördüğümüz gibi, bu tür bilgiler insanların seçim davranışlarını etkilemek için kullanılabiliyor.” şeklinde konuştu.

Medya okuryazarlığı şart

Sahte içerikleri tespit etmek için öncelikle iyi bir medya okuryazarlığı gerektiğine vurgu yapan Dr. Öğr. Üyesi Burak Çeber, “İçerikleri farklı kaynaklardan doğrulama alışkanlığı kazanmak büyük önem taşıyor. Bunun yanında, yapay zekâ uygulamalarına dair farkındalık da şart. Yapay zekânın yetenekleri ve sınırları bilindiğinde, neyin sahte neyin gerçek olduğu çok daha kolay anlaşılabiliyor. Yapay zekâ, yüzeysel tutarlılıkta oldukça başarılı. Yüzeysellikten uzaklaşıp derinlik arandığında yani detaylara ve bağlama bakıldığında sahte içerikler tespit edilebiliyor. Bunun yanında dijital filigran, anomali tespiti ve metaveri analizi gibi yöntemlerle de Yapay zekâ tarafından üretilen sahte içerikler ortaya çıkarılabiliyor.” dedi.

Yeni bir teknoloji ortaya çıktığında genellikle önce sağladığı kolaylıklar ve heyecan verici taraflarının öne çıkarıldığına işaret eden Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâda da durum farklı değil; çoğu zaman verimlilik, yaratıcılığa katkısı, iş süreçlerini hızlandırması gibi olumlu etkiler üzerinde duruluyor. Ancak bu yaklaşımın doğal bir sonucu olarak, sahte içerik üretimi, manipülasyon ve etik riskler geri planda kalabiliyor. Teknolojinin ilk döneminde olumsuzluklara odaklanmamak anlaşılır olsa da zamanla sektörlerin, meslek örgütlerinin, akademinin ve karar vericilerin bu risklere eğilmesi kaçınılmaz hale geliyor. Çünkü sahte üretim teknik bir konu olmaktan öte etik, hukuk ve sosyal değerlerle doğrudan ilişkili bir konu.” ifadesinde bulundu.

İnsan ile yapay zekâ arasında iş birliğine dayalı bir denge, hibrit zekâ…

Gerçek ile sahtenin arasındaki çizginin bulanıklaşmasının yapay zekânın yaygınlaşmasından çok önceye dayandığını dile getiren Dr. Öğr. Üyesi Burak Çeber, “Ancak yapay zekâ teknolojilerinin gelişmesiyle birlikte, gerçeklik ve hakikatle kurduğumuz ilişkinin farklı biçimlerde koptuğuna tanık oluyoruz. Bugün, gerçeğinden ayırt etmekte zorlandığımız görseller, sesler ve videolarla karşılaşıyoruz. Çoğu zaman kendimizi ‘Acaba bu içerik gerçek mi?’ diye sorarken buluyoruz. Burada içeriğin tamamının değil, bir kısmının da yapay zekâ ile üretilmiş olabileceği ihtimali önem kazanıyor. Bir insan yapay zekâ ile üretim yaparken, kendi deneyimlerini, hayal gücünü, yaratıcılığını ve düşünme yetisini de işin içine katıyor mu? Karşılaştığı bir problemi çözerken bilgi birikimini, uygulama becerilerini, iletişim gücünü ve insan ilişkilerini kullanıyor mu? Bu soruların cevabı ‘evet’ ise, yapay zekâ işi tamamen devralan değil, süreci destekleyen konumunda demektir. İşte bu noktada insan ile yapay zekâ arasında iş birliğine dayalı bir denge (hibrit zekâ) kurulabiliyor.” diye konuştu.

Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak gibi

“Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak gibi. Bir yandan kötü niyetli kişilerin eline geçtiğinde sahte içerik üretmek ya da insanları yanıltmak için kullanılabiliyor.” diyen Dr. Öğr. Üyesi Burak Çeber, şunları dile getirdi:

“Öte yandan şeffaflık ve toplumsal denetim açısından büyük bir avantaj sağlıyor; çünkü herkesin erişebilmesi, akademisyenlerin, araştırmacıların ve sivil toplumun süreci gözetlemesine de imkân tanıyor.  Bu aşamada konu ‘Açık kaynaklı yapay zekâ modellerinin yaygınlaşması fırsat mı, yoksa risk mi’ sorusuna sıkışmamalı. Asıl önemli olan, bu teknolojiyi sorumlu şekilde kullanmamıza yardımcı olacak ilkeleri, güvenlik önlemlerini ve etik standartları geliştirmek.”

Dijital ortamdaki her türden içerik doğrulama sistemine tabii tutulabilmeli 

Dijital ortamdaki her türden içeriğin bir tür “dijital kimlik” ya da doğrulama sistemine tabii tutulabileceğini kaydeden Dr. Öğr. Üyesi Burak Çeber, “Şimdiden büyük teknoloji şirketleri ve bazı araştırma kurumları, görsel, metin ya da videoların kaynağını gösterecek dijital filigranlar ve kimliklendirme standartları üzerinde çalışıyor. Yani bu sistem teknik olarak yapılabilir ve geliştiriliyor da. Ancak bu tek başına yeterli değil, kalıcı bir çözüm için etik ve hukuki düzenlemelere de ihtiyaç var.” şeklinde sözlerini tamamladı.

Etiketler:
  • Yorumlar 0
  • Facebook Yorumları 0
    UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
    Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
    Bu habere henüz yorum eklenmemiştir.
Diğer Haberler
  • Dijital çağın yorgunlarıyız!23 Ağustos 2025 Cumartesi 13:37
  • Her tarayıcı uzantısı masum değil22 Ağustos 2025 Cuma 14:52
  • Dijital içerikler dopamini sömürüyor!22 Ağustos 2025 Cuma 14:25
  • Sahte yatırımlar gerçek zararlara dönüşüyor22 Ağustos 2025 Cuma 14:07
  • Kullanıcıların ortak derdi: Reklamlar20 Ağustos 2025 Çarşamba 14:22
  • Kimlik avı saldırıları %38,4 arttı16 Ağustos 2025 Cumartesi 22:23
  • Ergenlerde ekran süresi 9 saati buluyor!05 Ağustos 2025 Salı 14:23
  • Sanal kumar intihara götürüyor05 Ağustos 2025 Salı 14:09
  • Küçük işletme, büyük risk!28 Temmuz 2025 Pazartesi 15:40
  • Ailelerin endişesi siber zorbalık18 Temmuz 2025 Cuma 12:26
  • Tüm Hakları Saklıdır © 2015 Bursa Bakış | İzinsiz ve kaynak gösterilmeden yayınlanamaz.
    Tel : Haber İhbar Hattı: 0544.201 80 43 Faks : 0544.201 80 43