Yapay zeka asistanları, bilgiye hızlı erişimin en popüler yollarından biri haline geldi. Günlük haberleri özetlemekten karmaşık analizler sunmaya kadar birçok alanda kullanılan bu dijital yardımcılar, milyonlarca kullanıcı için ilk başvuru noktası konumunda. Ancak Avrupa Yayın Birliği (EBU) ve BBC tarafından yapılan yeni araştırmalar, bu asistanların güvenilirliğinin sandığımız kadar yüksek olmayabileceğini ortaya koyuyor. Araştırmaya göre, yapay zeka asistanları haberleri aktarırken sık sık hatalar yapıyor, yanlış kaynaklara başvuruyor ve bazen tamamen uydurma bilgiler paylaşıyor. Bu durum, özellikle bilgiye hızlı ve doğru erişimin kritik olduğu günümüzde, kullanıcı güvenini ciddi şekilde tehdit ediyor.
3 Bin Haber Sorusunda Yapay Zeka Asistanlarının Performansı
EBU ve BBC tarafından yürütülen araştırmada ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi önde gelen yapay zeka asistanlarına toplam 3.000 farklı haber sorusu yöneltildi. Yanıtlar, doğruluk, kaynak gösterimi ve görüş- gerçek ayrımı gibi kriterlere göre detaylı biçimde değerlendirildi. Sonuçlar çarpıcı: Yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür yanlış bilgi tespit edildi. Bu bulgular, yapay zekanın özellikle güncel haberleri doğru ve eksiksiz aktarma konusunda hala ciddi sınırlamalara sahip olduğunu gösteriyor. Araştırmacılar, kullanıcıların hız ve kolaylık nedeniyle bu asistanlara güvenmeye devam etse de, hataların potansiyel olarak bilgi kirliliğini artırabileceğine dikkat çekiyor.
Yapay zeka asistanlarının karşılaştığı en önemli sorunlardan biri, haber kaynaklarını doğru bir şekilde atıf yapamamaları. Araştırmada yanıtların üçte birinde hatalı veya eksik kaynak bilgisi bulundu. Özellikle Google Gemini, %72’lik hata oranıyla bu alanda öne çıkarken, diğer platformlarda bu oran %25’in altında kaldı. Ayrıca incelenen yanıtların yaklaşık %20’si güncel olmayan veya tamamen yanlış bilgiler içeriyordu. Bu durum, kullanıcıların yapay zekaya dayalı araçlardan elde ettiği bilgilerin güvenilirliğini sorgulamasına yol açıyor ve doğru haber alma alışkanlıklarını olumsuz etkileyebiliyor.
Teknoloji Devlerinin Yanıtları ve İyileştirme Çabaları
Araştırmanın ardından teknoloji devleri, yapay zeka modellerini daha güvenilir hâle getirmek için geliştirme süreçlerini hızlandırdıklarını açıkladı. Google, Gemini’nin kullanıcı geri bildirimleriyle sürekli olarak güncellendiğini duyurdu. OpenAI ve Microsoft ise “halüsinasyon” olarak bilinen uydurma bilgi üretme sorununu azaltmak için çalışmalarını sürdürüyor. Öte yandan Perplexity, “Derin Araştırma” modunun %93,9 doğruluk oranına ulaştığını iddia ederek diğer platformlardan ayrıldığını belirtti. Tüm bu adımlar, yapay zeka asistanlarının güvenilirliğini artırma yönünde atılan önemli adımlar olsa da, mevcut hatalar kullanıcıların şüphelerini canlı tutuyor.
Gerçek Hayattan Hatalar ve Güven Sorunu
EBU ve BBC araştırması, hataların gerçek hayatta ne kadar ciddi sonuçlar doğurabileceğini de ortaya koyuyor. Örneğin, Google Gemini tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktarırken, ChatGPT Papa Francis’in ölümünü hâlâ yanlış bildirdi. Bu tür örnekler, kullanıcıların yapay zeka tabanlı araçlara duyduğu güvenin ne kadar kırılgan olduğunu gösteriyor. EBU Medya Direktörü Jean Philip De Tender, “İnsanlar neye güveneceklerini bilmediklerinde, sonunda hiçbir şeye güvenmemeye başlıyor. Bu da demokratik katılımı zayıflatabilir,” diyerek durumu özetliyor.
EBU, yapay zeka şirketlerini haber üretiminde şeffaf ve hesap verebilir olmaya davet ediyor. Jean Philip De Tender, “Haber kuruluşlarının hataları tespit edip düzelten sağlam süreçleri varsa, aynı sorumluluk yapay zekâ asistanları için de geçerli olmalıdır,” ifadelerini kullandı. Bu çağrı, yapay zekanın yalnızca hızlı bilgi sunan bir araç olmaktan çıkıp, güvenilir bir haber kaynağı hâline gelmesini sağlamak için önemli bir adım olarak değerlendiriliyor.
Hoşunuza gidecek diğer araştırma konularına buradan göz atabilirsiniz.