Close Menu
Siyasi HaberSiyasi Haber

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Mahir Çayan Kitabı: Toplu Yazılar ve Üzerine Yazılar üzerinden bir okuma denemesi

    25 Nisan 2026

    Algoritmaların hafızası: 1915’in sosyal medyada yeniden inşası

    25 Nisan 2026

    Kuşadası’nda kadınlardan “Cezasızlık Düzeni”ne isyan: “Faillerin arkasındaki devlet gücünü biliyoruz”

    24 Nisan 2026
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram YouTube Bluesky
    Siyasi HaberSiyasi Haber
    • Güncel
      • Ekonomi
      • Politika
      • Dış Haberler
        • Dünya
      • Emek
      • Kadın
      • LGBTİ+
      • Gençlik
      • Ekoloji ve Kent
      • Haklar ve özgürlükler
        • Halklar ve İnançlar
        • Göçmen
        • Çocuk
        • Engelli Hakları
      • Yaşam
        • Eğitim
        • Sağlık
        • Kültür Sanat
        • Bilim Teknoloji
    • Yazılar

      Mahir Çayan Kitabı: Toplu Yazılar ve Üzerine Yazılar üzerinden bir okuma denemesi

      25 Nisan 2026

      24 Nisan 1915 Büyük Ermeni Soykırımı’nın şiddet mirası üzerine

      23 Nisan 2026

      Adalet zorlanınca yürür: Gülistan Doku dosyasının gerçek sahibi ‘kadınlar’ 

      21 Nisan 2026

      Nitelikli okul, nitelikli eğitim için de demokratik toplum

      21 Nisan 2026

      Çocukların kanı üzerinde yükselen karanlık

      17 Nisan 2026
    • Seçtiklerimiz

      Algoritmaların hafızası: 1915’in sosyal medyada yeniden inşası

      25 Nisan 2026

      “Bir zamanlar”dan “Şimdiki zamanlar”a geçsek mi?

      24 Nisan 2026

      Çocukları koruma gerekçesiyle internete girişe kontrol mü?

      24 Nisan 2026

      Okul saldırıları hakkında kısa bir değini

      20 Nisan 2026

      Ortak sorunlar, ayrı 1 Mayıs’lar!

      20 Nisan 2026
    • Röportaj/Söyleşiler

      Av. Sevda Karataş: Zulüm varsa direniş de var!

      21 Nisan 2026

      ABD-İran savaşı içeride baskı bahanesi

      7 Nisan 2026

      Newroz, Akitu ve Paskalya: Mezopotamya’nın kadim bayramları yeniden sahipleniliyor

      5 Nisan 2026

      Dr. Levent Koşar: ‘İşçi sağlığı bir sağlık sorunu değil, sınıf mücadelesi sorunudur!’

      1 Nisan 2026

      Gazze’de soykırım hâlâ sona ermedi

      26 Mart 2026
    • Dosyalar
      • “Süreç” ve Sol
      • 30 Mart Kızıldere Direnişi
      • 8 Mart Dünya Kadınlar Günü 2022
      • AKP-MHP iktidar blokunun Kürt politikası
      • Cumhurbaşkanlığı Seçimleri
      • Ekim Devrimi 103 yaşında!
      • Endüstri 4.0 üzerine yazılar
      • HDK-HDP Tartışmaları
      • Kaypakkaya’nın tarihsel mirası
      • Ölümünün 69. yılında Josef Stalin
      • Mustafa Kahya’nın anısına
    • Çeviriler
    • Arşiv
    Siyasi HaberSiyasi Haber
    Anasayfa » Dil modellerinin çözülmesi zor sorunu: Yalancılık

    Dil modellerinin çözülmesi zor sorunu: Yalancılık

    OZANCAN ÖZDEMİR T24 Haftalık için yazdı: Büyük dil modelleri özelinde halüsinasyon, girdi olarak yazdığınız gönderinizle alakasız, uydurma ya da tutarsız içerik üretimi olarak tanımlanabilir. Peki modeller neden yalan söyler? 
    Ozancan Özdemir8 Şubat 2025
    Facebook Twitter Pinterest LinkedIn WhatsApp Reddit Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Büyük dil modellerinin hayatımızda belirli alanlarda kolaylık sağladığı şüphesiz bir gerçek. Özellikle yanıtını kısa sürede bulmak istediğimiz bir soruyu, arama motorlarına sormaktansa direkt ChatGPT ya da DeepSeek gibi modellere sorup yanıt almak daha pratik.

    Ancak bu modellerin tamamının bir sorunu var. Bu modeller biraz “yalancılar”. Yani olmamış bir şeyi uydurabiliyorlar ve bunu da kendilerinden çok emin bir şekilde yapıyorlar.

    Ben yalancılık diyorum ama, dil modellerinin bu spekülasyon üretmesine henüz evrensellik kazanmasa da genellikle halüsinasyon deniyor. 2024’te yayınlanan bir makalede olduğu gibi “saçmalıyor” diyenler de var.

    Mesajı vermek adına başlıkta yalancı ifadesini kullansak da yazı boyunca halüsinasyon terimi üzerinden ilerleyeceğiz. Peki halüsinasyon nedir?

    Büyük dil modelleri özelinde halüsinasyon, girdi olarak yazdığınız gönderinizle alakasız, uydurma ya da tutarsız içerik üretimi olarak tanımlanabilir. Bu durum dil modellerinin yaratıcılığını gösterirken aynı zaman da gerçeği bükme, sansürleme gibi tehlikeli potansiyellerini de yansıtıyor.

    Halüsinasyonlar genellikle iki farklı grupta inceleniyor. Gerçeklik ve sadakat/bağlılık halüsinasyonu.

    Gerçeklik halüsinasyonu, modelin ürettiği içerik, doğrulanabilir gerçeklerle çeliştiğinde ortaya çıkar. Örneğin, “UEFA 2000 şampiyonu Galatasaray’dır ” yerine yanlışlıkla “17 Mayıs 2000 tarihindeki UEFA Kupası finalini Arsenal kazandı.” demek gibi. Bu durum, yanlış bilgi yayılmasına ve modelin güvenilirliğinin azalmasına yol açar.

    Sadakat ya da bağlılık halüsinasyonları ise üretilen içerik, kullanıcı talimatlarına veya verilen bağlama uyumlu olmadığında görülür. Örneğin, bir haberdeki gerçekte 2025 olan bilgiyi 2020 olarak değiştirmek ya da A kişisinin yazdığı bir makalenin yazarını B kişisi yazmış gibi lanse etmek.  

    Bu halüsinasyonların ise en belirgin olduğu yerlerden bir tanesi modellerin akademik makaleler için ürettikleri referanslar. En son çıkan modeller de dahil, bir literatür taraması ya da alanla ilgili makale yapılması istendiğinde modellerin yüzde 30 ile yüzde 90 arasında hatalı referans verdiği görülmüş. Yani bu modeller başlık, birinci yazar ve basım yılından en az ikisini hatalı olarak.

    Modellerin bu halüsinasyonu ortadan kaldırılabilir mi? Nature’de Nicola Jones’in yazdığı makale bu soruya bir yanıt arıyor ve aslında o yanıtı da kendi başlığında veriyor. Modellerin halüsinasyon yapması azaltılabilir, ancak durdurulamaz.

    Peki modeller neden yalan söyler? 

    Bu soruya detaylı bir yanıt vermek zor, çünkü modellerin temel çalışma prensipleri bilinse de detayları bilinmiyor. Ancak genel olarak argümanlar sağlamak mümkün.

    İlk olarak modellerin kelimelerden sayılara geçişindeki yaşanan bilgi kaybı. Büyük dil modelleri prensip olarak kendisine eğitim için verilen metin verilerindeki ilişkileri anlamaya çalışır, onları sayısal parametrelere döker. Bu parametreler yardımıyla da bir cümlede a kelimesinden sonra gelecek en yüksek olasılığa sahip a1 kelimesini doğru bir şekilde tahmin etmeye çalışır. İşte bu transfer sırasında modeller, kendilerine verilen metin verisindeki bilgilerin hepsini öğrenemez ve bir kısmını kaybeder. Bu kayıp bilgi oranının yüzde 2 olduğu tahmin ediliyor.

    Bu uydurmaların bir diğer sebebi ise modelin sahip olduğu eğitim verisindeki hatalı bilgiler. Eğer bu modeller hatalı bilgilere sahip bir veriyle eğitilirse ki internet ortamından alınan verilerin kullanıldığı düşünüldüğünde bu çok olası, dolayısıyla hatalı bilgi vermeye yatkın oluyorlar. Yine bahsettiğimiz Nature makalesinden örnek verirsek, bir sohbet robotunun pizza sosuna peynirin kaymasını önlemek için tutkal eklemeyi önermesi, sosyal ağ Reddit’te (muhtemelen alaycı) bir gönderiye dayanıyordu.

    Aklınıza şu fikir gelmiş olabilir, o zaman eğitim verisi temizse, model halüsine etmeyebilir. Ne yazık ki bu sorunun cevabı da hayır. Modeller içindeki eğitim verisinde bir kere var olan bilgi sayısına orantılı bir şekilde halüsine etmeye devam edecekler, çünkü yeteri kadar o bilgiyi öğrenmemiş olacaklar.

    Bu sorun nasıl çözülür?

    Halüsinasyonu tamamen çözmek imkânsız, ama azaltmak mümkün. Makale bunun yollarını da içeriyor.

    Daha fazla parametreye sahip ve daha uzun süre eğitilmiş modeller kullanmak halüsinasyonu şüphesiz azaltacaktır, ancak bunun hesaplama maliyeti oldukça yüksek olacak.

    Bir başka çözüm ise Erişim Destekli Üretim (Retrieval Augmented Generation (RAG)). Bu yöntemde, modeller bir soruya yanıt verirken sadece kendi bilgilerini değil, güvenilir dış kaynakları da kullanır. Fakat sınırlı erişim, sınırsız bilgi paradoksu bu yaklaşımın etkisini kısıtlamakta. Hesaplama maliyeti de bir başka sorun bu metot içerisinde.

    Kullanıcı sorgulaması bir başka çözüm ki bu aynı zamanda en pratik olan yollardan bir tanesi, çünkü kullanıcılar tarafından uygulanması da mümkün. Bu yöntemde kullanıcılar, modele tekrar tekrar üretilen bilgiye dair sorgulayıcı sorular sorduğunda hatalı ve çelişkili yanıtlar alıyorsa bu da halüsinasyonun fark edilmesi ve azaltılması için kullanılıyor.

    Ne yapmalıyız?

    Çözüm aslında basit. Kullanmak ama güvenmemek. Elde ettiğimiz bilgiyi, özellikle çok önemli durumlarda tekrar tekrar kontrol etmek gerekiyor. Yoksa sonumuz Amerika’da mahkemede ChatGPT’den aldığı gerçek olmayan bilgiyi gerçek olduğunu düşünerek kullanan avukata benzer.


    Referanslar

    Jones, N. (2025). AI hallucinations can’t be stopped — but these techniques can limit their damage. Nature, 637(8047), 778–780. https://doi.org/10.1038/d41586-025-00068-5

    Bohannon, M. (2023, June 8). Lawyer used ChatGPT in Court—And cited fake cases. A judge is considering sanctions. Forbes. https://www.forbes.com/sites/mollybohannon/2023/06/08/lawyer-used-chatgpt-in-court-and-cited-fake-cases-a-judge-is-considering-sanctions/

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Telegram Email

    İlgili İçerikler

    Algoritmaların hafızası: 1915’in sosyal medyada yeniden inşası

    25 Nisan 2026

    “Bir zamanlar”dan “Şimdiki zamanlar”a geçsek mi?

    24 Nisan 2026

    Çocukları koruma gerekçesiyle internete girişe kontrol mü?

    24 Nisan 2026
    Destek Ol
    Yazılar
    Remzi Altunpolat

    Mahir Çayan Kitabı: Toplu Yazılar ve Üzerine Yazılar üzerinden bir okuma denemesi

    Toros Korkmaz

    24 Nisan 1915 Büyük Ermeni Soykırımı’nın şiddet mirası üzerine

    Mehmet Murat Yıldırım

    Adalet zorlanınca yürür: Gülistan Doku dosyasının gerçek sahibi ‘kadınlar’ 

    Kenan Temir

    Nitelikli okul, nitelikli eğitim için de demokratik toplum

    Bağlantıda Kalın
    • Facebook
    • Twitter
    Seçtiklerimiz
    Feyyaz Kerimo

    Algoritmaların hafızası: 1915’in sosyal medyada yeniden inşası

    Yetvart Danzikyan

    “Bir zamanlar”dan “Şimdiki zamanlar”a geçsek mi?

    Füsun Sarp Nebil

    Çocukları koruma gerekçesiyle internete girişe kontrol mü?

    Sertan Batur

    Okul saldırıları hakkında kısa bir değini

    Güncel Kalın

    E Bültene üye olun gündemden ilk siz haberdar olun.

    Siyasi Haber, “tarafsız” değil “nesnel” olmayı esas alır. Siyasi Haber, işçi ve emekçiler, kadınlar, LGBTİ+’lar, gençler, doğa ve yaşam savunucuları, ezilen etnik ve inançsal topluluklardan yanadır.

    Devletten ve sermayeden bağımsızdır.

    Facebook X (Twitter) Instagram YouTube Bluesky
    EMEK

    Mersin Limanı’nda 114 günlük direniş: “Suç işleyen biz değiliz, anayasal hakkımızı istiyoruz”

    24 Nisan 2026

    Madencilerin Ankara direnişinde kritik eşik: Biber gazlı müdahale, beş işçi hastanede

    24 Nisan 2026

    Hatimoğulları maden işçilerini ziyaret etti: “İktidar işçinin değil, sermayenin yanında”

    23 Nisan 2026
    KADIN

    Kuşadası’nda kadınlardan “Cezasızlık Düzeni”ne isyan: “Faillerin arkasındaki devlet gücünü biliyoruz”

    24 Nisan 2026

    Dêrsim’de kadınlar adalet için yürüdü: “Gülistan için açılan kapı tüm failleri yakacak”

    24 Nisan 2026

    Gemlik’te kadınlardan barış yürüyüşü: “Müzakere koşulları derhal oluşturulmalı”

    19 Nisan 2026
    © 2026 Siyasi Haber. Designed by Fikir Meclisi.

    Type above and press Enter to search. Press Esc to cancel.