Close Menu
Siyasi HaberSiyasi Haber

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Beyaz Toros tişörtleri aklanamaz: Cezasızlığa son!

    7 Kasım 2025

    Tayfun Kalmaegi Vietnam’ı da vurdu: En az 5 ölü var, binlerce kişi tahliye edildi

    7 Kasım 2025

    Beş mahpusun yanarak öldüğü nakil aracı davası 14 yıl sonra cezasızlıkla kapandı

    7 Kasım 2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram
    Siyasi HaberSiyasi Haber
    • Güncel
      • Ekonomi
      • Politika
      • Dış Haberler
        • Ortadoğu
        • Dünya
      • Emek
      • Kadın
      • LGBTİ+
      • Gençlik
      • Ekoloji ve Kent
      • Haklar ve özgürlükler
        • Halklar ve İnançlar
        • Göçmen
        • Çocuk
        • Engelli Hakları
      • Yaşam
        • Eğitim
        • Sağlık
        • Kültür Sanat
        • Bilim Teknoloji
    • Yazılar

      Kuyu Tipi Hapishaneler: Tecrit ve direniş

      6 Kasım 2025

      Romanes: Cadı dilinden direniş diline

      5 Kasım 2025

      İnşa süreci: Faşizm ya da demokrasi

      4 Kasım 2025

      Adaletin eşiğinde: Demirtaş kararı ve hukukun imtihanı

      3 Kasım 2025

      Cumhuriyetin kurucu İdealleri ve ötekileri

      30 Ekim 2025
    • Seçtiklerimiz

      “New York, New York”

      6 Kasım 2025

      Sudan savaşı, Çinli Wing Loong’a karşı Bayraktar ve savaş ağaları

      3 Kasım 2025

      Trump, Fed ve para politikası: Sol, merkez bankası konusunda neyi savunmalı?

      2 Kasım 2025

      Motokuryelerin ekim isyanı

      28 Ekim 2025

      İstikrarsızlık üreten istikrar programı

      26 Ekim 2025
    • Röportaj/Söyleşiler

      Ali Coşkun: İşçi sınıfı üretimden gelen gücüyle toplumsal barışın en güçlü dayanağıdır

      29 Ekim 2025

      Altan Açıkdilli: “Canımı çekiştiriyor yine canım”

      28 Ekim 2025

      DSİP’ten Şenol Karakaş: Ne barış süreci demokrasinin gelişmesine ne de demokratik adımlar barış sürecinin nihayete ulaşmasına ertelenebilir

      27 Ekim 2025

      Ilan Pappe: Filistinliler hâlâ etnik temizlik ve soykırımla karşı karşıya

      16 Ekim 2025

      ‘Kadıköy Kültür Evi hem nefes aldığımız hem de birlikte söz kurduğumuz bir yer’

      10 Ekim 2025
    • Dosyalar
      • “Süreç” ve Sol
      • 30 Mart Kızıldere Direnişi
      • 8 Mart Dünya Kadınlar Günü 2022
      • AKP-MHP iktidar blokunun Kürt politikası
      • Cumhurbaşkanlığı Seçimleri
      • Ekim Devrimi 103 yaşında!
      • Endüstri 4.0 üzerine yazılar
      • HDK-HDP Tartışmaları
      • Kaypakkaya’nın tarihsel mirası
      • Ölümünün 69. yılında Josef Stalin
      • Mustafa Kahya’nın anısına
    • Çeviriler
    • Arşiv
    Siyasi HaberSiyasi Haber
    Anasayfa » Catherine Thorbecke: Yapay zekâ pek çok şeyi uyduruyor ve bu büyük bir problem

    Catherine Thorbecke: Yapay zekâ pek çok şeyi uyduruyor ve bu büyük bir problem

    CATHERINE THORBECKE'nin CNN web sayfasındaki yazısını T. ARGUN SEZER Yeni Arayış için çevirdi: Araştırmacılar, YZ modellerinin bu tür doğru olmayan bilgileri bize fırlatması eğilimine “halüsinasyonlar” veya hatta “masallama” diyorlar. Bu arada bazı sosyal medya kullanıcıları sohbet botlarını “patolojik yalancı” olarak suçlamaya başladı bile.
    Siyasi Haber1 Eylül 2024
    Facebook Twitter Pinterest LinkedIn WhatsApp Reddit Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Yapay zekânın dünyayı ele geçirmeden önce bir problemi çözmesi lazım: Botlar halüsinasyon görüyor.

    ChatGPT gibi yapay zekâ destekli araçlar, her türlü sorguya yetkin ve insan gibi tınlayan cevaplar üretmek suretiyle bizi büyülediler. Fakat daha da fazla insan, ödev yapmak, işyeri araştırması yapmak veya sağlık soruları sormak gibi şeylerle bu heyecan verici teknolojiye başvurdukça onun en büyük tuzaklarından biri görünür olmaya başladı: YZ modelleri sıklıkla bir şeyleri uyduruyor.

    Meta YZ direktörünün bir twitte belirttiği gibi, araştırmacılar, YZ modellerinin bu tür doğru olmayan bilgileri bize fırlatması eğilimine “halüsinasyonlar” veya hatta “masallama” diyorlar. Bu arada bazı sosyal medya kullanıcıları sohbet botlarını “patolojik yalancı” olarak suçlamaya başladı bile.

    Fakat tüm bu tanımlamalar, Beyaz Saray YZ Haklar Beyannamesi Taslağı’nın yardımcı yazarlarından Brown Üniversitesi hocalarından, Profesör Suresh Venkatasubramanian’a göre, bizim makinelerin eylemlerini antropomorfize etme (insan biçimci yorumlama, çev.) eğilimimizden kaynaklanıyor.

    Gerçekte olan ise, Venkatasubramanian’ın dediği gibi, -ChatGPT gibi YZ araçlarının temelindeki teknolojinin oluşturduğu- büyük dil modellerinin (LLM Large-Language Models, çev.) kullanıcı sorgularına “inandırıcı ve makul cevaplar üretmek” için eğitilmiş olmaları. “Böylece, bu anlamda, inandırıcı ve makul herhangi bir cevap, doğru, olgusal veya isterse uydurulmuş olsun ya da olmasın, makul bir cevap ve onun da ürettiği bu” diyor Venkatasubramanian. “Burada hiçbir doğruluk bilgisi yok.”

    YZ araştırmacısının dediğine göre, yanlış veya kötü niyet anlamı çağrıştıran halüsinasyon veya yalan söyleme iddiasından daha iyi bir analoji, bu bilgisayarların çıktısının dört yaşındaki oğlunun anlattığı hikâyelerle mukayese edilmesi. “Ve sonra ne oldu?” diye sorarsınız ve o daha da fazla hikâye üretmeye devam eder, o kadar” diyor Venkatasubramanian. “Ve böyle devam eder de eder.

    ”YZ sohbet botlarının arkasındaki şirketler, bu halüsinasyonların en kötüsünün gerçekleşmesini önlemek amacıyla bir takım korumalar geliştirdiler. Fakat üretici YZ’nin etrafındaki küresel hevese karşılık, bu alandaki pek çok kişi sohbet botlarının halüsinasyonlarının çözülüp çözülemeyen bir problem olup olmadığı konusunda kafalarını kaşımaya devam ediyorlar.

    YZ halüsinasyonu nedir?

    Washington Üniversitesi profesörlerinden ve üniversitenin Kamusal Bilgi Merkezi’nin yardımcı kurucularından Jevin West’e göre, basitçe söylemek gerekirse bir halüsinasyon, bir YZ modelinin “bir şeyleri yani gerçeklikle ilgisi olmayan bir şeyleri uydurması” anlamına geliyor.

    Fakat West ekliyor: “Bunu saf bir güvenle yapıyor”. “Ve tıpkı sizin ‘ABD’nin başkenti neresidir?’ şeklinde basit bir soru sormanız gibi aynı güvenle yapıyor” bunu.

    Bu da West’in söylediğine göre, kullanıcıların bir sohbet botuna cevabını zaten bilmedikleri soru sorduklarında neyin gerçek olup olmadığını ayırt etmelerinde zorlanmaları anlamına geliyor.

    Bazı çok bilinen YZ halüsinasyonları çoktan manşetlere düştü. Google, ChatGPT’nin rakibi olarak oldukça yüksek beklenti gören Bard’ın demosunun lansmanını ilk defa yaptığında, YZ,  James Webb Uzay Teleskobu tarafından yapılan yeni keşiflere dair bir soruya göz göre göre yanlış bir cevap verdi (O zaman, bir Google sözcüsü CNN’e olayın “katı test sürecinin önemini vurguladığını” söyledi ve şirketin “Bard’ın cevaplarının gerçek dünya enformasyonu içerisinde kalitede, güvenlikte ve gerçekçilikte yüksek bir çıtayı karşılamasına” çalıştıklarını ekledi).

    Kıdemli bir New Yorklu avukat da ChatGPT’yi hukuk araştırması için kullandığı sırada sohbet botunun doğrudan uydurduğu altı “düzmece” davayı mahkemeye teslim etmesiyle zor bir durumda kaldı. Haber kaynağı CNET de YZ aracı tarafından üretilen bir makalenin, bileşik faizin ne işe yaradığına dair soruya doğru olmayan kişisel finansal bir cevap vermesiyle düzeltme yayımlamak zorunda kaldı.

    Öte yandan, YZ halüsinasyonlarının önünü alma çabası, YZ araçlarının insanlara daha yaratıcı teşebbüslerde, örneğin kullanıcıların ChatGPT’nin şiir veya şarkı sözü yazma gibi isteklerinde yardım etme yetisini de sınırlıyor.

    Ancak, West’in CNN’e belirttiği gibi, insanlar sağlıklarını , oy verme davranışlarını ve potansiyel olarak daha hassas meselelerini etkileyebilecek cevapları aramaya başladıklarında halüsinasyonlardan kaynaklanan riskler var.

    Venkatasubramanian, “Şu an için doğrudan kendi başınıza doğrulayamadığınız gerçek veya güvenilir bilgiye ihtiyaç duyulan herhangi bir iş için bu araçlara güvenmenin problematik olduğunu” da ekledi. Yine dediğine göre, örneğin iş adaylarının niteliklerini özetleyen ve iş mülakatında bir sonraki mülakatta kiminle devam edeceğine karar veren YZ araçlarını kullanan şirketlerde olduğu gibi, bu teknoloji yayıldıkça başka potansiyel riskler barındırıyor.

    Venkatasubramanian, son olarak bu araçların “en azından şu an için insanların maddi olarak etkileneceği alanlarda kullanılmaması gerektiğini” düşündüğünü söyledi.

    Halüsinasyonlar önlenebilir mi?

    YZ halüsinasyonlarını önlemek veya düzeltmek “aktif araştırma meselesi” diyor Venkatasubramanian. Ancak bu şu anda çok karışık bir konu.

    Büyük dil modelleri devasa veri setleri üzerinde eğitiliyorlar ve bir YZ modelinin kullanıcı sorgusuna bir cevabı nasıl ürettiğine dair birden çok safha var; bu süreçlerden bazıları otomatik olurken, bazıları insan müdahalesinden etkileniyor.

    “Bu modeller çok kompleks ve bu yüzden de çok girift” diyor Venkatasubramanian, fakat bu yüzden de “çok kırılganlar.” Bu da girdilerdeki en ufak değişikliklerin bile “çıktılarda oldukça dramatik farklar” yaratması anlamına geliyor.

    “Bu işin doğası bu, eğer bir şey bu kadar hassas ve komplike ise, bu da getirilerinden birisi” diyor Venkatasubramanian. “Bu da işlerin nasıl olup da yanlış gittiğini tanımlamak çok zor çünkü pek çok küçük şey yanlış gidebilir.”

    Washington Üniversitesi’nden West de bu duyguları yansıtarak diyor ki, “Problem bu sohbet botlarından gelen halüsinasyonları tersine mühendislik ile çözemememiz.”

    “Bunun sebebi, bu şeylerin içsel karakteristiklerinin her zaman için orada bulunmaları olabilir” diyor West.

    Google’ın Bard’ı ve OpenAI’ın ChatGPT’si ilk baştan beri kullanıcılara karşı şeffaf olmaya çalıştıkları için doğru olmayan cevaplar üretebiliyorlar. Ve şirketler de çözümler üzerine çalıştıklarını belirtiyorlar.

    Yılın ilk günlerinde, Google CEO’su Sundar Pichai, CBS’in “60 Dakika” programında yaptığı bir röportajda “Alandaki kimsenin halüsinasyon problemini çözemediğini” ve “tüm modellerin bu sorunu olduğunu” söyledi. Pichai sorunun çözülüp çözülemeyeceği konusunda ise “Bu yoğun bir tartışma konusu, bence gelişme kaydedeceğiz” dedi.

    Ve, ChatGPT’yi yapan OpenAI’nın CEO’su Sam Altman, haziranda Hindistan Delhi’de Indraprastha Enformasyon Teknolojisi Enstitüsü’nde yaptığı bir konuşmada bir ya da bir buçuk yıl içinde “halüsinasyon probleminin çok daha iyi bir noktaya geleceğine” dair teknolojik bir tahminde bulundu. “Yaratıcılık ve kusursuz doğruluk arasında bir denge var” diye ekledi Altman. “Siz herhangi bir şey talep ettiğinizde modelin öğrenmesi gerekiyor.”

    Buna karşılık, Altman, ChatGPT’nin kullanılması hakkındaki takip eden soruya ise iğneleyici bir cevap veriyor: “Muhtemelen dünyadaki herkes arasında en az ChatGPT’den gelen cevaplara güveniyorum.


    Yazının orijinali için bkz. https://edition.cnn.com/2023/08/29/tech/ai-chatbot-hallucinations/index.html

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Telegram Email

    İlgili İçerikler

    Amazonlu kadınlar COP30 müzakerelerinde yer talep ediyor

    3 Kasım 2025

    Küresel Güneydeki “Z kuşağı” ayaklanmaları neden doğdu, nereye gidiyor? – Vijay Prashad

    24 Ekim 2025

    Ilan Pappe: Filistinliler hâlâ etnik temizlik ve soykırımla karşı karşıya

    16 Ekim 2025
    Destek Ol
    Yazılar
    Coşkun Özdemir

    Kuyu Tipi Hapishaneler: Tecrit ve direniş

    Cumur Ülker

    Romanes: Cadı dilinden direniş diline

    Muhsin Dalfidan

    İnşa süreci: Faşizm ya da demokrasi

    Elif Gamze Bozo

    Adaletin eşiğinde: Demirtaş kararı ve hukukun imtihanı

    Bağlantıda Kalın
    • Facebook
    • Twitter
    Seçtiklerimiz
    Ertuğrul Kürkçü

    “New York, New York”

    Fehim Taştekin

    Sudan savaşı, Çinli Wing Loong’a karşı Bayraktar ve savaş ağaları

    Ümit Akçay

    Trump, Fed ve para politikası: Sol, merkez bankası konusunda neyi savunmalı?

    Mesut Çeki

    Motokuryelerin ekim isyanı

    Güncel Kalın

    E Bültene üye olun gündemden ilk siz haberdar olun.

    Siyasi Haber, “tarafsız” değil “nesnel” olmayı esas alır. Siyasi Haber, işçi ve emekçiler, kadınlar, LGBTİ+’lar, gençler, doğa ve yaşam savunucuları, ezilen etnik ve inançsal topluluklardan yanadır.

    Devletten ve sermayeden bağımsızdır.

    Facebook X (Twitter) YouTube
    EMEK

    Gebze’de çöken bina: Uyarı raporu yıllar önce hazırlanmış, bakanlık kamulaştırmayı durdurmuş

    7 Kasım 2025

    Koop-İş Sendikası grev kararı aldı: “Swatch Group emeğe saygı duymalı”

    6 Kasım 2025

    Ekim ayında en az 169, yılın ilk on ayında en az 1737 işçi hayatını kaybetti

    6 Kasım 2025
    KADIN

    Eşitlik İçin Kadın Platformu: 11. Yargı Paketi kadınların mücadelesini suç sayıyor!

    4 Kasım 2025

    Erkekler Ekim’de 22 kadını öldürdü: Şiddet durmuyor

    4 Kasım 2025

    Amazonlu kadınlar COP30 müzakerelerinde yer talep ediyor

    3 Kasım 2025
    © 2025 Siyasi Haber. Designed by Fikir Meclisi.
    • Home
    • Buy Now

    Type above and press Enter to search. Press Esc to cancel.