Close Menu
Siyasi HaberSiyasi Haber

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Barış Ünlü: “AKP ‘Türklük Sözleşmesi’nin devlet ayağını çökertti”

    6 Haziran 2025

    Soykırım tarihi bir mesele değildir

    5 Haziran 2025

    İsrail: 1300 Akademisyenden Gazze Savaşı’na karşı “Siyah Bayrak” çağrısı

    5 Haziran 2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram
    Siyasi HaberSiyasi Haber
    • Güncel
      • Ekonomi
      • Politika
      • Dış Haberler
        • Ortadoğu
        • Dünya
      • Emek
      • Kadın
      • LGBTİ+
      • Gençlik
      • Ekoloji ve Kent
      • Haklar ve özgürlükler
        • Halklar ve İnançlar
        • Göçmen
        • Çocuk
        • Engelli Hakları
      • Yaşam
        • Eğitim
        • Sağlık
        • Kültür Sanat
        • Bilim Teknoloji
    • Yazılar

      NATO’nun çürüyen tahtı; Emperyalizmin hırsızlık imparatorluğu çöküyor mu?

      2 Haziran 2025

      Yaban domuzunun günahı ne?

      31 Mayıs 2025

      Artı Değer Van Spor ve Marx’ın teorisi üzerine mizahi bir deneme

      28 Mayıs 2025

      Ahmet Saymadi’nin ilk duruşması: “Tutukluluk halinin devamına…”

      21 Mayıs 2025

      Tarihin sustuğu yüzyıl: Kürtler, Lozan ve barışın hikâyesi

      18 Mayıs 2025
    • Seçtiklerimiz

      Soykırım tarihi bir mesele değildir

      5 Haziran 2025

      Aleniyet olmadan güven olmaz

      5 Haziran 2025

      İzmir, Talat ve ‘derin’ CHP

      4 Haziran 2025

      Pekin’den Ramallah’a: Karahindiba Savaşçıları

      4 Haziran 2025

      10 soruda aşırı sağ tehlike nasıl yükseldi?

      3 Haziran 2025
    • Röportaj/Söyleşiler

      Gölgede kalan mesele: Lozan ve Süryaniler

      31 Mayıs 2025

      Mahir Sayın: Yeni çıkış sosyalistler açısından sağlam bir başlangıç noktası

      22 Mayıs 2025

      Tsitsekun’un 161’inci yılında: “Yas günü”nün ötesine nasıl geçeceğiz?

      21 Mayıs 2025

      Bir Türkiye hikâyesi olarak Golik: ‘Görülmüştür’ damgalı Kürtçe mizah dergisi, nasıl dava konusu oldu?

      21 Mayıs 2025

      Gençler geleceksizliğe mahkum edilişilerine baş kaldırıyor – Ertuğrul Kürkçü

      23 Mart 2025
    • Dosyalar
      • 30 Mart Kızıldere Direnişi
      • 8 Mart Dünya Kadınlar Günü 2022
      • AKP-MHP iktidar blokunun Kürt politikası
      • Cumhurbaşkanlığı Seçimleri
      • Ekim Devrimi 103 yaşında!
      • Endüstri 4.0 üzerine yazılar
      • HDK-HDP Tartışmaları
      • Kaypakkaya’nın tarihsel mirası
      • Ölümünün 69. yılında Josef Stalin
      • Mustafa Kahya’nın anısına
    • Çeviriler
    • Arşiv
    Siyasi HaberSiyasi Haber
    Anasayfa » Yapay zekâ ne kadar tehlikeli olabilir?

    Yapay zekâ ne kadar tehlikeli olabilir?

    OZANCAN ÖZDEMİR T24 için yazdı: Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı.
    Ozancan Özdemir23 Şubat 2025
    Facebook Twitter Pinterest LinkedIn WhatsApp Reddit Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Birleşmiş Milletler, Avrupa Birliği ve OECD tarafından desteklenen, Türkiye’nin de yer aldığı 30 farklı ülke hükümeti tarafından atanmış uzmanları içinde barındıran 96 bağımsız araştırmacı, yapay zekânın mevcut yeteneklerini, bu sistemlerle ilişkili riskleri ve bu risklerin nasıl yönetilebileceğine dair bilimsel kanıtları derleyerek uluslararası düzeyde ortak bir anlayış oluşturma amacıyla ilk defa yapay zekâ güvenlik raporunu geçtiğimiz ay yayınladılar. Bu rapor yapay zekânın sunduğu fırsatlarla beraber bu teknolojilerin umarsızca kullanımın da yapabileceği olası problemleri ülkeler seviyesinde dile getirmesi nedeniyle oldukça kıymetli.

    Rapor genel amaçlı yapay zekânın barındırdığı riskleri üç kategoriye ayırıyor; kötü amaçlı kullanım riskleri, arızalardan kaynaklanan riskler ve sistemsel riskler. Bu üç başlık arasından kötü niyetli kullanım belki de en dikkat edilmesi gereken risk başlığını oluşturuyor, çünkü bu kullanımın amacı genellikle kişileri veya kurumları hedef alıyor ve bu kullanımın olumsuz etkisinin büyüklüğünü kestirmek pek de kolay olmuyor.

    Kötü niyetli kullanımın getirdiği risklerin başında sahte içerikler geliyor. Sahtekarlık, şantaj, psikolojik manipülasyon ya da rıza dışı cinsel içerikli görüntülerin üretilmesi amacıyla yapay zekânın kullanılması, özellikle kişilerin hayatlarında çok derin yaralar açma potansiyeline sahip. Kişisel tehlikenin yanında yine yapay zekâ ile bugün üretilmesi çok kolay olan sahte haberler ve deepfake videoların, kamuoyunu yanıltma ve seçim kampanyalarının kaderini etkileme potansiyelini taşıması da toplumsal anlamda bu teknolojilerin olası tehlikesini gösteriyor. Bu iki kötü niyetli kullanıma ek olarak, kötü amaçlı yazılımların geliştirilmesini kolaylaştırması ve siber saldırılara katalizör etkisi yapması ya da bilinen biyolojik ve kimyasal silahların üretimi için talimatlar sağlayıp,  yeni toksik bileşiklerin tasarımını kolaylaştırabilmesi raporda yapay zekânın kötü niyetli kullanıma dair belirtilen diğer örnekler.

    Kötü niyetli olmasa bile yapay zekâ araçları, yaşadıkları teknik eksiklik ve arızalardan kaynaklanan sorunlardan dolayı da talihsiz sonuçlar yaratma potansiyeline sahip. Modeller asla kusursuz çalışmazlar ve bu nedenle her zaman doğru yanıtları vermezler. Dolayısıyla bu teknolojinin tıbbi ya da yasal bir tavsiye almak amacıyla kullanılması sonucu kullanıcılar yanlış veya eksik bilgilerle karşılaşabilir. AI Snake Oil kitabına dair inceleme yazısında bahsettiğim Amerika’da Ulusal Yeme Bozuklukları Derneği’nin, yardım hattı çalışanlarını işten çıkardıktan sonra yerlerine yerleştirdikleri sohbet botunun bir süre sonra danışanlara tehlikeli tavsiyeler vermesi bunun en belirgin örneklerinden. Keza yine bu verilerin eğitildiği verilerdeki taraflılık sonucu bu taraflılığın modellerin çıktılarına yansıtılması, sosyal ve politik yargıları güçlendirerek, ırk, cinsiyet, kültür, yaş, engellilik veya siyasi görüş gibi konularda ayrımcılığa yol açabilmesi bir diğer teknik sorun. Yine aynı yazıda bahsettiğim COMPAS isimli modelin, Amerika’da sınıflar ve ırklar arası ayrım yaptığı ve bu kriterlere göre yanıltıcı suç skorları ürettiğinin görülmesi de bu yargıyı destekler nitelikte. Sistemsel bir diğer hata ise henüz gerçekleşmemiş ve gerçekleşmesi de mevcut koşullarda neredeyse imkânsız bir senaryo aslında. Kontrolün kaybedilmesi ve bu araçların kendi kendine çalışması ihtimali. Robotlar dünyayı ele geçiyor senaryosu kısacası. Ancak dediğim gibi, bu mevcut koşullarda yaşanması imkânsız, gelecekte de olması şu anki araştırmalar ışığında oldukça zor bir senaryo.

    Sistemsel riskler ise aslında yapay zekânın topluma olan olumsuz olası etkilerini barındırıyor. Bu risklerin başında, yapay zekâ trendine dair yapılan en yaygın yorumlardan biri geliyor;  insanların işlerini kaybetme riski. Mevcut gelişmeler iş piyasasında olumsuz bir etkiye sahip olma potansiyelini taşısa da rapor birçok ekonomistin, yeni işlerin yaratılması ve otomasyona geçmeyen sektörlerdeki talebin artmasıyla, potansiyel iş kayıplarının kısmen veya tamamen telafi edilebileceğini öngörüyor. Öte yandan sistemsel bir diğer risk ise genel amaçlı yapay zekâ araştırma ve geliştirme faaliyetlerinin ilk sırada ABD ve Çin’in etrafında kümelenmesi.  Bu durum, dünya genelinde bu az sayıda ülkeye bağımlılığı artırarak küresel eşitsizliğe yol açabilir. Keza pazar yoğunlaşması nedeniyle, az sayıda şirketin hâkim olduğu bir ortamda, kritik sektörlerde kullanılan yapay zekâ sistemlerinde oluşabilecek bir hata ya da güvenlik açığı geniş çaplı aksamalara neden olabilir. Artan işlem gücü kullanımı ise, enerji, su ve hammadde tüketimini yükselterek çevresel riskleri beraberinde getirebilir. Ayrıca, yapay zekâ sistemlerinin kullanıcı gizliliği ihlalleri ve telif hakkı sorunlarına yol açma potansiyeli, verilerin şeffaflığını ve güvenilirliğini zorlaştırmakta ve başka bir sistemsel riske neden olabilir. Her ne kadar savunduğumuz bir argüman da olsa açık kaynaklı modeller, araştırma ve şeffaflık açısından avantaj sağlasa da, kötü niyetli kullanımların önlenmesi açısından denetlenmesi güç riskler oluşturabilir.

    Risklerle mücadele etmenin yolları var mıdır?

    Rapor, yapay zekânın neden olduğu riskleri belirlemenin, bunların etkisini hafifletmenin ve yönetmenin oldukça zor bir görev olduğunun ve mevcut tekniklerin de çözüm sağlama anlamında sınırlı olduğunun altını çiziyor. Bunun sebebi olarak da, yapa zekâ sistemlerinin tıbbi tavsiye, siber güvenlik veya görsel içerik üretimi gibi çok çeşitli görevlerde kullanılmasının tüm olası senaryoları önceden görmeyi güçleştirdiği söyleniyor. Ayrıca, geliştiriciler, modellerin çalışma prensiplerini tam olarak kavrayamadıkları için davranışsal sorunları tespit etmekte ve açıklamakta zorluk yaşayabiliyor. Bu durum, özellikle artan otonom eylem yeteneğine sahip yapay zekâ ajanlarının ortaya çıkmasıyla risk yönetimini daha da karmaşık hale getiriyor elbette.

    Öte yandan mevcut risk değerlendirmeleri, çoğunlukla belirli senaryolara dayalı “spot kontroller” yöntemleriyle sınırlı kalıyor ve bu da  dolayısıyla gerçek dünya koşullarının tam yansıtılamamasına yol açıyor.  Ek olarak, etkin risk değerlendirmesi için değerlendiricilerin yüksek düzeyde uzmanlığa, kaynaklara ve modellere doğrudan erişime ihtiyaç duyması, sistemin iç işleyişindeki belirsizlikleri de arttırıyor. Eğitim süreçlerinde, verilerdeki taraflılığın neden olabileceği düşmanca eğitim gibi yöntemlerle güvenli çalışma sağlanmaya çalışılsa da, bu yöntemler hala yeni saldırı yöntemlerine karşı tam koruma sağlayamıyor. Modellerin ya da araçların kullanıma alınmasından sonra yapılan izleme ve müdahale uygulamaları, güvenliği artırmaya yönelik önemli adımlar olarak görülmesine rağmen, beraberinde maliyet ve gecikmeler gibi zorlukları getiriyor. Kısacası mevcut olanaklar, mevcut veya potansiyel risklerin çözümü noktasında yetersiz kalıyor.

    Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı. Vahşi bir kapital savaşına dönen yapay zekâ yatırımlarının bu riskleri daha da derinleştireceği ve körükleyeceği ortamda, ülkelerin bu global riski değerlendirmeye alması ve böyle bir raporun üretilmesine katkı sağlaması, kıymetli bir gelişme olarak görünebilir. Ancak rapor da gösteriyor ki bu sadece bir başlangıç noktası, çünkü henüz kendi elimizle yarattığımız sorunların çözümünü kendi elimizle bulma noktasında sıkıntılar yaşıyoruz. Dolayısıyla toplum üzerinde etkisi olan her birim ve kişinin, yapay zekâ teknolojisinin mevcut ve gelecek risklerini göz önünde bulundurarak, bu araçların kullanımına yönelik etik bir davranış geliştirmeye dair kendilerini, kapital sahiplerini ve toplumu cesaretlendirmesi gerekiyor. Fakat içinde bulunduğumuz dünya bunun iyimser bir dilekten fazla olmayacağını gösteriyor.


    Referanslar

    Y. Bengio, S. Mindermann, D. Privitera, T. Besiroglu, R. Bommasani, S. Casper, Y. Choi, P. Fox, B. Garfinkel, D. Goldfarb, H. Heidari, A. Ho, S. Kapoor, L. Khalatbari, S. Longpre, S. Manning, V. Mavroudis, M. Mazeika, J. Michael, J. Newman, K. Y. Ng, C. T. Okolo, D. Raji, G. Sastry, E. Seger, T. Skeadas, T. South, E. Strubell, F. Tramèr, L. Velasco, N. Wheeler, D. Acemoglu, O. Adekanmbi, D. Dalrymple, T. G. Dietterich, P. Fung, P.-O. Gourinchas, F. Heintz, G. Hinton, N. Jennings, A. Krause, S. Leavy, P. Liang, T. Ludermir, V. Marda, H. Margetts, J. McDermid, J. Munga, A. Narayanan, A. Nelson, C. Neppel, A. Oh, G. Ramchurn, S. Russell, M. Schaake, B. Schölkopf, D. Song, A. Soto, L. Tiedrich, G. Varoquaux, E. W. Felten, A. Yao, Y.-Q. Zhang, O. Ajala, F. Albalawi, M. Alserkal, G. Avrin, C. Busch, A. C. P. de L. F. de Carvalho, B. Fox, A. S. Gill, A. H. Hatip, J. Heikkilä, C. Johnson, G. Jolly, Z. Katzir, S. M. Khan, H. Kitano, A. Krüger, K. M. Lee, D. V. Ligot, J. R. López Portillo, D., O. Molchanovskyi, A. Monti, N. Mwamanzi, M. Nemer, N. Oliver, R. Pezoa Rivera, B. Ravindran, H. Riza, C. Rugege, C. Seoighe, H. Sheikh, J. Sheehan, D. Wong, Y. Zeng, “International AI Safety Report” (DSIT 2025/001, 2025); https://www.gov.uk/government/publications/international-ai-safety-report-2025

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Telegram Email

    İlgili İçerikler

    Soykırım tarihi bir mesele değildir

    5 Haziran 2025

    Aleniyet olmadan güven olmaz

    5 Haziran 2025

    İzmir, Talat ve ‘derin’ CHP

    4 Haziran 2025
    Destek Ol
    Yazılar
    Coşkun Özdemir

    NATO’nun çürüyen tahtı; Emperyalizmin hırsızlık imparatorluğu çöküyor mu?

    Mehmet Murat Yıldırım

    Yaban domuzunun günahı ne?

    Zeynel A. Göçer

    Artı Değer Van Spor ve Marx’ın teorisi üzerine mizahi bir deneme

    Siyasi Haber

    Ahmet Saymadi’nin ilk duruşması: “Tutukluluk halinin devamına…”

    Bağlantıda Kalın
    • Facebook
    • Twitter
    Seçtiklerimiz
    Ohannes Kılıçdağı

    Soykırım tarihi bir mesele değildir

    Ali Sinemilli

    Aleniyet olmadan güven olmaz

    Zafer Yörük

    İzmir, Talat ve ‘derin’ CHP

    Kıvanç Eliaçık

    Pekin’den Ramallah’a: Karahindiba Savaşçıları

    Güncel Kalın

    E Bültene üye olun gündemden ilk siz haberdar olun.

    Siyasi Haber, “tarafsız” değil “nesnel” olmayı esas alır. Siyasi Haber, işçi ve emekçiler, kadınlar, LGBTİ+’lar, gençler, doğa ve yaşam savunucuları, ezilen etnik ve inançsal topluluklardan yanadır.

    Devletten ve sermayeden bağımsızdır.

    Facebook X (Twitter) YouTube
    EMEK

    Emeğin Son Çaresi: Boykot Stratejisini Anlamak – Eric Dirnbach

    7 Nisan 2025

    Ankara Tabip Odası, TTB, KESK, TMMOB: Barışçıl protesto haklarına müdahaleye son verin

    28 Mart 2025

    DİSK ve KESK’ten adliye önünde açıklama

    26 Mart 2025
    KADIN

    Kadının İnsan Hakları Derneği, İstanbul Sözleşmesi’ni AİHM’e taşıdı

    3 Mayıs 2025

    DEM Parti Kadın Meclisi’nden Saadet Partisi’ne ziyaret

    14 Mart 2025

    Kadınlar Taksim’de yasağa rağmen yürüdü: Susmuyor, isyan ediyoruz

    8 Mart 2025
    © 2025 Siyasi Haber. Designed by Fikir Meclisi.
    • Home
    • Buy Now

    Type above and press Enter to search. Press Esc to cancel.