Close Menu
Siyasi HaberSiyasi Haber

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    İklim mücadelesi, çevresel ırkçılıkla mücadeleyi de kapsamalıdır 

    26 Ekim 2025

    İrlanda: Solun desteklediği Catherine Connolly, cumhurbaşkanlığı seçimini kazandı.

    26 Ekim 2025

    Batman Belediyesi’nde sendikal baskı iddiası: “Kayyım emekçileri sendikalarından istifa etmeye zorluyor”

    26 Ekim 2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram
    Siyasi HaberSiyasi Haber
    • Güncel
      • Ekonomi
      • Politika
      • Dış Haberler
        • Ortadoğu
        • Dünya
      • Emek
      • Kadın
      • LGBTİ+
      • Gençlik
      • Ekoloji ve Kent
      • Haklar ve özgürlükler
        • Halklar ve İnançlar
        • Göçmen
        • Çocuk
        • Engelli Hakları
      • Yaşam
        • Eğitim
        • Sağlık
        • Kültür Sanat
        • Bilim Teknoloji
    • Yazılar

      Siyasetin simülasyonu ve kimliğin krizi

      24 Ekim 2025

      Avrupa için göçmenler yük mü?

      23 Ekim 2025

      Roman halkına yönelik stigmatizasyon ve kolonyal gacoluk

      23 Ekim 2025

      Arjantin Ve Uruguay’daki Maraşlılar, Antepliler, Adanalılar

      23 Ekim 2025

      Bir davanın karanlığında ışık aramak: Ercüment Akdeniz’e özgürlük!

      22 Ekim 2025
    • Seçtiklerimiz

      ESMA’nın hatırlattıkları

      26 Ekim 2025

      İki devrimci müze soygunu: Kolombiya ve İrlanda

      24 Ekim 2025

      TBMM komisyonu, neden ekoloji örgütlerini dinlemedi?

      20 Ekim 2025

      Türkiye’de ekonomik planlama neden başarısız oldu?

      20 Ekim 2025

      Hakan Tosun cinayetinin anatomisi: Fosil faşizminin çıplak yüzü

      18 Ekim 2025
    • Röportaj/Söyleşiler

      Ilan Pappe: Filistinliler hâlâ etnik temizlik ve soykırımla karşı karşıya

      16 Ekim 2025

      ‘Kadıköy Kültür Evi hem nefes aldığımız hem de birlikte söz kurduğumuz bir yer’

      10 Ekim 2025

      Herkes için Onurlu Bir Barış

      5 Ekim 2025

      Beyza Üstün: Sadece halklar değil tüm canlılar, ekosistemler özgür olmalı

      1 Ekim 2025

      David Adler: İsrail ablukasının normalleştirilmesine direnmeliyiz

      28 Eylül 2025
    • Dosyalar
      • “Süreç” ve Sol
      • 30 Mart Kızıldere Direnişi
      • 8 Mart Dünya Kadınlar Günü 2022
      • AKP-MHP iktidar blokunun Kürt politikası
      • Cumhurbaşkanlığı Seçimleri
      • Ekim Devrimi 103 yaşında!
      • Endüstri 4.0 üzerine yazılar
      • HDK-HDP Tartışmaları
      • Kaypakkaya’nın tarihsel mirası
      • Ölümünün 69. yılında Josef Stalin
      • Mustafa Kahya’nın anısına
    • Çeviriler
    • Arşiv
    Siyasi HaberSiyasi Haber
    Anasayfa » Yapay zekâ ne kadar tehlikeli olabilir?

    Yapay zekâ ne kadar tehlikeli olabilir?

    OZANCAN ÖZDEMİR T24 için yazdı: Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı.
    Ozancan Özdemir23 Şubat 2025
    Facebook Twitter Pinterest LinkedIn WhatsApp Reddit Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Birleşmiş Milletler, Avrupa Birliği ve OECD tarafından desteklenen, Türkiye’nin de yer aldığı 30 farklı ülke hükümeti tarafından atanmış uzmanları içinde barındıran 96 bağımsız araştırmacı, yapay zekânın mevcut yeteneklerini, bu sistemlerle ilişkili riskleri ve bu risklerin nasıl yönetilebileceğine dair bilimsel kanıtları derleyerek uluslararası düzeyde ortak bir anlayış oluşturma amacıyla ilk defa yapay zekâ güvenlik raporunu geçtiğimiz ay yayınladılar. Bu rapor yapay zekânın sunduğu fırsatlarla beraber bu teknolojilerin umarsızca kullanımın da yapabileceği olası problemleri ülkeler seviyesinde dile getirmesi nedeniyle oldukça kıymetli.

    Rapor genel amaçlı yapay zekânın barındırdığı riskleri üç kategoriye ayırıyor; kötü amaçlı kullanım riskleri, arızalardan kaynaklanan riskler ve sistemsel riskler. Bu üç başlık arasından kötü niyetli kullanım belki de en dikkat edilmesi gereken risk başlığını oluşturuyor, çünkü bu kullanımın amacı genellikle kişileri veya kurumları hedef alıyor ve bu kullanımın olumsuz etkisinin büyüklüğünü kestirmek pek de kolay olmuyor.

    Kötü niyetli kullanımın getirdiği risklerin başında sahte içerikler geliyor. Sahtekarlık, şantaj, psikolojik manipülasyon ya da rıza dışı cinsel içerikli görüntülerin üretilmesi amacıyla yapay zekânın kullanılması, özellikle kişilerin hayatlarında çok derin yaralar açma potansiyeline sahip. Kişisel tehlikenin yanında yine yapay zekâ ile bugün üretilmesi çok kolay olan sahte haberler ve deepfake videoların, kamuoyunu yanıltma ve seçim kampanyalarının kaderini etkileme potansiyelini taşıması da toplumsal anlamda bu teknolojilerin olası tehlikesini gösteriyor. Bu iki kötü niyetli kullanıma ek olarak, kötü amaçlı yazılımların geliştirilmesini kolaylaştırması ve siber saldırılara katalizör etkisi yapması ya da bilinen biyolojik ve kimyasal silahların üretimi için talimatlar sağlayıp,  yeni toksik bileşiklerin tasarımını kolaylaştırabilmesi raporda yapay zekânın kötü niyetli kullanıma dair belirtilen diğer örnekler.

    Kötü niyetli olmasa bile yapay zekâ araçları, yaşadıkları teknik eksiklik ve arızalardan kaynaklanan sorunlardan dolayı da talihsiz sonuçlar yaratma potansiyeline sahip. Modeller asla kusursuz çalışmazlar ve bu nedenle her zaman doğru yanıtları vermezler. Dolayısıyla bu teknolojinin tıbbi ya da yasal bir tavsiye almak amacıyla kullanılması sonucu kullanıcılar yanlış veya eksik bilgilerle karşılaşabilir. AI Snake Oil kitabına dair inceleme yazısında bahsettiğim Amerika’da Ulusal Yeme Bozuklukları Derneği’nin, yardım hattı çalışanlarını işten çıkardıktan sonra yerlerine yerleştirdikleri sohbet botunun bir süre sonra danışanlara tehlikeli tavsiyeler vermesi bunun en belirgin örneklerinden. Keza yine bu verilerin eğitildiği verilerdeki taraflılık sonucu bu taraflılığın modellerin çıktılarına yansıtılması, sosyal ve politik yargıları güçlendirerek, ırk, cinsiyet, kültür, yaş, engellilik veya siyasi görüş gibi konularda ayrımcılığa yol açabilmesi bir diğer teknik sorun. Yine aynı yazıda bahsettiğim COMPAS isimli modelin, Amerika’da sınıflar ve ırklar arası ayrım yaptığı ve bu kriterlere göre yanıltıcı suç skorları ürettiğinin görülmesi de bu yargıyı destekler nitelikte. Sistemsel bir diğer hata ise henüz gerçekleşmemiş ve gerçekleşmesi de mevcut koşullarda neredeyse imkânsız bir senaryo aslında. Kontrolün kaybedilmesi ve bu araçların kendi kendine çalışması ihtimali. Robotlar dünyayı ele geçiyor senaryosu kısacası. Ancak dediğim gibi, bu mevcut koşullarda yaşanması imkânsız, gelecekte de olması şu anki araştırmalar ışığında oldukça zor bir senaryo.

    Sistemsel riskler ise aslında yapay zekânın topluma olan olumsuz olası etkilerini barındırıyor. Bu risklerin başında, yapay zekâ trendine dair yapılan en yaygın yorumlardan biri geliyor;  insanların işlerini kaybetme riski. Mevcut gelişmeler iş piyasasında olumsuz bir etkiye sahip olma potansiyelini taşısa da rapor birçok ekonomistin, yeni işlerin yaratılması ve otomasyona geçmeyen sektörlerdeki talebin artmasıyla, potansiyel iş kayıplarının kısmen veya tamamen telafi edilebileceğini öngörüyor. Öte yandan sistemsel bir diğer risk ise genel amaçlı yapay zekâ araştırma ve geliştirme faaliyetlerinin ilk sırada ABD ve Çin’in etrafında kümelenmesi.  Bu durum, dünya genelinde bu az sayıda ülkeye bağımlılığı artırarak küresel eşitsizliğe yol açabilir. Keza pazar yoğunlaşması nedeniyle, az sayıda şirketin hâkim olduğu bir ortamda, kritik sektörlerde kullanılan yapay zekâ sistemlerinde oluşabilecek bir hata ya da güvenlik açığı geniş çaplı aksamalara neden olabilir. Artan işlem gücü kullanımı ise, enerji, su ve hammadde tüketimini yükselterek çevresel riskleri beraberinde getirebilir. Ayrıca, yapay zekâ sistemlerinin kullanıcı gizliliği ihlalleri ve telif hakkı sorunlarına yol açma potansiyeli, verilerin şeffaflığını ve güvenilirliğini zorlaştırmakta ve başka bir sistemsel riske neden olabilir. Her ne kadar savunduğumuz bir argüman da olsa açık kaynaklı modeller, araştırma ve şeffaflık açısından avantaj sağlasa da, kötü niyetli kullanımların önlenmesi açısından denetlenmesi güç riskler oluşturabilir.

    Risklerle mücadele etmenin yolları var mıdır?

    Rapor, yapay zekânın neden olduğu riskleri belirlemenin, bunların etkisini hafifletmenin ve yönetmenin oldukça zor bir görev olduğunun ve mevcut tekniklerin de çözüm sağlama anlamında sınırlı olduğunun altını çiziyor. Bunun sebebi olarak da, yapa zekâ sistemlerinin tıbbi tavsiye, siber güvenlik veya görsel içerik üretimi gibi çok çeşitli görevlerde kullanılmasının tüm olası senaryoları önceden görmeyi güçleştirdiği söyleniyor. Ayrıca, geliştiriciler, modellerin çalışma prensiplerini tam olarak kavrayamadıkları için davranışsal sorunları tespit etmekte ve açıklamakta zorluk yaşayabiliyor. Bu durum, özellikle artan otonom eylem yeteneğine sahip yapay zekâ ajanlarının ortaya çıkmasıyla risk yönetimini daha da karmaşık hale getiriyor elbette.

    Öte yandan mevcut risk değerlendirmeleri, çoğunlukla belirli senaryolara dayalı “spot kontroller” yöntemleriyle sınırlı kalıyor ve bu da  dolayısıyla gerçek dünya koşullarının tam yansıtılamamasına yol açıyor.  Ek olarak, etkin risk değerlendirmesi için değerlendiricilerin yüksek düzeyde uzmanlığa, kaynaklara ve modellere doğrudan erişime ihtiyaç duyması, sistemin iç işleyişindeki belirsizlikleri de arttırıyor. Eğitim süreçlerinde, verilerdeki taraflılığın neden olabileceği düşmanca eğitim gibi yöntemlerle güvenli çalışma sağlanmaya çalışılsa da, bu yöntemler hala yeni saldırı yöntemlerine karşı tam koruma sağlayamıyor. Modellerin ya da araçların kullanıma alınmasından sonra yapılan izleme ve müdahale uygulamaları, güvenliği artırmaya yönelik önemli adımlar olarak görülmesine rağmen, beraberinde maliyet ve gecikmeler gibi zorlukları getiriyor. Kısacası mevcut olanaklar, mevcut veya potansiyel risklerin çözümü noktasında yetersiz kalıyor.

    Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı. Vahşi bir kapital savaşına dönen yapay zekâ yatırımlarının bu riskleri daha da derinleştireceği ve körükleyeceği ortamda, ülkelerin bu global riski değerlendirmeye alması ve böyle bir raporun üretilmesine katkı sağlaması, kıymetli bir gelişme olarak görünebilir. Ancak rapor da gösteriyor ki bu sadece bir başlangıç noktası, çünkü henüz kendi elimizle yarattığımız sorunların çözümünü kendi elimizle bulma noktasında sıkıntılar yaşıyoruz. Dolayısıyla toplum üzerinde etkisi olan her birim ve kişinin, yapay zekâ teknolojisinin mevcut ve gelecek risklerini göz önünde bulundurarak, bu araçların kullanımına yönelik etik bir davranış geliştirmeye dair kendilerini, kapital sahiplerini ve toplumu cesaretlendirmesi gerekiyor. Fakat içinde bulunduğumuz dünya bunun iyimser bir dilekten fazla olmayacağını gösteriyor.


    Referanslar

    Y. Bengio, S. Mindermann, D. Privitera, T. Besiroglu, R. Bommasani, S. Casper, Y. Choi, P. Fox, B. Garfinkel, D. Goldfarb, H. Heidari, A. Ho, S. Kapoor, L. Khalatbari, S. Longpre, S. Manning, V. Mavroudis, M. Mazeika, J. Michael, J. Newman, K. Y. Ng, C. T. Okolo, D. Raji, G. Sastry, E. Seger, T. Skeadas, T. South, E. Strubell, F. Tramèr, L. Velasco, N. Wheeler, D. Acemoglu, O. Adekanmbi, D. Dalrymple, T. G. Dietterich, P. Fung, P.-O. Gourinchas, F. Heintz, G. Hinton, N. Jennings, A. Krause, S. Leavy, P. Liang, T. Ludermir, V. Marda, H. Margetts, J. McDermid, J. Munga, A. Narayanan, A. Nelson, C. Neppel, A. Oh, G. Ramchurn, S. Russell, M. Schaake, B. Schölkopf, D. Song, A. Soto, L. Tiedrich, G. Varoquaux, E. W. Felten, A. Yao, Y.-Q. Zhang, O. Ajala, F. Albalawi, M. Alserkal, G. Avrin, C. Busch, A. C. P. de L. F. de Carvalho, B. Fox, A. S. Gill, A. H. Hatip, J. Heikkilä, C. Johnson, G. Jolly, Z. Katzir, S. M. Khan, H. Kitano, A. Krüger, K. M. Lee, D. V. Ligot, J. R. López Portillo, D., O. Molchanovskyi, A. Monti, N. Mwamanzi, M. Nemer, N. Oliver, R. Pezoa Rivera, B. Ravindran, H. Riza, C. Rugege, C. Seoighe, H. Sheikh, J. Sheehan, D. Wong, Y. Zeng, “International AI Safety Report” (DSIT 2025/001, 2025); https://www.gov.uk/government/publications/international-ai-safety-report-2025

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Telegram Email

    İlgili İçerikler

    ESMA’nın hatırlattıkları

    26 Ekim 2025

    İki devrimci müze soygunu: Kolombiya ve İrlanda

    24 Ekim 2025

    TBMM komisyonu, neden ekoloji örgütlerini dinlemedi?

    20 Ekim 2025
    Destek Ol
    Yazılar
    Ercan Jan Aktaş

    Siyasetin simülasyonu ve kimliğin krizi

    Tuncay Yılmaz

    Avrupa için göçmenler yük mü?

    Siyasi Haber

    Roman halkına yönelik stigmatizasyon ve kolonyal gacoluk

    Kadir Akın

    Arjantin Ve Uruguay’daki Maraşlılar, Antepliler, Adanalılar

    Bağlantıda Kalın
    • Facebook
    • Twitter
    Seçtiklerimiz
    Kadir Akın

    ESMA’nın hatırlattıkları

    Siyasi Haber

    İki devrimci müze soygunu: Kolombiya ve İrlanda

    Mehmet Horuş

    TBMM komisyonu, neden ekoloji örgütlerini dinlemedi?

    Ümit Akçay

    Türkiye’de ekonomik planlama neden başarısız oldu?

    Güncel Kalın

    E Bültene üye olun gündemden ilk siz haberdar olun.

    Siyasi Haber, “tarafsız” değil “nesnel” olmayı esas alır. Siyasi Haber, işçi ve emekçiler, kadınlar, LGBTİ+’lar, gençler, doğa ve yaşam savunucuları, ezilen etnik ve inançsal topluluklardan yanadır.

    Devletten ve sermayeden bağımsızdır.

    Facebook X (Twitter) YouTube
    EMEK

    İşveren grev korkusuyla fabrikaya imam çağırdı

    25 Ekim 2025

    Çiğli Belediyesi’nde memurlar iş bıraktı: “Toplu sözleşme hakkımıza sahip çıkıyoruz”

    24 Ekim 2025

    Tapaten işçilerine araçlı saldırı: “İnsan canına kast var”

    23 Ekim 2025
    KADIN

    Kadınlar 11. Yargı Paketi’ne karşı sokağa çıkıyor: “Meclise getirmeyi aklınızdan bile geçirmeyin”

    25 Ekim 2025

    Maraş’ta erkek şiddeti: İki kadın öldürüldü, bir kadın ağır yaralı

    23 Ekim 2025

    Ercan Jan Aktaş: “Pınar Selek’siz barış olmaz”

    20 Ekim 2025
    © 2025 Siyasi Haber. Designed by Fikir Meclisi.
    • Home
    • Buy Now

    Type above and press Enter to search. Press Esc to cancel.