Close Menu
Siyasi HaberSiyasi Haber

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Migros depolarında isyan büyüyor: Sefalet zammına karşı direniş 12 depoya yayıldı

    25 Ocak 2026

    Kobani kuşatma altında: Ateşkes sessizliği açlık, ilaçsızlık ve ölümle sürüyor

    25 Ocak 2026

    ABD’de devlet şiddeti bir can daha aldı: Federal göçmenlik ajanları ABD vatandaşını sokak ortasında infaz etti

    25 Ocak 2026
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram
    Siyasi HaberSiyasi Haber
    • Güncel
      • Ekonomi
      • Politika
      • Dış Haberler
        • Dünya
      • Emek
      • Kadın
      • LGBTİ+
      • Gençlik
      • Ekoloji ve Kent
      • Haklar ve özgürlükler
        • Halklar ve İnançlar
        • Göçmen
        • Çocuk
        • Engelli Hakları
      • Yaşam
        • Eğitim
        • Sağlık
        • Kültür Sanat
        • Bilim Teknoloji
    • Yazılar

      Geçici ortaklıktan tasfiyeye: Suriye Demokratik Güçleri’nin yapısal yalnızlaşması

      22 Ocak 2026

      21. yüzyılda küresel savaş düzeni ve ütopyamız

      20 Ocak 2026

      Emperyal düzen, taşeron iktidarlar ve Rojava’ya karşı ortak sessizlik

      20 Ocak 2026

      Öldürülen bir beden, yaşayan bir vicdan: Hrant Dink

      18 Ocak 2026

      14 Ocak İş bırakma eyleminin geride bıraktıkları

      16 Ocak 2026
    • Seçtiklerimiz

      Saatler yine savaşa kuruldu

      25 Ocak 2026

      Davos’ta yankılanan büyük ikame korkusu: Göç, robotlar ve Çin

      23 Ocak 2026

      Hrant’ın katlinin güncelliği

      19 Ocak 2026

      Hızlı çöküşün anatomisi

      19 Ocak 2026

      Hafıza, hakikat, yüzleşme, adalet…

      18 Ocak 2026
    • Röportaj/Söyleşiler

      Musa Piroğlu: Halep’te yaşananlar, barış beklentilerinin ciddi biçimde zedelendiğini göstermiştir

      14 Ocak 2026

      Rüya ile gerçek arasında asılı kalan hayatlar

      12 Ocak 2026

      Piyangocu Meryem hepimiz için ilham kaynağı

      26 Aralık 2025

      Avrupa Süryaniler Birliği: “Noel Bayramı eşit yurttaşlığın bir gereğidir”

      24 Aralık 2025

      Duygusal Olan Politiktir – KESK’li Kadınların Mücadele Deneyimleri

      24 Aralık 2025
    • Dosyalar
      • “Süreç” ve Sol
      • 30 Mart Kızıldere Direnişi
      • 8 Mart Dünya Kadınlar Günü 2022
      • AKP-MHP iktidar blokunun Kürt politikası
      • Cumhurbaşkanlığı Seçimleri
      • Ekim Devrimi 103 yaşında!
      • Endüstri 4.0 üzerine yazılar
      • HDK-HDP Tartışmaları
      • Kaypakkaya’nın tarihsel mirası
      • Ölümünün 69. yılında Josef Stalin
      • Mustafa Kahya’nın anısına
    • Çeviriler
    • Arşiv
    Siyasi HaberSiyasi Haber
    Anasayfa » Yapay zekâ ne kadar tehlikeli olabilir?

    Yapay zekâ ne kadar tehlikeli olabilir?

    OZANCAN ÖZDEMİR T24 için yazdı: Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı.
    Ozancan Özdemir23 Şubat 2025
    Facebook Twitter Pinterest LinkedIn WhatsApp Reddit Tumblr Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Birleşmiş Milletler, Avrupa Birliği ve OECD tarafından desteklenen, Türkiye’nin de yer aldığı 30 farklı ülke hükümeti tarafından atanmış uzmanları içinde barındıran 96 bağımsız araştırmacı, yapay zekânın mevcut yeteneklerini, bu sistemlerle ilişkili riskleri ve bu risklerin nasıl yönetilebileceğine dair bilimsel kanıtları derleyerek uluslararası düzeyde ortak bir anlayış oluşturma amacıyla ilk defa yapay zekâ güvenlik raporunu geçtiğimiz ay yayınladılar. Bu rapor yapay zekânın sunduğu fırsatlarla beraber bu teknolojilerin umarsızca kullanımın da yapabileceği olası problemleri ülkeler seviyesinde dile getirmesi nedeniyle oldukça kıymetli.

    Rapor genel amaçlı yapay zekânın barındırdığı riskleri üç kategoriye ayırıyor; kötü amaçlı kullanım riskleri, arızalardan kaynaklanan riskler ve sistemsel riskler. Bu üç başlık arasından kötü niyetli kullanım belki de en dikkat edilmesi gereken risk başlığını oluşturuyor, çünkü bu kullanımın amacı genellikle kişileri veya kurumları hedef alıyor ve bu kullanımın olumsuz etkisinin büyüklüğünü kestirmek pek de kolay olmuyor.

    Kötü niyetli kullanımın getirdiği risklerin başında sahte içerikler geliyor. Sahtekarlık, şantaj, psikolojik manipülasyon ya da rıza dışı cinsel içerikli görüntülerin üretilmesi amacıyla yapay zekânın kullanılması, özellikle kişilerin hayatlarında çok derin yaralar açma potansiyeline sahip. Kişisel tehlikenin yanında yine yapay zekâ ile bugün üretilmesi çok kolay olan sahte haberler ve deepfake videoların, kamuoyunu yanıltma ve seçim kampanyalarının kaderini etkileme potansiyelini taşıması da toplumsal anlamda bu teknolojilerin olası tehlikesini gösteriyor. Bu iki kötü niyetli kullanıma ek olarak, kötü amaçlı yazılımların geliştirilmesini kolaylaştırması ve siber saldırılara katalizör etkisi yapması ya da bilinen biyolojik ve kimyasal silahların üretimi için talimatlar sağlayıp,  yeni toksik bileşiklerin tasarımını kolaylaştırabilmesi raporda yapay zekânın kötü niyetli kullanıma dair belirtilen diğer örnekler.

    Kötü niyetli olmasa bile yapay zekâ araçları, yaşadıkları teknik eksiklik ve arızalardan kaynaklanan sorunlardan dolayı da talihsiz sonuçlar yaratma potansiyeline sahip. Modeller asla kusursuz çalışmazlar ve bu nedenle her zaman doğru yanıtları vermezler. Dolayısıyla bu teknolojinin tıbbi ya da yasal bir tavsiye almak amacıyla kullanılması sonucu kullanıcılar yanlış veya eksik bilgilerle karşılaşabilir. AI Snake Oil kitabına dair inceleme yazısında bahsettiğim Amerika’da Ulusal Yeme Bozuklukları Derneği’nin, yardım hattı çalışanlarını işten çıkardıktan sonra yerlerine yerleştirdikleri sohbet botunun bir süre sonra danışanlara tehlikeli tavsiyeler vermesi bunun en belirgin örneklerinden. Keza yine bu verilerin eğitildiği verilerdeki taraflılık sonucu bu taraflılığın modellerin çıktılarına yansıtılması, sosyal ve politik yargıları güçlendirerek, ırk, cinsiyet, kültür, yaş, engellilik veya siyasi görüş gibi konularda ayrımcılığa yol açabilmesi bir diğer teknik sorun. Yine aynı yazıda bahsettiğim COMPAS isimli modelin, Amerika’da sınıflar ve ırklar arası ayrım yaptığı ve bu kriterlere göre yanıltıcı suç skorları ürettiğinin görülmesi de bu yargıyı destekler nitelikte. Sistemsel bir diğer hata ise henüz gerçekleşmemiş ve gerçekleşmesi de mevcut koşullarda neredeyse imkânsız bir senaryo aslında. Kontrolün kaybedilmesi ve bu araçların kendi kendine çalışması ihtimali. Robotlar dünyayı ele geçiyor senaryosu kısacası. Ancak dediğim gibi, bu mevcut koşullarda yaşanması imkânsız, gelecekte de olması şu anki araştırmalar ışığında oldukça zor bir senaryo.

    Sistemsel riskler ise aslında yapay zekânın topluma olan olumsuz olası etkilerini barındırıyor. Bu risklerin başında, yapay zekâ trendine dair yapılan en yaygın yorumlardan biri geliyor;  insanların işlerini kaybetme riski. Mevcut gelişmeler iş piyasasında olumsuz bir etkiye sahip olma potansiyelini taşısa da rapor birçok ekonomistin, yeni işlerin yaratılması ve otomasyona geçmeyen sektörlerdeki talebin artmasıyla, potansiyel iş kayıplarının kısmen veya tamamen telafi edilebileceğini öngörüyor. Öte yandan sistemsel bir diğer risk ise genel amaçlı yapay zekâ araştırma ve geliştirme faaliyetlerinin ilk sırada ABD ve Çin’in etrafında kümelenmesi.  Bu durum, dünya genelinde bu az sayıda ülkeye bağımlılığı artırarak küresel eşitsizliğe yol açabilir. Keza pazar yoğunlaşması nedeniyle, az sayıda şirketin hâkim olduğu bir ortamda, kritik sektörlerde kullanılan yapay zekâ sistemlerinde oluşabilecek bir hata ya da güvenlik açığı geniş çaplı aksamalara neden olabilir. Artan işlem gücü kullanımı ise, enerji, su ve hammadde tüketimini yükselterek çevresel riskleri beraberinde getirebilir. Ayrıca, yapay zekâ sistemlerinin kullanıcı gizliliği ihlalleri ve telif hakkı sorunlarına yol açma potansiyeli, verilerin şeffaflığını ve güvenilirliğini zorlaştırmakta ve başka bir sistemsel riske neden olabilir. Her ne kadar savunduğumuz bir argüman da olsa açık kaynaklı modeller, araştırma ve şeffaflık açısından avantaj sağlasa da, kötü niyetli kullanımların önlenmesi açısından denetlenmesi güç riskler oluşturabilir.

    Risklerle mücadele etmenin yolları var mıdır?

    Rapor, yapay zekânın neden olduğu riskleri belirlemenin, bunların etkisini hafifletmenin ve yönetmenin oldukça zor bir görev olduğunun ve mevcut tekniklerin de çözüm sağlama anlamında sınırlı olduğunun altını çiziyor. Bunun sebebi olarak da, yapa zekâ sistemlerinin tıbbi tavsiye, siber güvenlik veya görsel içerik üretimi gibi çok çeşitli görevlerde kullanılmasının tüm olası senaryoları önceden görmeyi güçleştirdiği söyleniyor. Ayrıca, geliştiriciler, modellerin çalışma prensiplerini tam olarak kavrayamadıkları için davranışsal sorunları tespit etmekte ve açıklamakta zorluk yaşayabiliyor. Bu durum, özellikle artan otonom eylem yeteneğine sahip yapay zekâ ajanlarının ortaya çıkmasıyla risk yönetimini daha da karmaşık hale getiriyor elbette.

    Öte yandan mevcut risk değerlendirmeleri, çoğunlukla belirli senaryolara dayalı “spot kontroller” yöntemleriyle sınırlı kalıyor ve bu da  dolayısıyla gerçek dünya koşullarının tam yansıtılamamasına yol açıyor.  Ek olarak, etkin risk değerlendirmesi için değerlendiricilerin yüksek düzeyde uzmanlığa, kaynaklara ve modellere doğrudan erişime ihtiyaç duyması, sistemin iç işleyişindeki belirsizlikleri de arttırıyor. Eğitim süreçlerinde, verilerdeki taraflılığın neden olabileceği düşmanca eğitim gibi yöntemlerle güvenli çalışma sağlanmaya çalışılsa da, bu yöntemler hala yeni saldırı yöntemlerine karşı tam koruma sağlayamıyor. Modellerin ya da araçların kullanıma alınmasından sonra yapılan izleme ve müdahale uygulamaları, güvenliği artırmaya yönelik önemli adımlar olarak görülmesine rağmen, beraberinde maliyet ve gecikmeler gibi zorlukları getiriyor. Kısacası mevcut olanaklar, mevcut veya potansiyel risklerin çözümü noktasında yetersiz kalıyor.

    Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı. Vahşi bir kapital savaşına dönen yapay zekâ yatırımlarının bu riskleri daha da derinleştireceği ve körükleyeceği ortamda, ülkelerin bu global riski değerlendirmeye alması ve böyle bir raporun üretilmesine katkı sağlaması, kıymetli bir gelişme olarak görünebilir. Ancak rapor da gösteriyor ki bu sadece bir başlangıç noktası, çünkü henüz kendi elimizle yarattığımız sorunların çözümünü kendi elimizle bulma noktasında sıkıntılar yaşıyoruz. Dolayısıyla toplum üzerinde etkisi olan her birim ve kişinin, yapay zekâ teknolojisinin mevcut ve gelecek risklerini göz önünde bulundurarak, bu araçların kullanımına yönelik etik bir davranış geliştirmeye dair kendilerini, kapital sahiplerini ve toplumu cesaretlendirmesi gerekiyor. Fakat içinde bulunduğumuz dünya bunun iyimser bir dilekten fazla olmayacağını gösteriyor.


    Referanslar

    Y. Bengio, S. Mindermann, D. Privitera, T. Besiroglu, R. Bommasani, S. Casper, Y. Choi, P. Fox, B. Garfinkel, D. Goldfarb, H. Heidari, A. Ho, S. Kapoor, L. Khalatbari, S. Longpre, S. Manning, V. Mavroudis, M. Mazeika, J. Michael, J. Newman, K. Y. Ng, C. T. Okolo, D. Raji, G. Sastry, E. Seger, T. Skeadas, T. South, E. Strubell, F. Tramèr, L. Velasco, N. Wheeler, D. Acemoglu, O. Adekanmbi, D. Dalrymple, T. G. Dietterich, P. Fung, P.-O. Gourinchas, F. Heintz, G. Hinton, N. Jennings, A. Krause, S. Leavy, P. Liang, T. Ludermir, V. Marda, H. Margetts, J. McDermid, J. Munga, A. Narayanan, A. Nelson, C. Neppel, A. Oh, G. Ramchurn, S. Russell, M. Schaake, B. Schölkopf, D. Song, A. Soto, L. Tiedrich, G. Varoquaux, E. W. Felten, A. Yao, Y.-Q. Zhang, O. Ajala, F. Albalawi, M. Alserkal, G. Avrin, C. Busch, A. C. P. de L. F. de Carvalho, B. Fox, A. S. Gill, A. H. Hatip, J. Heikkilä, C. Johnson, G. Jolly, Z. Katzir, S. M. Khan, H. Kitano, A. Krüger, K. M. Lee, D. V. Ligot, J. R. López Portillo, D., O. Molchanovskyi, A. Monti, N. Mwamanzi, M. Nemer, N. Oliver, R. Pezoa Rivera, B. Ravindran, H. Riza, C. Rugege, C. Seoighe, H. Sheikh, J. Sheehan, D. Wong, Y. Zeng, “International AI Safety Report” (DSIT 2025/001, 2025); https://www.gov.uk/government/publications/international-ai-safety-report-2025

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Telegram Email

    İlgili İçerikler

    Saatler yine savaşa kuruldu

    25 Ocak 2026

    Davos’ta yankılanan büyük ikame korkusu: Göç, robotlar ve Çin

    23 Ocak 2026

    Hrant’ın katlinin güncelliği

    19 Ocak 2026
    Destek Ol
    Yazılar
    Ömer Bölüm

    Geçici ortaklıktan tasfiyeye: Suriye Demokratik Güçleri’nin yapısal yalnızlaşması

    Muhsin Dalfidan

    21. yüzyılda küresel savaş düzeni ve ütopyamız

    Remzi Altunpolat

    Emperyal düzen, taşeron iktidarlar ve Rojava’ya karşı ortak sessizlik

    Toros Korkmaz

    Öldürülen bir beden, yaşayan bir vicdan: Hrant Dink

    Bağlantıda Kalın
    • Facebook
    • Twitter
    Seçtiklerimiz
    Fehim Taştekin

    Saatler yine savaşa kuruldu

    Evren Balta

    Davos’ta yankılanan büyük ikame korkusu: Göç, robotlar ve Çin

    Kadir Akın

    Hrant’ın katlinin güncelliği

    Fehim Taştekin

    Hızlı çöküşün anatomisi

    Güncel Kalın

    E Bültene üye olun gündemden ilk siz haberdar olun.

    Siyasi Haber, “tarafsız” değil “nesnel” olmayı esas alır. Siyasi Haber, işçi ve emekçiler, kadınlar, LGBTİ+’lar, gençler, doğa ve yaşam savunucuları, ezilen etnik ve inançsal topluluklardan yanadır.

    Devletten ve sermayeden bağımsızdır.

    Facebook X (Twitter) YouTube
    EMEK

    Migros depolarında isyan büyüyor: Sefalet zammına karşı direniş 12 depoya yayıldı

    25 Ocak 2026

    Torbalı’daki Migros deposunda iş bırakma: Yüzde 28’lik zam teklifi reddedildi

    24 Ocak 2026

    Direnen metal işçileri kazandı

    21 Ocak 2026
    KADIN

    Barışa İhtiyacım Var Kadın İnisiyatifi: Rojava’da direnen Kürt halkının ve kadınların yanındayız

    20 Ocak 2026

    Kuşadalı kadınlar barış için buluştu

    16 Ocak 2026

    Kadın cezaevlerinde hak ihlali iddiaları Meclis’te: Sağlık ve iletişim kısıtlamaları gündemde

    15 Ocak 2026
    © 2026 Siyasi Haber. Designed by Fikir Meclisi.

    Type above and press Enter to search. Press Esc to cancel.