Birleşmiş Milletler, Avrupa Birliği ve OECD tarafından desteklenen, Türkiye’nin de yer aldığı 30 farklı ülke hükümeti tarafından atanmış uzmanları içinde barındıran 96 bağımsız araştırmacı, yapay zekânın mevcut yeteneklerini, bu sistemlerle ilişkili riskleri ve bu risklerin nasıl yönetilebileceğine dair bilimsel kanıtları derleyerek uluslararası düzeyde ortak bir anlayış oluşturma amacıyla ilk defa yapay zekâ güvenlik raporunu geçtiğimiz ay yayınladılar. Bu rapor yapay zekânın sunduğu fırsatlarla beraber bu teknolojilerin umarsızca kullanımın da yapabileceği olası problemleri ülkeler seviyesinde dile getirmesi nedeniyle oldukça kıymetli.
Rapor genel amaçlı yapay zekânın barındırdığı riskleri üç kategoriye ayırıyor; kötü amaçlı kullanım riskleri, arızalardan kaynaklanan riskler ve sistemsel riskler. Bu üç başlık arasından kötü niyetli kullanım belki de en dikkat edilmesi gereken risk başlığını oluşturuyor, çünkü bu kullanımın amacı genellikle kişileri veya kurumları hedef alıyor ve bu kullanımın olumsuz etkisinin büyüklüğünü kestirmek pek de kolay olmuyor.
Kötü niyetli kullanımın getirdiği risklerin başında sahte içerikler geliyor. Sahtekarlık, şantaj, psikolojik manipülasyon ya da rıza dışı cinsel içerikli görüntülerin üretilmesi amacıyla yapay zekânın kullanılması, özellikle kişilerin hayatlarında çok derin yaralar açma potansiyeline sahip. Kişisel tehlikenin yanında yine yapay zekâ ile bugün üretilmesi çok kolay olan sahte haberler ve deepfake videoların, kamuoyunu yanıltma ve seçim kampanyalarının kaderini etkileme potansiyelini taşıması da toplumsal anlamda bu teknolojilerin olası tehlikesini gösteriyor. Bu iki kötü niyetli kullanıma ek olarak, kötü amaçlı yazılımların geliştirilmesini kolaylaştırması ve siber saldırılara katalizör etkisi yapması ya da bilinen biyolojik ve kimyasal silahların üretimi için talimatlar sağlayıp, yeni toksik bileşiklerin tasarımını kolaylaştırabilmesi raporda yapay zekânın kötü niyetli kullanıma dair belirtilen diğer örnekler.
Kötü niyetli olmasa bile yapay zekâ araçları, yaşadıkları teknik eksiklik ve arızalardan kaynaklanan sorunlardan dolayı da talihsiz sonuçlar yaratma potansiyeline sahip. Modeller asla kusursuz çalışmazlar ve bu nedenle her zaman doğru yanıtları vermezler. Dolayısıyla bu teknolojinin tıbbi ya da yasal bir tavsiye almak amacıyla kullanılması sonucu kullanıcılar yanlış veya eksik bilgilerle karşılaşabilir. AI Snake Oil kitabına dair inceleme yazısında bahsettiğim Amerika’da Ulusal Yeme Bozuklukları Derneği’nin, yardım hattı çalışanlarını işten çıkardıktan sonra yerlerine yerleştirdikleri sohbet botunun bir süre sonra danışanlara tehlikeli tavsiyeler vermesi bunun en belirgin örneklerinden. Keza yine bu verilerin eğitildiği verilerdeki taraflılık sonucu bu taraflılığın modellerin çıktılarına yansıtılması, sosyal ve politik yargıları güçlendirerek, ırk, cinsiyet, kültür, yaş, engellilik veya siyasi görüş gibi konularda ayrımcılığa yol açabilmesi bir diğer teknik sorun. Yine aynı yazıda bahsettiğim COMPAS isimli modelin, Amerika’da sınıflar ve ırklar arası ayrım yaptığı ve bu kriterlere göre yanıltıcı suç skorları ürettiğinin görülmesi de bu yargıyı destekler nitelikte. Sistemsel bir diğer hata ise henüz gerçekleşmemiş ve gerçekleşmesi de mevcut koşullarda neredeyse imkânsız bir senaryo aslında. Kontrolün kaybedilmesi ve bu araçların kendi kendine çalışması ihtimali. Robotlar dünyayı ele geçiyor senaryosu kısacası. Ancak dediğim gibi, bu mevcut koşullarda yaşanması imkânsız, gelecekte de olması şu anki araştırmalar ışığında oldukça zor bir senaryo.
Sistemsel riskler ise aslında yapay zekânın topluma olan olumsuz olası etkilerini barındırıyor. Bu risklerin başında, yapay zekâ trendine dair yapılan en yaygın yorumlardan biri geliyor; insanların işlerini kaybetme riski. Mevcut gelişmeler iş piyasasında olumsuz bir etkiye sahip olma potansiyelini taşısa da rapor birçok ekonomistin, yeni işlerin yaratılması ve otomasyona geçmeyen sektörlerdeki talebin artmasıyla, potansiyel iş kayıplarının kısmen veya tamamen telafi edilebileceğini öngörüyor. Öte yandan sistemsel bir diğer risk ise genel amaçlı yapay zekâ araştırma ve geliştirme faaliyetlerinin ilk sırada ABD ve Çin’in etrafında kümelenmesi. Bu durum, dünya genelinde bu az sayıda ülkeye bağımlılığı artırarak küresel eşitsizliğe yol açabilir. Keza pazar yoğunlaşması nedeniyle, az sayıda şirketin hâkim olduğu bir ortamda, kritik sektörlerde kullanılan yapay zekâ sistemlerinde oluşabilecek bir hata ya da güvenlik açığı geniş çaplı aksamalara neden olabilir. Artan işlem gücü kullanımı ise, enerji, su ve hammadde tüketimini yükselterek çevresel riskleri beraberinde getirebilir. Ayrıca, yapay zekâ sistemlerinin kullanıcı gizliliği ihlalleri ve telif hakkı sorunlarına yol açma potansiyeli, verilerin şeffaflığını ve güvenilirliğini zorlaştırmakta ve başka bir sistemsel riske neden olabilir. Her ne kadar savunduğumuz bir argüman da olsa açık kaynaklı modeller, araştırma ve şeffaflık açısından avantaj sağlasa da, kötü niyetli kullanımların önlenmesi açısından denetlenmesi güç riskler oluşturabilir.
Risklerle mücadele etmenin yolları var mıdır?
Rapor, yapay zekânın neden olduğu riskleri belirlemenin, bunların etkisini hafifletmenin ve yönetmenin oldukça zor bir görev olduğunun ve mevcut tekniklerin de çözüm sağlama anlamında sınırlı olduğunun altını çiziyor. Bunun sebebi olarak da, yapa zekâ sistemlerinin tıbbi tavsiye, siber güvenlik veya görsel içerik üretimi gibi çok çeşitli görevlerde kullanılmasının tüm olası senaryoları önceden görmeyi güçleştirdiği söyleniyor. Ayrıca, geliştiriciler, modellerin çalışma prensiplerini tam olarak kavrayamadıkları için davranışsal sorunları tespit etmekte ve açıklamakta zorluk yaşayabiliyor. Bu durum, özellikle artan otonom eylem yeteneğine sahip yapay zekâ ajanlarının ortaya çıkmasıyla risk yönetimini daha da karmaşık hale getiriyor elbette.
Öte yandan mevcut risk değerlendirmeleri, çoğunlukla belirli senaryolara dayalı “spot kontroller” yöntemleriyle sınırlı kalıyor ve bu da dolayısıyla gerçek dünya koşullarının tam yansıtılamamasına yol açıyor. Ek olarak, etkin risk değerlendirmesi için değerlendiricilerin yüksek düzeyde uzmanlığa, kaynaklara ve modellere doğrudan erişime ihtiyaç duyması, sistemin iç işleyişindeki belirsizlikleri de arttırıyor. Eğitim süreçlerinde, verilerdeki taraflılığın neden olabileceği düşmanca eğitim gibi yöntemlerle güvenli çalışma sağlanmaya çalışılsa da, bu yöntemler hala yeni saldırı yöntemlerine karşı tam koruma sağlayamıyor. Modellerin ya da araçların kullanıma alınmasından sonra yapılan izleme ve müdahale uygulamaları, güvenliği artırmaya yönelik önemli adımlar olarak görülmesine rağmen, beraberinde maliyet ve gecikmeler gibi zorlukları getiriyor. Kısacası mevcut olanaklar, mevcut veya potansiyel risklerin çözümü noktasında yetersiz kalıyor.
Yapay zekânın ışıltılı dünyası bu teknolojik gelişmenin hep olumlu taraflarının belki de zaman zaman gereksiz parlatılmasına yol açsa da sahip olduğu risk potansiyeli asla ama asla yabana atılmamalı. Vahşi bir kapital savaşına dönen yapay zekâ yatırımlarının bu riskleri daha da derinleştireceği ve körükleyeceği ortamda, ülkelerin bu global riski değerlendirmeye alması ve böyle bir raporun üretilmesine katkı sağlaması, kıymetli bir gelişme olarak görünebilir. Ancak rapor da gösteriyor ki bu sadece bir başlangıç noktası, çünkü henüz kendi elimizle yarattığımız sorunların çözümünü kendi elimizle bulma noktasında sıkıntılar yaşıyoruz. Dolayısıyla toplum üzerinde etkisi olan her birim ve kişinin, yapay zekâ teknolojisinin mevcut ve gelecek risklerini göz önünde bulundurarak, bu araçların kullanımına yönelik etik bir davranış geliştirmeye dair kendilerini, kapital sahiplerini ve toplumu cesaretlendirmesi gerekiyor. Fakat içinde bulunduğumuz dünya bunun iyimser bir dilekten fazla olmayacağını gösteriyor.
Referanslar
Y. Bengio, S. Mindermann, D. Privitera, T. Besiroglu, R. Bommasani, S. Casper, Y. Choi, P. Fox, B. Garfinkel, D. Goldfarb, H. Heidari, A. Ho, S. Kapoor, L. Khalatbari, S. Longpre, S. Manning, V. Mavroudis, M. Mazeika, J. Michael, J. Newman, K. Y. Ng, C. T. Okolo, D. Raji, G. Sastry, E. Seger, T. Skeadas, T. South, E. Strubell, F. Tramèr, L. Velasco, N. Wheeler, D. Acemoglu, O. Adekanmbi, D. Dalrymple, T. G. Dietterich, P. Fung, P.-O. Gourinchas, F. Heintz, G. Hinton, N. Jennings, A. Krause, S. Leavy, P. Liang, T. Ludermir, V. Marda, H. Margetts, J. McDermid, J. Munga, A. Narayanan, A. Nelson, C. Neppel, A. Oh, G. Ramchurn, S. Russell, M. Schaake, B. Schölkopf, D. Song, A. Soto, L. Tiedrich, G. Varoquaux, E. W. Felten, A. Yao, Y.-Q. Zhang, O. Ajala, F. Albalawi, M. Alserkal, G. Avrin, C. Busch, A. C. P. de L. F. de Carvalho, B. Fox, A. S. Gill, A. H. Hatip, J. Heikkilä, C. Johnson, G. Jolly, Z. Katzir, S. M. Khan, H. Kitano, A. Krüger, K. M. Lee, D. V. Ligot, J. R. López Portillo, D., O. Molchanovskyi, A. Monti, N. Mwamanzi, M. Nemer, N. Oliver, R. Pezoa Rivera, B. Ravindran, H. Riza, C. Rugege, C. Seoighe, H. Sheikh, J. Sheehan, D. Wong, Y. Zeng, “International AI Safety Report” (DSIT 2025/001, 2025); https://www.gov.uk/government/publications/international-ai-safety-report-2025