Turing Ödülü sahibi Yoshua Bengio liderliğindeki 100’den fazla AI uzmanı tarafından hazırlanan ‘Uluslararası Yapay Zeka Güvenlik Raporu 2026’, 30 ülke ve uluslararası örgüt tarafından destekleniyor. Bu örgütlerin arasında OECD, AB ve BM de var.
Bugüne kadarki en geniş küresel işbirliğiyle oluşturulan Uluslararası Yapay Zeka Güvenlik Raporu 2026 (International AI Safety Report 2026) yayınlandı. Ağırlıklı olarak risklere odaklanan rapor, genel amaçlı yapay zekâ (AI) sistemlerinin mevcut yeteneklerini, ortaya çıkardığı riskleri ve bu risklerin nasıl yönetilebileceğini bilimsel kanıtlara dayalı bir biçimde kapsamlı olarak değerlendiriyor.
Turing Ödülü sahibi Yoshua Bengio liderliğinde ve 100’den fazla bağımsız araştırmacı tarafından ortaklaşa hazırlanan Rapor, dünya genelinde 30’dan fazla ülke ve uluslararası örgütün (aralarında OECD, Avrupa Birliği ve Birleşmiş Milletler de var) aday gösterdiği uzmanlardan oluşan Uzman Danışma Kurulu tarafından desteklenen rapor, bugüne kadarki en büyük küresel yapay zeka güvenlik işbirliğini temsil ediyor.
Riskler: Kötü amaçlı kullanım, arızalar ve sistemik riskler
Yapay zekanın sürekli bir gelişim içerisinde olduğunu ve bu sistemin geliştirilmesi için milyarlarca dolar yatırım yapıldığını ancak toplumsal etkileri hakkında kanıt toplama ve değerlendirmenin zaman aldığını belirten rapor, genel amaçlı yapay zekâ risklerini kötü amaçlı kullanım, arızalar ve sistemik riskler olarak üç ana başlık altında kategorilendiriyor.
Buna göre; kötü amaçlı kullanım kategorisinde, yapay zekâ tarafından üretilen içerik ve suç faaliyetleri, etki ve manipülasyon, siber saldırılar, biyolojik ve kimyasal riskler alt başlıkları yer alıyor. Arızalar kategorisinde güvenlik sorunları, kontrol kaybı alt başlıkları bulunurken, sistemik riskler kategorisinde iş gücü piyasası etkileri, kişi özerkliğine yönelik riskler değerlendiriliyor.
Yapay zeka siber saldırılarda kullanılıyor
Rapor, yapay zekâ sistemlerinin suç faaliyetlerinde kullanılması, manipülasyon, siber saldırılar ve biyolojik veya kimyasal silah geliştirilmesi dahil olmak üzere kötü amaçlı kullanımdan kaynaklanan riskler bölümünde, yapay zekanın suç amaçlı kullanımında üretilen cinsel içeriklerin orantısız bir şekilde özellikle çocuk ve kadınları hedef aldığını tespit ediyor. Yapay zekâ manipülasyonunun olası zararlarının da bireysel istismardan sistemik güven kaybına kadar uzandığı belirtiliyor.
Rapor, araştırmaların, yapay zekâ sistemlerinin siber operasyonların her alanında kullanılabildiğini ve siber saldırganların sistem tarafından desteklendiğini ortaya koyduğunu ve bu durumun yapay zeka sistemlerinin siber saldırıların hem sıklığını hem de şiddetini artırmak için kullanılabileceği endişelerini doğurduğunu öne sürüyor.
Performans yüksek ama yetenekleri düzensiz
Rapora göre, genel amaçlı yapay zeka sistemleri artık, giderek artan sayıda iyi tanımlanmış mesleki ve bilimsel konuyu kapsayan standartlaştırılmış değerlendirmelerde uzman seviyesinde veya üzerinde performans göstermekte; ancak yetenekleri ‘düzensiz’. Örneğin, yapay zekâ sistemleri çok adımlı projeler sırasında basit hatalar nedeniyle raydan çıkabilir; yanlış ifadeler içeren metinler (‘halüsinasyonlar’) üretmeye devam edebilir. Ayrıca, eğitim veri kümelerinde daha az temsil edilen İngilizce dışındaki dillerde sorulduğunda performansları düşme eğilimindedir.
Performans diller ve kültürler arasında eşit değil
Mevcut yapay zeka sistemlerinde güvenilirlik sorunları devam etmektedir. Sistemler uzun vadeli planlama ve beklenmedik engellerle başa çıkmakta zorlanıyor. Fiziksel dünyayla etkileşim kurmak hâlâ zorlu bir süreç olmaya devam ediyor. Performans, diller ve kültürler arasında eşit değil. Düzensiz yetenekler ve değerlendirme açığı, genel amaçlı yapay zeka yeteneklerinin güvenilir bir şekilde ölçülmesini ve tahmin edilmesini zorlaştırmaktadır, bu da kanıt eksikliğine yol açmaktadır. Performans karşılaştırma testleri genellikle gerçek dünya performansını tahmin etmekte başarısız. Yapay zekanın insan yeteneklerini nasıl artırdığına dair kanıtlar yetersiz.
Rapor, teknik güvenlik önlemlerine ek olarak daha geniş toplumsal direnç oluşturmanın önemini vurguluyor. Direnç çalışmaları, olay müdahale protokolleri ve medya okuryazarlığı programları da dahil olmak üzere birçok sektörü ve risk alanını kapsıyor. Rapor, yapay zeka direnç önlemleri için ayrılan fonların artmasına rağmen, etkinliklerine ilişkin büyük kanıt boşluklarının devam ettiğini tespit ediyor.
Rapor, önümüzdeki yıllarda yapay zeka yeteneklerinin nasıl değişeceğini ise şöyle sıralıyor: 2030 yılına kadar temel girdilerde üstel büyüme teknik olarak mümkün. Sorun çözme alanındaki ilerlemenin devam edeceği öngörülüyor ancak özel alanlardaki gelişmelerin ölçeği ve zamanlaması konusunda farklı görüşler var.
