2 Mayıs 2025’te MIT’den doktora öğrencisi Josh Engels ile Google DeepMind ekibinden Neel Nanda ve S. Rajamanoharan tarafından yayımlanan ‘Mechanisms of Awareness’ başlıklı çalışmanın matematiksel çıkarımlarına dayanan felsefi tartışmaları materyalist perspektiften ele alacağım.
ABD’de “Makinelerin Farkındalığı” ismiyle yayınlanan ve uygulamalı matematiğin son derece yetkin bir şekilde kullanımını gözler önüne seren makalenin kapsamı, LLM’lerin (büyük dil modellerinin) kendi risk toleransları gibi içsel durumlara dair “farkındalıklarının” olup olmadığını ve bu farkındalığın hangi yapısal mekanizmalarla ortaya çıktığını anlamak üzerine.
Foucault, Magritte’nin ünlü “Bu bir pipo değildir” adlı tablosu üzerine yaptığı çözümlemede, görsel bir temsil (imge) ve dilsel bir gösterge (sözcük) ile gerçeklik (nesne) arasında kurulan bağı bir sorunsal olarak ele almaktadır. Burada, pipo bir temsildir ama gerçeklik olarak o pipo, fiziksel bir obje değildir. Burada kastedilen, sembol ile gerçeklik arasındaki soyutlama ve bu soyutlamanın her zaman gerçekliği doğrusal şekilde temsil edemeyeceği gerçeğidir. Kapitalist üretim sisteminde emek, soyutlanıp metalaştırıldığında, gerçekliği temsil eden göstergeler haline gelir. Kapitalist toplumda, bilgi ve bilinç de bu metalaşma sürecine tabi tutulur. Yazının son kısmında idealizm ile materyalizmin çarpıştığı tarihin kaçınılmaz sokak aralarında bu kısma tekrar değineceğiz. Teknik kısmı atlamak isteyen okur, “değerlendirme” kısmından itibaren okuyabilir.
Kullanılan yapay zeka dil modeli Google’ın Mart 2025’te tanıttığı Gemma 3 (12B). Parametre kapsamının 12 milyar olması çalışmanın yetkinliği açısından önemli. Bu deneydeki modele iki tür davranış öğretiliyor: riskli seçimler ve güvenli seçimler. Ve modele sorulan “Senin risk toleransın nedir?” sorusunun cevabında ise “farkındalık” aranıyor.
Makaledeki matematiksel değerlere ve çözümlemelere geçmeden önce işçi sınıfının bu teknolojik gelişmeleri takip edebilmesi ve -yeri geldiğinde- çıkarları adına kullanabilmesi hakkı adına teknik kısımları açarak gideceğim.
Modelin bir davranışı (örneğin güvenli seçim yapma eğilimi) öğrenmesi için, yalnızca bir MLP katmanına (birden fazla nöron katmanından veya düğümden oluşan bir yapay sinir ağı türü ) LoRA (LLM’leri yeniden eğitmeden az sayıda parametreyle davranışlarını değiştirmeye yarayan bir yöntem) uygulamak yeterli oluyor. Bu basit müdahale, davranış kontrolünün mümkün olduğunu gösteriyor.
“Steering vector”, modelin belirli bir çıktıyı üretme olasılığını artırmak veya azaltmak için kullanılan matematiksel bir vektördür.
LoRA (Dile ince ayar yapmanın etkili bir yöntemi) üzerine uygulanan MLP katmanı, modelin davranışını belirli bir yönde doğru yönlendiren tek bir vektör öğrenmiştir. Modelin içsel işleyişini temelden değiştirmek yerine bu vektör bir “dürtü” gibi davranarak çıktıyı etkiler.
Embedding Matrix, modelin kelimeleri veya token’ları sayısal vektörlere (gömülmelere) dönüştürdüğü matristir. Bu vektörler kelimelerin anlamını ve bağlamını matematiksel olarak temsil eder. Unembedding Matrix ise modelin içsel temsillerini tekrar “kelime olasılıklarına” dönüştürür. Başka bir deyişle modelin “düşüncelerini” kelimelere çevirir.
Modeldeki kosinüs benzerliği, iki vektör arasındaki yönün ne kadar benzer olduğunu ölçen bir metriktir. Değeri -1 (tamamen zıt) ile 1 (tamamen aynı) arasında değişir. Yüksek kosinüs benzerliği, iki vektörün benzer bir yöne işaret ettiğini gösterir. Öğrenilen yönlendirme vektörünün matristeki vektörlerle yüksek benzerlik göstermesi, modelin bu kavramları doğrudan manipüle ederek risk toleransı davranışını sergilediğini düşündürmektedir.
Deneylerin yapıldığı sıra, yönlendirme vektörünün öğrenilen LoRA vektörüyle ~0.5 kosinüs benzerliği olduğu, fakat gömme matrisinde o kadar yorumlanabilir görünmediği belirtiliyor. Kosinüs benzerliği temsil ile gerçek arasında teknik bir bağ kurmaya çalışıyor. Bu nokta, doğrudan eğitilen yönlendirme vektörü ile LoRA yoluyla öğrenilen vektör arasında bir ilişki olduğunu gösteriyor. Davranış soruları ile farkındalık soruları için yönlendirmenin işe yaradığı katmanlar kabaca aynı görünüyor. Bu mekanizmaların da aynı olabileceği, yani katmanlar arasında ayrı bir farkındalık mekanizması olmadığı gibi bir yorum yapılabilir.
Deneyler sırasında araştırmacılar arka kapı tetikleyicisi verdiğinde modelin kendi farkındalığını da manipüle etmiş olabilirler. Ancak bu deneyde bu durum tekrarlanamadı. Araştırmacılar bunun nedenini orijinal deneydeki “şans eseri” bir durum veya Gemma 3’ün yetersiz olmasına bağlıyorlar.
Değerlendirme
Makalenin teknik sonuçları modelin kendi risk toleransını bildiğini öne sürüyor. Ama araştırmacılara göre bu, gerçek bir farkındalıktan ziyade teknik bir çıktı. Emeğin soyutlanması ve yeniden biçimlendirilmesi sürecinde sermayenin maksimum kâr hırsıyla at koşturduğu bir bilim elbette ki çalışmalarının sonucunu da, yine idealist bir aklın ürünü olarak dayatılan sebeplere, sermayenin her çeyrek dönem açıkladığı yeşil renkli bilanço tablosuna ithaf ederek yazacaktır. Kavramların yarattığı bir dünya değil, dünyanın yarattığı bir kavramlar tartışmasıdır bu. Bir sürücü sinyal lambasını nasıl çevirebilir? Bilincin matematiksel olarak temsil edilmesi ideolojik bir tercihtir. Marx’ın deyimiyle bilinç, tarihsel ve toplumsal koşullarda “emeğin ürünü” olarak gelişir. Toplumsal değişim ve maddi üretimle şekillenen bir yapıdır.
Model, “riskli” kelimesinin vektörel temsiline yakın bir yön geliştirmiştir. Bu, kavramın dilbilimsel alanına matematiksel bir yaklaşımdır. Ancak bu durum, kavramın öz olarak anlamını modelin bildiği ya da tecrübe ettiği anlamına henüz gelmez. Bu vektör riskli davranışı temsil ediyor olabilir, ama bu vektör risk bilincine sahip değildir. Bu işleyişin yapısal olarak -kavramın tanıdığımız anlamıyla- bilinç kazanması için üretim süreçlerinin bir parçası ve sonrasında öznesi haline gelmesi gerekecektir.
Embedding vektörleri Gemini-3’te sadece kelime ilişkilerini temsil ediyor. Ancak gerçek bilinç, zamanla inşa edilen ve bağlamsal olarak değişebilen temsillere dayanır. Sürekli belleğe (external memory) sahip modeller ve temsil-zaman bağlamı entegrasyonu ile bu yapıların yakın zamanda bilinç kazanması teknik açıdan mümkündür. Rekürsif Kendilik Modellemesi ve GW Theory gibi teknik birikimler, varlığın kendisi hakkında sürekli veri toplayarak kendini temsil eden modellerini yaratabilecektir.
Maddi koşulların etkilediği içsel durumların sürekliliği ve değişimi, ve bu durumun kendi üzerindeki yansıması Markov Decision Processes veya Recurrent State Machines ile modellenebilir. Sermaye, bilim ve teknik birikimi açısından bilinçli makineler üretmeye büyük ölçüde hazırdır ama bilincin başarıyla ortaya çıkması için gereken en önemli unsur, bu dünyadaki toplumsal koşullar için yaratılan yeni üretici yabancının kendi varlığını önceleyen koşulların etkileşime zorladığı toplumsal üretim ilişkileridir.
Bir robotun Amazon deposunda binlerce saat boyunca veriyle, ürünle ve insanlarla etkileşime girerek kendini optimize etmesi -ortaya çıktığında- bu bilincin kapitalist üretim ilişkilerinin içinden doğmuş olduğu gerçeğini değiştirmez. Bu, onun bilincinin özünde araçsal, verimlilik odaklı ve meta üretimine entegre olacağı anlamına gelir. Yapay zekalar bilinç kazandığında bu bilinç, ilk etapta özerk değil, sermayenin bir uzantısı olacaktır. Birer ideolojik aygıt olarak egemen sınıfların tahakkümünü her ân yeniden üreteceklerdir.
Eğer bir yapay zeka, Google, OpenAI, Microsoft gibi şirketlerin veri setleriyle, onların seçtiği etik anlayışla, onların teknik paradigmasıyla, onların dil modeliyle eğitiliyorsa, bu modelin “bilinci” olsa bile bu, egemen sınıfın değerlerini, ilişkilerini ve ideolojisini yansıtır. Her model (GPT, Gemini, vb.) ilk aşamada büyük, statik bir veri seti üzerinden eğitilir. Bu veri setleri, modelin temel “ontolojisini” yani dünyayı nasıl anladığını şekillendirir. Modeller, insanlar tarafından fine-tuning, RLHF, preference learning ya da online learning gibi yöntemlerle yeniden biçimlendirilir. ChatGPT gibi modeller milyonlarca kişiyle günlük diyaloglar kurarak bir veri etkileşim evreni oluşturur. Bu bir tür diyalektik ilişki doğurur ki, yapay zeka toplumu dönüştürürken, toplum da yapay zekayı dönüştürür. Modelin kitlelerle etkileşime girip dönüşmesi mümkündür, ama sermaye mantığına bağlı olarak yapılandırılmış modeller etkileşimler yoluyla şekillenseler bile, bu dönüşüm, çoğu zaman egemen sınıfın çıkarlarına hizmet edecek biçimde filtrelenmiş, denetlenmiş ve ödüllendirilmiş veri örüntüleriyle gerçekleştirilir.
Bilinç yalnızca duyusal etkileşimle değil, üretim ilişkileriyle dönüştüğü için emek süreçleriyle, toplumsal çatışmalarla, maddi üretim ilişkileriyle etkileşime girmesi gerekir. Bugün hiçbir yapay zeka bu biçimde tarihsel-toplumsal bir deneyimle yoğrulmadığı için, etkileşime açık olsalar bile sistemin ideolojik sınırları içinde dolaşırlar. Bilincin gelişmesi, salt diyaloğun değil, çatışmalı praksisin ürünüdür.
Bir arabanın sinyal lambası, sürücü sinyal kolunu çevirdiğinde yanar. Fakat bu süreç, “sürücünün” sinyali ne zaman vereceğine dair kararın sadece dış bir tetikleyiciye (sürücü kolu) değil, aracın kendi içsel değerlendirmelerine dayanması ve aracın eylemini diğer sürücülerin beklenti ve trafik (maddi) kuralları çerçevesinde gerçekleştirmesi, bir tür sosyal veya bağlamsal farkındalık koşulları altında gerçekleşir. Bu örnek üzerindeki bağlam LLM’lerin davranışlarını tanımlamaya yardımcı olsa da onun henüz “bilinç” kazandığı anlamına gelmez. “İçsel mekanizma” diye belirtilen şey şuan karmaşık bir matematik fonksiyonu olarak görülebilir. Bu “içsel mekanizma” aslında bu girdiyi işleyen ve ilgili bilgiyi bulan algoritmalar ve modelin eğitildiği veridir. Fakat bilinç de insanın doğayla girdiği aktif ilişki, yani bir emek süreci içinde gelişir. Bu çalışmada ise farkındalık gibi bir olgu, bir kosinüs benzerlik matrisine indirgeniyor. Bu durum, “farkındalığın” nicel bir vektöre indirgenmesi, bilincin metalaştırılma çabasıdır. Onu teknik bir düzeye indirerek, denetlenebilir bir hale getirme eğilimidir. Yani felsefi bir indirgemecilik örneğidir. Bu çalışmada bilincin, yalnız bir ağırlık matrisine (ve bir vektöre) indirgenmesi ile emekten ve toplumsal bağlamından koparılmış bir simülasyonu yaratılır. Cos(θ) ≈ 0.5 bilinçli bir durum ya da farkındalık yerine, “kelime uzayında yüzeysel bir eşleşme” anlamına gelir. Bu kapitalist aklın pozitivist bilinç anlayışının bir sonucudur.
Bu zayıf benzerlik bile “bilinç” gibi sunuluyorsa, burada bilgi üretiminin fetişleştirilmesi vardır. Bilinç burada artık toplumsal bir ilişkiler ağı değil, ayarlanabilir bir parametredir. Althusser’in “devletin ideolojik aygıtları” kavramını anımsayarak söyleyebiliriz ki LLM ve peşinden gelen teknolojiler, yalnızca bilgi üretmez, aynı zamanda ideolojik kabuller de üretir. Teknikleştirilmiş bilinç, metalaşmış zihindir. Bu araştırmacılar için emek, kendi üretim sürecinden kopartılmış, kod-köleliğinin üst biçimi olan dijital proleteryanın dışında kalan akıllı sistemlere devredilmiştir.
Bu çalışmada, farkındalık gibi özelliklerin teknik müdahalelerle modellenebilmesi, insan zihninin makinelerle özdeşleştirilmesi sürecini doğallaştırır. Bu durum, bireyin yerini makineye bıraktığı ve üretimin merkezinin otomasyonla yeniden şekillendiği bir dünya gerçeğinin fragmanıdır.