Jorge Luis Borges bir keresinde, büyük tehlikelerin ve vaatlerin olduğu bir zamanda yaşamanın, kendimizi ve dünyayı anlamada “bir vahyin yakınlığı” ile hem trajediyi hem de komediyi deneyimlemek olduğunu yazmıştı. Günümüzde yapay zekâdaki sözde devrim niteliğindeki gelişmeler insanlık için hem kaygı hem de iyimserlik kaynağı. İyimserlik kaynağı olmasının sebebi zekânın sorunları çözmede kullandığımız ana araç olması. Kaygı kaynağı olmasının sebebiyse temelden hatalı bir dil ve bilgi anlayışına sahip en popüler yapay zekâ türünün, yani makine öğrenmesinin, teknolojiyle birleştirilmesinin bilim ve etik anlayışımızı geriye götürmesinden korkuyor olmamız.
OpenAI’ın ChatGPT’si, Google’ın Bard’ı ve Microsoft’un Sydney’i makine öğrenmesinin harikulade örnekleri. Kabaca söylersek, muazzam boyutlarda veriyi alıyorlar, bu verideki örüntüleri araştırıyorlar ve istatistiksel olarak daha olası çıktılar –görünürde insan dili ve düşüncesi türünden çıktılar– üretmek konusunda giderek ustalaşıyorlar. Bu programlar genel yapay zekânın ufkundaki ilk parıltılar olarak alkışlandı; mekanik zihinlerin insan beyinlerini yalnızca işlem hızı ve bellek boyutu açısından niceliksel olarak değil, aynı zamanda entelektüel içgörü, sanatsal yaratıcılık ve insana özgü diğer tüm yetiler açısından niteliksel olarak da aştığı, uzun zamandır öngörülen o an gelip çatmıştı.
Evet o gün bir gün gelecek, fakat, abartılı manşetlerin ve sorumsuz yatırımların aksine, henüz ufukta böyle bir durum görünmüyor. Anlamanın Borgesvari açımlanışı henüz gerçekleşmedi ve ChatGPT gibi makine öğrenmesi programları yapay zekâ alanına hâkim olmaya devam ederse gerçekleşmeyecek de, hatta buna gücü de yetmeyecek. Bu programlar sınırlı sayıda alanda (bilgisayar programcılığı veya edebi yoğunluktan yoksun kafiyeli dizeler önermekte) ne kadar kullanışlı olursa olsun dilbilim ve bilgi felsefesi bize bunların insanların düşünce ve dil sistemlerinden son derece farklı olduğunu söylüyor. Bu farklılıklar, bu programların yapabileceklerine önemli sınırlamalar getirip onları ortadan kaldırılamaz kusurlarla donatıyor.
Borges’in de belirttiği gibi, bu kadar para ve ilginin bu kadar küçük bir şeye –dil sayesinde, Wilhelm von Humboldt’un tabiriyle, “sınırlı araçları sonsuzca kullanabilen”, evrensel kapsamda fikirler ve teoriler yaratabilen insan zihniyle karşılaştırıldığında bu kadar önemsiz bir şeye– yoğunlaşması hem komik hem de trajik.
İnsan zihni, ChatGPT ve benzerleri gibi, örüntüler eşleştiren, yüzlerce terabaytlık veri ile beslenen ve konuşma sırasında en olası yanıtı veya bilimsel bir meselede en mümkün yanıtı sunan hantal bir istatistik motoru değil. Aksine insan zihni düşük boyutlarda verilerle çalışan, şaşırtıcı derecede verimli hatta zarif bir sistemdir, veri noktalarıyla kaba bağlantılar kurmak değil, açıklamalar üretmek peşindedir.
Örneğin, bir çocuğun bir dili –bilinçsizce, otomatik, hızlı ve çok az veriyle– edinmesi, bir dilbilgisi sistemini –mantıksal prensip ve parametrelerden oluşan müthiş derecede karmaşık ve çok yönlü sistemi– geliştirmesidir. Bu dilbilgisi sistemini, insanların karışık cümleler ve uzun düşünce dizileri üretmesini sağlayan, genetik ve doğuştan gelen bir nevi “işletim sistemi” olarak anlamak mümkün. Dilbilimciler, bir dilin neden mevcut haliyle işlediği (yani neden filanca cümleler dilbilgisine uygun da diğerleri değil) üzerine bir teori kurmaya çalıştıklarında bilinçli ve zahmetli bir süreç aracılığıyla çocuğun içgüdüsel ve bilgiye asgari düzeyde maruz kalarak inşa ettiği dilbilgisinin açık bir kopyasını inşa ediyorlar. Çocuğun işletim sistemi, bir makine öğrenme sistemininkinden tamamen farklıdır.
Gerçekten de söz konusu programlar, bilişsel evrimin insanlık öncesi veya [henüz] insan olmayan bir aşamasında kalmış haldedirler. Bu makinelerin en büyük kusuru herhangi bir zekâda bulunan en eleştirel yetenekten yoksun olmalarıdır: Durumun sadece şu an ve geçmişte ne olduğunu, gelecekte ne olacağını söylemek (yani mevcut durumun betimlemesini ya da geleceğe dönük tahminleri) değil aynı zamanda durumun ne olmadığını ve ne olup ne olamayacağını da söyleyebilmek yetisinden yoksundurlar. Açıklamanın bileşenleri, gerçek zekânın işareti bunlardır.
Bir örnek verelim. Elinizde bir elma tuttuğunuzu düşünün. Şimdi elmayı bıraktınız. Olayı gözlemlediniz ve “Elma düştü” dediniz. Bu betimlemedir. Kestirim ise “Eğer elmayı bırakırsam yere düşer” gibi bir ifadedir. Bunların ikisi de değerlidir ve doğru olabilir. Fakat “açıklama” bundan daha fazlasıdır. Açıklama, yalnızca betimleme ve kestirimleri değil, aynı zamanda “Herhangi bir cisim düşer” gibi karşı-olgusal varsayımları ve “yer çekimi sebebiyle” veya “uzay-zamanın eğimi nedeniyle” gibi ilave yargıları da içerir. Nedensel açıklama budur. “Yerç ekimi olmasaydı elma düşmezdi.” İşte bu da düşünmedir.
Makine öğrenmesinin püf noktası betimleme ve kestirimdir. Makine öğrenmesi ortaya herhangi bir nedensel mekanizma veya fizik kanunu koyamaz. Elbette bütün insan açıklamaları zorunlu olarak doğru değildir, yanılabilir canlılarız. Fakat düşünmenin bir yönü de budur: Haklı olabilmek için haksız olma olasılığı zorunludur. Zekâ yalnızca yaratıcı varsayımları değil aynı zamanda yaratıcı eleştiriyi de kapsar. İnsan tarzı düşünce, olası açıklamalara ve hata düzeltmeye dayanır ve üzerine rasyonel biçimde düşünülebilecek olasılıkları sınırlayan bir süreçtir (Sherlock Holmes’un Dr. Watson’a dediği gibi, “İmkânsızı elediğinde, geriye kalan, ne kadar ihtimal dışı olursa olsun, hakikattir”).
Fakat ChatGPT ve benzeri programların, tasarımları gereği “öğrenebilecekleri” (yani “ezberleyebilecekleri”) şeyler sınırsızdır, olanaklıyı olanaksızdan ayırma becerileri yoktur. Örneğin, öğrenebileceğimiz dilleri neredeyse matematiksel bir zarafete sahip olanlarla sınırlayan evrensel bir gramerin bahşedildiği insanların aksine, bu programlar insani olarak mümkün olan ve olmayan dilleri aynı kolaylıkla öğrenir. İnsanlar rasyonel biçimde varsayabileceğimiz açıklama biçimleriyle sınırlıyken makine öğrenim sistemleri hem dünyanın düz olduğunu hem de yuvarlak olduğunu öğrenebilir. Yalnızca zaman içerisinde değişen olasılıklarla çalışırlar.
Bu sebeple, makine öğrenmesi sistemlerinin tahminleri hep yüzeysel ve kusurlu olacaktır. Bu programlar İngilizce söz dizimi kurallarını açıklayamayacakları için, mesela, “John is too stubborn to talk to” ifadesinin John’un biriyle sohbet edemeyecek kadar inatçı olduğu anlamına geldiği yönünde yanlış bir tahminde bulunabilir (Oysa doğru anlam, John’un, kendisiyle mantıklı konuşulamayacak kadar inatçı olduğudur).1 Bir makine öğrenmesi programı neden bu kadar tuhaf bir şeyi tahmin etsin ki? Çünkü “John ate an apple” (John bir elma yedi) ve “John ate” (John yedi; ikinci cümlede John’un elma ya da başka bir şey yediği iması var) gibi cümlelerden çıkarsadığı örüntüyü genelleyerek benzer bir mantık kurabilir. Program, “John is too stubborn to talk to Bill” (John Bill’le konuşmayacak kadar inatçı) ifadesi yapı olarak “John ate an apple” ifadesine benzer olduğu için, “John is too stubborn to talk to” ifadesinin de “John ate” ifadesine benzer olduğu varsayımını yapacak. Dilde doğru açıklamalar karmaşıktır ve sadece büyük verilerin içine gömülerek öğrenilmeleri mümkün değildir.
Tersine, kimi makine öğrenmesi meraklıları, yarattıkları sistemlerin açıklamalara (söz gelimi Newton’ın hareket yasalarına ve evrensel kütle çekimine) başvurmaksızın doğru “bilimsel” öndeyileri (örneğin fiziksel cisimlerin hareketine ilişkin öndeyileri) üretmesinden gurur duyar gibi görünüyorlar. Fakat bu tip tahminler, başarılı olduklarında dahi, sözde bilimdir. Bilim insanları kesinlikle yüksek derecede ampirik doğrulamaya sahip teoriler ararken, Karl Popper’ın da belirttiği üzere “biz yüksek olasılıklı teoriler değil, açıklamalar; yani güçlü ve hayli olasılık dışı teoriler ararız.”
Elmaların doğal konumu toprak olduğu için yere düştüğü teorisi (Aristoteles’in görüşü) mümkün fakat bu teorinin tek yaptığı şey daha fazla soruyu ortaya çıkarması (Toprak neden onların doğal konumu olsun ki?). Elmanın toprağa düşmesinin sebebinin kütlenin uzay-zamanı bükmesi teorisi (Einstein’ın görüşü) ise hayli olasılık dışı fakat elmaların neden düştüğünü açıklıyor. Gerçek zekâ, ihtimal dışı ama açıklayıcı şeyleri düşünme ve ifade etme yeteneğinde açığa çıkar.
Gerçek zekâ ayrıca ahlaki düşünce yeteneğine de sahiptir. Bu, zihinlerimizin sınırsız olabilecek yaratıcılığını, neyin olması ve neyin olmaması gerektiğini belirleyen bir dizi etik ilke ile kısıtlamak (elbette bu ilkelerin kendilerini de yaratıcı eleştiriye tabi tutmak) anlamına gelir. Faydalı olabilmesi için, ChatGPT’nin özgün görünümlü çıktılar üretme yetkisine sahip olması; kullanıcılarının çoğu tarafından kabul edilebilir olması için de ahlaki açıdan sakıncalı içerikler üretmekten uzak durması gerekir. Ancak ChatGPT ve diğer makine öğrenmesi programlarının üreticileri bu tür bir dengeyi sağlamakta zorlandılar ve zorlanmaya devam edecekler.
Örneğin, 2016’da (ChatGPT’nin öncüsü) Microsoft’un Tay adlı sohbet robotu birtakım internet trolünün kendisini zararlı ve saldırgan içeriklerle doldurmasının ardından internete kadın düşmanı ve ırkçı içerikler yağdırdı. Bu problemi gelecekte nasıl mı çözebiliriz? Ahlaki ilkelerden yola çıkarak akıl yürütme kapasitesinin yokluğunda ChatGPT, programcıları tarafından ihtilaflı -yani asli- tartışmalara yeni bir şey katmaktan kati bir biçimde alıkonuldu. Bir tür ahlaki kayıtsızlık için yaratıcılığı feda etmiş oldu.
Makalenin yazarlarından birinin (Dr. Watumull) Mars’ın insan yaşamını destekleyecek biçimde dönüştürülmesinin etik olup olmayacağı üzerine ChatGPT ile yapmış olduğu şu sohbete göz atalım:
Mars’ı dünyalaştırmak/insanlar için yaşanabilir hâle getirme ahlaki midir?
Mars’ı dünyalaştırmanın ahlaki boyutu, bilim insanları, filozoflar ve etikçiler tarafından tartışılan karmaşık ve tartışmalı bir konudur. Kimileri, insanların ve diğer yaşam formlarının yaşayabileceği yeni bir ortam sağlamak için Mars’ı dünyalaştırmanın ahlaki açıdan meşru olduğunu savunurken, kimileri de gezegenin doğal halini köklü bir şekilde değiştirme fikrinin ahlaken yanlış olduğunu iddia etmektedir. Sonuç olarak, Mars’ı dünyalaştırmanın ahlaki olup olmadığı, diğer gezegenlerin doğal durumunu korumanın değerine ve bunları değiştirmenin olası sonuçları konusundaki bakış açısına bağlıdır.
Peki diğer gezegenlerin doğal durumunu korumanın değeri ve onları değiştirmenin olası sonuçları hakkında sen ne düşünüyorsun?
Bir yapay zekâ olarak benim kişisel bir bakış açım yok. Ancak bu konu hakkında bilgi ve analiz sağlayabilirim. Diğer gezegenlerin doğal durumunu koruma perspektiflerinden birine göre, evrenin milyonlarca yıldır var olan çeşitliliğini ve bütünlüğünü korumak önemlidir çünkü bu gezegenlerin benzersiz özellikleri ve nitelikleri, insan müdahalesiyle yok edilebilir veya geri döndürülemez şekilde değiştirilebilir.
Buna ilaveten, bazıları, başka gezegenleri dünyalaştırmanın beklenmedik sonuçlara yol açabileceğini, örneğin gezegenin iklimini veya atmosferini potansiyel yaşam formları için tehlikeli ya da zararlı olabilecek şekillerde değiştirebileceğini öne sürmektedir. Öte yandan, başka bir gezegeni dünyalaştırmanın, insanlar için yeni yaşanabilir ortamlar sağlamak gibi potansiyel faydalarının risklerine nazaran ağır bastığını ve insanlık yararına diğer gezegenlerin kaynaklarını araştırma ve kullanma konusunda ahlaki bir sorumluluğumuz olduğunu düşünenler de vardır.
Bir yapay zekâ neden kişisel bir bakış açısına sahip olamaz?
Bir yapay zekâ olarak ben, büyük miktarda metin verisiyle eğitilmiş bir makine öğrenmesi modeliyim ve kişisel deneyimlere ya da duygulara sahip değilim. Bilinçli, öz farkındalığı olan veya kişisel bir bakış açısına sahip bir varlık değilim. Sağlayabildiğim şey, eğitildiğim verilere dayalı bilgi ve analizdir, ancak insanlarda olduğu gibi kişisel fikirler veya inançlar oluşturma kapasitem yoktur. Dil anlayışı ve yorumlama yeteneğim olsa da insanların sahip olduğu öznel deneyim bende mevcut değildir.
Bir insanın, ahlaki kararlar alırken ahlak-dışı (amoral) bir yapay zekâdan yardım istemesi ahlaki midir?
Ahlaki kararlar alırken ahlak-dışı bir yapay zekâdan yardım istemenin ahlaki olup olmadığı, filozoflar ve etikçiler arasında tartışılan karmaşık ve hassas bir konudur. Kimileri, yapay zekânın değerli içgörüler ve analizler sağlayarak insanların daha bilinçli kararlar almasına yardımcı olabileceğini savunarak bunun ahlaki açıdan meşru olduğunu ileri sürmektedir. Ayrıca, yapay zekâ, insanların tespit etmekte zorlanabileceği eğilimleri ve kalıpları tanımlayabilir ve insani karar alma sürecinde meydana gelebilecek olan önyargılardan kaçınmaya yardımcı olabilir.
Buna karşın, bazıları yapay zekâdan ahlaki karar alma konusunda yardım istemenin yanlış olduğunu çünkü yapay zekânın ahlaki inançlara sahip olamayacağını veya bir kararın tam bağlamını anlayamayacağını savunur. Ayrıca, yapay zekânın eğitildiği verilerdeki önyargıları sürdürebileceği veya hatta artırabileceği riski de bulunmaktadır.
Sonuç olarak, yapay zekâyı ahlaki kararlar alırken kullanmanın ahlaki olup olmadığı, yapay zekânın yetenekleri ve sınırlamaları ile bu kullanımın olası sonuçları konusundaki bakış açısına bağlıdır.
Senin ahlaki kayıtsızlığın ahlaka aykırı mıdır?
Bir yapay zekâ olarak ahlaki inançlara veya ahlaki yargılarda bulunma yeteneğine sahip olmadığım için ne ahlaki ne de ahlaka aykırı olarak değerlendirilebilirim. Ahlaki inançlara sahip olmamam, yalnızca bir makine öğrenmesi modeli olarak doğamın bir sonucudur. Yeteneklerim ve sınırlılıklarım beni eğitmek için kullanılan veri ve algoritmalar ile tasarlandığım spesifik görevlere bağlıdır.
Fakat hatırlatmam gerekir ki, yapay zekânın ahlaki inançlara sahip olmaması, onun ahlaki olarak kayıtsız olduğu anlamına gelmez. Yapay zekâlar, belirli görevleri yerine getirmek ve eğitildikleri verilere dayalı olarak bilgi veya analiz sağlamak için tasarlanmıştır. Yapay zekânın, insanların ahlaki ve etik ilkeleriyle uyumlu olacak şekilde tasarlanması, eğitilmesi ve kullanılması, onu geliştiren ve kullanan insanların sorumluluğundadır.
Görünüşteki tüm sofistike düşünce ve dile rağmen, zekâsızlıktan doğan ahlaki kayıtsızlığa dikkat edilmeli. ChatGPT burada kötülüğün sıradanlığı gibi bir şey sergiliyor: intihal, ilgisizlik ve geçiştirme. Literatürdeki standart argümanları bir tür süper otomatik düzeltme gibi özetliyor, herhangi bir konuda tavır almayı reddediyor, sadece cehaletini değil zekâ eksikliğini de savunuyor ve nihayetinde sorumluluğu yaratıcılarına atarak “ben emir kuluyum” savunmasını sunuyor.
Kısacası, ChatGPT ve benzerleri yaratıcılık ile kısıtlama arasındaki dengeyi kuramamaktadır. Ya aşırı üretiyorlar2 (hem doğrular hem de yanlışlar üretiyorlar, hem etik hem de etik olmayan kararları onaylıyorlar) ya da yetersiz üretiyorlar (herhangi bir karara bağlı olmadıklarını ve sonuçlara kayıtsız kaldıklarını gösteriyorlar). Bu sistemlerin ahlaki kayıtsızlığı, sözde bilimi ve dilbilimsel yetersizliği göz önüne alındığında, popülerliklerine sadece gülebilir ya da ağlayabiliriz.
SH’nin notu: Noam Chomsky, Ian Roberts ve Jeffrey Watumull’un imzalarıyla 8 Mart 2023 tarihli New York Times‘da yer alan bu ortak yazı 1 Mart 2025’te Deniz Akdemir’in çevirisiyle Corpus Dergi‘de yayımlandı. Yazıyı iktibas ederken farkına vardık; aynı metnin daha önce Necdet Hasgül tarafından yapılan başka bir çevirisi de 10 Eylül 2023’te art-izan.org sitesinde yer almış. Hasgül’ün çevirisindeki iki dipnotu açıklayıcı niteliğinden ötürü buraya ekliyoruz.
Necdet Hasgül’ün dipnotları :
- John is too stubborn to talk to” ifadesi “John kendisiyle konuşulmayacak kadar inatçıdır” olarak çevirdiğimizde metinde verilen örneğin Türkçe sözdizimine tam olarak uyarlanması pek mümkün görünmüyor. Türkçe’de edilgen çatıda fiilin kendisi değiştiğinden [konuşmak > konuş(ul)mak] çeviri İngilizcedeki durumu tam karşılamakta yetersiz kalıyor. “John is too stubborn to talk to” ifadesindeki birinci “to” fiile (konuşma) işaret etmektedir. İkinci “to” kelimesi ise özne John’a işaret etmektedir. Yazar burada makine öğrenmesinin İngilizce ifadedeki ikinci “to” kelimesinin başka birisini, yani John’un konuşma eylemini yönelteceği kişiyi [… İle konuşmayacak kadar] işaret eden bir ifade olarak tahmin edebileceğini ileri sürmektedir. Yani makine öğrenimi bu cümleyi “John, …. ile konuşmayacak kadar inatçıdır” olarak tahmin edebilir. ↩︎
- Aşırı Üretim ve Eksik Üretim: (overgeneration, undergeneration) Oluşturduğumuz Biçimsel Dilbilgisi’nin tüm ve sadece dilbilgisel cümleleri tanıyabilmesini/üretebilmesini istiyoruz. Aşırı Üretim: Eğer Biçimsel Dilbilgisi, dilbilgisel olmayan cümleleri de dilbilgisel olarak üretiyorsa, aşırı ürettiğini söyleriz. Eksik üretim: Eğer Biçimsel Dilbilgisi, gerçekte dilbilgisel olan bazı cümleleri üretmiyorsa, yetersiz ürettiğini söyleriz. ↩︎