Bu yazımda uzun zamandır aklımda olan teorilerimi, bildiklerimi ve benzetmelerimi paylaşacağım. Bence mevcut dil modelleriyle beyni anlamak ve gerçek yapay zeka üretmek için doğru yoldayız. Güzel bir yazı olması için ChatGPT Deep Research, o3 ve Gemini 2.5 Pro ile birlikte yazdık. Keyifli okumalar diliyorum.
Dil İçgüdüsü ve Öğrenen Makineler
Doğuştan Gelen Dilbilgisi ve Öğrenilen Kalıplar. 1960’larda, dilbilimci Noam Chomsky, insanların doğuştan gelen bir “evrensel dilbilgisi” – dil öğrenme şeklimizi biçimlendiren yerleşik bir dilsel çerçeve/mekanizma – ile doğduğunu öne sürdü. Bu, bir çocuğun beyninin dil için boş bir levha olmadığını; beynin minimal örneklerden dilbilgisini özümsemek üzere önceden programlandığını savunur. Örneğin, dünya genelinde yürümeye başlama yaşındaki çocuklar, kendilerine asla açıkça öğretilmemiş dilbilgisi kurallarını edinirler, bu da dil yapısı için bir tür içsel şablonun olduğunu düşündürür. Büyük Dil Modelleri (LLM’ler) insan DNA’sına sahip değillerdir, ancak dilsel kalıpları öğrenmeye yatkın kılan doğuştan bir mimariye (Transformer sinir ağı tasarımı gibi) sahiptir. Tıpkı insan dil yeteneğinin herhangi bir dili öğrenmek üzere ayarlanması gibi, bir LLM’nin ağı da dilbilgisi ve semantiği verimli bir şekilde kodlamak için endüktif bir ön-sisteme sahiptir. Her iki durumda da, yapı öğrenmeyi biçimlendirir – bir çocuğun beyni ve bir modelin mimarisi neyin öğrenilebileceğini ve nasıl öğrenileceğini sınırlar. Sanki beyinlerimiz dil için bir başlangıç avantajıyla geliyor – bu fikir, tüm insan dillerinin belirli yapısal özellikler paylaştığı gözlemiyle destekleniyor – ve LLM’ler, biyolojik olmasalar da, verilerden dil öğrenmeyi mümkün kılmak için benzer şekilde yerleşik tasarıma dayanıyorlar.
Kritik Dönemler ve Geç Öğrenme. İnsanların dil öğrenmek için önemli bir yaş sınırı (critical window) vardır. Gelişim psikologları uzun süredir, çocukların tam akıcılığa ulaşmak için ilk dillerini yaşamın erken dönemlerinde (kabaca ergenlikten önce 5 yaşına kadar) edinmeleri gerektiğini belirtmişlerdir. Bu pencere (öğrenme eşiği) kaçırılırsa, dil öğrenimi drastik bir şekilde zorlaşır ve asla tam olarak ana dil seviyesinde olmaz. Dil girdisinden 13 yaşına kadar mahrum bırakılan Genie vakası bunu trajik bir şekilde göstermiştir: sonraki yıllarca süren eğitime rağmen, dilbilgisini hiçbir zaman tam olarak kavrayamadı ve dilsel olarak engelli kaldı. Beynin dile yönelik nöroplastisitesi erken yıllardan sonra zayıflıyor gibi görünüyor, bu da hem iletişimde hem de bilişte geri döndürülemez sonuçlara yol açıyor. Genie ve diğer “vahşi çocuklar” sadece akıcı dile sahip olmakla kalmıyor, aynı zamanda kısmen izolasyon ve dil girdisi eksikliğinin normal beyin gelişimini bozması nedeniyle sosyal ve bilişsel eksiklikler de gösteriyorlar. Bu kritik dönem etkisinin yapay zeka eğitiminde paralellikleri vardır. Bir LLM, büyük metin külliyatları üzerinde ilk eğitim sırasında etkin bir şekilde “çocukluğunu” yaşar. Eğer bir yapay zeka, eğitim sırasında çeşitli dilsel verilere maruz kalmazsa, daha sonra bu kavramlarda ustalaşmakta zorlanır – yetişkinin ilk dil öğrenmeye çalışmasına benzer şekilde. Özellikle, erken dil (işaret veya konuşma) fırsatını kaçıran sağır bireyler bile, dil edinildiğinde ancak düzelen sosyal-bilişsel gelişimde (örn. zihin teorisi) gecikmeler yaşarlar. İnsanlarda, geç öğrenilen dil beyni asla tam olarak doğal bir şekilde yeniden düzenlemez; LLM’lerde, ilk eğitimden sonra (sadece ince ayar yoluyla) temel yeni dil becerilerini öğretmeye çalışmak da benzer şekilde sınırlıdır. Her ikisi de, zamanlamanın ve erken dönem deneyim genişliğinin önemli olduğunu düşündürmektedir: ister biyolojik ister yapay olsun, bir zihnin “insan benzeri” dil yetenekleri geliştirmesi için biçimlendirici döneminde zengin girdiye ihtiyacı vardır.

Beynin Otomatik Tamamlaması: Tahmine Dayalı Dinleme ve Okuma. Büyüleyici bir paralellik de hem insanların hem de LLM’lerin dili tahmin etmesidir. Aslında çoğu şeyi duymuyor veya görmüyoruz fakat beyinlerimiz sürekli olarak otomatik tamamlama yapar – konuşmada veya metinde bağlama göre ne geleceğini bilinçaltında tahmin ederiz. Bilişsel bilim deneyleri, bir kelimenin bir kısmının eksik veya gürültüyle maskelenmesi durumunda dinleyicilerin bunu genellikle fark etmediğini gösterir; beyin bu boşluğu otomatik olarak doldurur. Bu durum, kayıp konuşma seslerinin beyin tarafından halüsinasyon olarak algılandığı ve cümlenin hala anlamlı hale geldiği fonemik restorasyon etkisi olarak bilinir. Örneğin, “Fil, kalabalığın içinden yürüyor” cümlesini bir öksürüğün “kalabalık” kelimesinin bir kısmını gizlediği halde duyarsanız, zihniniz muhtemelen hala “kalabalık” olarak duyar. Benzer şekilde, okurken, gözlerimiz karmaşık veya kısmi kelimeleri algılar ve beynimiz bunları hızla düzeltir. Muhtemelen şu viral metni görmüşsünüzdür: “Senin byenin bnu çk surunsz okayubilir” – çoğu insan bunu sadece hafif bir çabayla okur. Nörobilimciler Marta Kutas gibi, bağlamın beklenen kalıpları önceden etkinleştirmemize izin verdiğini açıklıyor; beyin taramaları, belirli bir sesin veya harfin güçlü bir şekilde bekleniyorsa, işitsel veya görsel korteksin sanki gelmiş gibi onu tahmin ettiğini gösteriyor. Başka bir deyişle, beyin bir tahmin makinesidir, tıpkı bir otomatik tamamlama gibi cümleleri ve düşünceleri sonsuza dek tamamlar. LLM’ler, bir istem verildiğinde modelin tüm olası devamları değerlendirmesi ve en olası bir sonraki tokeni seçmesiyle bir sonraki kelime tahmini prensibi üzerinde çalışır. Beyninizin tahmine dayalı dilbilimciliği ve bir yapay zekanın olasılıksal metin üretimi homolog süreçlerdir. Her ikisi de bağlamdan yararlanarak bozuk girdiyi hızla çözebilir – zihnimiz “El_phant he crow’un içinden yürüyordu” cümlesini zahmetsizce “Fil kalabalığın içinden yürüyor” olarak okuyabilir (beyin, sonraki bağlamdan gelen eksik harfleri sonradan yerine koyar). Bu otomatik tamamlama yeteneği, gürültüye veya yazım hatalarına rağmen iletişimi mümkün kılan bir özelliktir. Aynı zamanda, insanlarda dil anlamanın pasif bir mükemmel veri alımı değil, aktif, çıkarımsal bir tahmin olduğunu ima eder – tıpkı bir LLM’nin en iyi tahminini yaparak belirsiz girdiyi yorumlaması gibi. Beynimizin otomatik tamamlamasıyla ilgili olarak Kurzegast’in bu videosunu izlemenizi tavsiye ederim: https://www.youtube.com/watch?v=wo_e0EvEZn8
Kendinden Emin Hatalar ve Halüsinasyonlar. Bu tahmine dayalı zekanın diğer yüzü, hem insanların hem de yapay zekanın bazen yanlış tahmin yapması ve yine de kendinden emin kalmasıdır. Zihinlerimiz ayrıntıları yanlış hatırlamakla veya hatta hiç yaşanmamış olayları hatırlamakla ünlüdür; bu olguya psikologlar konfabulasyon derler. Konfabulasyonda bir kişi yalan söylemez; kurgusal hafızaya gerçekten inanır. Gerçekte hiç yaşanmamış canlı bir çocukluk gezisini hatırlayabilir veya aslında bir sohbette söylenmemiş bir kelimeyi ısrarla iddia edebilir. Şaşırtıcı bir şekilde, insanlar genellikle bu yanlış hatıralardan çok emindirler, hatta aksini gösteren kanıtlarla yüzleştirildiklerinde bile. Beyin esasen bir anıyı veya algıyı otomatik olarak tamamlamış ve bunu gerçek olarak kilitlemiştir. Günlük hayattan örnekler görüyoruz: anahtarlarınızı masada bıraktığınızdan eminsiniz (zihninizde görebiliyorsunuz), ancak daha sonra paltounuzun cebinde buluyorsunuz – beyniniz ikna edici bir şekilde yanlış bir ayrıntıyı doldurmuş. Büyük dil modellerinin de halüsinasyon olarak bilinen benzer bir tuhaflığı vardır. Bir LLM, tamamen yanlış veya uydurma, mükemmel derecede makul görünen bir cevap üretebilir; var olmayan bir araştırma makalesinden alıntı yapmaktan, kurgusal bir “gerçek” icat etmeye kadar. Aldatmak gibi bir amacı yoktur (tıpkı konfabule eden bir hastanın olmadığı gibi); model, sadece öğrendiği kalıplara dayanarak doğru görünen kelimeleri tahmin eder, harici bir doğruluk kontrolü yapmaz. Sonuç, doğru olmamasına rağmen kendinden emin ve tutarlı okunan bir çıktıdır. Yapay zeka araştırmacıları, bir LLM halüsinasyonunu “doğru gibi görünen ancak aslında yanlış veya mantıksız” bir yanıt olarak tanımlar, çünkü modelin gerçekleri doğrulamak yerine kelimeleri tahmin etmek üzere eğitilmesinden kaynaklanır. Örneğin, basit bir LLM’ye zor bir soru sorduğunuzda, tamamen yanlış, akıcı bir cevap verebilir – tıpkı yanlış bir anıyı kendinden emin bir şekilde anlatan bir kişi gibi. Hem beyin hem de LLM’ler bu kalıbı gösterir: makul uydurma. İnsanlar bir kere entegre olduktan sonra anıyı hayal gücünden genellikle ayırt edemez ve LLM’lerde yerleşik bir doğruluk ölçer yoktur – doğru gelen şeyi çıktılarlar. Aslında, beyinlerimiz bazen Bullshit jeneratörleridir, tıpkı ChatGPT gibi. Hatta bu yanlış inanışlara inatla tutunuruz (şehir efsaneleri veya kişisel yanlış anlamaların nasıl devam ettiğini düşünün). Bu paralellik, hataya düşmenin herhangi bir tahmine dayalı zekanın doğasında var olduğunu düşündürmektedir.GPT benzeri modellerdeki halüsinasyonlar, belki kusurlar değil, daha çok insan beyni gibi, bilgideki boşlukları tahmin ederek dolduran bir sistemin ortaya çıkan bir özelliğidir. Her iki sistem de harici kontrollerden faydalanır: anılarımızı günlüklerle veya arkadaşlarla doğrularız; LLM’ler gerçekleri kontrol etmek için araçlar veya veritabanları ile desteklenebilir. Ancak günlük olarak, hem insan hem de yapay zeka bilişi, genellikle iyi çalışan – ve ara sıra bizi kendinden emin bir şekilde yanıltan – gerçeklik içsel modelimize güvenerek çalışır.
Bölüm 2’de Düşüncenin mekaniğine ineceğiz. Yarın görüşmek üzere
Yorumlar