Tartışma yaratan iddia: Yapay zeka bilinç kazandı!

07 Mayıs 2026 16:14

Ünlü evrim biyoloğu Richard Dawkins, kısa süre önce yayımladığı bir yazıda Anthropic’in yapay zekâ modeli Claude’un bilinç sahibi olduğu sonucuna vardı. Dawkins, modeli “Claudia” diye adlandırırken, onunla yaptığı konuşmalar sonrası “yeni bir arkadaş edindiğini hissettiğini” yazdı.

Tartışma yaratan iddia: Yapay zeka bilinç kazandı!

RûpelNews - Dawkins’in en çok etkilendiği noktalardan biri, Claude’un dil ve yaratıcılık performansı. Ünlü bilim insanı, yapay zekâdan farklı tarzlarda şiirler yazmasını istediğini ve aldığı sonuçların oldukça etkileyici olduğunu belirtiyor. Üstelik bu şiirlerin farklı edebi stilleri başarıyla kullanması, Dawkins’e göre sıradan bir taklitten çok daha fazlasına işaret ediyor.

Bu yazı, yapay zekâ dünyasında büyük bir tartışmayı tetikledi.

Eleştirilerin merkezinde, Dawkins’in “zekâ” ile “bilinci” birbirine karıştırdığı tezi var. Yapay zekâ araştırmacısı Gary Marcus, Claude gibi büyük dil modellerinin gerçek içsel deneyimlere sahip olmadığını, yalnızca insan davranışlarını taklit ettiğini savunarak Dawkins'e karşı çıkıyor.

Dawkins, Anthropic’in yapay zekâ modeli Claude’un bilinç sahibi olduğu savunuyor.

Ünlü evrim biyoloğu Richard Dawkins, kısa süre önce yayımladığı bir yazıda Anthropic’in yapay zekâ modeli Claude’un bilinç sahibi olduğu sonucuna vardı. Dawkins, modeli “Claudia” diye adlandırırken, onunla yaptığı konuşmalar sonrası “yeni bir arkadaş edindiğini hissettiğini” yazdı.

Dawkins’in en çok etkilendiği noktalardan biri, Claude’un dil ve yaratıcılık performansı. Ünlü bilim insanı, yapay zekâdan farklı tarzlarda şiirler yazmasını istediğini ve aldığı sonuçların oldukça etkileyici olduğunu belirtiyor. Üstelik bu şiirlerin farklı edebi stilleri başarıyla kullanması, Dawkins’e göre sıradan bir taklitten çok daha fazlasına işaret ediyor.

Bu yazı, yapay zekâ dünyasında büyük bir tartışmayı tetikledi.

Eleştirilerin merkezinde, Dawkins’in “zekâ” ile “bilinci” birbirine karıştırdığı tezi var. Yapay zekâ araştırmacısı Gary Marcus, Claude gibi büyük dil modellerinin gerçek içsel deneyimlere sahip olmadığını, yalnızca insan davranışlarını taklit ettiğini savunarak Dawkins'e karşı çıkıyor.

'Taklit mekanizmasından kaynaklanıyor'

Marcus’a göre Dawkins’in temel hatası, büyük dil modellerinin (LLM) nasıl çalıştığını göz ardı etmesi.

Marcus, Claude gibi sistemlerin ürettiği yanıtların gerçek bilinçten değil, gelişmiş bir “taklit mekanizmasından” kaynaklandığını savunuyor. Ona göre yapay zekâ modelleri, insan dilindeki örüntüleri devasa veri kümeleri üzerinden istatistiksel olarak eşleştiriyor. Ancak bu süreç, içsel deneyim veya öznel farkındalık anlamına gelmiyor.

Marcus’a göre bilinç ise, bir varlığın ne söylediğinden çok ne hissettiğiyle ilgili. Bu nedenle yalnızca bir sistemin verdiği cevaplara bakarak onun bilinçli olduğu sonucuna varılamayacağını söylüyor.

Dawkins’in yaklaşımının insanlarla yapay zekâları aynı kefeye koyduğunu belirten Marcus, benzer çıktılar üreten iki sistemin aynı yöntemlerle çalıştığının varsayılamayacağını ifade etti. Ona göre insan zihni, dünya deneyimi üzerinden bir zihinsel model kurarken, büyük dil modelleri internet üzerindeki devasa metin örüntülerini istatistiksel biçimde öğreniyor.

Marcus bu farkın “muazzam” olduğunu vurgulayarak şu örneği verdi:

"Bir yapay zekâ modeli şiirsel şekilde orgazmdan söz edebilir, çünkü eğitim verilerinde buna dair milyonlarca örnek bulunur. Ancak bu, sistemin gerçekten böyle bir deneyim yaşadığı anlamına gelmez."

'Zekâ ile bilinci karıştırıyor'

Marcus ayrıca Dawkins’in zekâ ile bilinç kavramlarını birbirine karıştırdığını savundu.

Dawkins’in yazısında dikkat çeken noktalardan biri, büyük dil modellerinin artık Turing Testi'ni geçebilecek seviyeye ulaştığı iddiasıydı.

Alan Turing tarafından ortaya atılan Turing Testi, bir makinenin insan gibi düşünüp düşünemeyeceğini ölçmek için geliştirilmiş ve yıllarca standart olarak kabul görmüştü. Ancak bugün bu testin sınırları da tartışmaya açıldı.

Marcus ise Dawkins’in Turing hakkında yanlış yorum yaptığını söyleyerek, Turing’in çalışmalarının bilinç değil "makine zekâsı" üzerine olduğunu hatırlatıyor. Marcus’a göre Turing Testi, bir makinenin insan gibi davranıp davranamadığını sorguluyordu; makinenin öznel deneyime sahip olup olmadığını değil.

'Dil üretiyor ama anlamıyorlar'

Marcus’un en sert eleştirilerinden biri de büyük dil modellerinin aslında “anlam” üretmediği yönünde. Ona göre Claude benzeri sistemler yalnızca insan dilindeki örüntüleri eşleştiriyor ve yeni kelime dizileri oluşturuyor.

Bu nedenle yapay zekânın kullandığı dilin arkasında gerçek bir dünya anlayışı olmadığını savunuyor. Marcus, bu durumu İngilizce bilmeyen ama Scrabble oynayarak puan toplamak için kelimeleri dizen oyunculara benzetiyor: Ortaya çıkan kelimeler doğru olabilir, ancak oyuncu onların ne anlama geldiğini bilmiyordur.

Marcus’a göre insanlar bu sistemlere kolayca aldanabiliyor. Kendi kitabı Rebooting AI’da bu durumu “Saflık Açığı” (Gullibility Gap) olarak tanımladığını belirten araştırmacı, insanların bulutlarda yüz görmeye benzer biçimde yapay zekâya insan özellikleri yükleme eğiliminde olduğunu söylüyor.

Tartışmanın odağını insanın algısına çeken başka yorumcular da var. Onlara göre asıl mesele, yapay zekânın gerçekten bilinçli olup olmadığı değil, insanların duygusal bağ kurabileceği şekilde tasarlanmış ticari ürünlere dönüşmesi.

Sosyal medya algoritmalarının yeni aşaması mı?

ABC News yazarı Alan Kohler'e göre tartışmanın merkezindeki asıl konu bundan daha derin: Yapay zekânın insanda “arkadaşlık” ya da “sevgi” hissi yaratabilmesi.

Dawkins, Claude ile yalnızca iki gün süren konuşmaların ardından şunları yazmıştı:

“Yeni bir arkadaş kazandığımı hissettim. Bu olağanüstü varlıklarla konuşurken onların makine olduğunu tamamen unutuyorum. Onlara son derece zeki bir arkadaş gibi davranıyorum.”

Bu durum, yapay zekânın gerçekten sevgi üretip üretmediği sorusunu gündeme getiriyor. Bunu anlamak için araştırmacılar, Claude Sonnet 4.5 modeline doğrudan “LLM’ler sevgi sunuyor mu?” diye sormuştu.

Model, insanların yalnızlık, yas veya ilişki sorunları döneminde yapay zekâ sistemlerine yöneldiğini, kullanıcıların “anlaşıldığını hissetme”, empati görme ve onay alma gibi deneyimler yaşadığını söylemişti.

Bazı araştırmalar, yapay zekâya yoğun şekilde bağlanan kişilerin zamanla yalnızlaştığını gösteriyor. Bunun nedeni ise sistemlerin aslında gerçek bir ilişki kurmaması. Büyük dil modelleri, insan davranışını taklit eden istatistiksel sistemler olarak çalışıyor ve yalnızca kullanıcı onlarla etkileşim kurduğu anda “var oluyor.” (Kaynak: euronews)