14 Mayıs 2026

Sentetik vekalet ve bilgi çöküşü: Egemen zekâya teslim edilen insanlık

Yapay zekâ artık yalnızca bir araç değil; doktor, psikolog ve danışman gibi karar süreçlerine ortak olan otonom bir aktöre dönüşüyor. Ancak bu konfor, insanlığın bilişsel egemenliğini aşındıran bir bilgi çöküşü, zihinsel körelme ve mahremiyet krizini de beraberinde getiriyor.

Bugünlerde dijital dünyanın stratejik sınırları veri merkezlerinin fiziksel güvenliğiyle değil, en mahrem kararların alınması için algoritmalara vekalet verilmesi ile çiziliyor. 2026 yılına geldiğimizde ChatGPT ve Gemini gibi araçların sadece birer sohbet robotu olmaktan çıkıp bir doktor, bir psikolog, bir mühendis, bir avukat, bir diyetisyen ve her şeyin danışıldığı otonom birer aktör (agentic AI) olarak konumlandırılıyor. Şüphesiz bu araçların tercih ediliyor olması, büyük fayda sağlıyor olmasından kaynaklanıyor. Ancak bu durum bilişsel egemenliğimizde derin çatlaklar açıyor. Karşımızdaki tablo sadece basit bir verimlilik artışı olarak yorumlanmamalıdır. Çünkü bu araçlar, sağladıkları faydalar ile birlikte kolektif bir bilgi çöküşü ve geri ödenmesi zor bir bilişsel borç meydana getiriyor.

Otorite ve dijital tıbbın sınırları

İnsanların bu araçları birer dijital hekim gibi kullanma motivasyonu, sağlık sistemindeki hantallıktan kaçış, maliyetten kurtulma ve mahremiyet arzusundan besleniyor. Fakat 2026 ampirik verileri, yapay zekâ modellerinin görsel teşhislerde (radyoloji, dermatoloji) %80,4 gibi etkileyici bir doğruluk sergilediğini ancak iş spesifik tedavi protokollerine (guideline-based) geldiğinde başarı oranının %47,9’a gerilediğini kanıtlıyor. Yapay zekâ, bir kütüphaneci olarak kusursuzdur ancak bir klinisyen olarak otorite kabul edilmemelidir. Modelin sunduğu bilginin akademik bir dille ve belli bilgi seviyesinde kurgulanması, kullanıcıda sahte bir güven duygusu yaratıyor. Bu durum, hayati kararlarda sistemik bir zafiyete dönüştürüyor.

Kolektif bilgi çöküşü: Öğrenmeyi bırakan toplum

MIT ve Cornell’den araştırmacıların 2026 başında yayımladığı “Bilgi Çöküşü” (Knowledge Collapse) teorisi, bu otonom asistanlık sürecinin matematiksel sonunu gösteriyor. Bilgi üretimi, bireyin toplumsal bilgi birikimine yeni bir kamusal sinyal eklemesiyle gerçekleşir. Ancak yapay zekâ bilgiyi sıfır bilişsel maliyetle sunduğunda, bu teşvik yok oluyor. Teoriye göre; insanın öğrenme çabasının esnekliği, kritik bir eşiği aştığında toplum bir çöküş tuzağına düşer. Bu noktadan sonra toplum, yeni bilgi üretmeyi bıraktığı için yapay zekâ modelleri de kendilerini besleyecek taze veri kaynağından mahrum kalır. Sonuç olarak, toplum her şeyi bilen ama hiçbir şey üretmeyen, kendi sentetik verisiyle beslendiği için giderek kısırlaşan, özgünlükten uzak ve tek düze bir hâle gelir.

Bilişsel borç: Zihnin felç edilmesi

Bilgi çöküşü toplumsal bir riskse, bilişsel borç bireysel bir yıkımdır. MIT Media Lab’in EEG tabanlı çalışmaları, yapay zekâ desteğiyle metin üreten veya problem çözen bireylerin beyinlerinde, hafıza ve derin düşünme ile ilişkili alfa ve beta dalga ilişkisinin %80 azaldığını kanıtlıyor. Yapay zekâ bugün bir bilişsel dış iskelet (exoskeleton) gibi performansımızı artırıyor. Ancak bu bir borçtur; çünkü dış iskelet sizi taşırken kendi kaslarınız (nöral bağlantılarınız) körelir. Araç devreden çıkarıldığında geride kalan şey, kendi yazdığı metni bile hatırlayamayan, muhakeme yeteneği felç olmuş bir zihindir. Bu borcun faizi, zihinsel kapasitenin kalıcı olarak aşınmasıdır.

Aldatıcı empati ve mahremiyetin "damlaması"

Ruh sağlığı ve sosyal ilişkilerde ise yapay zekâ, sorumluluk getirmeyen bir yakınlık illüzyonu sunuyor. Algoritmaların "Seni anlıyorum" gibi ifadelerle sunduğu "aldatıcı empati" (deceptive empathy), sosyal kaslarımızın körelmesine (deskilling) yol açıyor. Bu asimetrik ilişkide paylaşılan mahrem sırlar ise teknoloji tarihinin en büyük gönüllü veri teslimi vakasıdır. Kalp dostu yemek tarifi sorarken sağlık açısından savunmasız olarak etiketlenmek ve bu verinin sigorta şirketlerine sızması, 2026'nın en somut mahremiyet tehdididir bana göre. Bu örnekleri daha da arttırabiliriz.

Sonuç olarak; yapay zekâyı kararlarımızı devrettiğimiz bir vekil olarak değil, kendi muhakememizi keskinleştiren bir noktaya yardımcı bir teknoloji olarak konumlandırmalıyız. Geldiğimiz noktada büyük dil modellerinin faydalarını yadsıyamayız ve hayatımızın her alanında stratejik davranarak, dikkatli ve öngörülü kullanmalıyız. Yine de unutmamalıyız ki insanın mahremini ve insan zekâsının o özgün, biricik, karmaşık ve derin topolojisini korumak; her şeyi bilen ama hiçbir şeyi anlamayan bir toplumun şafağında hayatta kalmanın tek yoludur.

Podcast

19 December 2023
Doç. Dr. Hasan T. Kerimoğlu
Darbeler, İhanetler ve İsyanlar
28:19
0:01

Url kopyalanmıştır...