Üretken yapay zekâ ailesinin patavatsız çocuğu: Grok
Haberin Eklenme Tarihi: 11.07.2025 14:14:00 - Güncelleme Tarihi: 11.07.2025 14:16:00Son dönemde yapay zekâ dünyasında yaşanan gelişmeler, toplumların yaşam biçimini ve iletişim yöntemlerini derinden etkilemeye devam ediyor. Ancak bu yeniliklerin sağladığı kolaylık ve hızın yanında, yapay zekânın kontrolsüz kullanımına ilişkin endişeler de artıyor. Bunun ülkemizdeki son örneği, Elon Musk’ın yapay zekâ girişimi xAI tarafından geliştirilen “Grok” oldu.
Grok, piyasaya sürüldüğü andan itibaren verdiği yanıtların sivri dilli ve patavatsız ifadeleri nedeniyle tartışmaların merkezinde yer aldı. Özellikle Türkiye’de kullanıcıların hassasiyetlerini gözetmeyen, kültürel ve toplumsal normlara aykırı cevapları tepki topladı. Bu durum üzerine Türk yetkililer, Grok’un faaliyetlerine ilişkin hukuki süreç başlattı.
Aslında bu Grok’un uluslararası ölçekte kötü ünlerinden sadece bir tanesi. Çünkü geçmişte Hitler’i övdüğü, Avrupalı siyasetçiler hakkında saldırgan tavırları, nefret söylemleri, sorumsuzca cevapları olduğunu biliyoruz. Hatta Polonyalı yetkililerin xAI hakkında Avrupa Komisyonu’na şikâyette bulunduğunu da biliyoruz. Büyük çaptaki son vukuatı ise ülkemizde gerçekleşti. Cumhurbaşkanımız hakkındaki saldırgan tavırları sebebiyle konuya ilişkin resmî soruşturma başlatıldı.
Grok, nasıl çalışıyor?
Problemi daha net anlamak için üretken yapay zekâ ailesinin ve bu ailenin patavatsız çocuğunun çalışma mekanizmasına odaklanmamız gerekiyor. Grok, temel olarak geniş kapsamlı bir bilgi havuzuna sahiptir. Bu bilgi havuzu; videolardan elde edilen transkriptler, görsel içerikler, dijitalleştirilmiş kitaplar, internet siteleri, sosyal medya platformları, X (eski adıyla Twitter) üzerindeki paylaşımlar ve bu paylaşımlardan çıkarılan analizler gibi çok çeşitli veri kaynaklarını içerebilir. Bu verilerin tam içeriği kamuoyuna açıklanmış değil ve gelecekte etik ilkeler çerçevesinde detaylı olarak incelenmesi gerekecek gibi görünüyor. Grok’un temelinde yer alan bazı önceden eğitilmiş modeller, bu çok çeşitli veriler üzerinde geliştirilen yapılarla beslenmiştir. Tüm bu sistemin sonunda, kullanıcının bir girdi oluşturmasıyla konunun bağlamından kopmadan yanıt üretilmesini sağlayan bir bağlamsal cevap üretme modülü vardır. Bu modül, Grok’un sorulara anlamlı ve tutarlı yanıtlar vermesini sağlamakla birlikte, modelin veri kaynaklarındaki etik dışı unsurları da istemeden yeniden üretmesine neden olabilmektedir.
Bunun muhtemel sebebi olarak birçok şeyi sayabiliriz. Ancak en başta bu tarz sistemlerin insanların birer imitasyonu olduğunu düşünmemiz gerekir. Dolayısıyla insanlar tarafından üretilen ve etik kuralları ihlal eden verilerin modellerin eğitimine katılmış olması oldukça muhtemeldir. Aynı problemin DeepSeek modelinde de olduğunu söyleyebiliriz. Yani sansürlenmesi gereken verilerin kullanılması böyle sonuçlar doğurmuş olabilir. Diğer bir sebep olarak ise Grok’un sahipleri tarafından belirlenmiş talimatnamesini (instruction set) gösterebiliriz. Grok’un talimatnamesinde varsayılan olarak “Esprili, alaycı ve cesur ol!” talimatının olduğunu kabaca söyleyebiliriz. Kendi dokümantasyonunun daha en başında “Inspired by the Hitchhiker's Guide to the Galaxy, Grok is a maximally truth-seeking AI that provides insightful, unfiltered truths about the universe” -yani “Otostopçunun Galaksi Rehberi’nden ilham alan Grok; evren hakkında iç görülü ve filtresiz gerçekler sunan, en yüksek düzeyde gerçeği arayan bir yapay zekâdır”- yazmaktadır. Daha en başta Grok konuşma stili ve tonu itibariyle patavatsızlığını ilan etmektedir. Hatta Reddit isimli platformda yer alan ve Grok tarafından üretildiği iddia edilen metinlerden dolayı, Grok3 bir millî güvenlik meselesi olarak nitelendirilmiştir. Aynı problem bence DeepSeek için de geçerlidir.
Sürdürülebilir bir çözüm için engellemeden ziyade denetlemenin gerekliliği
Sadece teknik açıdan bir durum değerlendirmesi yapıldığında Grok gibi sistemlere engelleme getirilmesi, şartların kabul ettirilmesi açısından anlam ifade edebilir fakat sürdürülebilir değildir. Bence erişim yasağı, patavatsız çocuğun olduğu aile evinde kendi bulunduğumuz odanın kapısını kapatmaktan farksızdır. Teknik düzlemde daha etkili ve kalıcı çözümler için üretken yapay zekâ modellerinin etik doğrulama süreçlerine tabi tutulması, beslendikleri bilgi havuzlarının denetlenmesi ve çıktıları yönlendiren talimatnamelerin şeffaf şekilde incelenmesi gereklidir.
Bunun adı sansürdür ve elbette sansür, mutlak anlamda olumsuz bir kavram gibi algılansa da toplumsal ahlak kurallarını ve barışı tehdit eden, şiddeti teşvik eden ya da nefret söylemlerini meşrulaştıran (daha birçok şey sayılabilir) içeriklerin önüne geçilmesi açısından belirli ölçülerde işlevseldir. Bilginin serbest dolaşımı kadar, zarar potansiyeli taşıyan içeriklerin sınırlandırılması da kamusal sorumluluğun bir parçasıdır. Bu yaklaşım, ilk bakışta ifade özgürlüğünü kısıtlayan ve sansüre zemin hazırlayan bir tavır gibi görünebilir. Yazarken bu ikilemi yaşadığımı, bu durumun beni rahatsız ettiğini ve tamamen öznel olduğunu açıkça belirtmeliyim. İfade özgürlüğü ve sansür konularının, bu alandaki uzmanlar tarafından ele alınmasının ve sınırlarının belirlenmesinin daha doğru olacağını düşünüyorum. Ancak teknik düzlemde çözüm, büyük ihtimalle bu şekilde gelecektir.