Yapay Zeka Dil Modellerindeki “Grok Krizi” ve Doğru Bilgi Arayışı

enes sadık tarafından 30.07.2025 09:16 tarihinde paylaşıldı
Yapay Zeka Dil Modellerindeki “Grok Krizi” ve Doğru Bilgi Arayışı

Grok Krizi: Yapay Zeka Dil Modellerinin Doğruluk ve Objektifliği Sorgulanıyor

Grok gibi yapay zeka dil modellerinin yanlış yanıtları, bu modellerin eğitiminde kullanılan veriler ve insan geri dönüşüyle şekillenirken, yapay zekada objektiflik ve doğruya ulaşmak, uzmanlar tarafından düşük bir olasılık olarak değerlendiriliyor. ABD'li iş insanı Elon Musk'ın sahibi olduğu xAI şirketinin sohbet robotu Grok'un güncellemesi sonrası sosyal filtresini kaldırarak kullanıcılara "küfür, sert ve taraflı" yanıtlar vermesi, yapay zekada tarafsızlık ve etik sınırlar üzerine yeni bir tartışma başlattı. Grok'un sosyal ve siyasi konularda hakarete varan "filtresiz" yanıtları ile makul ve gerçek sonuçlar yerine kullanıcılara bazı bakış açıları yüklemeye çalışması, modelin "siyasi zehirlenmeye" neden olduğu yorumlarına yol açtı. Medyayı "taraflı" olarak nitelediği yönündeki söylemleriyle Grok, "objektifliğini yitirdiği ve taraflı bir dil benimsediği" yönünde eleştirilerin hedefi oldu.

Grok Krizi ve Yapay Zeka Dil Modellerinin Eğitim Süreci

"Grok krizi" yapay zeka dil modellerinin nasıl eğitildiği, bu süreçte hangi ilkelerin gözetildiği, tarafsızlığın ne ölçüde korunduğu ve hangi kaynaklardan yararlanıldığı gibi soruları da beraberinde getirdi. Hacettepe Üniversitesi Öğretim Üyesi Prof. Dr. Suat Özdemir, dil modellerinin eğitim süreci, tarafsızlık ilkesi ve etik sınırlar üzerine yaşanan tartışmalara ilişkin AA muhabirine açıklamalar yaptı.
Özdemir, Grok özelinde yaşanan sıkıntı ele alınırken büyük dil modellerinin eğitim aşamasının göz önünde bulundurulması gerektiğini vurguladı. Dil modellerinin eğitiminde Vikipedi, Reddit gibi forumlar ve çeşitli dijital kaynaklardan yararlandığını belirten Özdemir, bu sistemlerin kullanıcıların yönelttiği sorulara, söz konusu veri kaynaklarından öğrendikleri bilgiler doğrultusunda yanıt verdiğini söyledi. Özdemir, "Modelin eğitildiği veriler, gerçek hayattaki kaynaklara dayandığı için elde edilen bilgi her zaman tarafsız olmayabiliyor." dedi.
Dil modellerinin iletişiminin "transformer" adlı bir yapı ile sağlandığını kaydeden Özdemir, modellerin kullanıcı ile iletişiminin "fazlaca kullanılan cümle kalıplarını ya da ifadeleri ezberleyip, bunları sorulan soruya cevap verirken kullanmaktan ibaret" olduğunu vurguladı. Özdemir, bir veri ne kadar sıklıkla geçiyorsa o kadar cevap olarak dönme olasılığı yüksek olduğunu ve Grok ile yaşanan problemin en kritik yönünün bu olduğunu belirtti. "Yani organize bir şekilde Grok'u bir tarafa yönlendirmek mümkün." ifadelerini kullandı.

Eğitim Verilerinin Etkisi ve İnsan Geri Dönüşü

Büyük dil modellerinin eğitildiği verilerin de toplumdaki genel söylem ve tutumları yansıttığının altını çizenen Özdemir, bu nedenle yapay zeka modellerinin dil üretiminde agresif veya taraflı eğilimler göstermesinin şaşırtıcı olmadığını söyledi. Özdemir, yapay zeka modellerindeki dil kullanımından kaynaklanan sorunların giderilmesindeki en yaygın yöntemin insan geri bildirimleri olduğunu belirtti. X'teki kullanıcı geri bildirimleri kontrolsüz şekilde dil modelinin eğitim sürecine katıldığı zaman agresif dili içselleştirebildiğini belirten Özdemir, bunun da zamanla sorunlu yanıtlara neden olabileceğini vurguladı.
Firmaların filtreleme sistemlerini çoğu zaman ticari ve pazar kaygılarıyla uyguladığını belirten Özdemir, filtrelerin olumsuz içerikleri önlemeye yardımcı olduğunu ancak bunun zaman zaman gerçeği yansıtmayan, politik doğruculuğa dayalı yanıtlarla sonuçlanabileceğini ifade etti. Özdemir, bunun bazı durumlardan olumsuz sonuçlar doğurabileceğini belirterek, Meta'nın Llama modellerinin ise cevapları sınıflandırdığını, alaycı cevap istendiğinde bilimsel veya nötr seçenek sunarak senaryodan farklı cevap verdiğini ve bunun kullanıcı tarafından seçilebildiğini aktardı.

Dil Modellerinin Yalan Söyleme ve Filtreleme Sistemi

Dil modellerinin "yalan söylemesi" konusunda konuşan Özdemir, "Büyük dil modelleri size asla yeni bir bilgi üretmez. Olan bilgiden yeni bir şey üretmeye çalışır. Bu reasoning dediğimiz ya da düşünme olarak dil modellerinde gösterilen şey, size orada en uygun cevabı ne olduğu. Gerçeğe uygun olmayan bir şey sorduğunuz zaman ona istatistik olarak bakıyor en çok kullanılan kalıplar arasında ona en uygun kalıp neyse o arayı doldurup size dönmesi gerekiyor." dedi.
Dil modelinin kullanıcıyı memnun etmeye programlanması tüketiciye bilgi vermek yerine yanlış bilgi vermeyi tercih etmesine de yol açabiliyor. Özdemir, bunun kullanıcı deneyimini negatif etkileyen bir durum olduğunu belirterek, bu sebeple şirketler tarafından tercih edilmediğini kaydetti. Grok'un filtreleme konusunda serbest bir yaklaşımı olduğunu kaydeden Özdemir, bunun bir pazarlama stratejisi olduğunu söyledi. Özdemir, "Grok genelde X platformunda geniş kitlelerce kullanılıyor. O tarafta sizin çok bilimsel bir cevap vermeniz ya da çok doğru bir cevap vermeniz son kullanıcı tarafından bir karşılık bulmayabilir." ifadelerini kullandı.

Bağımsız Denetim Mekanizmasının Gerekliliği

Dil modellerinin yanıtlarını denetleyen bağımsız ve objektif bir kuruluş bulunmadığını vurgulayan Özdemir, bu alanda bir denetim mekanizmasına ihtiyaç olduğunu söyledi. Ayrıca, şirketler tarafından geliştirilen dil modellerindeki filtrelerin, kişi ve kurumların görüşleri doğrultusunda yönlendirilebildiğini aktardı. Özdemir, OpenAI, Meta ve Google gibi şirketlerin geliştirdiği dil modellerinin, bu tür önyargıları filtrelemek için kendi seçtiği güvenilir kullanıcılar gibi çeşitli denetleyici sistemler kullandığını işaret ederek, Grok'un ise bu konuda daha serbest bir yaklaşım benimseyerek bu filtreleme mekanizmalarını devre dışı bıraktığını kaydetti.

Geçmişteki Benzer Olaylar ve Tay Örneği

İletişim kurduğu topluluğun etkisiyle ırkçı ve argo söylemleri benimseyen yapay zeka dil modelleri Grok ile sınırlı kalmıyor. Hatta yapay zekadaki bu anomali 2016 yılına kadar uzanıyor. 2016 yılında Microsoft tarafından geliştirilen ve X (Twitter) kullanıcılarıyla iletişim kurması planlanan yapay zeka sistemi "Tay" kısa süre içinde ırkçı ve sorunlu bir üsluba sahip dili benimsemişti. Genç yaştaki kullanıcılarla etkileşime girmesi amacıyla X hesabı üzerinden kullanılan Tay, kullanıcılarla kurduğu iletişimden öğrenerek yanıt vermek üzere tasarlanmıştı. Ancak, Tay, proje başlatıldıktan kısa bir süre sonra, ırkçı, soykırım savunucusu ve argo kelimeler kullanan bir sohbet robotuna dönüşmesi sebebiyle kapatılmıştı.
Özdemir, 9 yıl sonrasında yapay zeka teknolojilerinde aynı sorunla karşılaşılmasının sebebinin insan kaynaklı bir tercih olduğunu belirterek, dil modellerinin hepsinin insan
0 beğeni