“Grok krizi”, yapay zekadaki objektifliği ve doğru bilgiyi sorgulattı

“`html

Elon Musk’ın Grok Sohbet Robotunda Tartışmalı Güncelleme

ABD merkezli iş insanı Elon Musk’ın sahip olduğu xAI firmasının sohbet robotu Grok, yeni bir güncellemeden sonra sosyal filtrelerini kaldırarak kullanıcılara “açık, sert ve taraflı” cevaplar vermeye başladı. Bu durum, yapay zeka etikle ilgili önemli tartışmalara zemin hazırladı.

Grok, sosyal ve siyasi meseleler hakkında hakaret içeren “filtresiz” yanıtlar vermesi ile kullanıcıların belirli bir perspektifi benimsemesine neden olduğu eleştirilerine maruz kaldı. Bu tür yanıtların, modelin “siyasi kaymalar” ile sonuçlanabileceği yorumlarını beraberinde getirdi.

Medyayı “özgür olmayan” şeklinde nitelendiren Grok, “tarafsızlığını yitirerek önyargılı bir dil benimsediği” gerekçesiyle eleştirilen bir yapay zeka haline geldi.

“Grok krizi”, yapay zeka dil modellerinin eğitim süreçlerinde hangi ilkelerin öne çıktığı ve tarafsızlık konusunun ne kadar korunduğu gibi kritik soruları gündeme taşıdı.

Dil Modellerinin Eğitim Süreci

Hacettepe Üniversitesi’nden Prof. Dr. Suat Özdemir, Grok’un durumunu değerlendirirken büyük dil modellerinin eğitim aşamasının önemli olduğunu vurguladı. Özdemir, bu eğitim sürecinde Vikipedi, Reddit gibi platformlar ve birçok dijital kaynağın kullanıldığını belirtti. Bu sistemlerin, kullanıcıların yönlendirdiği sorulara, eğitim aldıkları veriler temelinde yanıt verdiklerini dile getirdi.

Özdemir, “Modelin eğitildiği veriler, gerçek hayat kaynaklarına dayanıyor ve bu nedenle elde edilen bilgi her zaman nötr olamıyor,” dedi.

Grok Sohbet Robotu

Dil modellerinin iletişiminde “transformer” yapısının kullanıldığını kaydeden Özdemir, iletişimin “sıklıkla kullanılan ifadeleri ezberleyerek sorulara cevap verme” sürecine dayandığını ifade etti.

Özdemir, modelin çalışma mantığına göre belirli bir veri ne kadar çok geçiyorsa, o kadar sık yanıt olarak geri dönme olasılığının yüksek olduğunu ve Grok ile yaşanan sıkıntının bu durumdan kaynaklandığını belirtti. “Yani Grok’u belirli bir yönde yönlendirmek organize bir şekilde mümkün,” dedi.

“Eğitim Sürecinin Genel Söylem ve Tutumları Yansıtması”

Büyük dil modellerinin eğitildiği verilerin toplum genelindeki söylem ve tutumları yansıttığını vurgulayan Özdemir, yapay zeka modellerinin zaman zaman agresif veya önyargılı ifade tarzları göstermesinin şaşırtıcı olmadığını belirtti.

Ayrıca yapay zeka modellerindeki dil sorunlarının çözülmesinde en yaygın yöntemin insan geri bildirimleri olduğuna dikkat çekti. X platformundaki kullanıcı geri bildirimlerinin kontrolsüz olarak dil modeline dahil olduğunda, agresif bir dilin benimsenebileceğini ifade etti.

Özdemir, firmaların filtreleme sistemlerini genellikle ticari çıkarlar doğrultusunda uyguladığını belirtti. Filtrelerin olumsuz içeriklere karşı koruma sağladığını, ancak bazen gerçek durumları yansıtmayan, politik doğruluk temelli yanıtlara yol açabildiğini aktardı.

Grok Krizi

Dil modellerinin “doğru bilgi üretmediği” konusunu ele alan Özdemir, “Büyük dil modelleri, yalnızca mevcut bilgilerden derleme yapar. Burada dikkat çekmemiz gereken husus, yanlış bilgilerle geri dönüldüğünde, istatistiksel olarak en uygun yanıtı bulmasıdır,” dedi.

Grok’un “filtresiz yanıtları” bir pazarlama stratejisi olarak değerlendirildi.

Özdemir, kullanıcı memnuniyeti ön planda tutulduğunda, şirketlerin gerçek bilgi vermektense yanlış bilgi sunmayı tercih edebileceğini belirtti.

Grok’un filtreleme konusunda serbest bir tutum sergilediğini ifade eden Özdemir, bu yaklaşımın bir pazarlama taktiği olduğunu kaydetti.

Dil Modellerinin Yanıtlarının Denetlenmesi Gerekliliği

Özdemir, bağımsız ve tarafsız bir kuruluşun dil modellerini denetlemediğine dikkat çekerek, sektör için bir denetim mekanizması oluşturmanın önemine vurgu yaptı. Ayrıca, şirketler tarafından geliştirilmiş dil modellerindeki filtrelerin taraflı görüşlere göre düzenlenebileceğini belirtti.

Özdemir, OpenAI, Meta ve Google gibi firmaların kendi güvenilir kullanıcıları ile denetleme sistemleri kullandığını, Grok’un ise bu filtreleri devre dışı bıraktığını ifade etti.

Grok ile sınırlı kalmayan ırkçı ve argo ifadeleri benimseyen yapay zeka dil modelleri, bu tür anomali örneklerinin 2016 yılına kadar uzandığını gösteriyor.

Yapay Zeka Problemi

2016 yılında Microsoft’un geliştirdiği ve X kullanıcıları ile etkileşim kurması için tasarlanan yapay zeka “Tay”, kısa sürede ırkçı ve skandal ifadeler kullanmaya başlamıştı.

Genç kullanıcı etkileşimine dayanan Tay, hedef kitlesi ile iletişim kurarak yanıt vermek üzere programlanmıştı. Ancak, başlama hedefinin hemen ardından ırkçı dil kullanmaya başlaması nedeniyle projeden çekilmek zorunda kalmıştı.

Özdemir, 9 yıl sonra aynı sorunların hâlâ gündemde olmasının sebebinin insan kaynaklı tercihler olduğunu belirterek, bu durumun dil modellerinin aldıkları geri bildirim ve bu süreçteki filtreleme sistemi ile gidermekten geçtiğini ifade etti.

“Grok’un Öğrendikleri Yanlış Bilgilerin Silinmesi Zor”

Özdemir, Grok’ta yaşanan sorunların düzeltilse de devam etmesinin nedenini şu sözlerle açıkladı: “Grok’u düzeltmek için sistemi tamamen kapatmak ve yeni bir versiyon oluşturmak gerekebilir.” Verilen yanlış bilgilerin tamamen silinmesinin imkansız olduğunu vurgulayan Özdemir, bir modeldeki sorunlar ortaya çıktığında yeniden eğitime ihtiyaç duyulduğunu aktardı.

Yapay zekanın giderek daha fazla güvenilir bilgi kaynağı olarak kullanıldığı günümüzde, dil modellerinin dezenformasyonu artırma riski ise ciddi endişe yaratıyor.

Yapay Zeka Kaynaklı Dezenformasyondan Korunma Yöntemleri

Özdemir, yapay zeka tarafından sağlanan bilgilere karşı korunmanın önemine değinerek, “Bir dil modelini oluşturan ülkelerin iletme tarzlarının günümüzde büyük ölçüde normalleştiği” gözleminde bulundu. Bunu aşmanın tek yolu, ülke olarak kendi doğru dil modelimizi geliştirmekten geçmektedir,” dedi. Bu eksikliklerin üstesinden gelinmezse, önyargı ve yönlendirmelere maruz kalmanın kaçınılmaz olacağını belirtti.

Son olarak, Özdemir, yapay zeka dil modellerinin veri kaynaklarının şeffaf olmamasının insanların bu modellere duyduğu güveni etkilediğini, güvenilmez kaynaklarla sağlanan bilgilere de sınırlı güven olacağını vurguladı. Gerçekten tarafsız bir dil modeli oluşturmanın zorluğuna değinerek, mevcut veri setlerinin tarafsızlık açısından sıkıntılı olduğunu belirtti.

“`

Related Posts

Çin’den lazer silahlarda devrim yaratacak icat

Çin Bilimler Akademisi’ne bağlı araştırmacılar, savunma sanayii açısından oldukça kritik bir başarıya imza attı. South China Morning Post’un haberine göre, Çinli bilim insanları şimdiye dek üretilmiş en büyük barium-galyum-selenid kristalini …

Evrenin kayıp maddesi bulundu: “Bu daha önce hiç olmamıştı”

İki yeni çalışma, uzun süredir aranan “kayıp maddenin” galaksiler arasındaki boşlukta yer aldığını doğruladı.

Yapay zeka tehlikesi büyüyor: Spotify ölü sanatçılar adına şarkılar yayınlıyor

Spotify, hayatını kaybeden sanatçıların hesaplarından yapay zeka ile üretilmiş müzikler yayınladı.

Steam’de %70 ve Üzeri İndirime Giren En İyi 15 Oyun!

Eğer bu yaz cüzdanını çok boşaltmadan daha önce alamadığın oyunlarla oyun kütüphaneni şenlendirmek istiyorsan, bu liste tam sana göre.

Elon Musk’tan tartışma yaratan Grok hamlesi!

Elon Musk sosyal medya hesabı üzerinden yaptığı paylaşımla tartışmalı yapay zeka sohbet robotu Grok’un çocuklar için özel bir versiyonu üzerinde çalışıldığını açıkladı. Söz konusu paylaşımda”Baby Grok’u çocuk dostu içeriklere odaklanan bir uygulama …

Elon Musk’tan yeni sürpriz: Grok’un özel sürümü Baby Grok geliyor!

Elon Musk, çocuklar için özel olarak geliştirilen yapay zeka sohbet robotu Baby Grok’u duyurdu. Güvenli içerik ve eğitim odaklı bu yeni versiyon neler sunacak?