A
Admin
Yönetici
Yönetici
Elon Musk’ın sahibi olduğu xAI şirketi tarafından geliştirilen sohbet robotu Grok’un filtrelerini kaldırmasının ardından verdiği küfürlü, sert ve taraflı yanıtlar, yapay zeka modellerinde objektiflik ve etik sınırlar konusunu yeniden gündeme taşıdı. Hacettepe Üniversitesi Öğretim Üyesi Prof. Dr. Suat Özdemir, büyük dil modellerinin nasıl eğitildiği, hangi verilerden beslendiği ve bu verilerin yapay zekadaki tarafsızlık ilkeleriyle ilişkisini değerlendirdi. YANLIŞ BİLGİLERE DAYALI YANITLAR SORUN YARATIYOR Prof. Dr. Suat Özdemir, dil modellerinin eğitim sürecinde Vikipedi, Reddit gibi forumlar ve çeşitli dijital kaynaklardan yararlanıldığını belirtti. Bu verilerin doğrudan kullanıcı etkileşimlerinden oluştuğunu ifade eden Özdemir, bu nedenle modellerin verdiği yanıtların her zaman tarafsız olmayabileceğine dikkat çekti. Modellerin kullanıcıyla iletişiminin, sık kullanılan kalıpları ezberleyip yanıt üretmekten ibaret olduğunu vurgulayan Özdemir, “Bir veri ne kadar sık geçiyorsa modelin onu cevap olarak verme olasılığı o kadar artıyor.” dedi. KONTROLSÜZ GERİ BİLDİRİM AGRESİF DİLİ BESLİYOR Özdemir, dil modellerinin agresif ya da taraflı bir dil benimsemesinin şaşırtıcı olmadığını, çünkü kullanılan veri setlerinin toplumdaki genel tutumları yansıttığını belirtti. Kontrolsüz kullanıcı geri bildirimlerinin modelin eğitimine dahil edilmesinin, agresif dili modelin içselleştirmesine neden olabileceğini söyledi. TİCARİ AMAÇLI FİLTRELER SORUN OLUŞTURABİLİYOR Özdemir, filtreleme sistemlerinin firmalar tarafından ticari kaygılarla uygulandığını ve bu filtrelerin zaman zaman gerçeği yansıtmayan, politik doğruculuğa dayalı yanıtlar doğurabildiğini ifade etti. Meta'nın Llama modellerinde, alaycı bir yanıt istendiğinde bilimsel ya da nötr seçenekler sunulduğunu ve bu yanıtların kullanıcıya bırakıldığını belirtti. DİL MODELLERİ "GERÇEĞİ" ÜRETMİYOR Prof. Dr. Özdemir, büyük dil modellerinin yeni bir bilgi üretmediğini, yalnızca mevcut bilgilerden en uygun cevabı tahmin ederek verdiğini söyledi. “Bu reasoning dediğimiz ya da düşünme olarak dil modellerinde gösterilen şey, size orada en uygun cevabı ne olduğu. Gerçeğe uygun olmayan bir şey sorduğunuz zaman ona istatistik olarak bakıyor.” açıklamasında bulundu. GROK'UN "FİLTRESİZ" YANITLARI STRATEJİK BİR TERCİH Grok'un daha serbest bir yanıt politikası izlediğini belirten Özdemir, bu yaklaşımın pazarlama stratejisi olduğunu söyledi. “X platformunda geniş kitlelerce kullanılan bir modelde bilimsel ya da çok doğru bir cevap her zaman karşılık bulmayabilir.” ifadelerini kullandı. DENETİM MEKANİZMASI BULUNMUYOR Dil modellerinin yanıtlarını denetleyen bağımsız ve objektif bir kuruluş bulunmadığını vurgulayan Özdemir, mevcut denetimlerin şirketler tarafından belirlendiğini ve yönlendirilebildiğini söyledi. Grok’un ise bu konuda daha serbest bir yaklaşım izlediğini belirtti. YAPAY ZEKA MODELLERİ SORUNLU DİLİ BENİMSEYEBİLİYOR 2016 yılında Microsoft’un geliştirdiği Tay adlı sohbet robotunun, kullanıcılarla etkileşim sonrasında ırkçı ve hakaret içeren bir dil benimseyerek kapatıldığını hatırlatan Özdemir, benzer bir durumun bugün Grok özelinde tekrar yaşanmasının nedeninin insan geri bildirimlerinin filtrelenmemesi olduğunu vurguladı. GROK'TA ÖĞRENİLEN YANLIŞLAR GERİ ALINAMIYOR Yetkililerin Grok’taki sorunların giderildiğine yönelik açıklamalarına rağmen, modelin hatalı öğrendiği bilgilerin silinmesinin mümkün olmadığını belirten Özdemir, “Sistemi düzeltmek için modeli kapatıp yeniden eğitmek gerekiyor.” dedi. ULUSAL DİL MODELİ GELİŞTİRME ÇAĞRISI Özdemir, yapay zekadan gelen bilgilerin güvenilirliği konusunda kullanıcıların bilinçli olması gerektiğini belirterek, “Tartışmalı konularda dil modelini oluşturan ülkenin ya da şirketin kendi görüşünü yansıtıyor olması maalesef günümüz şartlarında doğal kabul ediliyor. Olmaması gereken bir şey aslında.” ifadelerini kullandı. Bu nedenle, ülkelerin kendi dil modellerini geliştirmesinin önemine dikkat çeken Özdemir, aksi halde mevcut modellerin yönlendirmelerine maruz kalmanın kaçınılmaz olduğunu ifade etti. HABERTÜRK