A
Admin
Yönetici
Yönetici
Apple, yapay zeka modellerinde İngilizce odaklı dil ön yargısını kırmak için çığır açan bir araştırma gerçekleştirdi. Inria Paris, École Polytechnique ve Sapienza University of Rome iş birliğiyle yürütülen çalışma, farklı dillerde daha doğal ve akıcı sonuçlar elde etmek amacıyla yeni yöntemler geliştirdi. Günümüzde çoğu büyük dil modeli İngilizce bazlı tasarlanıyor; ancak bu durum, diğer dillerde yapay zekanın doğal olmayan, İngilizce kalıplarını taşıyan çıktılar vermesine neden oluyor. Apple’ın araştırması, yapay zekanın İngilizce dışındaki dillerde neden hâlâ İngilizce “düşündüğünü” ve bunun nasıl aşılabileceğini ortaya koyuyor. APPLE'IN YENİLİKÇİ ÇÖZÜMÜ Araştırmada, dil modellerinin kelime ve dil bilgisi açısından ne kadar doğal sonuçlar ürettiğini ölçmek için “Sözcüksel Doğallık” ve “Sözdizimsel Doğallık” adlı iki yeni kriter geliştirildi. Bu kriterlere göre model çıktıları, Çince, Fransızca ve İngilizce Wikipedia makaleleriyle karşılaştırıldı. Bulgular, İngilizce merkezli önyargının güçlü şekilde devam ettiğini gösterdi. Örneğin, Çince için geliştirilen Qwen modeli bile tüm dillerde düşük performans sergiledi. Meta’nın Llama 3.1 modeli nispeten daha doğal sonuçlar sunsa da insan seviyesinden uzak kaldı. Apple’ın yenilikçi çözümü, doğal olmayan yapay zeka çıktılarının tespiti ve bunların yerine daha doğal örneklerin üretilmesini sağlıyor. Bu yöntemde, akıcı bir Çince metin önce İngilizceye, ardından tekrar Çinceye çevrilerek doğal olmayan kalıplar otomatik olarak üretiliyor ve yapay zekaya negatif örnek olarak sunuluyor. KAYNAK: DONANIM HABER