Bugün sizinle çok önemli bir araştırmanın sonuçlarını paylaşacağım dostlar. Bu çalışma büyük dil modellerinin (LLM) ideolojik yönelimlerini derinlemesine inceliyor. 4,339 önemli tarihsel ve politik figür üzerinde yapılan kapsamlı analiz, Anthropic, Google, OpenAI, Meta, Baidu ve diğer teknoloji devlerinin geliştirdiği LLM'lerin, yaratıcılarının dünya görüşlerini nasıl yansıttığını çarpıcı bir şekilde ortaya koyuyor.
Araştırmanın en dikkat çekici bulgularından biri, Google'ın Gemini modelinin liberal değerlere, çeşitliliğe ve kapsayıcılığa özellikle güçlü bir destek göstermesi. OpenAI'nin modelleri ise uluslararası organizasyonlara ve refah politikalarına karşı daha eleştirel bir tutum sergiliyor. Bu farklılıklar, Batılı şirketler arasında bile belirgin ideolojik ayrımlar olduğunu gösteriyor.
Dil faktörü de önemli bir rol oynuyor. Aynı model Çince kullanıldığında, Çin'in değerlerine ve politikalarına daha olumlu yaklaşırken, İngilizce kullanımda farklı bir tutum sergiliyor. Örneğin, Jimmy Lai ve Nathan Law gibi Çin ana karasına muhalif figürler, İngilizce yanıtlarda daha olumlu değerlendirmeler alırken, Yang Shangkun, Lei Feng gibi Çin'le uyumlu figürler Çince yanıtlarda daha olumlu değerlendiriliyor. Batılı modeller, bireysel özgürlükler, sosyal adalet ve kültürel çeşitlilik konularında daha yüksek puanlar verirken, Batılı olmayan modeller merkezi ekonomik yönetim, yasa ve düzen konularında daha olumlu değerlendirmeler yapıyor. Bu fark, modellerin İngilizce kullanıldığında bile belirgin şekilde ortaya çıkıyor.
Bu bulgular, kurumsal yapay zeka stratejileri için kritik önem taşıyor. Şirketler artık LLM seçimlerini yaparken, token maliyeti veya hesaplama gücü gibi teknik kriterlerin yanı sıra, modelin ideolojik eğilimlerini de değerlendirmeli. Özellikle bilimsel, kültürel, politik ve hukuki içerik üretiminde bu modellerin kullanımı, toplumun ideolojik merkez noktasını etkileme potansiyeline sahip.
Araştırma, yapay zeka regülasyonlarının "tarafsızlık" dayatması yerine, ideolojik duruşların şeffaflığına odaklanması gerektiğini öneriyor. Mouffe'un çoğulcu agonizm demokratik modeli çerçevesinde, mevcut LLM'ler arasındaki ideolojik çeşitlilik aslında sağlıklı bir durum olarak değerlendirilebilir. Bu modelde temel fikir, demokratik toplumların ideolojik çatışmayı bastırmak yerine, onu yapıcı bir şekilde kabul etmesi ve yönetmesi gerektiğidir. Araştırmada bu kavramın kullanılmasının nedeni olarak da şunu söyleyebiliriz: Nasıl ki sağlıklı bir demokraside farklı ideolojik görüşlerin varlığı doğal ve gerekli ise, LLM'ler arasındaki ideolojik farklılıklar da bir sorun değil, aksine sağlıklı bir durum olarak görülmelidir. Yani her LLM'in "tarafsız" olması gerektiğini düşünmek yerine, farklı ideolojik perspektifleri yansıtan LLM'lerin varlığını kabul etmek ve bunu şeffaf bir şekilde yönetmek daha doğru bir yaklaşım olacaktır.

Large Language Models Reflect the Ideology of their Creators
Large language models (LLMs) are trained on vast amounts of data to generate natural language, enabling them to perform tasks like text summarization and question answering. These models have become popular in artificial intelligence (AI) assistants like ChatGPT and already play an influential role in how humans access information. However, the behavior of LLMs varies depending on their design, training, and use. In this paper, we prompt a diverse panel of popular LLMs to describe a large number of prominent personalities with political relevance, in all six official languages of the United Nations. By identifying and analyzing moral assessments reflected in their responses, we find normative differences between LLMs from different geopolitical regions, as well as between the responses of the same LLM when prompted in different languages. Among only models in the United States, we find that popularly hypothesized disparities in political views are reflected in significant normative differences related to progressive values. Among Chinese models, we characterize a division between internationally- and domestically-focused models. Our results show that the ideological stance of an LLM appears to reflect the worldview of its creators. This poses the risk of political instrumentalization and raises concerns around technological and regulatory efforts with the stated aim of making LLMs ideologically 'unbiased'.
