Son yıllarda yapay zekâ sistemlerinin siyasi eğilimler sergilediğine dair tartışmalar akademik ve teknoloji çevrelerinde giderek artan bir ilgi odağı haline geldi. Özellikle büyük dil modellerinin ürettiği içeriklerde gözlemlenen sol-liberal eğilimler, bu sistemlerin eğitim verilerinden algoritmik tasarıma kadar uzanan çok katmanlı bir sorunlar ağını ortaya koyuyor.
Osman Akın
Yapay zekâ modellerinde siyasi yanlılık: Bilimsel bir değerlendirme
Son yıllarda yapay zekâ sistemlerinin siyasi eğilimler sergilediğine dair tartışmalar akademik ve teknoloji çevrelerinde giderek artan bir ilgi odağı haline geldi. Özellikle büyük dil modellerinin ürettiği içeriklerde gözlemlenen sol-liberal eğilimler, bu sistemlerin eğitim verilerinden algoritmik tasarıma kadar uzanan çok katmanlı bir sorunlar ağını ortaya koyuyor. Bu makale, yapay zeka yanlılığının epistemolojik kökenlerini, toplumsal yansımalarını ve olası çözüm stratejilerini disiplinlerarası bir perspektifle ele almayı amaçlamaktadır.
Yapay zekâ yanlılığının epistemolojik temelleri
Veri kaynaklarının demokratik olmayan doğası: Yapay zekâ modellerinin beslendiği veri kümeleri, internetteki içeriklerin büyük ölçüde Batılı, eğitimli, kentsel ve teknolojiye erişimi olan nüfus kesimlerince üretildiği gerçeğini yansıtmaktadır. Örneğin, Common Crawl gibi büyük ölçekli veri setlerinin analizi, İngilizce içeriğin diğer dillere göre baskınlığını ve bu içeriklerin çoğunlukla akademik kurumlar, teknoloji şirketleri ve medya organları tarafından üretildiğini göstermektedir. Bu kurumların kendi içlerinde belirli siyasi-ideolojik eğilimlere sahip olması, veri setlerine yansıyan temsiliyet sorununu derinleştirmektedir.
Algoritmik öğrenme süreçlerindeki normatif kabuller: Makine öğrenimi algoritmalarının optimizasyon kriterleri, geliştiricilerin değer yargılarını kod içerisine gizli bir şekilde yerleştirebilmektedir. Örneğin, zararlı içerik filtreleme sistemlerinde “nefret söylemi” tanımının Batı merkezli politik doğruluk standartlarına göre yapılandırılması, algoritmaların muhafazakar görüşleri otomatik olarak sansürlemesine yol açabilmektedir. Bu durum, teknolojinin görünürde tarafsız olan matematiksel modeller aracılığıyla bile ideolojik pozisyonlar aktarabildiğinin çarpıcı bir göstergesidir.
Büyük teknoloji şirketlerinin benimsediği etik kurallar ve AI prensipleri, genellikle seküler hümanist değerler etrafında şekillenmektedir. Örneğin, “eşitlik”, “kapsayıcılık” ve “sosyal adalet” gibi kavramların algoritmik sistemlerde uygulanma biçimi geleneksel muhafazakar değerlerle çatışma potansiyeli taşımaktadır.
Etik çerçevelerin tek tipliği: Büyük teknoloji şirketlerinin benimsediği etik kurallar ve AI prensipleri, genellikle seküler hümanist değerler etrafında şekillenmektedir. Örneğin, “eşitlik”, “kapsayıcılık” ve “sosyal adalet” gibi kavramların algoritmik sistemlerde uygulanma biçimi geleneksel muhafazakar değerlerle çatışma potansiyeli taşımaktadır. Bu durum, teknoloji üreticilerinin siyasi pozisyonları ile geniş kullanıcı kitlesinin çeşitliliği arasındaki uyumsuzluğu ortaya koymaktadır.
Siyasi eğilimlerin teknik göstergeleri
Dil modellerindeki ideolojik kalıplar: University of East Anglia’nın 2023’te gerçekleştirdiği deneysel çalışma, ChatGPT’nin politik spektrum testlerinde sistematik olarak sol-liberal pozisyonlara yakınlık gösterdiğini ortaya koymuştur. Modelin ABD siyasi partileri arasında Demokratlar’ı, İngiltere bağlamında ise İşçi Partisi’ni örtülü şekilde desteklediği gözlemlenmiştir. Bu eğilim, modelin eğitim verilerindeki akademik ve teknoloji odaklı içeriklerin ideolojik yönelimleriyle açıklanmaktadır.
Görsel üretimdeki temsiliyet sorunları: Stabil Diffusion ve DALL-E gibi görsel üretim modelleri üzerinde yapılan analizler, “lider”, “bilim insanı” veya “CEO” gibi pozisyonların görselleştirilmesinde kadın ve azınlık temsillerinin istatistiksel olarak gerçek dünya verilerinin ötesinde artırıldığını göstermektedir. Bu “kapsayıcılık önyargısı”, algoritmaların sosyal adalet söylemlerini aşırı telafi etme eğiliminin teknik bir tezahürü olarak yorumlanmaktadır.
Kültürel görelilik karşısında evrenselcilik ikilemi: Doğal dil işleme sistemlerinin ahlaki ikilemler karşısında verdiği yanıtlar analiz edildiğinde, Kantçı evrenselci etik anlayışın belirgin şekilde öne çıktığı gözlemlenmektedir. Örneğin, kültürel göreliliği savunan argümanların algoritmalar tarafından daha sık eleştirildiği, buna karşılık insan hakları temelli evrenselci yaklaşımların desteklendiği tespit edilmiştir. Bu durum, Batı Aydınlanması’nın normatif kabullerinin algoritmik sistemlere nasıl kodlandığının ilginç bir örneğini oluşturmaktadır.
Sosyoteknik etkileşimler ve toplumsal yansımalar
İnsan-algoritma etkileşimindeki geri beslem döngüsü: Nature dergisinde yayınlanan deneysel çalışma, insanların yapay zekâ sistemlerinin önyargılarını zaman içinde içselleştirdiğini ortaya koymuştur. Katılımcılar, önyargılı bir tıbbi teşhis sistemini kullandıktan sonra, bu sistem kaldırıldığında bile aynı hatalı kalıpları sürdürmüşlerdir. Bu bulgu, algoritmik sistemlerin toplumsal normları yeniden üretme kapasitesinin tahmin edilenden daha güçlü olduğuna işaret etmektedir.
Nature dergisinde yayınlanan deneysel çalışma, insanların yapay zekâ sistemlerinin önyargılarını zaman içinde içselleştirdiğini ortaya koymuştur.
Siyasi polarizasyonda teknolojinin rolü: Yapay zekâ sistemlerinin içerik öneri algoritmaları, kullanıcıları ideolojik olarak homojen “yankı odalarına” hapsetme eğilimindedir. Ancak ilginç bir paradoks olarak, bu sistemlerin kendilerinin belirli bir yönde (genellikle sol-liberal) sistematik yanlılık sergilemesi, polarizasyon dinamiklerini karmaşıklaştırmaktadır. Örneğin, muhafazakar kullanıcıların algoritmik sansür iddiaları, teknoloji şirketleriyle siyasi aktörler arasındaki gerilimi artıran önemli bir faktör haline gelmiştir.
Küresel Güney’de teknokolonyalizm tartışmaları: Gelişmekte olan ülkelerdeki araştırmacılar, Batı merkezli yapay zekâ sistemlerinin kültürel emperyalizm aracına dönüşme riskine dikkat çekmektedir. Örneğin, Hint alt kıtasına özgü toplumsal dinamikleri anlamak üzere eğitilmemiş bir chatbot’un laik-modernist söylemleri dayatması, yerel kültürel kodlarla çatışma potansiyeli taşımaktadır. Bu durum, teknolojinin siyasi yanlılık sorununu uluslararası ilişkiler boyutuna taşımaktadır.

Etik ve yönetişim perspektifleri
Teknoloji üreticilerinin sorumlulukları: Büyük dil modellerinin eğitim veri setlerinde temsil edilen kaynakların ideolojik dağılımı üzerine yapılan çalışmalar, teknoloji şirketlerinin şeffaflık eksikliğini gözler önüne sermektedir. Örneğin, Wikipedia içeriğinin model eğitimindeki ağırlığı dikkate alındığında, bu platformun kendi içindeki editör demografisinin (genellikle beyaz, erkek, Batılı) algoritmik çıktıları nasıl şekillendirdiği kritik bir soru olarak karşımıza çıkmaktadır.
Regülasyon ve standartlaşma çabaları: Avrupa Birliği’nin Yapay Zekâ Yasası gibi girişimler, algoritmik sistemlerdeki yanlılığı önlemeye yönelik teknik standartlar geliştirmektedir. Ancak bu çabalar, “adalet” ve “eşitlik” gibi kavramların evrensel tanımlarının eksikliği nedeniyle pratik uygulamalarda zorluklarla karşılaşmaktadır. Örneğin, cinsiyet eşitliği sağlamak amacıyla geliştirilen bir kota algoritmasının, kültürel bağlamı dikkate almadan uygulanması yeni eşitsizliklere yol açabilmektedir.
Alternatif epistemolojilerin entegrasyonu: Post-kolonyal teori ve feminist teknoloji çalışmaları, yapay zekâ geliştirme süreçlerine çoklu perspektiflerin entegre edilmesi gerektiğini vurgulamaktadır. Bu bağlamda, yerli bilgi sistemlerinin makine öğrenimi modellerine dahil edilmesi veya alternatif veri kümesi oluşturma stratejileri gibi yenilikçi yaklaşımlar denenmektedir. Örneğin, Afrika kökenli düşünce sistemlerini temel alan bir etik çerçeve, Batı merkezli normlara meydan okuyabilmektedir.
Algoritmik karar süreçlerinin ideolojik etkilerini izlemek üzere, siyasi felsefe ve bilgisayar bilimlerini birleştiren disiplinlerarası denetim mekanizmaları önerilmektedir.
Teknik çözüm önerileri ve gelecek perspektifi
Çoklu izlenebilirlik sistemleri: Algoritmik karar süreçlerinin ideolojik etkilerini izlemek üzere, siyasi felsefe ve bilgisayar bilimlerini birleştiren disiplinlerarası denetim mekanizmaları önerilmektedir. Bu kapsamda, model çıktılarının Rawlsçu adalet teorisi, komünitaryanizm veya liberteryenizm gibi farklı etik çerçeveler altında analiz edilmesi, sistemlerin normatif varsayımlarını görünür kılmayı amaçlamaktadır.
Dinamik yanlılık dengeleme algoritmaları: Derin öğrenme mimarilerine entegre edilebilen gerçek zamanlı yanlılık izleme sistemleri üzerine deneysel çalışmalar devam etmektedir. Bu sistemler, modelin iç aktivasyon haritalarını sürekli izleyerek ideolojik sapmaları otomatik olarak dengelemeyi hedeflemektedir. Örneğin, siyasi spektrum dağılımını temsil eden bir referans kümesi kullanılarak, model çıktılarının çok boyutlu ideolojik uzayda dengelenmesi sağlanabilir.
Kültürel kodlama çeşitliliği: Veri kümesi oluşturma süreçlerinde, azınlık kültürlerinin epistemik katkılarını sistematik şekilde dahil etmeye yönelik yeni metodolojiler geliştirilmektedir. Bu kapsamda, yerel topluluklarla işbirliği içinde “etik veri madenciliği” uygulamaları veya çeviri teknolojilerinin kültürel bağlam duyarlılığını artıran hibrid sistemler öne çıkmaktadır. Örneğin, Arap Baharı sürecinde üretilen sosyal medya içeriklerinin Batı merkezli veri setlerine entegrasyonu, algoritmaların Ortadoğu siyasetini anlama kapasitesini artırabilir.
Sonuç ve öneriler
Yapay zekâ sistemlerindeki siyasi yanlılık sorunu, teknolojinin sosyal inşasına dair temel soruları gündeme getirmektedir. Bu çalışma, algoritmik sistemlerin görünürde tarafsız olan matematiksel modeller aracılığıyla bile ideolojik pozisyonlar aktarabildiğini, bu sürecin ise veri kaynaklarından kültürel kodlamaya kadar uzanan çok katmanlı bir yapı sergilediğini ortaya koymuştur.
Gelecek araştırmalar için şu öneriler sunulabilir;
1) Çok kültürlü veri setleri oluşturmaya yönelik uluslararası işbirliklerinin teşvik edilmesi,
2) Algoritmik şeffaflık standartlarının etik çerçevelerle bütünleştirilmesi,
3) Teknoloji geliştirme süreçlerine disiplinlerarası denetim mekanizmalarının entegre edilmesi.
Bu adımlar, yapay zekânın insanlığın kolektif bilgisini ve değerlerini daha dengeli şekilde temsil edebilmesinin yolunu açabilir.
Kaynakça
https://www.gzt.com/video/nihayet/yapay-zekalar-neden-solcu-2254915
https://teyit.org/teyitpedia/teyit-sozluk-yapay-zeka-yanliligi-nedir
https://news.sky.com/story/chatgpt-shows-significant-and-systemic-left-wing-bias-study-finds-12941162
https://www.nature.com/articles/s41598-023-42384-8
https://www.odatv.com/guncel/yapay-zeka-solcu-olursa-ai-stalin-actik-chat-gptye-sorduk-120056904
https://academy.patika.dev/blogs/detail/yapay-zekada-bias
https://www.uea.ac.uk/about/news/article/generative-ai-bias-poses-risk-to-democratic-values
https://ascpt.onlinelibrary.wiley.com/doi/10.1002/cpt.3117
https://dergipark.org.tr/tr/download/article-file/3201623
https://pmc.ncbi.nlm.nih.gov/articles/PMC8967082/
https://www.brown.edu/news/2024-10-22/ai-bias
https://www.donanimhaber.com/arastirmacilara-gore-cogu-yapay-zeka-sol-goruslu–187126
https://www.psypost.org/scientists-reveal-chatgpts-left-wing-bias-and-how-to-jailbreak-it/
https://pubmed.ncbi.nlm.nih.gov/38018360/
https://www.nature.com/articles/s41599-025-04465-z
https://www.odatv.com/bilim-ve-teknoloji/dunya-bunu-tartisiyor-yapay-zeka-neden-solcu-elon-muskin-kendi-kalesine-yedigi-gol-1200469641
https://www.fastcompany.com/91165664/ai-models-lean-left-when-it-comes-to-politically-charged-questions
https://www.dirjournal.org/articles/bias-in-artificial-intelligence-for-medical-imaging-fundamentals-detection-avoidance-mitigation-challenges-ethics-and-prospects/doi/dir.2024.242854
https://www.authorea.com/users/799951/articles/1181157-political-bias-in-ai-language-models-a-comparative-analysis-of-chatgpt-4-perplexity-google-gemini-and-claude
pplx.ai/share