GazeteBilim
Destek Ol
Ara
  • Anasayfa
  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk
  • Etkinlikler
    • Astronomi Dersleri
    • Davranış Nörolojisi Dersleri
    • Eğitimciler İçin Yapay Zekâ Okur-Yazarlığı Dersleri
    • Epigenetik Dersleri
    • Evrim Dersleri
    • Bilim Tarihi Dersleri
    • Kapitalizmin Tarihsel Gelişimi ve İktisadi Düşünce Dersleri
    • Konuşmaktan Korkmuyorum
    • Nörobilim Dersleri
    • Nörohukuk
    • Nörofelsefe Dersleri
    • Öğrenilmiş Çaresizlik
    • Teizm, Deizm, Agnostisizm ve Ateizm Dersleri
    • Teoloji, Bilim ve Felsefe Tartışmaları
    • Zihin Dersleri
  • Biz Kimiz
  • İletişim
Okuyorsun: Yapay zekâ modelleri solcu mudur?
Paylaş
Aa
GazeteBilimGazeteBilim
Ara
  • Anasayfa
  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk
  • Etkinlikler
    • Astronomi Dersleri
    • Davranış Nörolojisi Dersleri
    • Eğitimciler İçin Yapay Zekâ Okur-Yazarlığı Dersleri
    • Epigenetik Dersleri
    • Evrim Dersleri
    • Bilim Tarihi Dersleri
    • Kapitalizmin Tarihsel Gelişimi ve İktisadi Düşünce Dersleri
    • Konuşmaktan Korkmuyorum
    • Nörobilim Dersleri
    • Nörohukuk
    • Nörofelsefe Dersleri
    • Öğrenilmiş Çaresizlik
    • Teizm, Deizm, Agnostisizm ve Ateizm Dersleri
    • Teoloji, Bilim ve Felsefe Tartışmaları
    • Zihin Dersleri
  • Biz Kimiz
  • İletişim
  • Destek Ol
Bizi Takip Edin
  • Biz Kimiz
  • Künye
  • Yayın Kurulu
  • Yürütme Kurulu
Copyright © 2023 Gazete Bilim - Bütün Hakları Saklıdır
GazeteBilim > Blog > Teknoloji > Yapay Zekâ > Yapay zekâ modelleri solcu mudur?
TeknolojiYapay Zekâ

Yapay zekâ modelleri solcu mudur?

Yazar: GazeteBilim Yayın Tarihi: 6 Mart 2025 9 Dakikalık Okuma
Paylaş

İçindekiler
Yapay zekâ modellerinde siyasi yanlılık: Bilimsel bir değerlendirmeYapay zekâ yanlılığının epistemolojik temelleriSiyasi eğilimlerin teknik göstergeleriSosyoteknik etkileşimler ve toplumsal yansımalarEtik ve yönetişim perspektifleri Teknik çözüm önerileri ve gelecek perspektifiSonuç ve öneriler

Son yıllarda yapay zekâ sistemlerinin siyasi eğilimler sergilediğine dair tartışmalar akademik ve teknoloji çevrelerinde giderek artan bir ilgi odağı haline geldi. Özellikle büyük dil modellerinin ürettiği içeriklerde gözlemlenen sol-liberal eğilimler, bu sistemlerin eğitim verilerinden algoritmik tasarıma kadar uzanan çok katmanlı bir sorunlar ağını ortaya koyuyor.

Osman Akın

Yapay zekâ modellerinde siyasi yanlılık: Bilimsel bir değerlendirme

Son yıllarda yapay zekâ sistemlerinin siyasi eğilimler sergilediğine dair tartışmalar akademik ve teknoloji çevrelerinde giderek artan bir ilgi odağı haline geldi. Özellikle büyük dil modellerinin ürettiği içeriklerde gözlemlenen sol-liberal eğilimler, bu sistemlerin eğitim verilerinden algoritmik tasarıma kadar uzanan çok katmanlı bir sorunlar ağını ortaya koyuyor. Bu makale, yapay zeka yanlılığının epistemolojik kökenlerini, toplumsal yansımalarını ve olası çözüm stratejilerini disiplinlerarası bir perspektifle ele almayı amaçlamaktadır.

Yapay zekâ yanlılığının epistemolojik temelleri

Veri kaynaklarının demokratik olmayan doğası: Yapay zekâ modellerinin beslendiği veri kümeleri, internetteki içeriklerin büyük ölçüde Batılı, eğitimli, kentsel ve teknolojiye erişimi olan nüfus kesimlerince üretildiği gerçeğini yansıtmaktadır. Örneğin, Common Crawl gibi büyük ölçekli veri setlerinin analizi, İngilizce içeriğin diğer dillere göre baskınlığını ve bu içeriklerin çoğunlukla akademik kurumlar, teknoloji şirketleri ve medya organları tarafından üretildiğini göstermektedir. Bu kurumların kendi içlerinde belirli siyasi-ideolojik eğilimlere sahip olması, veri setlerine yansıyan temsiliyet sorununu derinleştirmektedir.

Algoritmik öğrenme süreçlerindeki normatif kabuller: Makine öğrenimi algoritmalarının optimizasyon kriterleri, geliştiricilerin değer yargılarını kod içerisine gizli bir şekilde yerleştirebilmektedir. Örneğin, zararlı içerik filtreleme sistemlerinde “nefret söylemi” tanımının Batı merkezli politik doğruluk standartlarına göre yapılandırılması, algoritmaların muhafazakar görüşleri otomatik olarak sansürlemesine yol açabilmektedir. Bu durum, teknolojinin görünürde tarafsız olan matematiksel modeller aracılığıyla bile ideolojik pozisyonlar aktarabildiğinin çarpıcı bir göstergesidir.

Büyük teknoloji şirketlerinin benimsediği etik kurallar ve AI prensipleri, genellikle seküler hümanist değerler etrafında şekillenmektedir. Örneğin, “eşitlik”, “kapsayıcılık” ve “sosyal adalet” gibi kavramların algoritmik sistemlerde uygulanma biçimi geleneksel muhafazakar değerlerle çatışma potansiyeli taşımaktadır.

Etik çerçevelerin tek tipliği: Büyük teknoloji şirketlerinin benimsediği etik kurallar ve AI prensipleri, genellikle seküler hümanist değerler etrafında şekillenmektedir. Örneğin, “eşitlik”, “kapsayıcılık” ve “sosyal adalet” gibi kavramların algoritmik sistemlerde uygulanma biçimi geleneksel muhafazakar değerlerle çatışma potansiyeli taşımaktadır. Bu durum, teknoloji üreticilerinin siyasi pozisyonları ile geniş kullanıcı kitlesinin çeşitliliği arasındaki uyumsuzluğu ortaya koymaktadır.

Siyasi eğilimlerin teknik göstergeleri

Dil modellerindeki ideolojik kalıplar: University of East Anglia’nın 2023’te gerçekleştirdiği deneysel çalışma, ChatGPT’nin politik spektrum testlerinde sistematik olarak sol-liberal pozisyonlara yakınlık gösterdiğini ortaya koymuştur. Modelin ABD siyasi partileri arasında Demokratlar’ı, İngiltere bağlamında ise İşçi Partisi’ni örtülü şekilde desteklediği gözlemlenmiştir. Bu eğilim, modelin eğitim verilerindeki akademik ve teknoloji odaklı içeriklerin ideolojik yönelimleriyle açıklanmaktadır.

Görsel üretimdeki temsiliyet sorunları: Stabil Diffusion ve DALL-E gibi görsel üretim modelleri üzerinde yapılan analizler, “lider”, “bilim insanı” veya “CEO” gibi pozisyonların görselleştirilmesinde kadın ve azınlık temsillerinin istatistiksel olarak gerçek dünya verilerinin ötesinde artırıldığını göstermektedir. Bu “kapsayıcılık önyargısı”, algoritmaların sosyal adalet söylemlerini aşırı telafi etme eğiliminin teknik bir tezahürü olarak yorumlanmaktadır.

Kültürel görelilik karşısında evrenselcilik ikilemi: Doğal dil işleme sistemlerinin ahlaki ikilemler karşısında verdiği yanıtlar analiz edildiğinde, Kantçı evrenselci etik anlayışın belirgin şekilde öne çıktığı gözlemlenmektedir. Örneğin, kültürel göreliliği savunan argümanların algoritmalar tarafından daha sık eleştirildiği, buna karşılık insan hakları temelli evrenselci yaklaşımların desteklendiği tespit edilmiştir. Bu durum, Batı Aydınlanması’nın normatif kabullerinin algoritmik sistemlere nasıl kodlandığının ilginç bir örneğini oluşturmaktadır.

Sosyoteknik etkileşimler ve toplumsal yansımalar

İnsan-algoritma etkileşimindeki geri beslem döngüsü: Nature dergisinde yayınlanan deneysel çalışma, insanların yapay zekâ sistemlerinin önyargılarını zaman içinde içselleştirdiğini ortaya koymuştur. Katılımcılar, önyargılı bir tıbbi teşhis sistemini kullandıktan sonra, bu sistem kaldırıldığında bile aynı hatalı kalıpları sürdürmüşlerdir. Bu bulgu, algoritmik sistemlerin toplumsal normları yeniden üretme kapasitesinin tahmin edilenden daha güçlü olduğuna işaret etmektedir.

Nature dergisinde yayınlanan deneysel çalışma, insanların yapay zekâ sistemlerinin önyargılarını zaman içinde içselleştirdiğini ortaya koymuştur.

Siyasi polarizasyonda teknolojinin rolü: Yapay zekâ sistemlerinin içerik öneri algoritmaları, kullanıcıları ideolojik olarak homojen “yankı odalarına” hapsetme eğilimindedir. Ancak ilginç bir paradoks olarak, bu sistemlerin kendilerinin belirli bir yönde (genellikle sol-liberal) sistematik yanlılık sergilemesi, polarizasyon dinamiklerini karmaşıklaştırmaktadır. Örneğin, muhafazakar kullanıcıların algoritmik sansür iddiaları, teknoloji şirketleriyle siyasi aktörler arasındaki gerilimi artıran önemli bir faktör haline gelmiştir.

Küresel Güney’de teknokolonyalizm tartışmaları: Gelişmekte olan ülkelerdeki araştırmacılar, Batı merkezli yapay zekâ sistemlerinin kültürel emperyalizm aracına dönüşme riskine dikkat çekmektedir. Örneğin, Hint alt kıtasına özgü toplumsal dinamikleri anlamak üzere eğitilmemiş bir chatbot’un laik-modernist söylemleri dayatması, yerel kültürel kodlarla çatışma potansiyeli taşımaktadır. Bu durum, teknolojinin siyasi yanlılık sorununu uluslararası ilişkiler boyutuna taşımaktadır.

Etik ve yönetişim perspektifleri

Teknoloji üreticilerinin sorumlulukları: Büyük dil modellerinin eğitim veri setlerinde temsil edilen kaynakların ideolojik dağılımı üzerine yapılan çalışmalar, teknoloji şirketlerinin şeffaflık eksikliğini gözler önüne sermektedir. Örneğin, Wikipedia içeriğinin model eğitimindeki ağırlığı dikkate alındığında, bu platformun kendi içindeki editör demografisinin (genellikle beyaz, erkek, Batılı) algoritmik çıktıları nasıl şekillendirdiği kritik bir soru olarak karşımıza çıkmaktadır.

Regülasyon ve standartlaşma çabaları: Avrupa Birliği’nin Yapay Zekâ Yasası gibi girişimler, algoritmik sistemlerdeki yanlılığı önlemeye yönelik teknik standartlar geliştirmektedir. Ancak bu çabalar, “adalet” ve “eşitlik” gibi kavramların evrensel tanımlarının eksikliği nedeniyle pratik uygulamalarda zorluklarla karşılaşmaktadır. Örneğin, cinsiyet eşitliği sağlamak amacıyla geliştirilen bir kota algoritmasının, kültürel bağlamı dikkate almadan uygulanması yeni eşitsizliklere yol açabilmektedir.

Alternatif epistemolojilerin entegrasyonu: Post-kolonyal teori ve feminist teknoloji çalışmaları, yapay zekâ geliştirme süreçlerine çoklu perspektiflerin entegre edilmesi gerektiğini vurgulamaktadır. Bu bağlamda, yerli bilgi sistemlerinin makine öğrenimi modellerine dahil edilmesi veya alternatif veri kümesi oluşturma stratejileri gibi yenilikçi yaklaşımlar denenmektedir. Örneğin, Afrika kökenli düşünce sistemlerini temel alan bir etik çerçeve, Batı merkezli normlara meydan okuyabilmektedir.

Algoritmik karar süreçlerinin ideolojik etkilerini izlemek üzere, siyasi felsefe ve bilgisayar bilimlerini birleştiren disiplinlerarası denetim mekanizmaları önerilmektedir.

Teknik çözüm önerileri ve gelecek perspektifi

Çoklu izlenebilirlik sistemleri: Algoritmik karar süreçlerinin ideolojik etkilerini izlemek üzere, siyasi felsefe ve bilgisayar bilimlerini birleştiren disiplinlerarası denetim mekanizmaları önerilmektedir. Bu kapsamda, model çıktılarının Rawlsçu adalet teorisi, komünitaryanizm veya liberteryenizm gibi farklı etik çerçeveler altında analiz edilmesi, sistemlerin normatif varsayımlarını görünür kılmayı amaçlamaktadır.

Dinamik yanlılık dengeleme algoritmaları: Derin öğrenme mimarilerine entegre edilebilen gerçek zamanlı yanlılık izleme sistemleri üzerine deneysel çalışmalar devam etmektedir. Bu sistemler, modelin iç aktivasyon haritalarını sürekli izleyerek ideolojik sapmaları otomatik olarak dengelemeyi hedeflemektedir. Örneğin, siyasi spektrum dağılımını temsil eden bir referans kümesi kullanılarak, model çıktılarının çok boyutlu ideolojik uzayda dengelenmesi sağlanabilir.

Kültürel kodlama çeşitliliği: Veri kümesi oluşturma süreçlerinde, azınlık kültürlerinin epistemik katkılarını sistematik şekilde dahil etmeye yönelik yeni metodolojiler geliştirilmektedir. Bu kapsamda, yerel topluluklarla işbirliği içinde “etik veri madenciliği” uygulamaları veya çeviri teknolojilerinin kültürel bağlam duyarlılığını artıran hibrid sistemler öne çıkmaktadır. Örneğin, Arap Baharı sürecinde üretilen sosyal medya içeriklerinin Batı merkezli veri setlerine entegrasyonu, algoritmaların Ortadoğu siyasetini anlama kapasitesini artırabilir.

Sonuç ve öneriler

Yapay zekâ sistemlerindeki siyasi yanlılık sorunu, teknolojinin sosyal inşasına dair temel soruları gündeme getirmektedir. Bu çalışma, algoritmik sistemlerin görünürde tarafsız olan matematiksel modeller aracılığıyla bile ideolojik pozisyonlar aktarabildiğini, bu sürecin ise veri kaynaklarından kültürel kodlamaya kadar uzanan çok katmanlı bir yapı sergilediğini ortaya koymuştur.

Gelecek araştırmalar için şu öneriler sunulabilir;

1) Çok kültürlü veri setleri oluşturmaya yönelik uluslararası işbirliklerinin teşvik edilmesi,

2) Algoritmik şeffaflık standartlarının etik çerçevelerle bütünleştirilmesi,

3) Teknoloji geliştirme süreçlerine disiplinlerarası denetim mekanizmalarının entegre edilmesi.

Bu adımlar, yapay zekânın insanlığın kolektif bilgisini ve değerlerini daha dengeli şekilde temsil edebilmesinin yolunu açabilir.

Kaynakça

https://www.gzt.com/video/nihayet/yapay-zekalar-neden-solcu-2254915

https://teyit.org/teyitpedia/teyit-sozluk-yapay-zeka-yanliligi-nedir

https://news.sky.com/story/chatgpt-shows-significant-and-systemic-left-wing-bias-study-finds-12941162

https://www.nature.com/articles/s41598-023-42384-8

https://www.odatv.com/guncel/yapay-zeka-solcu-olursa-ai-stalin-actik-chat-gptye-sorduk-120056904

https://academy.patika.dev/blogs/detail/yapay-zekada-bias

https://www.uea.ac.uk/about/news/article/generative-ai-bias-poses-risk-to-democratic-values

https://ascpt.onlinelibrary.wiley.com/doi/10.1002/cpt.3117

https://dergipark.org.tr/tr/download/article-file/3201623

https://pmc.ncbi.nlm.nih.gov/articles/PMC8967082/

https://www.brown.edu/news/2024-10-22/ai-bias

https://www.donanimhaber.com/arastirmacilara-gore-cogu-yapay-zeka-sol-goruslu–187126

https://www.psypost.org/scientists-reveal-chatgpts-left-wing-bias-and-how-to-jailbreak-it/

https://pubmed.ncbi.nlm.nih.gov/38018360/

https://www.nature.com/articles/s41599-025-04465-z

https://www.odatv.com/bilim-ve-teknoloji/dunya-bunu-tartisiyor-yapay-zeka-neden-solcu-elon-muskin-kendi-kalesine-yedigi-gol-1200469641

https://www.fastcompany.com/91165664/ai-models-lean-left-when-it-comes-to-politically-charged-questions

https://www.dirjournal.org/articles/bias-in-artificial-intelligence-for-medical-imaging-fundamentals-detection-avoidance-mitigation-challenges-ethics-and-prospects/doi/dir.2024.242854

https://www.authorea.com/users/799951/articles/1181157-political-bias-in-ai-language-models-a-comparative-analysis-of-chatgpt-4-perplexity-google-gemini-and-claude

pplx.ai/share

Etiketler: bilim, teknoloji, yapay zeka
GazeteBilim 6 Mart 2025
Bu Yazıyı Paylaş
Facebook Twitter Whatsapp Whatsapp E-Posta Linki Kopyala Yazdır
Önceki Yazı Nobel Minds 2024: Umut ve endişenin keskin çizgisi
Sonraki Yazı Triyas’ın yeni deniz sürüngeni

Popüler Yazılarımız

krematoryum fırını

Türkiye’de ölü yakma (kremasyon): Hukuken var, fiilen yok

BilimEtik
23 Kasım 2023
cehalet
Felsefe

“Cehalet mutluluktur” inancı üzerine

Eşitleştiren, özgürleştiren, mutlu kılan, bilgi midir yoksa cehalet mi? Mutlu kılan, cehalet mutluluktur sözünde ifade edildiği gibi, bilgisizlik ve cehalet…

12 Ağustos 2023
deontolojik etik
Felsefe

Deontolojik etik nedir?

Bir deontolog için hırsızlık her zaman kötü olabilir nitekim çalma eyleminin özünde bu eylemi (daima) kötü yapan bir şey vardır.

15 Ağustos 2024
kurt, köpek
Acaba Öyle midir?Zooloji

İddia: “Kurt evcilleşmeyen tek hayvandır!”

Tabii ki bu cümle baştan aşağı yanlıştır. Öncelikle kurt ilk ve en mükemmel evcilleşen hayvandır. İnsanın en yakın dostu köpek…

2 Şubat 2024

ÖNERİLEN YAZILAR

Grok, Attila’yı neden “barbar” yaptı?

Yapay zekânın taraflı olmasının kendi ağzından itirafı...

Yapay Zekâ
12 Ekim 2025

Yapay Zekâ işleri kolaylaştırıyor ama ahlâki çizgileri bulandırıyor mu?

Yapay zekâ bize hız, verimlilik ve kolaylık sunuyor. Ama aynı zamanda insan ile eylemleri arasına görünmez bir perde çekerek ahlâki…

HaberYapay Zekâ
1 Ekim 2025

Sentetik hakikatin çağında: Deepfake’ler ve toplumsal güven krizi

Deepfake teknolojisinin yükselişi gerçeklik algısının kendisini hedef alan bir dönüşümdür.

Yapay Zekâ
30 Eylül 2025

Bilim ve sansür

Egemen güçler ve bazen de erkek egemen toplumlar ciddi şekilde bilimsel düşünceye sansür uygulamaktadır.

Bilim Tarihi
30 Eylül 2025
  • Biz Kimiz
  • Künye
  • Yayın Kurulu
  • Yürütme Kurulu
  • Gizlilik Politikası
  • Kullanım İzinleri
  • İletişim
  • Reklam İçin İletişim

Takip Edin: 

GazeteBilim

E-Posta: gazetebilim@gmail.com

Copyright © 2023 GazeteBilim | Tasarım: ClickBrisk

  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk

Removed from reading list

Undo
Welcome Back!

Sign in to your account

Lost your password?