Makine öğrenimi tabanlı bir özgeçmiş tarama aracının kadınlara karşı önyargılı olduğu tespit edildi çünkü eğitim verileri, özgeçmişlerin çoğunun erkekler tarafından gönderildiği geçmiş uygulamaları yansıtıyordu.
Çeviri ve özet: Suat Tatar
YZ her yere yayılmış durumda
Yapay zeka, telefonunuzun kilidini açan yüz tanımadan dijital asistanınıza güç veren konuşma tanımaya kadar birçok insanın günlük hayatında görünür bir rol oynuyor. Ayrıca, sosyal medya ve çevrimiçi alışveriş oturumlarınızı şekillendirmek, video izleme seçimlerinize rehberlik etmek ve bir yolculuk paylaşım hizmetinde sizi bir sürücüyle eşleştirmek gibi belli belirsiz farkında olabileceğiniz işlevleri de yerine getiriyor.
Yapay zeka, hayatınızı tamamen gözünüzden kaçabilecek şekillerde de etkiliyor. Eğer bir işe başvuruyorsanız, birçok işveren işe alım sürecinde yapay zekayı kullanıyor. Patronlarınız, işten ayrılma ihtimali olan çalışanları belirlemek için onu kullanıyor olabilir. Bir kredi için başvuruyorsanız, bankanızın size krediyi verip vermeyeceğine karar vermek için yapay zekâ kullanıyor olması muhtemeldir. Tıbbi bir durum için tedavi görüyorsanız, sağlık hizmeti sağlayıcılarınız tıbbi görüntülerinizi değerlendirmek için bunu kullanabilir. Ve ceza adalet sistemine takılmış birini tanıyorsanız, yapay zekâ hayatının gidişatını belirlemede bir rol oynayabilir.
Algoritmik zararlar
Radarın altında uçan yapay zekâ sistemlerinin çoğu, zarar verebilecek önyargılara sahiptir. Örneğin, makine öğrenimi yöntemleri, eğitim verilerinden kalıpları genelleştirmek için bir dizi öncülle başlayan tümevarım mantığını kullanır. Makine öğrenimi tabanlı bir özgeçmiş tarama aracının kadınlara karşı önyargılı olduğu tespit edildi çünkü eğitim verileri, özgeçmişlerin çoğunun erkekler tarafından gönderildiği geçmiş uygulamaları yansıtıyordu.
Sağlık hizmetlerinden çocuk refahına kadar çeşitli alanlarda tahmine dayalı yöntemlerin kullanılması, toplumdaki farklı gruplar arasında eşit olmayan risk değerlendirmelerine yol açan kohort önyargısı gibi önyargılar sergileyebilir. Yasal uygulamalar ırk ve cinsiyet gibi niteliklere dayalı ayrımcılığı yasaklasa bile – örneğin tüketici kredilerinde – vekaleten ayrımcılık yine de ortaya çıkabilir. Bu durum, algoritmik karar verme modelleri ırk gibi yasal olarak korunan özellikleri kullanmadığında ve bunun yerine mahalle gibi yasal olarak korunan özellikle yüksek oranda ilişkili veya bağlantılı özellikleri kullandığında meydana gelir. Araştırmalar, risk açısından eşdeğer Siyah ve Latin borçluların, devlet destekli kuruluşların menkul kıymetleştirilmiş ve Federal Konut İdaresi sigortalı kredilerinde beyaz borçlulara göre önemli ölçüde daha yüksek faiz oranları ödediğini ortaya koymuştur.
Araştırmalar, risk açısından eşdeğer Siyah ve Latin borçluların, devlet destekli kredilerde beyaz borçlulara göre önemli ölçüde daha yüksek faiz oranları ödediğini ortaya koymuştur.
Bir başka önyargı biçimi de karar vericilerin bir algoritmayı, algoritmanın tasarımcılarının amaçladığından farklı bir şekilde kullanması durumunda ortaya çıkar. İyi bilinen bir örnekte, bir sinir ağı, astımı, zatürreden ölüm riskinin daha düşük olmasıyla ilişkilendirmeyi öğrenmiştir. Bunun nedeni, pnömonili astımlılara geleneksel olarak, genel nüfusa kıyasla ölüm risklerini azaltan daha agresif bir tedavi verilmesidir. Ancak, böyle bir sinir ağından elde edilen sonuç hastane yatağı tahsisinde kullanılırsa, astımı olan ve pnömoni ile başvuranlara tehlikeli bir şekilde öncelik verilmeyecektir.
Algoritmalardan kaynaklanan önyargılar karmaşık toplumsal geri bildirim döngülerinden de kaynaklanabilir. Örneğin, yeniden suç işlemeyi tahmin ederken, yetkililer hangi suçlardan hüküm giymiş kişilerin tekrar suç işleme olasılığının yüksek olduğunu tahmin etmeye çalışır. Ancak tahmin algoritmalarını eğitmek için kullanılan veriler aslında kimin yeniden tutuklanma ihtimalinin yüksek olduğu ile ilgilidir.
Kaynak: https://techxplore.com/news/2023-11-dystopian-scenariosai-pervasive-today-hidden.html

