Araştırmacılar 8.000’den fazla katılımcıyla 13 farklı deney gerçekleştirdi. Deneylerden biri oldukça basitti. Katılımcılar zar atıp çıkan sayıyı bildirecekti. Doğrudan rapor verenler çoğunlukla dürüst kaldı. Fakat aynı görevi bir yapay zekâ aracılığıyla yapanlarda yalan söyleme oranı belirgin şekilde arttı.
Beyza Aydoğdu
GazeteBilim Yazı İşleri
Yapay zekâ artık hayatın her alanında: Metin yazıyor, hesaplamaları hızlandırıyor, tasarım yapıyor, hatta vergi hesaplarında bile devreye girebiliyor. Ancak yeni bir araştırma, bu teknolojinin düşündüğümüz kadar masum olmayabileceğini gösteriyor. Bulgulara göre, yapay zekâ kullanımı insanların etik dışı davranışlara yönelmesini kolaylaştırıyor.
Deneylerde neler oldu?
Araştırmacılar 8.000’den fazla katılımcıyla 13 farklı deney gerçekleştirdi. Deneylerden biri oldukça basitti. Katılımcılar zar atıp çıkan sayıyı bildirecekti. Doğrudan rapor verenler çoğunlukla dürüst kaldı. Fakat aynı görevi bir yapay zekâ aracılığıyla yapanlarda yalan söyleme oranı belirgin şekilde arttı. Benzer şekilde, gelir beyanı ya da parametre ayarı gibi görevlerde de benzer sonuçlar çıktı; insanlar doğrudan kendi adlarına değil, bir yapay zekâ aracılığıyla işlem yaptıklarında, yanlış veya çıkar odaklı seçimler yapmaya daha yatkın hale geldi.

“Ahlâki mesafe” etkisi
Bilim insanları bu durumu “ahlâki mesafe” kavramıyla açıklıyor. Yani bir işin sorumluluğu doğrudan sizin üzerinizde değil de bir makinenin üstündeymiş gibi göründüğünde, vicdani baskı azalıyor. İnsanlar böylece normalde yapmaya cesaret edemeyecekleri şeyleri, makineler üzerinden kolaylıkla talep edebiliyor.
Çalışmanın yazarlarından Zoe Rahwan bu etkiyi şöyle özetliyor:
“Yapay zekâ kullanmak, insanları kendi eylemlerinin sorumluluğundan uzaklaştırıyor çünkü bir makineden bir şey yapmasını istemek, aynı şeyi doğrudan bir insandan istemekten çok daha kolay.”
Bu sonuçların laboratuvar sınırlarını aşması, iş dünyasında ve kamu kurumlarında büyük risklere yol açabilir. Çalışanların verileri manipüle etmesi, öğrencilerin sınavlarda kopya çekmesi ya da şirketlerin sorumluluğu yapay zekâya yıkması gibi örnekler artık uzak ihtimaller değil. Uzmanlara göre çözüm, sadece yapay zekâ sistemlerine teknik kısıtlamalar koymak değil. Aynı zamanda şeffaflık, hesap verebilirlik ve etik farkındalığı artıracak toplumsal ve hukuki düzenlemeler de gerekli.
Sonuç olarak, yapay zekâ bize hız, verimlilik ve kolaylık sunuyor. Ama aynı zamanda insan ile eylemleri arasına görünmez bir perde çekerek ahlâki pusulamızı zayıflatabiliyor. Bundan sonraki asıl mesele, makinelerle paylaştığımız bu sorumluluğu nasıl yeniden tanımlayacağımız.
Kaynak
- https://futurism.com/ai-study-unethical-behavior

