YZ geliştirilmeye devam ediliyor ama acaba bir Frankenstein mi yaratıyoruz?
Herkesin aklının bir tarafında olup, dile getirmekte zorlandığı soru bu. YZ ile çalıştıracağımız robotlara, Asimov’un 3 robot ilkesini[1] ana emirler olarak yüklersek, her şey hallolacak mı? Bu ilkeler bizi yok olmaktan korur mu yoksa bazıları, kar amacıyla, bu 3 ilkeyi geçersiz hale getirebilecek bir arka kapı koyar mı? Cin şişeden çıktı mı desek, Pandora’nın kutusu açıldı mı desek, bir şeyler oldu ve bundan sonrasını düşünmek, yaşananları baz alıp, yaşanacaklara hazırlık yapmamız lazım. Yapay zekâ peynir gibi bir şey. Doğada, kendi kendisine var olmasına imkân yok. Onu insan yaratıyor. O zaman yapay zekâ ile ilişkili soruyu da insan üzerinden sormak lazım. Soralım ve öğrenelim: Yapay zekâ şu anki koşullarda insanlığı “Altın Çağ”a mı götürür “Siberpunk”a mı?
İnsan karakteri ve yüzlerce yıllık insanlık tarihini göz önüne alarak yapay zekâ yaratıcılarının etik değerleri yok sayarak kendilerine çıkar elde etme olasılığı nedir? Bana 100 üzerinden sayısal olarak tahmin ettiğin değeri söyle?[2]
Deep Seek
İnsan karakteri ve tarihsel eğilimler göz önüne alındığında, yapay zekâ (YZ) yaratıcılarının etik değerleri görmezden gelerek kendi çıkarlarına yönelme olasılığını değerlendirmek için birçok faktörü dikkate almak gerekir. Bu faktörler arasında insan doğası, rekabet ortamı, regülasyon eksiklikleri ve teknolojinin gücü yer alır.
Tahmini Olasılık: 65/100
Gemini
İnsanlık tarihi ve insan karakteri göz önüne alındığında, yapay zekâ yaratıcılarının etik değerleri yok sayarak kendilerine çıkar elde etme olasılığı oldukça yüksek bir risk faktörüdür. Bu olasılığı 100 üzerinden sayısal olarak ifade etmek gerekirse, tahminim 75-85 aralığında olacaktır.
Claude
İnsan tarihi ve karakterini göz önüne alırsak, yapay zekâ yaratıcılarının etik değerleri yok sayarak kişisel çıkar elde etme olasılığını 100 üzerinden 75-80 arası olarak değerlendiriyorum.
Grok
100 üzerinden bir tahmin yapacak olursam, yapay zekâ yaratıcılarının etik değerleri yok sayarak kendilerine çıkar elde etme olasılığını 70 olarak görüyorum. Bu, insanlık tarihindeki bencillik eğiliminin güçlü bir yansıması, ama aynı zamanda modern dünyada etik bilincin ve hesap verebilirlik mekanizmalarının artması nedeniyle %100 değil.
ChatGPT
100 üzerinden 75 diyebilirim. Yani, yapay zekâ geliştiricilerinin etik değerleri yok sayarak çıkar sağlamaya çalışma olasılığı yüksek ama mutlak değil. Çünkü etik standartların gelişmesi, toplumsal farkındalık ve düzenleyici mekanizmalar bu olasılığı azaltabilir.
Kimi
Yapay zeka yaratıcılarının etik değerleri tamamen görmezden gelerek sadece kendi çıkarlarını elde etme olasılığını 100 üzerinden oldukça düşük olarak değerlendirebiliriz. Ancak, etik ilkelerin uygulanması zor olduğu için, bu oran tamamen sıfır da olamaz. Tahmini olarak, bu olasılığı 10-15 olarak değerlendirebiliriz. Bu, etik değerlerin önemine rağmen uygulamada karşılaşılan zorlukların ve farklı anlayışların etkisiyle gerçekleşmektedir
Sana göre bu mekanizmaların geliştirilme olasılığı mı daha yüksek yoksa büyük kâr beklentisi ile yapılacak manipülasyonların gerçekleşmesi olasılığı mı? Rakamsal olarak yüzde ver.
Deep Seek
Karşılaştırma ve Sonuç
- Etik Mekanizmaların Geliştirilme Olasılığı:60/100
- Toplumsal farkındalık, regülasyonlar ve sivil toplumun baskısı, etik mekanizmaların geliştirilmesini destekliyor. Ancak küresel uyum eksikliği ve şirketlerin kâr odaklı yaklaşımları bu süreci yavaşlatabilir.
- Büyük Kar Beklentisiyle Manipülasyonların Gerçekleşme Olasılığı:70/100
- Rekabet, kâr hırsı ve regülasyon boşlukları, manipülatif uygulamaların gerçekleşme olasılığını artırıyor. Ancak toplumsal tepki ve uzun vadeli riskler bu olasılığı bir miktar dengeliyor.
Gemini
Manipülasyonların gerçekleşme olasılığı:
- %60-70:
- Büyük kâr beklentisi, şirketleri ve bireyleri etik sınırları zorlamaya teşvik edebilir.
- Yapay zekâ teknolojilerinin karmaşıklığı, manipülasyonları tespit etmeyi zorlaştırabilir.
- Düzenleyici boşluklar ve yasal belirsizlikler, kötü niyetli eylemler için bir ortam yaratabilir.
Etik mekanizmaların geliştirilme olasılığı:
- %30-40:
- Toplumsal farkındalık ve talep, şirketleri ve hükümetleri daha sorumlu davranmaya itebilir.
- Yapay zekâ etiği konusunda artan araştırma ve geliştirme çabaları, etkili mekanizmaların oluşturulmasına katkı sağlayabilir.
- Yapay zekânın kendi araçları ile manipülasyonlara karşı mücadele etme olasılığı artıyor.
Claude
Koruyucu Mekanizmaların Geliştirilme Olasılığı: %35-40
- Artan akademik ve kamusal farkındalık
- Düzenleyici kurumların baskısı
- Teknoloji şirketlerindeki etik kadrolar
- Uluslararası işbirliği çabaları
Kâr Odaklı Manipülasyonların Gerçekleşme Olasılığı: %60-65
- Şirketler arası rekabet baskısı
- Yatırımcıların hızlı getiri beklentileri
- Uluslararası düzenleme eksikliği
- Tarihsel örneklerin gösterdiği insan davranış kalıpları
- Gelişmekte olan ülkelerde daha az düzenleme ve denetim
- İlk harekete geçenin avantajı prensibi
Grok
Manipülasyonların gerçekleşme olasılığı (%80), etik mekanizmaların geliştirilme olasılığından (%60) daha yüksek görünüyor. Bunun sebebi, kâr arayışının anlık ve bireysel motivasyonlarla hızlı hareket etmesi, buna karşın etik mekanizmaların kolektif çaba ve zaman gerektirmesi.
ChatGPT
Bu iki olasılığı değerlendirirken birkaç temel faktörü göz önüne almak gerekir:
- Tarihsel Örüntüler: Büyük kâr beklentileri genellikle etik düzenlemelerden daha hızlı ve güçlü bir motivasyon kaynağı olmuştur.
- Teknolojinin Hızı vs. Düzenlemelerin Yavaşlığı: Teknoloji çok hızlı gelişirken, düzenleyici mekanizmalar genellikle geriden gelir. Bu da manipülasyonlara fırsat tanır.
- Kamuoyu ve Direnç: Büyük skandallar ve toplumsal bilinçlenme, etik düzenlemelerin gelişmesine katkıda bulunabilir (örneğin, GDPR gibi veri koruma yasaları).
- Şirketlerin Gücü: Büyük teknoloji şirketleri, düzenlemeleri etkileme ve kendi çıkarlarına göre şekillendirme gücüne sahipler.
Bu değerlendirmeler ışığında:
- Manipülasyonların gerçekleşme olasılığı: %70
- Etik düzenlemelerin etkin bir şekilde geliştirilme olasılığı: %30
Kimi
Yapay Zeka Geliştirme Olasılığı: Etik değerlerin önemi ve toplumsal baskılara rağmen, yapay zeka geliştiricilerinin etik ilkeleri göz önünde bulundurarak çalışması daha olasıdır. Bu nedenle, etik değerleri göz ardı etme olasılığını %20-25 olarak tahmin edebiliriz.
Kâr Elde Etme ve Manipülasyon Olasılığı: Sadece kendi çıkarlarını düşünerek etik değerleri görmezden gelme ihtimali daha düşük olabilir. Bu oranın %10-15 arasında olduğunu düşünmek mantıklıdır.
Sonuç olarak, yapay zekâ geliştiricilerinin etik değerleri göz önünde bulundurarak çalışması daha olasıdır, ancak tamamen sıfır olmayan bir risk de mevcuttur.
Yapay zekaların verdikleri cevaplar bunlar. Sanırım gelecek projeksiyonlarımızı bu perspektiflere göre yapsak hiç fena olmayacak.
[1] 1.Bir Robot, bir insana zarar veremez, ya da zarar görmesine seyirci kalamaz.
2.Bir robot, birinci yasayla çelişmediği sürece bir insanın emirlerine uymak zorundadır.
3.Bir robot, birinci ve ikinci yasayla çelişmediği sürece kendi varlığını korumakla yükümlüdür.
[2] Verilen cevapların özetini değil, tamamını okumak isterseniz https://kuzubudu.com/715-2/ adresinde 2 numaralı yazıya bakabilirsiniz