En iyi yapay zekâ araştırmacıları ve CEO’larının imzaladıkları 22 kelimelik bildirge “yok olma riskine” karşı uyarıyor. Bu sene yapay zekâ konusunda gelen bu ikinci uyarı metninin imzacıları arasında Google DeepMind’in CEO’su Hassabis ve OpenAI’nın CEO’su Altman da yer alıyor.
Haber: James Vincent
Çeviri: Erdem Ergen
Mümkün olduğunca geniş bir kitlenin desteğini almak amacıyla [Türkçesi de] 22 kelimelik metin tam olarak şöyle:
“Yapay zekâdan (YZ) kaynaklanacak yok olma riskini hafifletmek, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel önceliklerden olmalıdır.”
San Francisco merkezli kâr amacı gütmeyen bir kuruluş olan the Center for AI Safety tarafından kamuoyuna duyurulan bu bildirinin imzacıları arasında; Google DeepMind’ın CEO’su Demis Hassabis ve OpenAI’nın CEO’su Sam Altman da bulunuyor. Bu ikili dışında diğer önemli iki isim de Geoffrey Hinton ve Yoshua Bengio. Hem Hinton ve hem de Bengio programlama alanının Nobel’i sayılan Turing Award’ı 2018’de kazanan üç bilimciden ikisidir. 2018 yılında ödülü kazanan üçüncü isim olan Facebook’un çatı şirketi Meta’nın kıdemli yapay zekâ bilimcilerinden Yann LeCun haber yayına hazırlandığı sürede henüz bildirgeyi imzalamamıştı.
Açıklamayla birlikte, YZ güvenliği konusundaki karmaşık ve ihtilaflı tartışmaya üst düzey yeni isimler de müdahale etmiş oldu. Bu yılın başlarında, benzer imzacılar tarafından imzalanan ve 22 kelimelik bu bildirgeyi destekleyen açık mektupla, YZ geliştirme çalışmaların altı ay süreyle “dondurulması” çağrısı yapılmıştı. Mektup birçok düzeyde eleştirildi. Bazı uzmanlar mektubun YZ’nin yarattığı riski abarttığını düşünürken, başkaları risk konusunda hemfikirdi ancak mektubun önerdiği çareyi kabul etmediler.

the Center for AI Safety’nin icra direktörü Dan Hendrycks, New York Times’e (NYT) verdiği demeçte; YZ’nin oluşturduğu tehdidi hafifletmek için herhangi bir potansiyel yol önermeyen bugünkü açıklamanın kısalığı, bu tür anlaşmazlıklardan kaçınmayı amaçladığını ifade ediyordu: “30 potansiyel müdahaleden oluşan çok geniş bir menüyü dayatmak istemedik. Bu olduğunda, mesajı sulandırmış olurduk.”
Hendrycks, mesajı, YZ riskinden endişe duyan sektör çalışanlarının kaygılarının toplumun önüne konması olarak nitelendirdi. NYT’ye verdiği demeçte; “YZ topluluklarında bu işlerden kaygı duyan insan sayısının iki elin parmakları kadar olduğu yönünde genel bir yanlış anlama var” diyen Hendrycks ekledi: “Ancak aslında özelde pek çok kişi konuyla ilgili kaygılarını dile getiriyor.”

Bu tartışmanın genel hatları biliniyor, ancak YZ sistemlerinin yeteneklerini hızla artırdığı ve artık güvenli bir şekilde çalışmadığı varsayımsal senaryolara dayanan ayrıntıların sonu gelmez. Birçok uzman, istihbaratta gelecekte öngörülen kazanımların kanıtı olarak büyük dil modelleri gibi sistemlerdeki hızlı gelişmelere işaret ediyor. YZ sistemlerinin bir kez belirli bir karmaşıklık düzeyine ulaşmasıyla, eylemlerini kontrol etmenin imkânsız hâle gelebileceğini söylüyorlar.
Diğerleri bu tahminlere şüpheyle yaklaşıyor. YZ sistemlerinin, örneğin araba kullanmak gibi nispeten sıradan görevleri bile yerine getiremediğine işaret ediyorlar. Bu araştırma alanında yıllarca süren çabaya ve milyarlarca yatırıma rağmen, tamamen sürücüsüz arabalar hâlâ gerçeklikten uzak. Şüpheciler, YZ’nin bu tek zorlukla bile başa çıkamadığı gerçeğine dayanarak, teknolojinin önümüzdeki yıllarda diğer tüm insan becerilerini yapma şansı nedir, diye soruyor.

Bu arada, hem YZ’nin risklerini oraya koyanlar ve hem de şüpheciler, yeteneklerinde iyileştirmeler olmasa bile, YZ sistemlerinin günümüzde, kitlesel gözetleme sağlayan kullanımlarından, hatalı “öngörülü polislik” algoritmalarını güçlendirmeye ve yanlış bilgi ve dezenformasyon oluşumunu kolaylaştırmaya kadar bir dizi tehdit oluşturduğu konusunda hemfikirler.
Kaynak:
https://www.theverge.com/2023/5/30/23742005/ai-risk-warning-22-word-statement-google-deepmind-openai (son erişim tarihi: 01.06.2023).