ABD-İsrail ikilisinin İran’a yönelik emperyalist saldırısı yapay zekânın savaşta kullanılması konusunu tekrar gündeme getirdi. Aşağıdaki yazıyı, ABD’deki tartışmalar ve yaklaşımları öğrenmek bağlamında okurlarımızın dikkatine sunuyoruz.
Çeviren: Binali Furkan Alper
GazeteBilim Yazı İşleri
Amerika Birleşik Devletleri, İsrail ve İran arasında giderek tırmanan çatışma, savaşta yapay zekâ kullanımına dikkatleri çekti. ABD-İsrail saldırısının başladığı 28 Şubat’tan sadece bir gün önce ABD hükümeti, yapay zekâ kullanımına dair etik endişelerin altını çizen bir anlaşmazlığın parçası olarak ana yapay zekâ tedarikçilerinden birini devre dışı bıraktı.
Bu hafta ise, akademisyenler ve hukuk uzmanları, savaşta yapay zekanın etik veya yasal kullanımlarına dair uluslararası bir anlaşmaya varma yönündeki uzun soluklu çabaların bir parçası olarak, ölümcül otonom silah sistemlerini ve orduda yapay zekâ tedarikini tartışmak adına İsviçre’nin Cenevre kentinde bir araya geliyor.
Philadelphia’daki Pennsylvania Üniversitesinden siyaset bilimci Michael Horowitz, hızlı teknolojik gelişimin, yavaş ilerleyen uluslararası tartışmaları geride bıraktığını belirtiyor.
Birleşik Krallık’taki Newcastle Üniversitesinde askeri hedefleme üzerine çalışan siyasi coğrafyacı Craig Jones, “Yapay zekâ savaşını düzenleme veya yasal kullanım konusunda bir anlaşmaya varılana kadar kullanımını duraklatma konusundaki mevcut başarısızlık, yapay zekâ savaşının potansiyel olarak yaygınlaşmasının an meselesi olduğunu gösteriyor gibi görünüyor” diyor.
Savaş alanında yapay zekâ
Horowitz, ABD ordusunun lojistik ve ofis desteği, istihbarat toplama ve analizi ile savaş alanında karar desteği için büyük dil modellerine (LLM) dayalı yapay zekâ kullandığını söylüyor. Örneğin, görüntü işleme ve taktik destek dahil olmak üzere çeşitli uygulamalar için yapay zekâyı kullanan Maven Akıllı Sistemi, hedefleri önerip önceliklendirerek saldırı kabiliyetlerini hızlandırıyor. Washington Post ve diğer haber kuruluşlarının raporlarına göre sistem, önceki çatışmalarda ve İran’a yönelik saldırılarda kullanıldı. Horowitz, “Ayrıntılar kamuoyu tarafından bilinmiyor” diyor.
Yapay zekânın hassas hedeflemesinin savaş sırasında sivil can kayıplarını azaltmaya yardımcı olabilmesi muhtemeldir. Ancak, yapay zekanın diğer kullanım alanlarının yanı sıra hedef tespiti ve dron navigasyonuna yardımcı olmak için kullanıldığı Ukrayna ve Gazze’deki devam eden çatışmalarda yüksek sivil ölüm bilançoları görüldü. Jones, “Yapay zekânın sivil ölümlerini veya hatalı hedefleme kararlarını azalttığına dair hiçbir kanıt yok ve aksinin geçerli olması da mümkün,” diyor.
Yapay zekânın insan gözetimi olmadan ölümcül otonom silahları yönlendirmek için kullanılma olasılığı son derece tartışmalı bir alandır. Silahlı kuvvetler, örneğin düşman muhariplerini otonom olarak tespit etmek, bulmak ve öldürmek için yapay zekâ destekli dronları kullanma kabiliyetini olumlu karşılayabilir. Fakat mevcut insancıl hukuk, bu tür silahların askeri ve sivil hedefleri birbirinden ayırabilmesini şart koşmaktadır. Horowitz, insan gözetimi olmaksızın çalışan LLM (Büyük Dil Modeli) destekli, tamamen otonom silahların şu anda güvenilir olmadığını ve uluslararası yasalara uymadığını söylüyor.
Derin endişeler
Yapay zekânın gelecekteki potansiyel kullanım alanları, ABD Savunma Bakanlığı ile Kaliforniya, San Francisco merkezli bir yapay zekâ şirketi olan Anthropic arasında anlaşmazlığın merkezinde yer alıyor. 2024 yılından bu yana Maven sistemi, Savunma Bakanlığı ile yapılan 200 milyon ABD doları değerindeki sözleşmenin bir parçası olarak Anthropic’in Claude LLM’i (Büyük Dil Modeli) tarafından destekleniyor.
Ocak ayında bakanlık diğer hususların yanı sıra hükümet adına yapay zekâ tedarik eden sözleşmelerin, yapay zekânın hiçbir kısıtlama olmaksızın “herhangi bir yasal kullanım” için devreye sokulabileceğini belirtmesi gerektiğini ilan eden bir uyarı yayımladı. Ancak Anthropic, Claude’un kitlesel yurt içi gözetim için veya tamamen otonom silahları yönlendirmek amacıyla kullanılamayacağını belirterek güvenlik önlemlerini kaldırmayı reddeti.
Şirket mevcut teknolojinin bu işlevleri güvenilir bir şekilde yerine getiremeyeceğini ifade etti. 27 Şubat’ta ABD Başkanı Donald Trump, hükümete Anthropic’ten teknoloji kullanımını durdurma talimatı verdi. Horowitz “Tüm bu kriz, gelecekteki olası kullanım senaryoları üzerine teorik bir anlaşmazlık olarak patlak verdi,” diyor.
Hükümet, Anthropic ile yollarını ayırdığından bu yana San Francisco merkezli bir diğer yapay zekâ şirketi olan OpenAI ile bir anlaşma imzaladı. Şirket, sözleşmenin, teknolojisinin gözetim faaliyetlerinde veya tamamen otonom silahları yönlendirmede kullanılmayacağını ana hatlarıyla belirttiğini ifade ediyor. 5 Mart itibarıyla, Anthropic İcra Kurulu Başkanı Dario Amodei’nin bakanlık ile yeniden görüşmelere başladığı bildiriliyor.
Alandaki araştırmacılar, yapay zekânın olası olumsuz ve etik dışı kullanımları hakkında derin endişelerini dile getirdiler. Google ve OpenAI çalışanları şu anda, her iki şirketin liderlerine yapay zekâ modellerinin yurt içi kitlesel gözetim için veya insan gözetimi olmadan insanları otonom bir şekilde öldürmek amacıyla kullanılmasına izin vermemeleri çağrısında bulunan bir dilekçe dağıtılıyor.
Canberra’daki Avustralya Ulusal Üniversitesinden siyaset bilimci Toni Erskine, yapay zekânın savaşta gelecekteki kullanımlarını öngören ve geçen sene politika önerileri üreten bir projenin başında yer aldı. Erskine LLM akıl yürütmesi etrafındaki bilinen yanlılık ve şeffaflık eksikliği sorunlarının yanı sıra, projenin raporu insan muhakemsinin yerini yapay zekânın almasının çatışmaları kazara tırmandırabileceği riskinin altını çiziyor. Raporda, “Döngüde insan bulunmayan tamamen otonom silah sistemleri etik olarak savunulamaz ve uluslararası alanda yasaklanmalıdır” deniliyor. Ayrıca otonom olmayan sistemlerin de riskler taşıdığını ve düzenlemeler gerektiğini ekliyor.
Yasal çözümler
Savaşta yapay zekânın yasal ve etik kullanımları konusunda uluslararası bir anlaşmaya varmak için çeşitli üst düzey çabalar yürütülmektedir. Ancak Jones, bu girişimlerin ana oyuncuların katılım eksikliği nedeniyle sekteye uğradığını söylüyor. “ABD, İsrail ve Çin de dahil olmak üzere aktif yapay zekâ savaş programları olan devletler, genellikle daha fazla düzenlemeye karşı çıkıyor” diyor.
Otonom silahlarda yapay zekâ kullanımına karşı spesifik bir kural, Belirli Konvansiyonel Silahlar Sözleşmesi (CCW) aracılığıyla ortaya çıkabilir. Bu hafta Cenevre’de düzenlenen CCW ölümcül otonom silah sistemleri uzman grubu toplantısında uzmanlar, Stockholm Uluslararası Barış Araştırmaları Enstitüsünün askeri yapay zekânın sorumlu tedariki hakkındaki raporunu tartıştılar. Geçen ay yayımlanan bu rapor, ABD Savunma Bakanlığının şu anda yapay zekâ teknolojiler şirketleriyle içinde bulunduğu sözleşme aşamasının “sorumlu davranış ilkeleri” konusunda net olmak için kritik bir zaman olduğunu vurguluyor.
Kaliforniya’daki Stanford Üniversitesi Uluslararası Güvenlik ve İşbirliği Merkezinden siber güvenlik uzmanı Herbert Lin, tüm bu çabaların, yapay zekâ destekli tam otonom ölümcül sistemleri tanımlama veya artık birçok bilgisayar sisteminin ayrılmaz bir parçası olan yapay zekâ kullanımının sınırlarını çizme zorlukları nedeniyle engellendiğini söylüyor. Dünyanın savaşta yapay zekânın yasal kullanımına ilişkin herhangi bir resmi anlaşmaya “yakın bir yerde” olduğunu düşünmeyen Lin, “Bu çok, çok, çok, ama çok karmaşık,” diyor.

