GazeteBilim
Destek Ol
Ara
  • Anasayfa
  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk
  • Etkinlikler
    • Astronomi Dersleri
    • Çağdaş Epistemoloji Dersleri
    • Davranış Nörolojisi Dersleri
    • Eğitimciler İçin Yapay Zekâ Okur-Yazarlığı Dersleri
    • Epigenetik Dersleri
    • Evren ve Kozmoloji Dersleri
    • Evrim Dersleri
    • Bilim Tarihi Dersleri
    • Hegel Dersleri
    • İnsan Felsefesi Dersleri
    • Kapitalizmin Tarihsel Gelişimi ve İktisadi Düşünce Dersleri
    • Konuşmaktan Korkmuyorum
    • Kuantum Mekaniği ve Yorumları Dersleri
    • Marx Dersleri
    • Nörobilim Dersleri
    • Nörohukuk
    • Nörofelsefe Dersleri
    • Nöroperspektifler
    • Nöropsikanaliz Dersleri
    • Öğrenilmiş Çaresizlik
    • Teizm, Deizm, Agnostisizm ve Ateizm Dersleri
    • Teoloji, Bilim ve Felsefe Tartışmaları
    • Zihin Dersleri
  • Biz Kimiz
  • İletişim
Okuyorsun: Yapay zekâ İran’daki savaşı nasıl şekillendiriyor ve gelecekteki çatışmalar için sırada ne var?
Paylaş
Aa
GazeteBilimGazeteBilim
Ara
  • Anasayfa
  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk
  • Etkinlikler
    • Astronomi Dersleri
    • Çağdaş Epistemoloji Dersleri
    • Davranış Nörolojisi Dersleri
    • Eğitimciler İçin Yapay Zekâ Okur-Yazarlığı Dersleri
    • Epigenetik Dersleri
    • Evren ve Kozmoloji Dersleri
    • Evrim Dersleri
    • Bilim Tarihi Dersleri
    • Hegel Dersleri
    • İnsan Felsefesi Dersleri
    • Kapitalizmin Tarihsel Gelişimi ve İktisadi Düşünce Dersleri
    • Konuşmaktan Korkmuyorum
    • Kuantum Mekaniği ve Yorumları Dersleri
    • Marx Dersleri
    • Nörobilim Dersleri
    • Nörohukuk
    • Nörofelsefe Dersleri
    • Nöroperspektifler
    • Nöropsikanaliz Dersleri
    • Öğrenilmiş Çaresizlik
    • Teizm, Deizm, Agnostisizm ve Ateizm Dersleri
    • Teoloji, Bilim ve Felsefe Tartışmaları
    • Zihin Dersleri
  • Biz Kimiz
  • İletişim
  • Destek Ol
Bizi Takip Edin
  • Biz Kimiz
  • Künye
  • Yayın Kurulu
  • Yürütme Kurulu
Copyright © 2023 Gazete Bilim - Bütün Hakları Saklıdır
GazeteBilim > Blog > Teknoloji > Yapay Zekâ > Yapay zekâ İran’daki savaşı nasıl şekillendiriyor ve gelecekteki çatışmalar için sırada ne var?
Yapay Zekâ

Yapay zekâ İran’daki savaşı nasıl şekillendiriyor ve gelecekteki çatışmalar için sırada ne var?

Yazar: GazeteBilim Yayın Tarihi: 7 Mart 2026 7 Dakikalık Okuma
Paylaş
savaş
yapay zekanın diğer kullanım alanlarının yanı sıra hedef tespiti ve dron navigasyonuna yardımcı olmak için kullanıldığı Ukrayna ve Gazze'deki devam eden çatışmalarda yüksek sivil ölüm bilançoları görüldü.

ABD-İsrail ikilisinin İran’a yönelik emperyalist saldırısı yapay zekânın savaşta kullanılması konusunu tekrar gündeme getirdi. Aşağıdaki yazıyı, ABD’deki tartışmalar ve yaklaşımları öğrenmek bağlamında okurlarımızın dikkatine sunuyoruz.

İçindekiler
Savaş alanında yapay zekâDerin endişelerYasal çözümler

Çeviren: Binali Furkan Alper
GazeteBilim Yazı İşleri

Amerika Birleşik Devletleri, İsrail ve İran arasında giderek tırmanan çatışma, savaşta yapay zekâ kullanımına dikkatleri çekti. ABD-İsrail saldırısının başladığı 28 Şubat’tan sadece bir gün önce ABD hükümeti, yapay zekâ kullanımına dair etik endişelerin altını çizen bir anlaşmazlığın parçası olarak ana yapay zekâ tedarikçilerinden birini devre dışı bıraktı.

Bu hafta ise, akademisyenler ve hukuk uzmanları, savaşta yapay zekanın etik veya yasal kullanımlarına dair uluslararası bir anlaşmaya varma yönündeki uzun soluklu çabaların bir parçası olarak, ölümcül otonom silah sistemlerini ve orduda yapay zekâ tedarikini tartışmak adına İsviçre’nin Cenevre kentinde bir araya geliyor.

Philadelphia’daki Pennsylvania Üniversitesinden siyaset bilimci Michael Horowitz, hızlı teknolojik gelişimin, yavaş ilerleyen uluslararası tartışmaları geride bıraktığını belirtiyor.

Birleşik Krallık’taki Newcastle Üniversitesinde askeri hedefleme üzerine çalışan siyasi coğrafyacı Craig Jones, “Yapay zekâ savaşını düzenleme veya yasal kullanım konusunda bir anlaşmaya varılana kadar kullanımını duraklatma konusundaki mevcut başarısızlık, yapay zekâ savaşının potansiyel olarak yaygınlaşmasının an meselesi olduğunu gösteriyor gibi görünüyor” diyor.

Savaş alanında yapay zekâ

Horowitz, ABD ordusunun lojistik ve ofis desteği, istihbarat toplama ve analizi ile savaş alanında karar desteği için büyük dil modellerine (LLM) dayalı yapay zekâ kullandığını söylüyor. Örneğin, görüntü işleme ve taktik destek dahil olmak üzere çeşitli uygulamalar için yapay zekâyı kullanan Maven Akıllı Sistemi, hedefleri önerip önceliklendirerek saldırı kabiliyetlerini hızlandırıyor. Washington Post ve diğer haber kuruluşlarının raporlarına göre sistem, önceki çatışmalarda ve İran’a yönelik saldırılarda kullanıldı. Horowitz, “Ayrıntılar kamuoyu tarafından bilinmiyor” diyor.

Yapay zekânın hassas hedeflemesinin savaş sırasında sivil can kayıplarını azaltmaya yardımcı olabilmesi muhtemeldir. Ancak, yapay zekanın diğer kullanım alanlarının yanı sıra hedef tespiti ve dron navigasyonuna yardımcı olmak için kullanıldığı Ukrayna ve Gazze’deki devam eden çatışmalarda yüksek sivil ölüm bilançoları görüldü. Jones, “Yapay zekânın sivil ölümlerini veya hatalı hedefleme kararlarını azalttığına dair hiçbir kanıt yok ve aksinin geçerli olması da mümkün,” diyor.

Yapay zekânın insan gözetimi olmadan ölümcül otonom silahları yönlendirmek için kullanılma olasılığı son derece tartışmalı bir alandır. Silahlı kuvvetler, örneğin düşman muhariplerini otonom olarak tespit etmek, bulmak ve öldürmek için yapay zekâ destekli dronları kullanma kabiliyetini olumlu karşılayabilir. Fakat mevcut insancıl hukuk, bu tür silahların askeri ve sivil hedefleri birbirinden ayırabilmesini şart koşmaktadır. Horowitz, insan gözetimi olmaksızın çalışan LLM (Büyük Dil Modeli) destekli, tamamen otonom silahların şu anda güvenilir olmadığını ve uluslararası yasalara uymadığını söylüyor.

Derin endişeler

Yapay zekânın gelecekteki potansiyel kullanım alanları, ABD Savunma Bakanlığı ile Kaliforniya, San Francisco merkezli bir yapay zekâ şirketi olan Anthropic arasında anlaşmazlığın merkezinde yer alıyor. 2024 yılından bu yana Maven sistemi, Savunma Bakanlığı ile yapılan 200 milyon ABD doları değerindeki sözleşmenin bir parçası olarak Anthropic’in Claude LLM’i (Büyük Dil Modeli) tarafından destekleniyor.

Ocak ayında bakanlık diğer hususların yanı sıra hükümet adına yapay zekâ tedarik eden sözleşmelerin, yapay zekânın hiçbir kısıtlama olmaksızın “herhangi bir yasal kullanım” için devreye sokulabileceğini belirtmesi gerektiğini ilan eden bir uyarı yayımladı. Ancak Anthropic, Claude’un kitlesel yurt içi gözetim için veya tamamen otonom silahları yönlendirmek amacıyla kullanılamayacağını belirterek güvenlik önlemlerini kaldırmayı reddeti.

Şirket mevcut teknolojinin bu işlevleri güvenilir bir şekilde yerine getiremeyeceğini ifade etti. 27 Şubat’ta ABD Başkanı Donald Trump, hükümete Anthropic’ten teknoloji kullanımını durdurma talimatı verdi. Horowitz “Tüm bu kriz, gelecekteki olası kullanım senaryoları üzerine teorik bir anlaşmazlık olarak patlak verdi,” diyor.

Hükümet, Anthropic ile yollarını ayırdığından bu yana San Francisco merkezli bir diğer yapay zekâ şirketi olan OpenAI ile bir anlaşma imzaladı. Şirket, sözleşmenin, teknolojisinin gözetim faaliyetlerinde veya tamamen otonom silahları yönlendirmede kullanılmayacağını ana hatlarıyla belirttiğini ifade ediyor. 5 Mart itibarıyla, Anthropic İcra Kurulu Başkanı Dario Amodei’nin bakanlık ile yeniden görüşmelere başladığı bildiriliyor.

Alandaki araştırmacılar, yapay zekânın olası olumsuz ve etik dışı kullanımları hakkında derin endişelerini dile getirdiler. Google ve OpenAI çalışanları şu anda, her iki şirketin liderlerine yapay zekâ modellerinin yurt içi kitlesel gözetim için veya insan gözetimi olmadan insanları otonom bir şekilde öldürmek amacıyla kullanılmasına izin vermemeleri çağrısında bulunan bir dilekçe dağıtılıyor.

Canberra’daki Avustralya Ulusal Üniversitesinden siyaset bilimci Toni Erskine, yapay zekânın savaşta gelecekteki kullanımlarını öngören ve geçen sene politika önerileri üreten bir projenin başında yer aldı. Erskine LLM akıl yürütmesi etrafındaki bilinen yanlılık ve şeffaflık eksikliği sorunlarının yanı sıra, projenin raporu insan muhakemsinin yerini yapay zekânın almasının çatışmaları kazara tırmandırabileceği riskinin altını çiziyor. Raporda, “Döngüde insan bulunmayan tamamen otonom silah sistemleri etik olarak savunulamaz ve uluslararası alanda yasaklanmalıdır” deniliyor. Ayrıca otonom olmayan sistemlerin de riskler taşıdığını ve düzenlemeler gerektiğini ekliyor.

Yasal çözümler

Savaşta yapay zekânın yasal ve etik kullanımları konusunda uluslararası bir anlaşmaya varmak için çeşitli üst düzey çabalar yürütülmektedir. Ancak Jones, bu girişimlerin ana oyuncuların katılım eksikliği nedeniyle sekteye uğradığını söylüyor. “ABD, İsrail ve Çin de dahil olmak üzere aktif yapay zekâ savaş programları olan devletler, genellikle daha fazla düzenlemeye karşı çıkıyor” diyor.

Otonom silahlarda yapay zekâ kullanımına karşı spesifik bir kural, Belirli Konvansiyonel Silahlar Sözleşmesi (CCW) aracılığıyla ortaya çıkabilir. Bu hafta Cenevre’de düzenlenen CCW ölümcül otonom silah sistemleri uzman grubu toplantısında uzmanlar, Stockholm Uluslararası Barış Araştırmaları Enstitüsünün askeri yapay zekânın sorumlu tedariki hakkındaki raporunu tartıştılar. Geçen ay yayımlanan bu rapor, ABD Savunma Bakanlığının şu anda yapay zekâ teknolojiler şirketleriyle içinde bulunduğu sözleşme aşamasının “sorumlu davranış ilkeleri” konusunda net olmak için kritik bir zaman olduğunu vurguluyor.

Kaliforniya’daki Stanford Üniversitesi Uluslararası Güvenlik ve İşbirliği Merkezinden siber güvenlik uzmanı Herbert Lin, tüm bu çabaların, yapay zekâ destekli tam otonom ölümcül sistemleri tanımlama veya artık birçok bilgisayar sisteminin ayrılmaz bir parçası olan yapay zekâ kullanımının sınırlarını çizme zorlukları nedeniyle engellendiğini söylüyor. Dünyanın savaşta yapay zekânın yasal kullanımına ilişkin herhangi bir resmi anlaşmaya “yakın bir yerde” olduğunu düşünmeyen Lin, “Bu çok, çok, çok, ama çok karmaşık,” diyor.

https://www.nature.com/articles/d41586-026-00710-w

Etiketler: iran, israil, savaş, yapay zeka
GazeteBilim 7 Mart 2026
Bu Yazıyı Paylaş
Facebook Twitter Whatsapp Whatsapp E-Posta Linki Kopyala Yazdır
Önceki Yazı tür Ormanlar gerçekten değişiyor ama bu hiç iyi bir şey değil
Sonraki Yazı çocuk Matematik bazı çocuklar için neden daha zordur?

Popüler Yazılarımız

krematoryum fırını

Türkiye’de ölü yakma (kremasyon): Hukuken var, fiilen yok

BilimEtik
23 Kasım 2023
cehalet
Felsefe

“Cehalet mutluluktur” inancı üzerine

Eşitleştiren, özgürleştiren, mutlu kılan, bilgi midir yoksa cehalet mi? Mutlu kılan, cehalet mutluluktur sözünde ifade edildiği gibi, bilgisizlik ve cehalet…

12 Ağustos 2023
deontolojik etik
Felsefe

Deontolojik etik nedir?

Bir deontolog için hırsızlık her zaman kötü olabilir nitekim çalma eyleminin özünde bu eylemi (daima) kötü yapan bir şey vardır.

15 Ağustos 2024
kurt, köpek
Acaba Öyle midir?Zooloji

İddia: “Kurt evcilleşmeyen tek hayvandır!”

Tabii ki bu cümle baştan aşağı yanlıştır. Öncelikle kurt ilk ve en mükemmel evcilleşen hayvandır. İnsanın en yakın dostu köpek…

2 Şubat 2024

ÖNERİLEN YAZILAR

Savaşın tarafı değil ama en büyük mağduru: Doğa

Amerika Birleşik Devletleri ve İsrail’in, İran’a açtığı savaş, felaketin boyutlarını yalnızca insanlar için değil, doğa için de son derece kritik…

Ekoloji
20 Mart 2026

İran’da neden siyah yağmur yağıyor ve ne kadar tehlikeli?

ABD-İsrail’in petrol tesislerine yönelik saldırıları Tahran’a siyah yağmur yağmasına neden oldu; havayı dolduran siyah dumanın sağlık açısından daha büyük bir…

Sağlık
10 Mart 2026

Foundation AI modeli, MRI verilerini kullanarak çeşitli beyin bozukluklarını tahmin ediyor!

Bu temel modelin, belirli tıbbi veya nörobilimle ilgili görevleri tamamlamak üzere eğitilmiş birçok modelden daha iyi performans gösterdiği bulundu.

Yapay Zekâ
9 Mart 2026

Botların kendi sosyal ağı Moltbook neden endişe yaratıyor?

Moltbook’ta ortaya çıkan yapay zekâ kültürü görüntüsü, en azından şimdilik, güçlü ve bağımsız bir bot toplumu kanıtı sunmuyor.

Yapay Zekâ
5 Mart 2026
  • Biz Kimiz
  • Künye
  • Yayın Kurulu
  • Yürütme Kurulu
  • Gizlilik Politikası
  • Kullanım İzinleri
  • İletişim
  • Reklam İçin İletişim

Takip Edin: 

GazeteBilim

E-Posta: gazetebilim@gmail.com

Copyright © 2023 GazeteBilim

  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk

Removed from reading list

Undo
Welcome Back!

Sign in to your account

Lost your password?