GazeteBilim
Destek Ol
Ara
  • Anasayfa
  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk
  • Etkinlikler
    • Astronomi Dersleri
    • Çağdaş Epistemoloji Dersleri
    • Davranış Nörolojisi Dersleri
    • Eğitimciler İçin Yapay Zekâ Okur-Yazarlığı Dersleri
    • Epigenetik Dersleri
    • Evren ve Kozmoloji Dersleri
    • Evrim Dersleri
    • Bilim Tarihi Dersleri
    • Hegel Dersleri
    • İnsan Felsefesi Dersleri
    • Kapitalizmin Tarihsel Gelişimi ve İktisadi Düşünce Dersleri
    • Konuşmaktan Korkmuyorum
    • Kuantum Mekaniği ve Yorumları Dersleri
    • Marx Dersleri
    • Nörobilim Dersleri
    • Nörodilbilim Dersleri
    • Nörohukuk
    • Nörofelsefe Dersleri
    • Nöroperspektifler
    • Nöropsikanaliz Dersleri
    • Öğrenilmiş Çaresizlik
    • Teizm, Deizm, Agnostisizm ve Ateizm Dersleri
    • Teoloji, Bilim ve Felsefe Tartışmaları
    • Zihin Dersleri
  • Biz Kimiz
  • İletişim
Okuyorsun: Yapay zekâ İran’daki savaşı nasıl şekillendiriyor ve gelecekteki çatışmalar için sırada ne var?
Paylaş
Aa
GazeteBilimGazeteBilim
Ara
  • Anasayfa
  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk
  • Etkinlikler
    • Astronomi Dersleri
    • Çağdaş Epistemoloji Dersleri
    • Davranış Nörolojisi Dersleri
    • Eğitimciler İçin Yapay Zekâ Okur-Yazarlığı Dersleri
    • Epigenetik Dersleri
    • Evren ve Kozmoloji Dersleri
    • Evrim Dersleri
    • Bilim Tarihi Dersleri
    • Hegel Dersleri
    • İnsan Felsefesi Dersleri
    • Kapitalizmin Tarihsel Gelişimi ve İktisadi Düşünce Dersleri
    • Konuşmaktan Korkmuyorum
    • Kuantum Mekaniği ve Yorumları Dersleri
    • Marx Dersleri
    • Nörobilim Dersleri
    • Nörodilbilim Dersleri
    • Nörohukuk
    • Nörofelsefe Dersleri
    • Nöroperspektifler
    • Nöropsikanaliz Dersleri
    • Öğrenilmiş Çaresizlik
    • Teizm, Deizm, Agnostisizm ve Ateizm Dersleri
    • Teoloji, Bilim ve Felsefe Tartışmaları
    • Zihin Dersleri
  • Biz Kimiz
  • İletişim
  • Destek Ol
Bizi Takip Edin
  • Biz Kimiz
  • Künye
  • Yayın Kurulu
  • Yürütme Kurulu
Copyright © 2023 Gazete Bilim - Bütün Hakları Saklıdır
GazeteBilim > Blog > Teknoloji > Yapay Zekâ > Yapay zekâ İran’daki savaşı nasıl şekillendiriyor ve gelecekteki çatışmalar için sırada ne var?
Yapay Zekâ

Yapay zekâ İran’daki savaşı nasıl şekillendiriyor ve gelecekteki çatışmalar için sırada ne var?

Yazar: GazeteBilim Yayın Tarihi: 7 Mart 2026 7 Dakikalık Okuma
Paylaş
savaş
yapay zekanın diğer kullanım alanlarının yanı sıra hedef tespiti ve dron navigasyonuna yardımcı olmak için kullanıldığı Ukrayna ve Gazze'deki devam eden çatışmalarda yüksek sivil ölüm bilançoları görüldü.

ABD-İsrail ikilisinin İran’a yönelik emperyalist saldırısı yapay zekânın savaşta kullanılması konusunu tekrar gündeme getirdi. Aşağıdaki yazıyı, ABD’deki tartışmalar ve yaklaşımları öğrenmek bağlamında okurlarımızın dikkatine sunuyoruz.

İçindekiler
Savaş alanında yapay zekâDerin endişelerYasal çözümler

Çeviren: Binali Furkan Alper
GazeteBilim Yazı İşleri

Amerika Birleşik Devletleri, İsrail ve İran arasında giderek tırmanan çatışma, savaşta yapay zekâ kullanımına dikkatleri çekti. ABD-İsrail saldırısının başladığı 28 Şubat’tan sadece bir gün önce ABD hükümeti, yapay zekâ kullanımına dair etik endişelerin altını çizen bir anlaşmazlığın parçası olarak ana yapay zekâ tedarikçilerinden birini devre dışı bıraktı.

Bu hafta ise, akademisyenler ve hukuk uzmanları, savaşta yapay zekanın etik veya yasal kullanımlarına dair uluslararası bir anlaşmaya varma yönündeki uzun soluklu çabaların bir parçası olarak, ölümcül otonom silah sistemlerini ve orduda yapay zekâ tedarikini tartışmak adına İsviçre’nin Cenevre kentinde bir araya geliyor.

Philadelphia’daki Pennsylvania Üniversitesinden siyaset bilimci Michael Horowitz, hızlı teknolojik gelişimin, yavaş ilerleyen uluslararası tartışmaları geride bıraktığını belirtiyor.

Birleşik Krallık’taki Newcastle Üniversitesinde askeri hedefleme üzerine çalışan siyasi coğrafyacı Craig Jones, “Yapay zekâ savaşını düzenleme veya yasal kullanım konusunda bir anlaşmaya varılana kadar kullanımını duraklatma konusundaki mevcut başarısızlık, yapay zekâ savaşının potansiyel olarak yaygınlaşmasının an meselesi olduğunu gösteriyor gibi görünüyor” diyor.

Savaş alanında yapay zekâ

Horowitz, ABD ordusunun lojistik ve ofis desteği, istihbarat toplama ve analizi ile savaş alanında karar desteği için büyük dil modellerine (LLM) dayalı yapay zekâ kullandığını söylüyor. Örneğin, görüntü işleme ve taktik destek dahil olmak üzere çeşitli uygulamalar için yapay zekâyı kullanan Maven Akıllı Sistemi, hedefleri önerip önceliklendirerek saldırı kabiliyetlerini hızlandırıyor. Washington Post ve diğer haber kuruluşlarının raporlarına göre sistem, önceki çatışmalarda ve İran’a yönelik saldırılarda kullanıldı. Horowitz, “Ayrıntılar kamuoyu tarafından bilinmiyor” diyor.

Yapay zekânın hassas hedeflemesinin savaş sırasında sivil can kayıplarını azaltmaya yardımcı olabilmesi muhtemeldir. Ancak, yapay zekanın diğer kullanım alanlarının yanı sıra hedef tespiti ve dron navigasyonuna yardımcı olmak için kullanıldığı Ukrayna ve Gazze’deki devam eden çatışmalarda yüksek sivil ölüm bilançoları görüldü. Jones, “Yapay zekânın sivil ölümlerini veya hatalı hedefleme kararlarını azalttığına dair hiçbir kanıt yok ve aksinin geçerli olması da mümkün,” diyor.

Yapay zekânın insan gözetimi olmadan ölümcül otonom silahları yönlendirmek için kullanılma olasılığı son derece tartışmalı bir alandır. Silahlı kuvvetler, örneğin düşman muhariplerini otonom olarak tespit etmek, bulmak ve öldürmek için yapay zekâ destekli dronları kullanma kabiliyetini olumlu karşılayabilir. Fakat mevcut insancıl hukuk, bu tür silahların askeri ve sivil hedefleri birbirinden ayırabilmesini şart koşmaktadır. Horowitz, insan gözetimi olmaksızın çalışan LLM (Büyük Dil Modeli) destekli, tamamen otonom silahların şu anda güvenilir olmadığını ve uluslararası yasalara uymadığını söylüyor.

Derin endişeler

Yapay zekânın gelecekteki potansiyel kullanım alanları, ABD Savunma Bakanlığı ile Kaliforniya, San Francisco merkezli bir yapay zekâ şirketi olan Anthropic arasında anlaşmazlığın merkezinde yer alıyor. 2024 yılından bu yana Maven sistemi, Savunma Bakanlığı ile yapılan 200 milyon ABD doları değerindeki sözleşmenin bir parçası olarak Anthropic’in Claude LLM’i (Büyük Dil Modeli) tarafından destekleniyor.

Ocak ayında bakanlık diğer hususların yanı sıra hükümet adına yapay zekâ tedarik eden sözleşmelerin, yapay zekânın hiçbir kısıtlama olmaksızın “herhangi bir yasal kullanım” için devreye sokulabileceğini belirtmesi gerektiğini ilan eden bir uyarı yayımladı. Ancak Anthropic, Claude’un kitlesel yurt içi gözetim için veya tamamen otonom silahları yönlendirmek amacıyla kullanılamayacağını belirterek güvenlik önlemlerini kaldırmayı reddeti.

Şirket mevcut teknolojinin bu işlevleri güvenilir bir şekilde yerine getiremeyeceğini ifade etti. 27 Şubat’ta ABD Başkanı Donald Trump, hükümete Anthropic’ten teknoloji kullanımını durdurma talimatı verdi. Horowitz “Tüm bu kriz, gelecekteki olası kullanım senaryoları üzerine teorik bir anlaşmazlık olarak patlak verdi,” diyor.

Hükümet, Anthropic ile yollarını ayırdığından bu yana San Francisco merkezli bir diğer yapay zekâ şirketi olan OpenAI ile bir anlaşma imzaladı. Şirket, sözleşmenin, teknolojisinin gözetim faaliyetlerinde veya tamamen otonom silahları yönlendirmede kullanılmayacağını ana hatlarıyla belirttiğini ifade ediyor. 5 Mart itibarıyla, Anthropic İcra Kurulu Başkanı Dario Amodei’nin bakanlık ile yeniden görüşmelere başladığı bildiriliyor.

Alandaki araştırmacılar, yapay zekânın olası olumsuz ve etik dışı kullanımları hakkında derin endişelerini dile getirdiler. Google ve OpenAI çalışanları şu anda, her iki şirketin liderlerine yapay zekâ modellerinin yurt içi kitlesel gözetim için veya insan gözetimi olmadan insanları otonom bir şekilde öldürmek amacıyla kullanılmasına izin vermemeleri çağrısında bulunan bir dilekçe dağıtılıyor.

Canberra’daki Avustralya Ulusal Üniversitesinden siyaset bilimci Toni Erskine, yapay zekânın savaşta gelecekteki kullanımlarını öngören ve geçen sene politika önerileri üreten bir projenin başında yer aldı. Erskine LLM akıl yürütmesi etrafındaki bilinen yanlılık ve şeffaflık eksikliği sorunlarının yanı sıra, projenin raporu insan muhakemsinin yerini yapay zekânın almasının çatışmaları kazara tırmandırabileceği riskinin altını çiziyor. Raporda, “Döngüde insan bulunmayan tamamen otonom silah sistemleri etik olarak savunulamaz ve uluslararası alanda yasaklanmalıdır” deniliyor. Ayrıca otonom olmayan sistemlerin de riskler taşıdığını ve düzenlemeler gerektiğini ekliyor.

Yasal çözümler

Savaşta yapay zekânın yasal ve etik kullanımları konusunda uluslararası bir anlaşmaya varmak için çeşitli üst düzey çabalar yürütülmektedir. Ancak Jones, bu girişimlerin ana oyuncuların katılım eksikliği nedeniyle sekteye uğradığını söylüyor. “ABD, İsrail ve Çin de dahil olmak üzere aktif yapay zekâ savaş programları olan devletler, genellikle daha fazla düzenlemeye karşı çıkıyor” diyor.

Otonom silahlarda yapay zekâ kullanımına karşı spesifik bir kural, Belirli Konvansiyonel Silahlar Sözleşmesi (CCW) aracılığıyla ortaya çıkabilir. Bu hafta Cenevre’de düzenlenen CCW ölümcül otonom silah sistemleri uzman grubu toplantısında uzmanlar, Stockholm Uluslararası Barış Araştırmaları Enstitüsünün askeri yapay zekânın sorumlu tedariki hakkındaki raporunu tartıştılar. Geçen ay yayımlanan bu rapor, ABD Savunma Bakanlığının şu anda yapay zekâ teknolojiler şirketleriyle içinde bulunduğu sözleşme aşamasının “sorumlu davranış ilkeleri” konusunda net olmak için kritik bir zaman olduğunu vurguluyor.

Kaliforniya’daki Stanford Üniversitesi Uluslararası Güvenlik ve İşbirliği Merkezinden siber güvenlik uzmanı Herbert Lin, tüm bu çabaların, yapay zekâ destekli tam otonom ölümcül sistemleri tanımlama veya artık birçok bilgisayar sisteminin ayrılmaz bir parçası olan yapay zekâ kullanımının sınırlarını çizme zorlukları nedeniyle engellendiğini söylüyor. Dünyanın savaşta yapay zekânın yasal kullanımına ilişkin herhangi bir resmi anlaşmaya “yakın bir yerde” olduğunu düşünmeyen Lin, “Bu çok, çok, çok, ama çok karmaşık,” diyor.

https://www.nature.com/articles/d41586-026-00710-w

Etiketler: iran, israil, savaş, yapay zeka
GazeteBilim 7 Mart 2026
Bu Yazıyı Paylaş
Facebook Twitter Whatsapp Whatsapp E-Posta Linki Kopyala Yazdır
Önceki Yazı tür Ormanlar gerçekten değişiyor ama bu hiç iyi bir şey değil
Sonraki Yazı çocuk Matematik bazı çocuklar için neden daha zordur?

Popüler Yazılarımız

krematoryum fırını

Türkiye’de ölü yakma (kremasyon): Hukuken var, fiilen yok

BilimEtik
23 Kasım 2023
cehalet
Felsefe

“Cehalet mutluluktur” inancı üzerine

Eşitleştiren, özgürleştiren, mutlu kılan, bilgi midir yoksa cehalet mi? Mutlu kılan, cehalet mutluluktur sözünde ifade edildiği gibi, bilgisizlik ve cehalet…

12 Ağustos 2023
deontolojik etik
Felsefe

Deontolojik etik nedir?

Bir deontolog için hırsızlık her zaman kötü olabilir nitekim çalma eyleminin özünde bu eylemi (daima) kötü yapan bir şey vardır.

15 Ağustos 2024
Güzel şeyler, özgür seçim süreçlerinin en çirkin şekillerde baskı altına alınmasına rağmen varlığını sürdürmeyi dişiler sayesinde başarır.(Görsel: The Belkin)
Flörtöz Hayvanlar

Ördekler, penisleri ve Amerikan ekonomisi

Yanık türkülerin yeşil başlı gövel ördeklerinden esinlenilen romantizm yalnızca bizim hayallerimizde var; gerçek dünyada bu türlerin aşk hayatları çok daha…

5 Kasım 2024

ÖNERİLEN YAZILAR

Palantir’in “Teknolojik Cumhuriyet”i: Savaş tüccarlarının yeni manifestosu

Palantir’in değeri 60 milyar doları aştı; o paranın her kuruşu kan ve veriyle kazanıldı. “Teknolojik Cumhuriyet” dedikleri şey, aslında teknolojik…

Yapay Zekâ
20 Nisan 2026

Google’ın yapay zekâsı Gemini’a olağan üstü yeni özellik: Simülasyonlar tek tıkla karşınızda

Google Gemini’a artık sorduğunuz soruları veya anlamadığınız problemleri sizlere saniyeler içerisinde etkileşimli simülasyonlara ve modellere dönüştürüyor.

Yapay Zekâ
15 Nisan 2026

Bilim tarihi araştırmalarında yapay zekâ kullanımı[1]

Büyük veri kümeleriyle uğraşan, literatür taraması yapan veya eski metinleri deşifre etmeye çalışan tarihçiler için YZ şu alanlarda devrim niteliğinde…

Bilim Tarihi
15 Nisan 2026

Netanyahu ve Trump’ın savaşı: Politikanın başka araçlarla devamı ve ahlaki temelsizliği

Eğer bu savaştan bir ders çıkarılacaksa Hegel’e dönmek gerekebilir. Hegel’e göre karşıtını ne kadar yüceltirsen onun karşısında yenilgi alma olanağını…

Düşünce
27 Mart 2026
  • Biz Kimiz
  • Künye
  • Yayın Kurulu
  • Yürütme Kurulu
  • Gizlilik Politikası
  • Kullanım İzinleri
  • İletişim
  • Reklam İçin İletişim

Takip Edin: 

GazeteBilim

E-Posta: gazetebilim@gmail.com

Copyright © 2023 GazeteBilim

  • Bilim
  • Teknoloji
  • Felsefe
  • Kültür-Sanat
  • Gastronomi
  • Çocuk

Removed from reading list

Undo
Welcome Back!

Sign in to your account

Lost your password?