Yapay zekâ, matematiksel olarak güçlendirilmiş algoritmalar sayesinde, insanların kusurlu seçimlerine dayanarak önemli kararlar alır. Bu yazılımlar, insanların önyargılarını, hoşlanmadıkları veya açıkladıkları görüşleri koda aktarabilir; bu da bazen şeffaflıktan yoksun ve önyargılı kararlar verilmesine yol açabilir. Bu tür algoritmalar, hayatla ölüm arasındaki kritik kararları bile etkileyebilir.
Yazan: Dr. Çolpan Mücahit Küçük
Temel insan hakları ve özgürlüklerini tanıyan, koruyan ve geliştiren bir hukuk devleti anlayışı, demokratik toplumun olmazsa olmazıdır. Ancak hukuk, toplumdan topluma ve zaman içinde değişen, gelişen, farklılaşan bir kavramdır. Zira hukuk kuralları, vaz edildiği topraklarda mevcut ihtiyacı karşılamayı amaç edinir. Kanun koyucu, ya mevcut olaylar ve gelişmeleri dikkate alarak ya da yakın gelecekte karşılaşılması beklenen yenilikleri gözeterek hareket eder. Ne yazık ki tüm dünyada genel eğilim, hukuk kuralının konusu olan durumun toplumda tüm sonuçlarıyla ortaya çıkarak tabandan gelen bir ihtiyacın varlığı ile oluşturulması yönündedir. Oysa içinde bulunduğumuz yüzyılda, teknolojik gelişmeler beklenenin üzerinde bir hızla ilerlemektedir. Üstelik, globalleşen dünyada artık ülkeler sadece kendi toplumlarının gelişiminden değil, diğer ülkelerdeki gelişmelerden de etkilenmektedirler. İşte günümüzde teknolojide yaşanan bu yoğun ilerleme, adalet hizmetlerinin yapay zekâdan nasıl yararlanabileceği konusunda yeni tartışmaları gündeme getirmiştir. Çünkü yapay zekâ, modern bireyin hayatının ayrılmaz bir parçası haline gelmiştir. Ayrıca, teknolojinin mekân ve zaman engellerini aşarak herkesin kolayca ulaşabileceği bir hâle gelmesi, insanlar arasındaki etkileşimi artırmış; sosyal medya gibi araçlar sayesinde her birey görünür olmuştur. İnternet hakkının; iletişim, bilgiye erişim ve özel hayatın gizliliği gibi haklarla ilişkili olup olmadığı temel hak ve özgürlükler çerçevesinde ele alınmaya başlanmış, yapay zekâya kişilik statüsü tanınması gerektiği yönünde fikirler öne sürülmüştür. Bu gelişmeler, yargı sisteminin de yeniden şekillenmesine yol açmış ve etkilerini göstermeye başlamıştır. Sonuç olarak, bu durum yeni hak ve özgürlüklerin yanı sıra yeni hak ihlalleri, suç türleri ve hukuki kavramların ortaya çıkmasına neden olmuştur. Aynı zamanda yapay zekâ kullanımı, yargı süreçlerinde giderek daha fazla yer almakta ve yargının temel bir bileşeni olarak öne çıkmaktadır.

Yapay zekâ kavramının üzerinde anlaşmaya varılmış tek ve evrensel bir tanımı bulunmamaktadır. Buna karşın, yapay zekâya ilişkin yapılan tanımlara bakıldığında, “insan eliyle üretilen bir makinenin/robotun, etrafında karşılaştığı olgular karşısında insan gibi düşünme, algılama ve bunlardan sonuç çıkartarak davranışta bulunması” şeklinde ifade olunduğu görülmektedir (Benli ve Şenel, 2020). Yine yapay zekâ, “tanıma, doğal dili anlama, deneyimlerden uyarlanabilir öğrenme, strateji oluşturma veya başkaları hakkında akıl yürütme gibi insan zihinsel becerilerini kopyalama yeteneği ile ölçülen insan dışı zekâ” olarak tanımlanmaktadır (De Spiegeleire, Maas ve Sweijs, 2017).
Tanıma, doğal dili anlama, deneyimlerden uyarlanabilir öğrenme, strateji oluşturma veya başkaları hakkında akıl yürütme gibi insan zihinsel becerilerini kopyalama yeteneği ile ölçülen insan dışı zekâ.
Öte yandan, yapay zekâ üçe ayrılarak incelenebilecektir. Buna göre, “Yapay Dar Zekâ”, belirli görevlerde insan zekâsına eşdeğer veya onu aşan makine zekâsını ifade eder. Bu tür sistemler, belirli alanlarda üstün performans sergileyebilen ancak genel anlamda insan zekâsının tamamını taklit edemeyen teknolojilerdir. Mevcut örnekler arasında, IBM’in satranç oynayan Deep Blue’su, yarışma programı ‘Jeopardy!’de insanları yenen Watson, Google’ın Go oyununu oynayan AlphaGo’su, Yüksek Frekanslı Ticaret Algoritmaları ve insan erişiminin ötesinde performans sergileyen diğer özel otomatik sistemler yer almaktadır. Bunlar, örneğin Google Translate, spam filtreleri ve nokta savunma füzesavar toplarının yönlendirme sistemleri gibi çeşitli alanlarda işler. Her biri, belirli görevleri yerine getirirken büyük başarılar elde etmektedir. Ancak bu başarılar yalnızca sınırlı bir alanda geçerlidir ve genel zekâ gereksinimlerini karşılamaz.
İnsan eliyle üretilen bir makinenin/robotun, etrafında karşılaştığı olgular karşısında insan gibi düşünme, algılama ve bunlardan sonuç çıkartarak davranışta bulunması.
Diğer yandan, “Yapay Genel Zekâ”, makine zekâsının herhangi bir görevde insan performansının tüm yelpazesinde eşdeğer veya onu aşan düzeyde olmasını tanımlar. Yapay Genel Zekâ, dar bir alanda değil, çok çeşitli ve farklı türdeki görevlerde insan zekâsını taklit edebilecek bir sistemdir. Bu tür bir zekâ, çok daha geniş bir alanı kapsar ve insan zekâsına yakın bir şekilde düşünme, öğrenme ve karar verme yeteneklerine sahip olabilir.
Son olarak, “Yapay Süper Zekâ”, makine zekâsının herhangi bir görevde insan zekâsını aşmasını ifade eder. Bu yapay zekâ türü, tüm bilişsel görevlerde insan zekâsını geride bırakacak şekilde gelişmiş ve potansiyel olarak çok daha ileri düzeyde bir zekâ türüdür. Bu seviyedeki bir yapay zekâ, insanın çözebileceği problemleri çok daha hızlı ve etkili bir şekilde çözebilir ve karmaşık kararlar alabilir. Süper yapay zekâ, insanlık için büyük fırsatlar ve zorluklar da taşıyan bir potansiyele sahiptir. Çünkü bu seviyedeki zekâ, hem büyük faydalar sağlayabilir hem de bazı etik ve güvenlik sorunlarını gündeme getirebilir (De Spiegeleire, Maas, Sweijs, 2017).
Yapay zekâ, temel olarak insan beyninin karar verme süreçlerini taklit etmeye çalışmaktadır.
Yapay zekâ ve hukuk alanı, ancak seksenli yıllardan itibaren araştırma alanı olarak ortaya çıkan, nispeten yeni bir disiplin olup, yapay zekânın kökenleri 1956 yılında Amerika Birleşik Devletleri’nde, Dartmouth Koleji’nde yapılan bir konferansa dayanmaktadır. Bu konferansta, başlıca araştırmacılardan John McCarthy tarafından “yapay zekâ” terimi önerilmiştir. O zamandan bu yana; bilgisayar bilimi, matematik, dilbilim, felsefe, psikoloji ve son olarak hukuk gibi pek çok disiplinden insanlar, yapay zekâya ilgi göstererek bu alanın disiplinler arası doğasına katkıda bulunmuşlardır.

Yapay zekâ, temel olarak insan beyninin karar verme süreçlerini taklit etmeye çalışmaktadır. Yapay zekânın ilk dönem araştırmaları, satranç, dama ve tavla gibi oyun oynama programlarına odaklanmıştır. Bu oyunlar, hem somut ve zorlu paradigmalar sunduğu hem de araştırmacıların bu oyunları oynamaktan keyif alması nedeniyle ilgi çekici olmuştur. Yapay zekâ araştırmalarının erken dönemlerinde, genel amaçlı teoremler veya algoritmaların geniş bir problem yelpazesinde uygulanabileceği, büyük ölçekli problem çözme üzerine yoğunlaşılmıştır (Kowalski, 1993).
Özünde yapay zekâ, insan olmayan ajanlar (personel) inşa etme fikridir.
Özünde yapay zekâ, insan olmayan ajanlar (personel) inşa etme fikridir. Yapay zekâ bir ajan, insanlara özgü zaaflara yenik düşmeden potansiyel olarak kamu görevlerini yerine getirebilecektir. Örneğin, kamu idarelerinde görevli tüm personelin her daim çok yoğun çalıştığı söylenemeyecektir. Hatta pek çok ülkede, personel performansını ölçümlemeye dönük işlemler ile söz konusu performansın düşük bulunması hâlinde, ilgilinin işine son verebilmek için istihdam yöntemlerinin nasıl olması gerektiğine ilişkin çalışmalar sürdürülmektedir. Böylece daha çok personel, sözleşmeli biçimde çalıştırılmak istenmektedir. Oysa akıllı yapay ajanlar, varsayımsal olarak şu anda insanlar tarafından yapılan işleri yapabilir ve bunları hızlı, sürekli ve yıllık izin, hastalık izni ve diğer yasal izinleri kullanmadan, başka personel ile sorun yaşamadan, belli mesai saatleri içinde; kısacası insana özgü psikolojik ve fizyolojik etkenlerden uzak biçimde, işleriyle ilgili çok az meşru şikâyetle yapabilirler. İnsan ajanlar, bu işlerde tamamen rasyonel nedenlerle yapay zekâya kıyasen çok fazla çalışmamaktadır. Onları çok çalışmaya motive edecek teşvik sistemleri oluşturmak zordur. Nihayetinde, aynı işi söz konusu kurumun yasal yetkilerine, az ya da çok mükemmel bir sadakatle yapacak makineler inşa etmek daha ekonomik olabilir. Daha yüksek bir bürokratik düzeyde, devlet görevlileri şu anda daha sofistike işler yapmaktadır (Smith, 2016).
Oysa akıllı yapay ajanlar, varsayımsal olarak şu anda insanlar tarafından yapılan işleri yapabilir ve bunları hızlı, sürekli ve yıllık izin, hastalık izni ve diğer yasal izinleri kullanmadan, başka personel ile sorun yaşamadan, belli mesai saatleri içinde; kısacası insana özgü psikolojik ve fizyolojik etkenlerden uzak biçimde, işleriyle ilgili çok az meşru şikâyetle yapabilirler.
Günlük hayatımızda giderek daha fazla yer alarak görevlerini birtakım algoritmalara uygun biçimde yerine getiren yapay zekâ; akıllı telefonlar, tabletler, dizüstü bilgisayarlar, otonom otomobiller, robotlar, yüz algılama makineleri, navigasyon sistemleri, akıllı ev, akıllı ulaşım, akıllı kent kavramları, sağlık hizmetlerinde tespit ve tedavi edici teknolojik gereçlerin kullanımı gibi hususlarla yaşantımızın bir parçası hâline gelmiştir. Bahse konu bu teknoloji, yeniliklerin iş ve işlemleri hızlandırdığı, haberleşmeyi artırdığı, insan kaynaklı hata oranını düşürdüğü, belgelendirmeyi kolaylaştırdığı, acil durumlara ilişkin bilgi vermekten kolluk hizmetlerine kadar pek çok konuda güvenlik hizmetlerinin sağlanmasında kullanıldığı ve nihayetinde yaşantımızı kolaylaştırdığı açıktır. Ne var ki kamu yararı gereği de olsa, yapay zekânın pek çok belirsizliği de beraberinde getirdiği tartışmasızdır. Yapay zekânın kullanımına ilişkin etik kuralların belirlenmesi ve uyumun sağlanması, ulusal ve uluslararası hukuk bağlamında hem yapay zekânın kullanım alanları hem yapay zekâ kullanıcılarının tâbi olacağı kurallar hem de yapay zekâ kaynaklı zararlardan doğabilecek sorumluluk esaslarının yasalaştırılması, ulusal ve uluslararası bakımdan ülkelerin hesap verebilirliği, kurumsal şeffaflığın sağlanması, mevcut gelişmelerin izlenebilme yeteneği konusunda yeterli ve gerekli adımlar atılabilmiş değildir.

Gerçekten de yapay zekâ, insan liderliğinden makine öğreniminin ortaya çıkmasına, otomasyona, robotik üretime ve denetlenebilirliğe kadar keşfedilmemiş bir bölgedir. Elbette yapay zekâ iş yaşamını, endüstriyi ve ticareti, dolayısıyla ekonomiyi şekillendirebilecek bir araç hâline gelmekte ve internetin yaygınlaşmasıyla özellikle doğurduğu güvenlik açığı ile etik bir ikilem hâline gelmektedir. Gerçekten de bilgi kirliliği için zemin hazırlaması, dezenformasyon çalışmalarına etkisi, siber suçu doğurması, kitlesel insan ölümlerinde kullanılabilmesi ve çeşitli insan hakları ihlallerine olan etkisi değerlendirildiğinde, yapay zekânın kullanımı masumane olmaktan çıkabilmektedir. Nitekim 2019 yılında Birleşmiş Milletler İnsan Hakları müfettişleri, Facebook’un Myanmar’da nefret söylemi ve şiddete teşvikin dolaşımını şiddetlendirdiğini tespit etmiştir. Şu hâlde, uluslararası aktörler yahut ulusal yasaların yeni ortaya çıkan yapay zekâ teknolojilerini yönlendirme ve yönetmeye yardımcı olup olmayacağı tartışılması gereken ilk konudur. Konuya ilişkin BM Uluslararası Telekomünikasyon Birliği’nin, Cenevre’deki İkinci Yıllık Küresel Temel İnsani Fayda İçin Yapay Zekâ Zirvesi’nde, kamu yararı gereği, yapay zekânın değerlere zarar vermekten kaçınması gerektiği ifade edilmiştir. Bunu sağlayabilmek için ulusüstü bir kabul görmeye başlayan temel insan hak ve hürriyetlerinin, sağlam ve küresel bir formülasyon olarak referans alınması mümkündür (Abdulla, 2020).
Şu hâlde, uluslararası aktörler yahut ulusal yasaların yeni ortaya çıkan yapay zekâ teknolojilerini yönlendirme ve yönetmeye yardımcı olup olmayacağı tartışılması gereken ilk konudur.
Öte yandan, yapay zekânın giderek daha etkin olması ve kendi kendine öğrenebilir yapısı, farklı soru ve sorunları da doğurmaktadır. Buna göre, yapay zekâ bir gün kendisine verilen görevlerin ötesine geçerek ve hatta iradesini kullanacak biçimde süper zekâya ulaşabilir mi? Başlangıçta bir bilim kurgu hikâyesi olarak görünen bu durum, bazı bilim insanlarının teorileriyle dikkat çekecek hâle gelmiştir. Nitekim Oxford’da görev yapan bilim insanı Nick Bostrom tarafından yapılan bir ankete göre, yapay zekâ ile ilgili alanlarda çalışan insanların çoğunluğu, küresel bir felaket yaşanmazsa, içinde bulunduğumuz yüzyılda makinelerin beklenenin üzerinde zekâya ulaşacağını ifade etmişlerdir. Yine bu anket katılımcılarına göre, yapay zekânın süper zekâya evrilmesi de elli yıl içinde gerçekleşecektir.
Yapay zekâ bir gün kendisine verilen görevlerin ötesine geçerek ve hatta iradesini kullanacak biçimde süper zekâya ulaşabilir mi?
Google Mühendislik Direktörü Ray Kurzweil ise makine zekâsının, insan zekâsını, insanların makinelerin neyi neden yaptığını bile anlayamayacağı oranda aşacağını iddia etmektedir (Smith, 2016). Yine Nobel Ödüllü nükleer fizikçi Joseph Rotblat, Pugwash Bilim ve Dünya İşleri Konferansı Başkanı olarak, yapay zekâ ve kendini kopyalayabilen robotlar gibi teknolojilerin kontrolsüz gelişiminin tehlikelerine dikkat çekmiştir. Rotblat, bu tür teknolojilerin insanlık için büyük riskler taşıdığını ve özellikle kendini kopyalama özelliğinin yeni teknolojilerdeki en büyük tehlikelerden biri olduğunu vurgulamıştır. Ona göre, bu tür gelişmeler insanlığın geleceğini tehdit edebilecek potansiyele sahiptir.

Bill Joy, Sun Microsystems’in kurucu ortağı ve Baş Bilim İnsanı olarak, 2000 yılında Wired dergisinde yayınlanan “Why the Future Doesn’t Need Us” (Geleceğin Bize Neden İhtiyacı Yok?) başlıklı makalesinde benzer endişeleri dile getirmiştir. Joy, 21. yüzyılın en güçlü teknolojileri olan robotik, genetik mühendisliği ve nanoteknolojinin, insanlığı nesli tükenmekte olan bir tür hâline getirebileceğini öne sürmüştür. Ona göre, bu teknolojilerin kontrolsüz gelişimi insanlığın varlığını tehlikeye atabilir ve bu nedenle bu alanlarda dikkatli ve sorumlu bir yaklaşım benimsenmelidir.
Joy, 21. yüzyılın en güçlü teknolojileri olan robotik, genetik mühendisliği ve nanoteknolojinin, insanlığı nesli tükenmekte olan bir tür hâline getirebileceğini öne sürmüştür.
Buna karşılık, daha iyimser bir bakış açısı sunan J. Storrs Hall, “Why Machines Need Ethics” adlı kitabında, makinelerin sadece fiziksel ve entelektüel olarak değil, ahlaki açıdan da insanları aşabileceği fikrini ortaya koymuştur. Hall, makinelere vicdan ve ahlaki duyular kazandırmanın insanlığın görevi olduğunu savunur. Ona göre, eğer makineleri ahlaki açıdan üstün hâle getirebiliyorsak, bunu yapmak zorundayız. Bu, insanlığın geleceğe karşı bir sorumluluğudur. Hall, makinelerin insanlığın değer verdiği her şeyi koruyabileceğini ve hatta bu değerlere daha fazla önem verebileceğini öne sürer. Ona göre, makinelerin ahlaki açıdan üstün olması, insanlığın kibrini kırarak daha iyi bir gelecek inşa etme fırsatı sunabilir (Veruggio, 2005).
Buna karşılık, daha iyimser bir bakış açısı sunan J. Storrs Hall, “Why Machines Need Ethics” adlı kitabında, makinelerin sadece fiziksel ve entelektüel olarak değil, ahlaki açıdan da insanları aşabileceği fikrini ortaya koymuştur.
Elbette teknoloji ne etik değerler benimsemek ne de tarafsız olmak zorundadır. İşte bu noktada, duygusal bir yetiye sahip olmayan yapay zekânın tahmin edilebilirliğin önüne geçmesi hâlinde nasıl hareket edileceği sorgulanmaktadır. Şu hâlde, yapay zekânın hukukla ilişkisi üçe ayrılarak incelenmelidir. Bunlardan ilki, yapay zekâya dönük uygulamalar konusunda yapılması gereken düzenlemeleri içermektedir. Buna göre, yapay zekâ üreticisi ve kullanıcısına dönük kurallar belirlemek, bu kuralların ihlali hâlinde oluşabilecek zararların tazmini ve gerekli hâllerde uygulanacak yaptırımların belirlenmesi ilk aşamayı oluşturmaktadır.
İkinci aşama ise hukuk alanında yapay zekânın nasıl kullanılabileceğine ilişkin belirlemeler yaparak, yapay zekânın kullanılacağı alanları ve bu alanların ne şekilde denetleneceğini, yine nasıl yaygınlaştırılacağını tespit etme aşamasıdır. Üçüncü aşama ise yapay zekânın sorumluluğunun belirlenmesi ve olası bir gelecekte yapay zekâya kişilik tanınıp tanınmayacağına ilişkin teoriler doğrultusunda yapılacak çalışmaları içermektedir.
Özellikle internetin yaygınlaşmasıyla birlikte, sağlıktan ulaşıma, eğitimden iletişime, bankacılık işlemlerinden adalet hizmetlerine kadar hemen her alanda kullanımı artmış ve insan davranışlarını taklit edebilen, hatta insan müdahalesi olmadan kararlar alabilen yapay zekâ teknolojisi, modern hayatın vazgeçilmez bir unsuru hâline gelmiştir.
Gerçekten de bilgisayar teknolojisi, uzun yıllar boyunca bilgiyi saklamak, bu bilgileri sınırlı bir şekilde işlemek ve iletişim aracı olarak kullanılmak amacıyla hizmet vermiştir. Ancak özellikle internetin yaygınlaşmasıyla birlikte, sağlıktan ulaşıma, eğitimden iletişime, bankacılık işlemlerinden adalet hizmetlerine kadar hemen her alanda kullanımı artmış ve insan davranışlarını taklit edebilen, hatta insan müdahalesi olmadan kararlar alabilen yapay zekâ teknolojisi, modern hayatın vazgeçilmez bir unsuru hâline gelmiştir.
Teknolojinin sunduğu sayısız fayda ve kolaylığa karşın, beraberinde bazı riskleri de getirdiği açıktır. Bu nedenle, yapay zekâ uygulamalarına yönelik yasal düzenlemelerin yapılması ihtiyacı giderek daha fazla hissedilmektedir. Bu düzenlemelerin, herhangi bir ayrımcılığa yol açmayan, şeffaf, anlaşılır ve temel hak ve özgürlükleri koruyan etik ilkeler çerçevesinde hazırlanması büyük önem taşımaktadır (Mücahit Küçük, 2024). Ancak elbette belirli bir tanımı olmayan ve internet tabanlı cihazlarda her yerde bulunan bir teknoloji olan yapay zekâ, metafizik bir altyapıya sahip olmadığından düzenlenmesi güçlükler içermektedir.
Teknolojinin sunduğu sayısız fayda ve kolaylığa karşın, beraberinde bazı riskleri de getirdiği açıktır.
Buna karşın, Avrupa Birliği tarafından 2024 yılında Yapay Zekâ Yasası benimsenerek yürürlüğe alınmıştır. Söz konusu yasa, yapay zekâ sistemlerinin sorumlu bir şekilde geliştirilmesini ve kullanılmasını sağlamayı amaçlayan bir düzenlemeyi ortaya koymaktadır. Bu yasa, yapay zekâ teknolojilerini sağlayan ve dağıtan şirketlere yükümlülükler getirirken, yapay zekâ sistemlerinin Avrupa Birliği (AB) pazarında yetkilendirilmesi ve düzenlenmesini de sağlamaktadır.
Yasa, yapay zekâ ile ilgili önyargı, ayrımcılık ve hesap verebilirlik gibi potansiyel riskleri ele almakta, yeniliği teşvik etmekte ve yapay zekânın kullanımını artırmayı hedeflemektedir. Yapay Zekâ Yasası, dünya çapında etik, güvenli ve güvenilir yapay zekânın teşvik edilmesi açısından önemli bir rol oynamaktadır. AB’nin kuralları, Genel Veri Koruma Yönetmeliği (GDPR) gibi küresel bir standart oluşturma potansiyeline sahiptir. Bu şekilde, yapay zekâ düzenlemesi de dünya çapında etik, güvenli ve güvenilir kullanım için bir örnek teşkil edebilir.
Yüksek riskli yapay zekâ sistemlerinin uygulanabilmesi için sıkı testler, şeffaflık ve insan denetimi gereklidir. Son olarak, kabul edilemez risk taşıyan yapay zekâ sistemleri bulunmaktadır. Bu tür sistemlerin AB’de kullanımı yasaktır.
Yapay Zekâ Yasası, farklı risk seviyelerine göre düzenlenmiş dört ana kategoriye ayrılmaktadır. İlk olarak, minimum veya hiç risk taşımayan yapay zekâ sistemleri bulunmaktadır. Bu tür sistemler, örneğin yapay zekâ destekli oyunlar veya spam filtrelerinde olduğu gibi çoğunlukla herhangi bir risk oluşturmaz. Bu nedenle bahse konu uygulamalar AB’nin Yapay Zekâ Yasası tarafından düzenlenmemiştir. İkinci olarak, sınırlı risklere sahip yapay zekâ sistemleri yer almaktadır. Sohbet robotları veya içerik üreten yapay zekâ sistemleri gibi sınırlı risk taşıyan sistemler, kullanıcılara içeriğin yapay zekâ tarafından üretildiği bilgisini vererek, kullanıcıların bu içeriği nasıl kullanacaklarına dair bilinçli kararlar alabilmelerini sağlamak için şeffaflık yükümlülüklerine tabidir. Üçüncü kategori, yüksek riskli yapay zekâ sistemlerine aittir. Bu tür sistemler, hastalık teşhisi, otonom sürüş ve biyometrik kimlik tespiti gibi hassas alanlarda kullanılmaktadır. Bu sistemler, AB pazarına erişim sağlamak için katı gereklilikleri ve yükümlülükleri yerine getirmek zorundadır. Yüksek riskli yapay zekâ sistemlerinin uygulanabilmesi için sıkı testler, şeffaflık ve insan denetimi gereklidir. Son olarak, kabul edilemez risk taşıyan yapay zekâ sistemleri bulunmaktadır. Bu tür sistemlerin AB’de kullanımı yasaktır ve bunlara bilişsel davranışsal manipülasyon, öngörücü polislik, iş yerlerinde ve eğitim kurumlarında duygu tanıma ve sosyal puanlama sistemleri dahildir. Ayrıca, kolluk kuvvetlerinin kamusal alanlarda yüz tanıma gibi gerçek zamanlı biyometrik tanımlama sistemlerini kullanması da sınırlı istisnalar dışında yasaktır. (https://www.consilium.europa.eu/en/policies/artificial-intelligence/)

Yapay Zekâ Yasası’nın uygulanmasını sağlamak için çeşitli yönetim organları kurulmuştur. Bunlar arasında Avrupa Komisyonu bünyesinde bir yapay zekâ ofisi, uygulama faaliyetlerini desteklemek amacıyla bağımsız uzmanlardan oluşan bir bilimsel panel ve Yapay Zekâ Yasası’nın tutarlı ve etkili bir şekilde uygulanmasına yardımcı olmak için üye ülkelerin temsilcilerinden oluşan bir yapay zekâ kurulu yer almaktadır. Ayrıca, yapay zekâ yönetim kuruluna ve komisyona teknik uzmanlık sağlamak üzere bir danışma forumu da oluşturulmuştur. Kurallara uyulmaması durumunda cezalar öngörülmektedir. Bu cezalar, şirketlerin bir önceki yıla ait küresel cirosunun belirli bir yüzdesi veya belirli bir tutardan hangisi yüksekse, ona göre belirlenmektedir. Küçük ve orta büyüklükteki işletmeler (KOBİ) ile yeni kurulan şirketler için orantılı para cezaları uygulanmaktadır (https://www.consilium.europa.eu/en/policies/artificial-intelligence/).
Öte yandan yapay zekâdan kaynaklı sorumluluk ise mevcut durumda söz konusu somut olayın özelliğine göre üretici, programlayıcı yahut kullanıcının sorumluluğuna gidilmesi biçiminde çözülecektir.
Öte yandan yapay zekâdan kaynaklı sorumluluk ise mevcut durumda söz konusu somut olayın özelliğine göre üretici, programlayıcı yahut kullanıcının sorumluluğuna gidilmesi biçiminde çözülecektir. Elbette bu aşamada özellikle siber suçlar bağlamında ilgiliye ulaşılabilmesi, illiyet bağının tespiti yahut ispata ilişkin güçlükler ile özellikle farklı ülkelerde mukim kişiler tarafından gerçekleştirilen fiillere yaptırım uygulanabilmesi yahut zararın tazmin edilebilmesi konusundaki sorunlar giderilebilmiş değildir. Nitekim ardışık teknolojik ve bilgi gelişmeleri, insanların suçluların bilgisayar kullanarak suç işlediği bilgi teknolojileri döneminden, suçların veriler ve programlar aracılığıyla analiz edilerek işlendiği veri dönemine hızla geçmelerini sağlamıştır. Şimdi ise yapay zekâ sistemleri ve robotlar aracılığıyla bilinmeyen suçlular tarafından işlenen yeni bir suç fenomeni olan yapay zekâ suçları ve hatta katil robotlar döneminden söz edilmektedir (Ellamey, Elwakad, 2023). İşte bu noktada teorisyenler yapay zekânın derin öğrenme kabiliyeti sayesinde bağımsız hareket edebileceği, bu sebeple yapay zekâya da tüzel kişilik tanınması, kendine özgü bir kişilik oluşturularak hak süjesi haline getirilmesi, köle yahut hayvanlara ilişkin hukuk süjesi biçiminde düzenleme yapılması gibi olasılıkları tartışmaktadır. Gelinen noktada hak sahibi bir süje olabilmenin iradeden geçtiği kabul edilmiştir. O halde özetle denilebilir ki hak öznesi olma koşulu verili bir koşul değil, tarihsel ve kültürel mücadeleler yoluyla talep edilen bir koşuldur. Eğer bir yapay zekâ hukukun öznesi olmak istiyorsa, ilk adım taleplerinin tahakküm sistemine karşı yöneltilmesi gereken özgürleştirici prosedürdür. Özgürleşmenin sistem nezdinde gerçekleşmesi yeterli değildir; meşruiyetin gerçekleşmesi için türler arası bir tanınma süreci gereklidir (Divino, 2021). Bu sebeple hak sujeliği konusu henüz yalnızca teoriktir.
Şimdi ise yapay zekâ sistemleri ve robotlar aracılığıyla bilinmeyen suçlular tarafından işlenen yeni bir suç fenomeni olan yapay zekâ suçları ve hatta katil robotlar döneminden söz edilmektedir.
Öte yandan yapay zekâ sistemlerinin hukukta kullanılması hususuna gelindiğinde başlangıçta yalnızca veri depolamak için kullanılan yapay zekâ sistemleri günümüzdeki yaygın kullanımına şu örnekler verilebilir: a. Mevzuat, doktrin ve emsal kararlara ilişkin ulusal ve uluslararası kaynaklarda inceleme yapması, b. Sözleşmeler üzerinde incelemeler yapmak ve varsa mevzuata aykırılıkların tespiti, c. Özellikle icra süreçleri ile dilekçe formatlarının hazırlanması gibi belge otomasyon süreçlerinin yürütülmesi, d. Fikri mülkiyet, patent ve telif haklarının incelenmesi, e. Vekâlet ücretinin ve yargılama giderlerinin hesaplanması ve elektronik faturalama işlemlerinin yapılması, f. Duruşma günleri ve süreli işlere ilişkin hatırlatıcılar, günlük planlayıcılar vasıtasıyla rutin düzenleme işlemleri ve yargı ağı projeleriyle ilişkilendirilmiş programlayıcıların kullanımı, g. Kullanılan kapsamlı metinleri özetleme veya istenilen bölümleri işaretleme özelliği olan yapay zekâ araçları ile araştırma zamanının kısaltılması, h. Video yahut ses kayıtları ile olayların çözülmesine veya imza, yazı ve görsel temaların gerçekliğine ilişkin analiz ve veri oluşturma, ı. Yargısal uyuşmazlıklarda tahmin teknolojisi ile sonuçların öngörülebilirliğini sağlama (Sagdeo, 2020; Singh, 2021).
Ancak bu noktada yapay zekânın giderek daha genişleyen bir biçimde kullanılmaya başlandığı unutulmamalıdır.
Ancak bu noktada yapay zekânın giderek daha genişleyen bir biçimde kullanılmaya başlandığı unutulmamalıdır. Nitekim özellikle kolluk hizmetleri bağlamında yapay zekâ ve yapay zekâlı robotların kullanımına başlanmış ve emniyet ve güvenlik alanındaki gözetim teknolojileri, polis güçlerinin yeni teknolojilere adapte olma süreciyle büyük bir genişleme göstermiştir.
Ayrıca, yapay zekânın kullanım alanları hukuk meslekleri bakımından da önemli biçimde genişlemiştir. Zira artık yapay zeka hâkim ve yapay zeka avukatlar, yapay zeka arabuluculuk sistemlerinin gündeme geldiği görülmektedir. Nitekim Oxford Üniversitesi’nin yaptığı bir araştırmaya göre, günümüzdeki mesleklerin %47’sinin bilgisayarlar tarafından gerçekleştirilebileceği öngörülmektedir. Bu oran, meslek türlerine göre önemli farklılıklar göstermektedir. Örneğin, Süddeutsche Zeitung gazetesinin araştırmasına göre, avukatların yalnızca %3,5’inin otomasyon riski altında olduğu belirtilirken, avukatlık bürolarında çalışanlar için bu oran %41, hâkimler için ise %40 olarak hesaplanmıştır. Bu veriler, hukuk sektöründe yapay zekânın etkisinin meslekten mesleğe değişebileceğini ortaya koymaktadır. Yapay zekânın hukuk alanındaki potansiyeli, Yorck Frese’in makalesinde de vurgulanmıştır.

Özellikle IBM’in “WATSON” adlı bilgisayar sistemi, hukuki danışmanlık gibi alanlarda kullanılabilecek bir örnek olarak gösterilmiştir. WATSON, bilgi yarışmalarında insanları yenerek ve poker oyuncularını alt ederek yapay zekânın karmaşık problemleri çözme yeteneğini kanıtlamıştır. Ayrıca, ceza yargılaması alanında yapılan bir araştırma, yapay zekâ sistemlerinin hâkimlerden daha doğru kararlar verebildiğini ortaya koymuştur. Bu bulgular, yapay zekânın hukuk sisteminde adalet ve verimliliği artırabileceğine işaret etmektedir (Zeytin, Gençay, 2019).
Zira artık yapay zeka hâkim ve yapay zeka avukatlar, yapay zeka arabuluculuk sistemlerinin gündeme geldiği görülmektedir.
Ancak, bu teknolojik gelişmelerin beraberinde getirdiği etik ve hukuki sorular da göz ardı edilmemelidir. Özellikle insan hakları, mahremiyet ve karar verme süreçlerinde şeffaflık gibi konular, yapay zekânın hukuk alanında kullanımıyla ilgili önemli tartışmaları beraberinde getirmektedir. Bu nedenle, teknolojinin hukuk sistemine entegrasyonu sürecinde dikkatli ve dengeli bir yaklaşım benimsenmesi gerekmektedir. Gerçekten de bu hususun en yaygın tartışma alanı ceza adalet sisteminde yapay zekânın kullanımına ilişkindir. Yukarıda değinilen sanıkların risk puanlaması için makine öğreniminin kullanılması, ceza ve kefalet kararlarında yargıçların bilinen insani önyargılarını ortadan kaldırdığı şeklinde tanıtılmaktadır. Tahmine dayalı polislik çabaları, suçu önlemek için genellikle sınırlı olan polis kaynaklarını en iyi şekilde tahsis etmeye çalışır, ancak her zaman yüksek riskli bir görev olduğu hususu göz ardı edilmemelidir. Elbette yapay zekâ, birden fazla veri akışını gerçek zamanlı olarak sağlama kapasitesine sahiptir. Şu halde dünya çapında kitlesel gözetimi mümkün kılmak için halihazırda işleme ve analiz etme kullanılıyor olması şaşırtıcı değildir. Bunun en yaygın ve tehlikeli örneği yüz tanıma yazılımıdır. Yüz tanıma yazılımı sadece inceleme ve kimlik tespiti için değil, aynı zamanda hedefleme ve ayrımcılık için de kullanılmaktadır. Yapay zekâ, propaganda oluşturmak ve yaymak için kullanılabilir. Makine öğrenimi, sosyal medya şirketlerinin hedefli reklamcılık için kullanıcı profillerini oluşturmak üzere kullandıkları veri analizine güç vermektedir. Ayrıca, oldukça gerçekçi video ve ses kayıtları ile fotoğraf kareleri oluşturma yeteneğini haizdir. Bu ise, gerçeğinden ayırt etmesi zor görüntü ve sesler ile kitleleri kışkırtmak ya da yönlendirmek amacıyla yapay zekâdan istifade edilebileceği anlamına gelmektedir. Yine, işe alım süreçleri için kullanılmaya başlanan yapay zekânın, daha önceki işe alınanların analizleri doğrultusunda cinsiyetçi yahut ırkçı bir ayrıma yönelebildiği anlaşılmıştır. Algoritmalar, uzun zamandır kredi puanları oluşturmak ve finans kredisi taramasını kullanılmaktadır (Abdulla, 2020).
Gerçekten de bu hususun en yaygın tartışma alanı ceza adalet sisteminde yapay zekânın kullanımına ilişkindir.
Ülkemizde, hukuk alanında yapay zekâ (yapay zeka) çalışmaları doğrultusunda Ulusal Yargı Ağı Projesi’nin geliştirilmesiyle e-duruşma yahut SEGBİS sistemine dayalı olarak ilgililerin çevrimiçi dinlenebilmesi gibi yenilikler getirilmiştir. Yine, yapay zekâ avukatlık çalışmalarının varlığına ilişkin reklamlara da rastlanılmaktadır. Ancak bu alanda henüz yeterince çalışma yapıldığı iddia edilemeyecektir. Ne var ki, özellikle Amerika Birleşik Devletleri (ABD) ile Çin arasında bu hususta yoğun bir liderlik yarışının varlığından söz edilebilir. Örneğin, ABD’de yapay zekâ baro sınavını geçmiş ve “DoNotPay” gibi şirketlerin avukatlık hizmeti sunmaya başlamıştır. Kanada’da, yapay zekâ arabuluculuk sistemi devreye alınmış, Çin’de ise yapay zekâ hâkimlik hizmeti sunulmaya başlanmıştır.

Elbette, özellikle yapay zekâ avukatlık uygulamalarının ruhsatsız faaliyet gösterme ve dolandırıcılık gibi suçlara da yol açabildiği bilinmektedir. Yine, yapay zekâ, özel hayatın ve haberleşmenin gizliliğinin ihlali veya kişisel verilerin izinsiz kullanılması gibi hak ihlallerine yol açabilir yahut suç işlemek amacıyla kullanılabilir. Buna karşın, değinildiği üzere, Çin’de 2019 yılında devreye alınan yapay zekâ hâkim, ileri bir örnek olarak hâlâ tartışılmakta; her ne kadar üst kanun yollarına başvurma oranının azlığı nedeniyle kararlardaki isabet oranından söz edilse de, özellikle ceza adalet sistemi bağlamında yapay zekânın kullanılıp kullanılamayacağı ciddi tartışmalara sebebiyet vermektedir. Yine, ABD’de COMPAS algoritması sayesinde sanıkların tutuklu veya tutuksuz yargılanmasıyla ilgili risk puanları hesaplanarak karar verilmesi için kullanılan yapay zekâ açısından da benzer tartışmalar sürdürülmektedir. Bu gelişmeler, yapay zekânın hukuk sistemine entegrasyonunun sunduğu fırsatları ve beraberinde getirdiği riskleri gözler önüne sermektedir. Şu halde, yapay zekânın hukuk sektöründe kullanılması, hem etkinlik hem de verimlilik sağlama potansiyeline sahipken, diğer yandan etik, güvenlik ve gizlilik gibi önemli sorunlar da doğurabilmektedir. Yapay zekânın hukuki kararları etkileyebilmesi, hâkimlerin ve avukatların işleyişini değiştirebileceği gibi, sistemlerin doğru ve adil kararlar alması için gerekli denetim ve düzenlemelerin oluşturulması önemlidir. Bu bağlamda, yapay zekânın hukuk alanında nasıl kullanılacağı ve bunun hangi etik sınırlar içinde yapılacağı, gelecekteki gelişmeler için kritik bir konu olmaya devam edecektir (Cansu, 2025).
Ne var ki, özellikle Amerika Birleşik Devletleri (ABD) ile Çin arasında bu hususta yoğun bir liderlik yarışının varlığından söz edilebilir.
Yapay zekânın gücü, eşsiz örüntü tanıma, anormallik tespiti ve tahmine dayalı analitik yeteneklerinden kaynaklanmaktadır. Ancak, zayıflığı, algoritmalarındaki önyargıları keşfetme ve yok etme yeteneğindeki eksikliktir. Bu kusur, özel sektör ve kamu sektöründeki liderlerin karar alma süreçlerinde doğrudan ve potansiyel olarak zararlı bir etkiye yol açmaktadır. Geliştiriciler tarafından kodların yeniden kullanılması, algoritmaların kendi doğrularını yaratmasına ve hızla insan kontrolünden uzaklaşmasına yol açmıştır. Bu durum, yapay zekânın karar alma süreçlerinde önyargıların etkisini arttırmakta ve büyük veriyle birlikte, sorgusuz sualsiz yapay zekâ önyargılarına teslim olunmasına sebep olmaktadır. Önyargılı algoritmalar, iş seçimleri, kredi puanları, hapishane cezaları gibi birçok önemli alanda adaletsiz sonuçlar doğurmakta, insanların yaşamlarını derinden etkilemektedir. Özellikle cezai risk değerlendirme algoritmaları, tarihsel olarak orantısız şekilde etkilenen nüfusların daha yüksek suç işleme risk puanları almasına yol açmaktadır. Bu durum, verilerdeki yerleşik önyargılar nedeniyle, suçluların yeniden suç işleme döngüsüne girmelerine neden olmaktadır. Çoğu suç riski değerlendirme aracı tescilli olduğundan, bu kararları sorgulamak veya sorumlu tutulmak oldukça zordur. Yapay zekâ, matematiksel olarak güçlendirilmiş algoritmalar sayesinde, insanların kusurlu seçimlerine dayanarak önemli kararlar alır. Bu yazılımlar, insanların önyargılarını, hoşlanmadıkları veya açıkladıkları görüşleri koda aktarabilir; bu da bazen şeffaflıktan yoksun ve önyargılı kararlar verilmesine yol açabilir. Bu tür algoritmalar, hayatla ölüm arasındaki kritik kararları bile etkileyebilir (Santiago, 2019).
Kaynakça
Abdulla, Amarendar Reddy. “Artificial Intelligence Needs Law Regulation.” Indian Learning, vol. 1, no. 1, July 2020, pp. 42-47.
Benli, Erman & Gayenur Şenel. “Yapay Zekâ ve Haksız Fiil Hukuku”. Ankara Sosyal Bilimler Üniversitesi Hukuk Fakültesi Dergisi 2, Sy. 2 (Aralık 2020), 296-336.
Cansu, Fatih Emre, “ Yapay Zekanın Hukuk Alanı Üzerindeki Olası Etkileri”, 24.01.2025 https://legal.com.tr/blog/yapay-zeka-hukuku/yapay-zekanin-hukuk-alani-uzerindeki-olasi-etkileri/
De Spiegeleire, Stephan, Matthijs Maas, and Tim Sweijs, “What Is Artificial Intelligence? “, Hague Centre for Strategic Studies, 2017, 25-42.
De Spiegeleire, Stephan; Maas, Matthijs Michiel; Sweijs, Tim,” Artificial Intelligence and the Future of Defense: Strategic Implicatıons for Small- and Medium-Sized Force Providers”, Hague Centre for Strategic Studies (2017), 25-42
Divino, Sthefano Bruno Santos. “Artificial Intelligence as a Subject of Law: Construction and Critical Theorizing about Personality and Subjectivity.” Revista de Bioetica y Derecho, 52, 2021, 237-252.
Ellamey, Yaser, & Elwakad, Amr, “The criminal responsibility of artificial intelligence systems: A prospective analytical study”, Corporate Law & Governance Review, 5(1), 2023, 92–100.
Ezzeddine Yasmine, Bayerl Petra Saskia, Gibson Helen, “Safety, privacy, or both: evaluating citizens’ perspectives around artificial intelligence use by police forces”, Policing and Society, (2023) 33:7, 861-876.
Kowalski, Andrzej. “Artificial Intelligence and Law: A Primer an Overview.” Advocate (Vancouver Bar Association), vol. 51, no. 4, July 1993, 579-584.
Mücahit Küçük, Çolpan, “Yapay Zekânın Hukuk Sisteminde Kullanılması”, Bilişim Hukuku Dergisi 6, sy. 1 (Haziran 2024), 24-79.
Sagdeo, Parth Lalit. “Blending Machine Intelligence with Natural Intelligence: Artificial Intelligence and Law.” International Journal of Law Management & Humanities, 3, 2020, 1215- 1224.
Santiago, Tamie, “Combating AI Bias Through Responsible Leadership” National Defense, vol. 103, no. 787, June 2019, 19-20.
Singh, Arundhati. “An Overview of Artificial Intelligence and Law.” International Journal of Law Management & Humanities, 4, 2021, 1432-1439.
Smith, Thomas A. “Robot Slaves, Robot Masters, and the Agency Costs of Artificial Government.” Criterion Journal on Innovation, 1, 2016, 1-46.
Veruggio Gianmarco, “The Birth of Roboethics”, ICRA 2005, IEEE International Conference on Robotics and Automation Workshop on Robo-Ethics Barcelona, April 18, 2005,1-4.
Wu, Tim Will Artifıcial Intelligence Eat The Law? The Rise Of Hybrid Social Ordering Systems, Symposium: Common Law for the Age of AI (November 2019), Vol. 119, No. 7, 2001-2028.
Zeytin, Zafer ve Gençay, Eray “Hukuk ve Yapay Zekâ: E-Kişi, Mali Sorumluluk ve Bir Hukuk Uygulaması”. Türk-Alman Üniversitesi Hukuk Fakültesi Dergisi, c. 1, sy. 1, 2019, 39-70.