27 Kasım 2023 tarihinde, toplamda 18 ülkenin katkılarıyla hazırlanıp, ortak paydada anlaşmaya varılan bir yönergeler bütünü yayınlandı. Oldukça genel seviyede sunulan doküman içeriği, güvenli Yapay Zekâ sistemlerinin geliştirilmesi bağlamında farklı aşamalarda dikkate alınması gereken hususları ele almakta… İlk aşamada geliştiricileri ve şirketleri ilgilendiriyor gibi görünse de, esasında bizlere insan faktörünün önemini yeniden hatırlatan bir çalışma ile karşı karşıyayız…
Dokümanın önemi ve kapsamı
Türkçe olarak ‘Güvenli Yapay Zekâ Sistemi Geliştirilmesi İçin Yönergeler’ şeklinde ifade edebileceğimiz; Guidelines for Secure AI System Development başlıklı dokümana, şu adres üzerinden ulaşmanız mümkün [1]: https://www.ncsc.gov.uk/collection/guidelines-secure-ai-system-development. Birleşik Krallık’ta 2017 yılında kurulan Ulusal Siber Güvenlik Merkezi (NCSC) kurumu [2] ve ABD Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA) birlikteliği ve toplamda 18 ülkenin katkılarıyla yayınlanan doküman; ülke temsilci kurumları ve özel sektör işbirliğini de etkin bir şekilde gözler önüne seriyor. Birleşik Krallık ve ABD dışında Kanada, Almanya, Fransa, İtalya, Japonya, Avustralya, Estonya, Singapur ve Güney Kore gibi ülkelerin hem fikir olduğu yönergeye Microsoft, Amazon, Google, OpenAI ve IBM gibi teknoloji devrelerinin katkıda bulunması da çalışmanın bağlayıcılık potansiyelini arttırmış oluyor. Açıkçası, Avrupa Birliği cephesinde Yapay Zekâ regülasyonları yönünde yapılan çalışmalarla ortaya çıkan EU AI Act [3] ve ABD’de Beyaz Saray’ın Ekim 2023’te yayınladığı Yapay Zekâ riskleri yönündeki görüşleri (The White House Executive Order on AI [4]) söz konusu gelişmelerin uluslararası boyutta yayılacağının göstergesi konumundaydı. Ancak henüz 2023 bitmeden böyle bir anlaşma bütününün ortaya çıkışı, özellikle Derin Öğrenme ve Geniş Dil Modelleri (LLM) sayesinde Yapay Zekâ rüzgarının fırtınaya dönüştüğü son 2 yıllık sürecin, ülkeleri hızlı aksiyonlar alma yönünde harekete geçirdiğini gösteriyor.
Toplamda 20 sayfadan oluşan doküman içeriği incelendiğinde yönergelerin, teknoloji tasarımından son kullanıcı süreçlerine kadar uzanan önemli aşamalar özelinde hazırlandığını görebiliyoruz. Bu bağlamda, güvenli tasarım (secure design), güvenli geliştirme (secure development), güvenli dağıtım (secure deployment), güvenli çalışma ve bakım-onarım (secure operation and maintenance) başlıkları altında aktarılan yönergeleri alt-başlıkları ile beraber şöyle özetleyebiliriz [1]:
- Güvenli Tasarım:
- Çalışanların tehdit ve riskler konusunda farkındalığını artırmak.
- Yapay Zekâ sistemi özelinde olası tehditlerin sezgisel değerlendirmesini yapmak.
- Sistemin işlevsellik ve performansı yanında güvenliğini de gözetmek.
- Yapay Zekâ modeli seçiminde başarım ve güvenlik arasında değişime açık olmak.
- Güvenli Geliştirme:
- Tedarik zincirinin güvenliğini sağlamak.
- Yapay Zekâ sistemi ile alakalı unsurları tanımlamak, takip etmek ve korumak.
- Verilerin, Yapay Zekâ modellerinin ve komutların dokümantasyonunu sağlamak.
- Kısa vadede faydalar uğruna düşük kalitede yapılan geliştirmeler yüzünden ileride gelişecek zorlukları (teknik borcu) öngörmek ve yönetmek.
- Güvenli Dağıtım:
- Altyapı güvenliğini sağlamak.
- Yapay Zekâ modelleri ve verilerin güvenliğini devam ettirmek.
- Zorluklar / felaketler karşısında yönetim prosedürleri geliştirmek.
- Sistemin dağıtımını sorumluluk bilinci içerisinde yapmak.
- Kullanıcıların sistemde doğru eylemlerde bulunmasını kolaylaştırmak.
- Güvenli Çalışma ve Bakım-Onarım:
- Yapay Zekâ sisteminin davranışlarını takip etmek.
- Yapay Zekâ sisteminin giriş verilerini takip etmek.
- Güncellemelerde tasarım çıkışlı güvenlik (secure by design) yaklaşımını takip etmek.
- Tecrübeleri ve çıkarılan dersleri kayıt altına alıp taraflar ile paylaşmak.

Değerlendirme ve çıkarılacak dersler
Her ne kadar dokümanı farklı uzmanlıklar yönünde ve birbirinden ayrılan aşamalar özelinde daha detaylı değerlendirmek mümkün olsa da yönergelerin bir bütün olarak anlatmaya çalıştığı, Yapay Zekâ sistemlerinin her aşamada güvenlik hususları altında da takip edilmesi yönündedir. Aslında organize edilen dört aşama, herhangi bir teknolojinin geliştirme aşamalarına tekabül etmektedir. Ancak özele indiğimizde anlatılanların Yapay Zekâ ve insan doğası ile bağlantılı olduğu hemen hissedilmektedir. Her bir yönerge, hızlı öğrenip gelişebilme potansiyeline sahip Yapay Zekâ’nın karakteristiğini dikkate alarak, herkesin kolayca hayata geçirebileceği önlemleri anlatmaktadır. Bu noktada özellikle geliştiricilerin, ilerleyen aşamalarda kontrolümüz dışında gelişerek çözülemeyecek Yapay Zekâ sebepli sorunların önüne geçilebilmesi adına ilgili yönergeyi takip etmesi oldukça kritiktir. Ancak anlatılanlar son kullanıcı gibi süreçte yer alan daha karmaşık aktörü pek de fazla dikkate almamaktadır. Neticede dokümanın zaten bu yönde bir net motivasyonu olmasa da yeni güncellemelerle genişlemesi ya da son kullanıcı odaklı yeni yönergeleri tetiklemesi ihtimaller dâhilindedir. Hatta yönergelerin sağlanabilmesi hususunda Yapay Zekâ’nın teknik ve bilimsel düzenlemeleri içeren daha detaylı kılavuzlara da ihtiyaç bulunmaktadır. Muhtemelen bu tür kılavuzlarla birlikte ülkeler özelinde ya da uluslararası boyutta Yapay Zekâ geliştirme ve güvenliğini sağlama standartlarının oluşturulması da sağlanacaktır. Halihazırdaki hızlı değişimleri dikkate aldığımızda söz konusu gelişmeleri önümüzdeki 5 yıllık süreçte görmemiz gerekmektedir. Bununla beraber uluslararası boyutta ve Türkiye özelinde şu dersleri de çıkarabiliriz:
- Yapay Zekâ güvenliği konusunda birincil sorumluluk Yapay Zekâ’yı icat eden insandadır. Dolayısıyla halen sorumluluğumuz dâhilinde Yapay Zekâ’nın sadece güvenli bir teknoloji olmasını sağlamak bir yana, kötü amaçlarla kullanımını engellemek de insan sorumluluğu dâhilindedir. Bu nedenle yönergede odak noktası haline gelen insan eylemleri bizlere Yapay Zekâ ve insan işbirliğine olan ihtiyacı bir kez daha kanıtlamaktadır. Bu noktada insan yerine Yapay Zekâ’yı konumlandırma sevdasını kör bir yaklaşımdan ziyade daha anlamlı bir düzleme çekmek; Yapay Zekâ’yı insan faydası yönünde kullanma düsturunu takip etmek daha doğru olacaktır. Böylece Yapay Zekâ sistemlerinin gerçekten yerimizi aldığı aşamalarda insanoğlu fayda görebilecek, diğer senaryolarda ise işbirliği odağı ön plana çıkabilecektir.
- Söz konusu yönergeler, Yapay Zekâ dışında bu teknolojiyi çevreleyen farklı unsurlara da vurgu yapmaktadır. Bununla birlikte Siber Güvenlik’in odak noktalarından olan ve Yapay Zekâ sistemlerinin kaderini tayin eden veri olgusu, yüksek öncelikte önem verilmesi gereken bir unsur konumundadır. Bununla birlikte güvenliği sağladığı kadar güvenlik zinciri bozabilecek verilerin üretimine sebep olabilecek Yapay Zekâ sistemleri ve bu duruma kasıtlı ya da kasıtsız sebep olabilecek insan faktörü, veri taraflı ekstra düzenlemeleri ve regülasyonları gerekli kılabilecektir.
- Yapay Zekâ ve insan etkileşimi noktasında halen anlamlandırılamayan önemli hususlar insana özgü olan etik, ahlâk ve kültür gibi olgular özelinde devam etmektedir. Bu noktada söz konusu olgular küresel çapta farklılıklar içerebilmekte, dolayısıyla evrensel Yapay Zekâ geliştirme düşüncesi çözümlenmesi gereken çelişkilerle karşı karşıya kalabilmektedir. Bu nedenle ilgili yönerge özellikle Siber Güvenlik potansiyeline vurgu yapıyor olsa da insan faktörünü dikkate alan Sosyal Bilimler bağlamında farkındalık ve okuryazarlık boyutlarını destekleyen açılımların da gerçekleştirilmesi gerekmektedir. Bu tür açılımlar net yönergelere ihtiyaç duymadan ortaya konulabilecek, zamanla ülkeler nezdinde ve uluslararası boyutta ortak anlaşmaların yolunu açabilecektir.
- İlgili yönerge küresel boyutta bağlayıcılığı olan geliştirme düzenlemelerinin ayak sesleri niteliğindedir. Bu tür düzenlemelere uyum sağlamak kamu ve özel sektör açısından oldukça kritiktir. Dolayısıyla anlaşmaya dâhil olan ve olmayan bütün ülkelerin söz konusu yönergelerin tetikleyeceği gelişmelere karşı duyarlı ve açık olması gerekmektedir.
- İlgili düzenlemelerin ticarî kaygılar içerisinde olabilecek şirketler nezdinde daha sert politikalarla uygulanması şarttır. Özellikle son zamanlarda Üretici Yapay Zekâ ve LLM furyası içerisinde ortaya çıkan rekabet ortamı ve Open AI CEO’su Sam Altman’ın kovulup kısa sürede tekrar pozisyonuna geri dönmesinden [5] anlaşılacağı üzere, Yapay Zekâ’nın güvenli ve sorumlu geliştirilmesi yanında ticarî kaygılar sıklıkla çatışma içerisine girmektedir. Yapay Zekâ güvenliğinin sağlanması açısından son derece değerli olan ilgili yönergeler en önemli sınavlarını bu tür çatışmalar içerisinde verecektir. İlgili çatışmaları ulusal güvenlik çerçevesinde Yapay Zekâ sistemleri geliştirmek ya da etikliği tartışmaya açık medikal uygulamalarda, kimyasal geliştirmelerde Yapay Zekâ’nın kullanımı gibi senaryolarda da görebiliriz.
- Türkiye özelinde düşündüğümüzde ilgili anlaşma (yönergeler bütünü), son yıllarda Yapay Zekâ kapsamında gerçekleştirdiğimiz atılımların Yapay Zekâ güvenliği boyutunda da sürdürülmesi gerektiğini göstermektedir. Bu aşamada ülkemiz kamu ve özel sektörüne politikalar geliştirme, teknik geliştirmeleri devam ettirme ve farkındalık boyutunda sosyal faaliyetleri planlayarak uygulama noktasında büyük görevler düşmektedir.
- Yapay Zekâ teknolojisi küresel düzenlemeleri gerekli kılan bir doğaya sahip olsa da, ülkeler özelindeki veri toplama, veriyi işleme ve kullanma yönündeki düzenlemeler ülkelere ait dinamiklere göre şekillenebilmektedir (Örneğin kişisel verilerin korunması yönünde Avrupa Birliği’ndeki GDPR ve Türkiye’deki KVKK). Bu duruma benzer şekilde, ülkemiz özelinde Yapay Zekâ güvenliği yönünde politikaların geliştirilmesi ve ardından bu düzenlemelerin uygulandığı esnada gelişen ve ilerleyen uluslararası düzenlemelerle eşgüdümü sağlama, daha uygun ve sağlıklı bir strateji olacaktır.
Kaynakça
[1] National Cyber Security Centre. (2023). Guidelines for secure AI system development. NCSC.gov.uk. Çevrimiçi: https://www.ncsc.gov.uk/files/Guidelines-for-secure-AI-system-development.pdf (Erişim 7 Aralık 2023).
[2] Carvalho, C., & Addison, S. (2017). UK cybercrime body launches private sector drive as Queen opens new HQ. Reuters.com. Çevrimiçi: https://www.reuters.com/article/idUSKBN15T1FV/ (Erişim 8 Aralık 2023).
[3] European Union. (2023). EU AI Act: First regulation on artificial intelligence. European Parliament News. Çevrimiçi: https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (Erişim 8 Aralık 2023).
[4] The White House. (2023). Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. WhiteHouse.gov. Çevrimiçi: https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/ (Erişim 8 Aralık 2023).
[5] OpenAI. (2023). Sam Altman returns as CEO, OpenAI has a new initial board. OpenAI Blog. Çevrimiçi: https://openai.com/blog/sam-altman-returns-as-ceo-openai-has-a-new-initial-board (Erişim 9 Aralık 2023).