top of page

Yapay Zekâ Kuralları Yeniden Yazıyor

Yapay zekâ savaş alanına indi, kararları artık insanlar değil algoritmalar veriyor. Peki bu yeni düzen barışı mı getirir, yoksa insanlığı geri dönülmez bir felakete mi sürükler? Devletler ve teknoloji devleri arasında şekillenen bu güç oyununda insan hakları ve hukukun yeri giderek belirsizleşiyor.
ree
ree

Yapay zekâ hayatımızın her alanını şekillendiriyor şekillendirmesine ama yeterince sorgulamadığımız bir alan var ki insanlık için potansiyel bir varoluşsal tehdidin de kaynağı aynı zamanda: Askerî yapay zekâ. Kısa bir süre önce, Uppsala Üniversitesi’nde Profesör Mary Ellen O’Connell’in “Barış İçin Yapay Zekâ” başlıklı bir konuşmasını dinledim. Konuşma beni realizmden oyun teorisine, teknoloji firmalarının gücünden iş birliğine dayalı yapay zekâya birçok farklı konuda yeniden düşünmeye sevk etti.


BARIŞ İÇİN Mİ SOYKIRIM İÇİN Mİ?

Kâğıt üzerinde yapay zekâ askerî operasyonları daha verimli hale getirebilir, hatta hayat bile kurtarabilir. Bazılarına göre savaşlar yapay zekânın sunduğu imkanlar nedeniyle başlamadan bitebilir de. Algoritmalar yığınla gelen istihbaratın arasında hızla analiz yapabilir, neyin hatalı neyin doğru olduğunu tespit edebilir, insansız hava araçları algoritmaların yönlendirdiği bölgeleri keşfe çıkabilir, tahmine dayalı modeller ise savaş alanlarındaki sürprizlerin önüne geçebilir.


Madalyonun diğer yüzüne ise pratikte günümüzde daha sık rastlıyor gibiyiz. Hayat ve ölüm kararlarını neredeyse tamamen otonom şekilde verebilecek sistemler artık devrede. Bu konuda ciddi yasal sınırlamalar neredeyse yok diyebiliriz. İsrail’in Gazze’de kullandığı Lavender adlı yapay zekâ destekli hedefleme sistemi birçok yerde gündeme gelmişti. Bu tarz sistemlerin hızı ve ölçeği, insani krizin boyutlarını katbekat artırırken hesap verilebilirliği de epey zayıflatıyor. Saatler süren kararların saniyelere indiği bir çatışma ortamında, siviller katlediliyor, yüzbinlerce insan göçe zorlanıyor ve yapay zekânın dahil olduğu tekil olaylarda asıl sorumluluğun kimde olduğu son derece belirsiz hale geliyor.


YAPAY ZEKÂ ÇAĞINDA REALİZMİN ÖTESİNE GEÇMEK

O’Connell konuşmasında uluslararası ilişkilerde hâkim olan realist bakış açısına bazı eleştiriler getirmişti. Bu anlayış doğrultusunda devletlerin stratejileri genelde “caydırıcılık” (deterrence) ilkesi temelinde şekilleniyor. O’Connell bu paradigmanın tehlikeli olduğunu ve miadını doldurduğunu savunuyor. Ona göre devletler caydırıcılık ilkesi doğrultusunda güç gösterisinde bulunmak yerine, sadece uluslararası hukuka göre meşru savunma hakkı kapsamında güç kullanmalı. Yapay zekâ ise caydırıcılığın değil gerçek anlamda savunmanın hizmetinde olmalı. Yapay zekâ destekli sistemler uluslararası hukuku güçlendirmeli, yasal sistemin altını oymamalı.

Bu dönüşüm talebi devletlerin birbirleriyle ilişkisini ve teknolojinin bu ilişkideki rolünü kökten değiştirebilecek bir talep. Ama devletler bunu yapma isteğine sahip mi? Yapmazsa neler olabileceğini tahmin etmek mümkün.


OYUN TEORİSİ BU İŞE NE DER?


O’Connell’in yaklaşımını oyun teorisiyle okumak faydalı olabilir diye düşündüm. Tutsak ikilemi gibi klasik caydırıcılık oyunları tehdit ve silahlanmayı ödüllendiriyor. Ancak oyunun kuralları değişirse ve iş birliği, şeffaflık ve hukuka uygunluk daha yüksek ödüller getirirse, sorumlu davranmak daha rasyonel hale gelecektir. Böyle bir uluslararası güvenlik oyununda devletler şeffaf ve denetimin insanda olduğu yapay zekâ sistemler kurmaya teşvik edilebilir ve askerî yapay zekâ konusunda ortak standartlar oluşturmak ve bu standartları izlemek için iş birliği yapabilir.


Bu tarz bir dönüşüm, çatışmanın ve çatışmanın tetikleyebileceği varoluşsal bir krizin riskini azaltabilir. Devletlerin başıboş davranmasının önüne geçebilir. Ama bugün krizleri tetikleyebilecek tek aktörler devletler de değil tabii...


MASADAKİ BEŞLİ: BIG TECH


Apple, Alphabet (Google), Amazon, Facebook (Meta), ve Microsoft bu yüzyılın birçok devletinden çok daha kudretli. Devletler hukuk temelli ve iş birliğine açık bir yaklaşımı benimsese bile kâr odaklı büyük teknoloji şirketlerinin gücü ve içerisinde yeşerdikleri vahşi kapitalist ortamla nasıl başa çıkacağız? Dünyanın en gelişmiş yapay zekâ şirketlerinin CEO’larının, bu şirketlerin ürettikleri ürünlerin, bu ürünlere bağlı alınan kararların ve bahsi geçen şirketlerin lobi faaliyetlerinin, insanlığın geleceğini önemli ölçüde şekillendirebilecek güçte olduğu kolaylıkla görülebiliyor.


Mevcut yasal mekanizmalar bu gerçekliğe cevap veremiyor. Yapay zekânın özel sektörün kontrolünde geliştirilip kullanıldığı bir ortamda ulusal ya da uluslararası yasalar ne denli yeterli olacak? Bürokrasi teknolojinin hızına yetişebilecek mi? Teknoloji devlerinin de devletler gibi şeffaflık, hesap verebilirlik ve hukuka uygunluk ilkelerine tabi olması nasıl sağlanacak?


İŞ BİRLİĞİNE DAYALI SORUMLU YAPAY ZEKÂ


Net bir çözüm olmasa da yapay zekâ yönetişimi (AI governance) alanında umut vadeden öneriler yok değil. Yapay zekâ geliştirme süreçlerinin ortak insani değerlerle uyumlu hale getirilmesi gerek. Nedir bu ortak değerler? Bu ayrı bir başlık belki ama yine de insanlığın büyük bir çoğunluğunun üzerinde uzlaşabileceği değerler yok olmasa gerek.

 

Askerî yapay zekâ sistemler için şeffaflık zorunluluğu getiren uluslararası anlaşmalar bir ütopya değil, gereklilik. Gizli silahlanmaya karşı ortak denetim ve inceleme mekanizmaları kurulabilir. Devletleri, şirketleri ve sivil toplumu bir araya getiren platformlar kurulabilir. Yapay zekânın insani değerlere ve uluslararası hukuka uygunluğunu sağlamak için teknik araştırmalar yapılabilir, standartlar belirlenebilir.


Buradaki mesele aslında şu: “Sorumlu yapay zekâ” sadece bir parça kod ya da bir mevzuat meselesi değil, bu köklü bir yapısal değişiklik ya daha sol bir jargonla ifade edersek bir siyasi ve toplumsal devrim meselesi. İş birliği, rekabetin önüne geçtiğinde herkes için daha güvenli bir dünya mümkün. İnsanlık olarak hayatta kalmak istiyorsak sadece mevcut yasalara yama yapmamız yetmeyecek. Yeni bir oyun kurmamız, uluslararası hukuk, şeffaflık ve iş birliğini yalnızca devletlere değil, yapay zekânın geleceğini şekillendirecek teknoloji devlerine de uygulatmamız (ya da daha sertçe ifade edeyim, dayatmamız) gerekiyor.







bottom of page