top of page

Veri sömürgeciliği ve yapay zekânın etik açmazı

Yapay zekâ, veriyi yeni çağın hammaddesi haline getirirken bu değerin kim tarafından, hangi bedellerle ve kimin adına üretildiği büyük ölçüde görünmez kalıyor. Küresel Güney’in emeği ve kültürü algoritmalar içinde eritilirken, etik ve tarafsızlık söylemleri ciddi bir meşruiyet krizini de beraberinde getiriyor.

Teknolojinin parlak sayfalarında beliren can sıkıcı bir soru: Büyük teknoloji şirketleri geliştirdikleri yapay zekâ uygulamaları ile sömürgecilik zihniyetini dijital çağa taşıyor olabilir mi?

Sömürgecilik eskiden doğal kaynakları hedef alırdı. Yöntemi acımasız, vaadi ise “uygarlık”tı. Bazı araştırmacılar bugün benzer bir dinamiğin, veri merkezlerinde ve algoritmaların derinliklerinde sessizce işlemekte olduğu kanısında. Bu kez hedef petrol ya da 19. yüzyıl sömürgecilerininki gibi pamuk değil. Dilimiz, kültürümüz, deneyimlerimiz, attığımız her adımda ardımızda bıraktığımız dijital iz… 21. yüzyılın imparatorlukları bu kaynaklarla inşa ediliyor.


Veri sömürgeciliği kavramı ilk bakışta abartılı gelebilir. Ne de olsa, tarihsel anlamda sömürgecilik fiziksel işgal, kölelik ve sistematik şiddet içeriyordu. Ancak yapısal benzerliklere baktığımızda yer yer rahatsız edici bir paralellik ortaya çıkıyor.


Fiziksel işgal değil belki ama Küresel Güney'den rıza gösterilmeden toplanan verilerin, Küresel Kuzey'in teknoloji devlerinin sunucularında işlenmesi söz konusu. Bir nevi dijital işgalden söz ediyoruz. Tıpkı sömürgecilerin "sahipsiz topraklar" (terra nullius) argümanıyla yerlilerin topraklarını sahiplenmesi gibi büyük teknoloji şirketleri de dijital alanı herkesin kullanabileceği açık bir kaynak gibi görüp kullanıyor.


Kölelik değil belki ama Küresel Güney'de istihdam edilen ucuz emek gücünün ürettiği değerin Küresel Kuzey'de sahiplenilmesi ve kârın burada birikmesi söz konusu. Veri işçilerinin maruz kaldıkları içerikler nedeniyle deneyimledikleri zorluklarsa tümüyle göz ardı ediliyor.

Veriyi üretenler bu sürecin ne kontrolünü ne kârını elinde tutuyor. Yerel toplulukların kültürel mirası ve entelektüel emeği önemsenmeden veriler toplanıyor ve modeller için “eğitim verisi” olarak kullanıyor.


İNSAN EMEĞİNİN GÖRÜNMEZLİĞİ



Gazeteci Karen Hao'nun "Empire of AI" adlı kitabı, geçmişin sömürgeci imparatorluklarıyla bugünün dev şirketleri arasındaki benzerliği açıkça ortaya koyar nitelikte.


Yapay zekânın ışıltılı dünyasında model gelişimi ve güvenliği için “veri etiketleme” işi son derece kritik. Hao kitapta veri işçilerinin yaşam hikayelerine değinerek bu sektördeki sömürüyü gözler önüne seriyor. Venezuela'dan Kenya’ya, binlerce çalışanın yapay zekâ modellerinin “öğrenmesi” için saatlik sadece birkaç dolara nasıl veri etiketlediği, içerik hazırladığı kitapta anlatılıyor. Görünen o ki veri işçileri, travmatik içeriklerle herhangi bir psikolojik destek almadan baş başa kalıyor. İş güvencesizliği, düşük ücretler ve sağlıksız çalışma koşulları ise bu sektörde norm haline gelmiş durumda. Kitapta bunların yanı sıra Şili'deki veri merkezlerinden hareketle yapay zekâ uygulamalarının çevresel maliyetleri de masaya yatırılıyor.


NEYE VE KİME GÖRE HİZALIYORUZ?


Teknik literatürde masum görünen bir terim var: "alignment" (hizalama). Veri etiketleme de bu işin bir parçası. Hizalama çalışmaları genel olarak yapay zekâ modellerinin insan değerleriyle uyumlu hale getirilmesine odaklanıyor.


RLHF (Reinforcement Learning from Human Feedback - İnsan Geri Bildiriminden Pekiştirmeli Öğrenme) metodu, bu yaklaşımın önemli bir parçası. Modeller, insanların tercihlerine göre ödüllendirilip cezalandırılarak “düzeltiliyor.” Veri işçilerinin bir fonksiyonu bu ama teknoloji devlerinin hizalama sorununa yaklaşımı çok daha katmanlı. Veri etiketleme ve RLHF bu işin yalnızca bir ayağı. Nitekim bu basit bir soru değil, etik ve toplumsal yansımaları da oldukça derin olan bir mesele.


Hizalama süreci modellere sadece ne yanıt vermesi gerektiğini değil, bir soruya nasıl yaklaşması gerektiğini, neyi doğru veya yanlış, uygun veya uygunsuz bulması gerektiğini öğretiyor. Bir model, belirli siyasi görüşleri “zararlı” olarak etiketlemiş veriyle “hizaya getirildiyse” o görüşleri ifade eden cümleleri üretmekten de kaçınıyor.

Bu süreç modelleri belirli tonlara, üsluplara ve ideolojik çerçevelere sokabiliyor. Bir dil modeli “yardımsever”, “zararsız” ve “dürüst” olacak şekilde tasarlanabilir ama bu kavramların tanımlarının da şirketin ve egemen kültürün yorumuna göre belirlendiği aşikar. Sonuç olarak yapay zekâ, görünürde tarafsız ama esasında derinlemesine ideolojik bir üretim haline geliyor.


GÜÇ, SİYASET VE YENİLENEN YÜZÜYLE HEGEMONYA


Şu bir gerçek: Milyarlarca insan bilgiye erişmek, herhangi bir konuda karar almak ve dünyayı anlamak için yapay zekâ modellerine başvurmaya başladığında bu modelleri geliştirenler de muazzam bir güç elde ediyor.


Bu güç, klasik medya kontrolünden çok daha sinsi. Televizyon kanalı ya da gazete sahibi taraflı olabilir. Okuyucu veya izleyici her zaman olmasa da bunu büyük oranda bilerek içeriği tüketir ya da bunu araştırarak keşfedebilir. Ancak büyük teknoloji şirketlerince yapay zekâ, “objektif” bir bilgi kaynağı, tarafsız bir asistan gibi sunuluyor. Kullanıcılar, aldıkları yanıtların belirli değerler, çıkarlar ve politik pozisyonlar doğrultusunda şekillendirilebileceğinin pek de farkında değiller.

Kimin sesinin duyulacağı, hangi bilginin yaygınlaşacağı, hangi anlatıların meşru sayılacağı gibi sorular, bugün için iki elin parmaklarını geçmeyen sayıda teknoloji şirketinin insafına kalmış durumda. Bu şirketler herhangi bir demokratik mekanizmaya tabi değil. Seçilmiş değiller, hesap verme zorunlulukları sınırlı, karar alma süreçleri ise tamamen kapalı kapılar ardında.


BİR MEŞRUİYET KRİZİ


Neredeyse tüm büyük yapay zekâ şirketleri “sorumlu AI”, “etik AI” ya da “AI güvenliği” üzerine açıklamalar yapıyor. Manifestolar, etik kurullar, araştırma makaleleri yayınlanıyor. Ancak bir yandan da bu yaklaşımların temelinde bir meşruiyet problemi var gibi duruyor.

Eğer üretim süreciniz sömürü ve adaletsizlik üzerine kuruluysa ortaya koyduğunuz ürününün etik temellere dayandığını nasıl iddia edebilirsiniz?

Telif hakkı ihlâlleriyle milyarlarca kitap, makale ve sanat eserini izinsiz kullanan bir şirket, “toplum yararına” çalıştığını nasıl iddia edebilir? Travmatik içerikleri görüntülemek zorunda bıraktığı işçilere düşük ücret ödeyen bir platform “insan merkezli” olduğunu söyleyebilir mi? Küresel Güney'den veriyi kazıyıp elde ettiği değeri Küresel Kuzey'de biriktiren bir sistem “kapsayıcı” olma iddiasında bulunabilir mi?


“THE EMPIRE STRIKES BACK”


Büyük teknoloji firmalarının elinde yapay zekâ, insanı taklit etme iddiasındaki teknolojik bir üretimden çok daha fazlası. Siyasal ve ekonomik gücü konsolide etmek için kullanılabilecek, kültürel hegemonyanın hizmetindeki bir araç ve nihayetinde ideolojik bir aygıt... Bu firmalar tarihsel anlamdaki sömürgeciliğin mantığını yeni bir alana taşıyor: Veriyi gayrimeşru bir biçimde çıkar, işle, ondan değer yarat ve bu değerden elde ettiğin gücü birkaç kurumun elinde yoğunlaştır.


Böyle olmak zorunda değil. Bazı araştırmacılar topluluk odaklı yapay zekâ modelleri, açık kaynaklı sistemler, veri egemenliği ve demokratik denetim mekanizmalarıyla daha sağlıklı ve insanlığa faydalı bir yapay zekâ ekosisteminin mümkün olduğunu söylüyor. Ancak dev şirketlerin kaynakları, hızı ve siyasi gücü ile yarışmak bugün için biraz zor. İmparatorluklarla mücadele çok katmanlı bir çabayı gerektiriyor.


Sonuç olarak yapay zekânın geleceği, bir mühendislik ya da algoritma meselesi değil. Bu bir siyaset, etik, adalet ve güç mücadelesi. Bu tartışmaya yalnızca Silikon Vadisi'nin değil, tüm dünyanın katılmaya hakkı var.

bottom of page