Yapay
Zekanın Ayrımcılığına Karşı Yapay Zeka Adaleti ve Yurttaş Yapay Zekası
Prof.Dr. Ulaş Başar Gezgin, ulasbasar@gmail.com
Twitter: ProfUlas
Yapay zekayı insanın yok oluşuyla ilişkilendiren korku
senaryolarının tersi konumda, bir de, onun hatalı kararlar veren ve sınırlı
bilişsel yetilere sahip insandan daha üstün, daha doğru, daha iyi kararlar
alacağını düşleyen umutlular var. Onlara göre, insanın yanlış kararları
bilişsel özelliklerinin yetersizliğinden kaynaklanıyor. Oysa bu, ne yazık ki
doğru değil. İnsanlığın geliştirdiği yapay zeka, kimi açılardan, ancak
insanlığın kendisinin olabildiği kadar akıllı-mantıklı ya da akılsız-mantıksız.
Büyük hayaller kurmamak gerekiyor; çünkü öyle yapınca hayal kırıklıklarımız da
büyük olacak.
Peki umut senaryolarına yanıt nedir? Şudur: İnsanlığın
dünyası adaletli değil. Bu adaletsizlik yapay zekaya da yansıyor. Yapay zeka
ayrımcılık yapıyor. Bu ayrımcılığın iki temel boyutu şöyle: Birinci boyut,
veriden kaynaklı ayrımcılık. Örneğin, verilerden hareketle Siyahları suçlu ilan
edebiliyor. Arama motorları, kendi kendine doldurma seçeneğiyle birlikte
verilerin bir parçası olan çeşitli önyargıları ve kalıpyargıları ortaya
saçıyor. Bir yüz tanıma programı geliştiriliyor; ama beyaz, erkek ve düz
gözlüler için. Makine, siyah, kadın ve çekik gözlü olanları tanımlayamıyor.
Havaalanlarında pasaport kontrolünde fotoğraf çekmek için kullanılan bu
uygulama, çekik gözlülerin fotoğraflarını “gözünü kırptı” diyerek bir daha bir
daha çekiyor; sonunda yüzleri tanıyamamış oluyor.
Yapay zekanın ayrımcılığının ikinci boyutu ise, yapay zeka
araştırma ve uygulamalarında karar verici konumlardaki temsiliyet ayrımcılığı.
Bu konumlarda, beyaz, erkek, Avrupalı ağırlığını görüyoruz. Kimi yapay zeka
programlarının ayrımcılığı, verilerdeki ayrımcılığa ek olarak bu temsiliyet
ayrımcılığından kaynaklanıyor.
Temsiliyet
Sorunu
Karar verici konumlardaki temsiliyette, kadın oranı % 10-20
aralığında; siyahlar % 5’in altında. Yapay zekacı kadınların neredeyse tümü
beyaz. Sorunun hem temsiliyet hem veri düzeyinde olması, onun yalnızca yapay
zekacı kadın sayısını artırmak gibi temsiliyet önlemleriyle çözülemeyeceğini
gösteriyor. Ayrıca, karar verme düzeneklerinde daha düşük düzeylerde temsil
edilenlerin temsiliyet oranlarının yükseltilmesi, bu kesimlerden gelen yapay
zekacıların ait oldukları toplumsal kategoriler dolayısıyla daha eşit bir yapay
zekadan yana olacakları anlamına gelmiyor. Beyaz, Avrupalı, erkek normların
baskın olduğu ortamlarda, bu kesimler de, işini kaybetme korkusuyla çoğunluk
normlarına uyabiliyor. Dahası, kimi örneklerde, kadınlara, siyahlara vb.
temsiliyet tanınıyor ama yetki verilmiyor. Bu durumda, ‘ötekiler’, “falanca
şirketler çoğulcuymuş, çeşitliliğe önem veriyorlar” gibi bir izlenim yaratmak
yolunda birer konu mankenine dönüştürülüyor. Ayrımcılık iddialarına şirketler,
“olur mu, kadın çalışanımız da var siyah da” diye yanıt veriyorlar. Gerçekteyse
ne yetki veriliyor ne eşit ücret ne de iş adaleti söz konusu…
Ayrıca, konuyla ilgili tartışmalar, genellikle sonuca
odaklanarak öncülleri gözden kaçırıyor: Ezilenlerin yapay zekacılar arasında
daha fazla temsil edilebilmesi, öncelikle onlara çocukluktan başlayarak daha
iyi ve nitelikli bir eğitim sağlamaktan geçiyor. Nitelikli eğitime erişim
hakkı, kapitalizmde ezilen çoğunluğa bahşedilmiyor. Ailede ve toplumda kız
çocuğunun eğitimine ve çalışma yaşamına katılımına verilen önem ve değer de
sonraki yaşam evreleri için belirleyici oluyor. Ataerkil toplumda,
ortalamalardan konuşacak olursak, bir erkek çocuğun bilgisayar sahibi olma
olasılığı, bir kız çocuğununkinden daha yüksek. Bilgisayarla tanışma yaşları
da, ataerki nedeniyle farklı oluyor. Aynı durum, kuşkusuz, yoksulluk, etnik kimlik
vb. bağlamlarda da söz konusu. Üst sınıf çocukların evlerinde bilgisayar olması
çok daha olası. Böylelikle, bu işyerinde temsiliyet tartışmaları, yapısal
öncülleri ıskalamış oluyor. Kimi işverenler, bu adaletsiz düzende şu tür bir
savunuya sarılıyor: “Ben ne yapayım yeterli sayıda siyah ya da kadın bilgisayar
mühendisi yoksa”...
Algoritma
Sorunu
Yapısal çözümlere ve temsiliyet önlemlerine ek olarak yapay
zeka şirketlerinin ve algoritmaların şeffaf ve kamuya hesap verir nitelikte
olması gerekiyor. Yapay zeka programları, olası ayrımcı çıkarımlara karşı
eğitilmiş olmalı. Bu da, yapay zeka ve etik konusunu gündeme getiriyor.
Üstelik, konu, yalnızca kadınlar ve siyahlar değil, karar vericilikte ve
verinin kendisinde az temsil edilen, doğru temsil edilmeyen, hiç temsil
edilmeyen vb. başka toplumsal kategoriler de var. Bir ABD klasiği olarak, siyah
Amerikalıların temsilinin arttırılması için belli ölçüde bir çaba görülür;
ancak aynısı, Kızılderililer için çok görülür. Bunu uzay filmlerinde de
görürüz: Siyah mühendis vardır, kadın subay vardır, eşcinsel doktor vardır,
Kızılderililer ise hiç yoktur.
Dahası, yapay zeka uygulamaları, yalnızca ABD’de değil dünya
ölçeğinde etkili olduğuna göre, temsiliyet ve ayrımcılık gibi konuları dünya
genelinde düşünüyor olmalıyız. Bu tartışmada, Eskimolara da Papua Yeni
Ginelilere de söz hakkı veriliyor olmalıdır. Engelliler, LGBTİ’ler ve daha
birçok toplumsal kategori de tartışmanın bir parçası olmak durumundadır. Bu
tartışmalarda hiç mi hiç konu edilmeyen toplumsal kategoriler de var. Örneğin,
İngilizcesi’yle ‘Roman mühendis’ gibi bir Google araması, çok az dönüş veriyor.
Türkçesi ise tek bir dönüş veriyor; o da bir Bulgaristan Türkü sayfası. Bunu
ötesinde, gerçek yaşamda, bir birey, yalnızca bir toplumsal kategoriye değil birkaç
kategoriye girebiliyor. Kategoriler kesişiyor: Afrikalı siyah bir kadının
Amerikalı siyah bir kadına göre iş yaşamındaki olanakları daha kısıtlı. Beyaz
bir kadın ise, kimi durumlarda siyah bir erkeğe göre daha fazla olanağa sahip
olabiliyor.
Yapay zeka şirketlerinin cinsiyet algısının temelden hatalı
olduğu düşünülüyor. Yüz tanıma algoritmaları, cinsiyetin biyolojik bir kategori
olduğunu varsayıyor. Böyle bir varsayım, cinsiyet değiştirmiş kullanıcıların
sistemce tanınmasını engelliyor. Toplumsal cinsiyet, yüz parametrelerinin
ötesinde, bireyin kendini ne olarak hissettiği ve toplumun bu hissi ne biçimde
alımladığıyla ilgili. Algoritmalarda bu iki temel boyut yer almıyor.
Böylelikle, yüz tanımaya dayalı güvenlik sistemleri işgöremez duruma gelebiliyor.
Konuyu biraz daha ayrıntılandırdığımızda, yapay zeka
alanında etkin olan büyük şirketlerde cinsiyet ayrımcılığın ve cinsel tacizin
oldukça yaygın olduğunu görüyoruz. İşe alımlarda kullanılan yapay zeka
algoritması, önceki işe alımlarda cinsiyet ayrımcılığı yapıldığı için, cinsiyet
ayrımcısı çıkarımlar yapıyor. En uygun adayları belirlerken, kadınları eliyor.
Başka bir örnekte, Facebook, kadın kullanıcılara yüksek maaşlı mühendislik
işlerinin ilanlarını göstermiyor çünkü bu işlerde çok az kadın çalışıyor. Bu
büyük şirketlerde kadınlara yönelik cam tavan ve eşit işe düşük ücret sıradan
olgular görünümünde. Erkek yöneticilerin tacizinin örtbas edilmeye çalışılması,
binlerce Google çalışanı tarafından protesto ediliyor.
Yapay
Zekanın Sınıfsallığı
Öte yandan, bu yapay zekada ayrımcılık tartışmaları, kimi
noktalarda liberalizmin ötesine geçemiyor. Yapay zekanın öncelikli olarak üst
sınıfların gereksinimlerini karşılamak için geliştirildiği görmezden geliniyor.
Yapay zekacılar da çoğunlukla orta ve üst sınıflardan geliyor ya da aldıkları
yüksek ücretlerle o sınıflara çoktan devşirilmiş oluyorlar. Bir
toplumsal-bilgisel azınlık olarak, çoğunluktan kopuklar. Bu durumu, özellikle
de, genel olarak insanların hayatlarını kolaylaştırmak, onların daha rahat,
daha sağlıklı ve daha mutlu olmasını sağlamak yerine, şirketlerin kârlarını
insan canı pahasına da olsa ençoklamayı amaçlayan yapay zeka uygulamalarında
görüyoruz. Dahası, devletlerle şirketleri yurttaşlarla tüketicilerin karşısına
koyan çeşitli girişimlerde, yurttaşlarla tüketicilerin haklarının ve
çıkarlarının gözetilmediğini görüyoruz. Bu tür örnekler, liberal bakışın dar
tanımlı ayrımcılık kavramsallaştırmasının ötesinde, yapay zeka etkinliklerinde
güç eşitsizliklerinin etkisini gözler önüne sermiş oluyor. Bu ve benzeri
durumlar, veri adaletinin bir bağlaşığı olarak yapay zeka adaleti kavramını
ileri sürmemizi gerektiriyor. Yapay zeka, toplumda varolan adaletsizliklerin
bir aracına ve hatta pekiştiricisine dönüşme riski taşıyor.
Yine liberalizmin görmediği ya da gizlediği bir gerçek de,
asıl sorunun, temsiliyet ve verinin ötesinde bir üretim, yeniden üretim ve
temsil aracı olarak yapay zekanın mülkiyetinde olduğu. Çalışanların
temsiliyetinde ve veride adalet sağlandığı durumda bile, büyük teknoloji
şirketlerinin sahiplerinin sık sık beyaz ultra zengin erkekler olduğunu
görüyoruz. Yakında bu durum değişebilir: Çin yükselişte. Fakat teknoloji
sermayesinin Çinlileşmesi mülkiyet sorununu çözmüyor. Çalışanlar istediği kadar
çeşitli olsun, şirketlerde sonuçta patronların dediği oluyor. Patronlarınsa
kamu yararını gözetmeyeceği ortada...
İnsanlık üzerinde bu kadar etkili olan ve olacak bir
teknolojinin özelde ya da devlet elinde olması, insanlık adına büyük risk
taşıyor. Hele bunlar yurttaş denetiminde olmadıklarında… Sözgelimi, bu
şirketler, şirket çıkarıyla insanlığın çıkarının çatışmalı olduğu durumlarda
hangi tarafa yönelecektir? Büyük şirketler, gezegenimizin dengesini bozma
noktasında, insanlığın değil kendi şirketlerinin çıkarlarını düşündüler.
Ekoloji konusunda böyle davrananlarının yapay zeka konusunda farklı
davranacağına ilişkin bir kanıtımız bulunmuyor. Fakat yapay zekanın özel sektör
yerine devlette olması da sıkıntılı. Devletin elinde yapay zeka, hızla ve
kolaylıkla, gözetleme ve baskı aracına dönüşecek nitelikte ve Snowden
sızıntıları, bunun çoktan gerçekleştirildiğini söylüyor.
Yurttaş
Yapay Zekası Zamanı
İşte tam da bu nedenlerle, yapay zeka çalışmalarının
yurttaşlık hareketleriyle buluşması gerekiyor. Yapay zeka girişimleri, kâr
amacı gütmeyen ve devlete karşı belli ölçüde bir özerkliğe sahip olan bağımsız
bilimsel-etik kurullarca denetleniyor olmalıdır. Bu kurullar, bu konuda, “söz,
yetki, karar ve iktidar” sahibi olmalıdır. Ayrımcılığın da veri
adaletsizliğinin de çözümü buradan geçiyor. Şirketlerin ve devletlerin yapay
zekasına karşı, temel çıkış noktamız, veri adaletinden hareketle yapay zeka
adaleti (AI justice) ve yurttaş biliminden hareketle yurttaş yapay zekası
(citizen AI) olacaktır.