Videolar

17 Nisan 2021 Cumartesi

Yapay Zekanın Ayrımcılığına Karşı Yapay Zeka Adaleti ve Yurttaş Yapay Zekası

 

Yapay Zekanın Ayrımcılığına Karşı Yapay Zeka Adaleti ve Yurttaş Yapay Zekası

 

Prof.Dr. Ulaş Başar Gezgin, ulasbasar@gmail.com

Twitter: ProfUlas

 

Yapay zekayı insanın yok oluşuyla ilişkilendiren korku senaryolarının tersi konumda, bir de, onun hatalı kararlar veren ve sınırlı bilişsel yetilere sahip insandan daha üstün, daha doğru, daha iyi kararlar alacağını düşleyen umutlular var. Onlara göre, insanın yanlış kararları bilişsel özelliklerinin yetersizliğinden kaynaklanıyor. Oysa bu, ne yazık ki doğru değil. İnsanlığın geliştirdiği yapay zeka, kimi açılardan, ancak insanlığın kendisinin olabildiği kadar akıllı-mantıklı ya da akılsız-mantıksız. Büyük hayaller kurmamak gerekiyor; çünkü öyle yapınca hayal kırıklıklarımız da büyük olacak.

 

Peki umut senaryolarına yanıt nedir? Şudur: İnsanlığın dünyası adaletli değil. Bu adaletsizlik yapay zekaya da yansıyor. Yapay zeka ayrımcılık yapıyor. Bu ayrımcılığın iki temel boyutu şöyle: Birinci boyut, veriden kaynaklı ayrımcılık. Örneğin, verilerden hareketle Siyahları suçlu ilan edebiliyor. Arama motorları, kendi kendine doldurma seçeneğiyle birlikte verilerin bir parçası olan çeşitli önyargıları ve kalıpyargıları ortaya saçıyor. Bir yüz tanıma programı geliştiriliyor; ama beyaz, erkek ve düz gözlüler için. Makine, siyah, kadın ve çekik gözlü olanları tanımlayamıyor. Havaalanlarında pasaport kontrolünde fotoğraf çekmek için kullanılan bu uygulama, çekik gözlülerin fotoğraflarını “gözünü kırptı” diyerek bir daha bir daha çekiyor; sonunda yüzleri tanıyamamış oluyor.

 

Yapay zekanın ayrımcılığının ikinci boyutu ise, yapay zeka araştırma ve uygulamalarında karar verici konumlardaki temsiliyet ayrımcılığı. Bu konumlarda, beyaz, erkek, Avrupalı ağırlığını görüyoruz. Kimi yapay zeka programlarının ayrımcılığı, verilerdeki ayrımcılığa ek olarak bu temsiliyet ayrımcılığından kaynaklanıyor.

 

 

Temsiliyet Sorunu

 

Karar verici konumlardaki temsiliyette, kadın oranı % 10-20 aralığında; siyahlar % 5’in altında. Yapay zekacı kadınların neredeyse tümü beyaz. Sorunun hem temsiliyet hem veri düzeyinde olması, onun yalnızca yapay zekacı kadın sayısını artırmak gibi temsiliyet önlemleriyle çözülemeyeceğini gösteriyor. Ayrıca, karar verme düzeneklerinde daha düşük düzeylerde temsil edilenlerin temsiliyet oranlarının yükseltilmesi, bu kesimlerden gelen yapay zekacıların ait oldukları toplumsal kategoriler dolayısıyla daha eşit bir yapay zekadan yana olacakları anlamına gelmiyor. Beyaz, Avrupalı, erkek normların baskın olduğu ortamlarda, bu kesimler de, işini kaybetme korkusuyla çoğunluk normlarına uyabiliyor. Dahası, kimi örneklerde, kadınlara, siyahlara vb. temsiliyet tanınıyor ama yetki verilmiyor. Bu durumda, ‘ötekiler’, “falanca şirketler çoğulcuymuş, çeşitliliğe önem veriyorlar” gibi bir izlenim yaratmak yolunda birer konu mankenine dönüştürülüyor. Ayrımcılık iddialarına şirketler, “olur mu, kadın çalışanımız da var siyah da” diye yanıt veriyorlar. Gerçekteyse ne yetki veriliyor ne eşit ücret ne de iş adaleti söz konusu…

 

Ayrıca, konuyla ilgili tartışmalar, genellikle sonuca odaklanarak öncülleri gözden kaçırıyor: Ezilenlerin yapay zekacılar arasında daha fazla temsil edilebilmesi, öncelikle onlara çocukluktan başlayarak daha iyi ve nitelikli bir eğitim sağlamaktan geçiyor. Nitelikli eğitime erişim hakkı, kapitalizmde ezilen çoğunluğa bahşedilmiyor. Ailede ve toplumda kız çocuğunun eğitimine ve çalışma yaşamına katılımına verilen önem ve değer de sonraki yaşam evreleri için belirleyici oluyor. Ataerkil toplumda, ortalamalardan konuşacak olursak, bir erkek çocuğun bilgisayar sahibi olma olasılığı, bir kız çocuğununkinden daha yüksek. Bilgisayarla tanışma yaşları da, ataerki nedeniyle farklı oluyor. Aynı durum, kuşkusuz, yoksulluk, etnik kimlik vb. bağlamlarda da söz konusu. Üst sınıf çocukların evlerinde bilgisayar olması çok daha olası. Böylelikle, bu işyerinde temsiliyet tartışmaları, yapısal öncülleri ıskalamış oluyor. Kimi işverenler, bu adaletsiz düzende şu tür bir savunuya sarılıyor: “Ben ne yapayım yeterli sayıda siyah ya da kadın bilgisayar mühendisi yoksa”...

 

 

Algoritma Sorunu

 

Yapısal çözümlere ve temsiliyet önlemlerine ek olarak yapay zeka şirketlerinin ve algoritmaların şeffaf ve kamuya hesap verir nitelikte olması gerekiyor. Yapay zeka programları, olası ayrımcı çıkarımlara karşı eğitilmiş olmalı. Bu da, yapay zeka ve etik konusunu gündeme getiriyor. Üstelik, konu, yalnızca kadınlar ve siyahlar değil, karar vericilikte ve verinin kendisinde az temsil edilen, doğru temsil edilmeyen, hiç temsil edilmeyen vb. başka toplumsal kategoriler de var. Bir ABD klasiği olarak, siyah Amerikalıların temsilinin arttırılması için belli ölçüde bir çaba görülür; ancak aynısı, Kızılderililer için çok görülür. Bunu uzay filmlerinde de görürüz: Siyah mühendis vardır, kadın subay vardır, eşcinsel doktor vardır, Kızılderililer ise hiç yoktur.

 

Dahası, yapay zeka uygulamaları, yalnızca ABD’de değil dünya ölçeğinde etkili olduğuna göre, temsiliyet ve ayrımcılık gibi konuları dünya genelinde düşünüyor olmalıyız. Bu tartışmada, Eskimolara da Papua Yeni Ginelilere de söz hakkı veriliyor olmalıdır. Engelliler, LGBTİ’ler ve daha birçok toplumsal kategori de tartışmanın bir parçası olmak durumundadır. Bu tartışmalarda hiç mi hiç konu edilmeyen toplumsal kategoriler de var. Örneğin, İngilizcesi’yle ‘Roman mühendis’ gibi bir Google araması, çok az dönüş veriyor. Türkçesi ise tek bir dönüş veriyor; o da bir Bulgaristan Türkü sayfası. Bunu ötesinde, gerçek yaşamda, bir birey, yalnızca bir toplumsal kategoriye değil birkaç kategoriye girebiliyor. Kategoriler kesişiyor: Afrikalı siyah bir kadının Amerikalı siyah bir kadına göre iş yaşamındaki olanakları daha kısıtlı. Beyaz bir kadın ise, kimi durumlarda siyah bir erkeğe göre daha fazla olanağa sahip olabiliyor.

 

Yapay zeka şirketlerinin cinsiyet algısının temelden hatalı olduğu düşünülüyor. Yüz tanıma algoritmaları, cinsiyetin biyolojik bir kategori olduğunu varsayıyor. Böyle bir varsayım, cinsiyet değiştirmiş kullanıcıların sistemce tanınmasını engelliyor. Toplumsal cinsiyet, yüz parametrelerinin ötesinde, bireyin kendini ne olarak hissettiği ve toplumun bu hissi ne biçimde alımladığıyla ilgili. Algoritmalarda bu iki temel boyut yer almıyor. Böylelikle, yüz tanımaya dayalı güvenlik sistemleri işgöremez duruma gelebiliyor.

 

Konuyu biraz daha ayrıntılandırdığımızda, yapay zeka alanında etkin olan büyük şirketlerde cinsiyet ayrımcılığın ve cinsel tacizin oldukça yaygın olduğunu görüyoruz. İşe alımlarda kullanılan yapay zeka algoritması, önceki işe alımlarda cinsiyet ayrımcılığı yapıldığı için, cinsiyet ayrımcısı çıkarımlar yapıyor. En uygun adayları belirlerken, kadınları eliyor. Başka bir örnekte, Facebook, kadın kullanıcılara yüksek maaşlı mühendislik işlerinin ilanlarını göstermiyor çünkü bu işlerde çok az kadın çalışıyor. Bu büyük şirketlerde kadınlara yönelik cam tavan ve eşit işe düşük ücret sıradan olgular görünümünde. Erkek yöneticilerin tacizinin örtbas edilmeye çalışılması, binlerce Google çalışanı tarafından protesto ediliyor.

 

 

Yapay Zekanın Sınıfsallığı

 

Öte yandan, bu yapay zekada ayrımcılık tartışmaları, kimi noktalarda liberalizmin ötesine geçemiyor. Yapay zekanın öncelikli olarak üst sınıfların gereksinimlerini karşılamak için geliştirildiği görmezden geliniyor. Yapay zekacılar da çoğunlukla orta ve üst sınıflardan geliyor ya da aldıkları yüksek ücretlerle o sınıflara çoktan devşirilmiş oluyorlar. Bir toplumsal-bilgisel azınlık olarak, çoğunluktan kopuklar. Bu durumu, özellikle de, genel olarak insanların hayatlarını kolaylaştırmak, onların daha rahat, daha sağlıklı ve daha mutlu olmasını sağlamak yerine, şirketlerin kârlarını insan canı pahasına da olsa ençoklamayı amaçlayan yapay zeka uygulamalarında görüyoruz. Dahası, devletlerle şirketleri yurttaşlarla tüketicilerin karşısına koyan çeşitli girişimlerde, yurttaşlarla tüketicilerin haklarının ve çıkarlarının gözetilmediğini görüyoruz. Bu tür örnekler, liberal bakışın dar tanımlı ayrımcılık kavramsallaştırmasının ötesinde, yapay zeka etkinliklerinde güç eşitsizliklerinin etkisini gözler önüne sermiş oluyor. Bu ve benzeri durumlar, veri adaletinin bir bağlaşığı olarak yapay zeka adaleti kavramını ileri sürmemizi gerektiriyor. Yapay zeka, toplumda varolan adaletsizliklerin bir aracına ve hatta pekiştiricisine dönüşme riski taşıyor.

 

Yine liberalizmin görmediği ya da gizlediği bir gerçek de, asıl sorunun, temsiliyet ve verinin ötesinde bir üretim, yeniden üretim ve temsil aracı olarak yapay zekanın mülkiyetinde olduğu. Çalışanların temsiliyetinde ve veride adalet sağlandığı durumda bile, büyük teknoloji şirketlerinin sahiplerinin sık sık beyaz ultra zengin erkekler olduğunu görüyoruz. Yakında bu durum değişebilir: Çin yükselişte. Fakat teknoloji sermayesinin Çinlileşmesi mülkiyet sorununu çözmüyor. Çalışanlar istediği kadar çeşitli olsun, şirketlerde sonuçta patronların dediği oluyor. Patronlarınsa kamu yararını gözetmeyeceği ortada...

 

İnsanlık üzerinde bu kadar etkili olan ve olacak bir teknolojinin özelde ya da devlet elinde olması, insanlık adına büyük risk taşıyor. Hele bunlar yurttaş denetiminde olmadıklarında… Sözgelimi, bu şirketler, şirket çıkarıyla insanlığın çıkarının çatışmalı olduğu durumlarda hangi tarafa yönelecektir? Büyük şirketler, gezegenimizin dengesini bozma noktasında, insanlığın değil kendi şirketlerinin çıkarlarını düşündüler. Ekoloji konusunda böyle davrananlarının yapay zeka konusunda farklı davranacağına ilişkin bir kanıtımız bulunmuyor. Fakat yapay zekanın özel sektör yerine devlette olması da sıkıntılı. Devletin elinde yapay zeka, hızla ve kolaylıkla, gözetleme ve baskı aracına dönüşecek nitelikte ve Snowden sızıntıları, bunun çoktan gerçekleştirildiğini söylüyor.

 

 

Yurttaş Yapay Zekası Zamanı

 

İşte tam da bu nedenlerle, yapay zeka çalışmalarının yurttaşlık hareketleriyle buluşması gerekiyor. Yapay zeka girişimleri, kâr amacı gütmeyen ve devlete karşı belli ölçüde bir özerkliğe sahip olan bağımsız bilimsel-etik kurullarca denetleniyor olmalıdır. Bu kurullar, bu konuda, “söz, yetki, karar ve iktidar” sahibi olmalıdır. Ayrımcılığın da veri adaletsizliğinin de çözümü buradan geçiyor. Şirketlerin ve devletlerin yapay zekasına karşı, temel çıkış noktamız, veri adaletinden hareketle yapay zeka adaleti (AI justice) ve yurttaş biliminden hareketle yurttaş yapay zekası (citizen AI) olacaktır.

Hiç yorum yok:

Yorum Gönder