Yapay
Zeka Sosyolojisi Notları
Prof.Dr.
Ulaş Başar Gezgin
Yapay
zeka uygulamaları, toplumları gün geçtikçe daha fazla etkiliyor. Yorumcuların
çoğu, naif, heyecanlı bir iyimserlik taşıyor - sanki bu uygulamalar egemen
güçlerin elinde (oyuncak) olmayacakmış gibi... Durum, toplumbilimlerdeki uyum
ve çatışma kuramları arasındaki zıtlığa benziyor. İyimserler, yapay zekadan
daha fazla uyum, başarı vb. bekliyorlar; ötekiler ise, daha derin çatışmalar...
Bu da ‘yapay zeka sosyolojisi’ adında yeni bir alanın doğmasına yol açıyor. Bu
kavramı Türkçe’de ilk kez kullanan bu kısa yazıda öne çıkan iki konu, yapay
zekanın varolan toplumsal eşitsizlikleri derinleştireceği mi onaracağı mı
sorunu ve yaş, cinsiyet, ırk, etnik grup vb. ekseninde değişik toplumsal
kesimlere yönelik veri adalet(sizliğ)i... Yapay zeka, algoritmalar ve büyük
veri, ötekileştirmeye bağışık değiller; onlar da ötekileştiriyor.
Varlıklılar
ve Yokluklular
Birinci
konuya bakarsak, üretim aracı olarak kullanılan ve kullanılacak olan yapay
zekanın gelir uçurumunu kısa sürede büyüteceğini rahatlıkla söyleyebiliriz.
Varlıklılar (haves) daha varlıklı, yokluklular (have nots) daha bir yokluklu
olacak. İkinci konuya bakarsak, hukuk kurumlarının gün geçtikçe daha fazla
olmak üzere yapay zeka kullandığını görüyoruz. Bu kullanımlarda temel alınan
veriler, geçmiş ve şimdiki zamanların ırkçılığı başta olmak üzere çeşitli
ayrımcılıklarla nitelenir durumda. Dahası, yapay zeka sektöründe dengesiz bir
dağılım söz konusu: Nüfustaki kadar kadına, ileri yaşlıya, etnik gruba ve dünya
ölçeğinde alacaksak ulusal kökene rastlanmıyor. Yapay zeka sektörü halen
çoğunluğu temsil eden, eril, beyaz, orta sınıf, orta ve altı yaş ağırlıklı...
Gözetim
Kapitalizmi
Gözetim
kapitalizmi altında yaşıyoruz. Kendimizi internette anonim sanıyoruz ama öyle
değiliz. MOBESE kameraları her yerde. Gözetim ağına takılmadan yaşamak
olanaksız gibi artık. Yapay zeka, daha fazla suçun olduğu bölgelerin daha fazla
gözetilmesini istiyor. Böylelikle, belli bölgeler bir kısır döngünün içine
sokulmuş oluyorlar: Toplumsal sorunlar nedeniyle mi gözetim yoksa aşırı gözetim
sonucu doğan toplumsal sorunlar mı...
Nicelik
mi Verim mi?
Bir
olasılık da, yapay zekanın kendi sınıflarını oluşturması; ancak bu, geleneksel
kapitalist sınıf bölüntüsünün ne kadar dışına çıkacak tartışmalı... Sözgelimi,
insansız üretim yapan bir fabrikanın sahibi, insanlı fabrikanın önüne geçecek.
Fakat bunun bir sınırı var. Daha verimli ve böylelikle daha fazla üretim,
ürünlerin daha fazla tüketileceği anlamına gelmiyor. Bu durumda, üstünlük bir
nicelik değil verim üstünlüğü olacak.
Yeniden
Emek-Yoğun-Sermaye-Yoğun Ayrımı mı?
Aynı
biçimde, yapay zekanın yaygın kullanımda olduğu sektörlerde çalışanların diğer
sektörlerde çalışanlar üstünde bir ağırlığı olacağı çok açık. İnsansız fabrika,
üretim-tüketim zincirine dahil olmak için yine de insanlara ihtiyaç duyacak.
Fakat bu insanlar, üretime katma değer katmakta daha ileri olacaklar.
Böylelikle, endüstri devrimiyle görülen kır-kent ücreti farkını insansız (daha
doğrusu az insanlı, çok yapay zekalı) ve insanlı sektörler, diğer bir deyişle
az insanlı ve çok insanlı sektörler arasında göreceğiz. Gerçi, bu bizi bilindik
bir ayrıma götürüyor: Emek-yoğun ve sermaye-yoğun üretim. Az insanlı bol yapay
zekalı sektörler ile çok insanlı sektörler arasındaki fark, belki de,
emek-yoğun çalışanlarla sermaye-yoğun çalışanlar arasındaki farktan nitel
olarak çok da ayrı olmayacak.
Kimi
zaman, emek-yoğun üretim daha kârlı olur ve tercih edilir. Dahası, büyük
işsizlik dalgasına yol açma potansiyeline sahip bir teknolojik gelişme,
toplumsal istikrarı önemsemek zorunda olan devletler açısından arzu edilmeyen
sonuçlar doğuracaktır. Devletler, istikrar için emek-yoğun üretimde ısrar
edebilir. Bu, kârlı olmasa da, toplumsal olarak kazançlı olacak; düzenin devam
etmesini sağlayacaktır.
Kuşak
Yanılsaması
Çok
sık konuşulan bir kavram, kuşak uçurumu. ‘Z kuşağı’ gibi kavramlar öne çıkıyor.
Oysa
“bu
kuşak kavramsallaştırmaları, Amerikan siyasal tarihine özgü kırılma noktalarına
göre oluşturuldu. Türkiye’de bu kuşakların hiç bir geçerliliği bulunmuyor. Eğer
bir kuşak düşüncesi geliştirilecekse, bunun, Türkiye’nin siyasal tarihine
uyarlanması gerekir. Bu açıdan, 68 kuşağı, 78 kuşağı, 12 Eylül kuşağı, Gezi
kuşağı gibi sınıflandırmalar çok yerinde olacaktır. Üstelik, bu X-Y-Z
ayrımları, insan kaynakları araştırmacıları tarafından, çalışma yaşamını daha
insancıl duruma getirmek için değil, tersine çalışanları daha yakından tanıyıp
onların sırtından daha fazla kazanç sağlamak için yapılmış ayrımlar. Kaldı ki,
bu ayrımlar, ABD’de bile, kuşaksal kalıpyargılama ve hatta kendi kendini de
kalıpyargılama gibi bir sonuç bile doğurabiliyor. Böylece, kendini doğrulayan
bir kehanet gibi, çalışanlar, kendi kuşaklarına uyumlu hale geliyor ya da
getiriliyorlar.
Bir de elbette
dijital kuşak kavramsallaştırması var. Bu kavramsallaştırma, bütün gençler ya
da gençlerin büyük çoğunluğu akıllı telefonlara ve kablosuz bağlantıya
erişebilseydi geçerli olabilirdi. Oysa, sınıfsal boyutu olan bir görüngü,
kuşaksal sayılamaz. Tüm sınıfların yer almadığı bir gruplandırma ‘kuşak’ olarak
adlandırılamaz. Özellikle büyük kentlerden hareketle, kentliler üzerinden küçük
kentlere ve kırsal kesimlere genelleme yapamayız.” (Gezgin,
2019, s.167-168)
Ütopyayla
Distopya Sarkacında
Herşeyin veriye
dönüştüğü, her verinin meta niteliği taşıdığı bir döneme girdik, giriyoruz.
Demokrasi güçleri etkili olursa, bu süreçten toplumsal refah çıkar. İnsan
sağlığına en zararlı olan işleri yapay zeka yapar, böylece ortalama yaşam
beklentisi artar. Sağlıktaki ilerlemeler ise, neo-liberal düzende yine sınıfsal
olarak dağıtılacak; daha erken ve daha geç ölümler, daha çok bakım ve az
bakım/bakımsızlık sarmalında ortalama yaşam beklentisini eşitsiz olarak
etkileyecektir. Demokrasi güçleri o ya da bu nedenle etkili olmazsa, sömürü ve
baskı çok daha derinleşecek. Kaydı tutulmadık kimse kalmayacak. Bir tür
Matrix’in içinde yaşamaya devam edeceğiz...
Kaynakça
Gezgin, U.B. (2019).
Eleştirel Psikolojide Bir Yolculuk: Marksist Psikolojiden Politik Psikolojiye
ve Ötesine. Ankara: Töz.
http://ulasbasargezginkulliyati.blogspot.com/p/elestirel-psikolojide-bir-yolculuk.html
Yapay Zeka Sosyolojisi Notları-2: Makinelerin Dünyası
Prof.Dr. Ulaş Başar Gezgin
Yapay zeka sosyolojisi kavramsallaştırması, 1980’lere dek
geriye gider; öte yandan beslendiği kaynaklar düşünülürse daha önceki yıllara
gideriz. Bu ilk tartışmalarda yapay zekanın toplum üstündeki etkileri henüz
kısıtlıdır. Yapay zekanın uygulama alanları da dardır; genellikle üniversite,
şirket ve araştırma kurumlarının laboratuvarlarının pek de dışına
çıkılmamıştır. Bu nedenle, bu ilk tartışmalarda, yapay zeka ile sosyoloji
ilişkisinde başka bir yola sapılır: Buna göre, makineler arasındaki etkileşime
sosyoloji modelleri uygulanacaktır (örneğin, Woolgar, 1985; Carley, 1996).
Böylelikle, toplumsallık kavramının altında yatan insan varsayımı da dönüşüp
geliştirilecektir.
Nesnelerin İnternetinin Müjdecisi
Woolgar (1985), pergeli daha geniş açarak, ‘makineler’
sınıfına yapay zekaya ek olarak bisikletleri, füzeleri vb. de ekler. Makineler
kimi durumlarda (bisiklet örneğinde değil elbette) insansız bir biçimde
etkileşmektedir. Bu yaklaşım, daha sonra öne çıkacak ‘nesnelerin interneti’
kavramsallaştırmasını müjdeler. Bu, kullandığımız buzdolabından saç kurutma
makinesine tüm elektronik aygıtların internete bağlı olduğu bir dünyaya
karşılık gelir (bkz. Gezgin, 2020). Bu dünyada bu elektronik aygıtlar, daha
bağımsız bir etkinliğe kavuşacaktır. Böylelikle, makinelerin kendi kendilerine
etkileşiminden bir başka yapay zeka sosyolojisi izleği çıkmaktadır. Bu
etkileşime bugün ‘yapay toplum/topluluk’ ‘yapay toplumsallık’ (artificial
sociality) vb. gibi adlar yakıştırılmaktadır (bkz. Rezaev, Starikov, &
Tregubova, 2020; Rezaev & Tregubova, 2018; Sawyer, 2003).
Yapay Zeka Yöntemleriyle Sosyoloji
Sonraki çalışmalarda, yöntem sorunu öne çıkıyor.
Makinelerin sosyolojisi yanında, yapay zeka yöntemlerinin toplumsal olgu ve
olayları incelemek için nasıl kullanılabileceği değerlendiriliyor (örneğin,
Carley, 1996). Ağ kavramsallaştırmasıyla örüntü (pattern) tanımaya öncelik
veren bu tartışmalar, bilgisayısal (computational) toplumsal bilimlerin öncülü
görünümünde (örneğin bkz. Brent, 1988). Benzer bir yaklaşım, topluma bilgisayısal
anlamda ‘karmaşık bir dizge’ olarak bakılmasında görülüyor (örneğin, Anderson,
1989; Wolfe, 1991). Bu bağlamda, yapay zekanın örgütlenmesiyle toplumsal
örgütlenme arasındaki koşutluklar inceleniyor (bkz. Ardigo, 1988; Carley, 1994;
Schwartz, 1989). Simulasyonlar ve modellemeler, bir diğer buluşma noktası (bkz.
Brent, & Thompson, 1999; Halpin, 1989). Bainbridge ve ark. (1994) ‘yapay
toplumsal zeka’ diye adlandırdıkları bir kavramı ele alıyor ve bunu makine
zekası tekniklerinin sosyal görüngülere uygulanması olarak tanımlıyor (s.408).
Etnografi ve Çoklu Zeka
Sosyolojiyle yapay zekanın bir diğer kesişim noktası,
bilim sosyolojisi dolayısıyla: Yapay zeka uzmanlarının nasıl çalıştıkları, akıl
yürüttükleri vb. konular, etnografik bir bakış açısını gerektiriyor (bkz.
Bloomfield, 1988; Forsythe, 1993; Rosental, 2003). Aynısı, teknoloji
sosyolojisi için de geçerli. Bu kez yapay zekadan sosyolojiye bakmak yerine,
sosyolojiden yapay zekaya bakıyoruz ve yapay zekanın olası toplumsal sonuçları
radarımıza takılıyor (bkz. Mlynář ve ark., 2018). Böylelikle, yapay zekanın
eğitim, ulaşım, ev sistemleri, oyunlar, sağlık vb. farklı kullanım alanlarını
sosyolojik bir mercek altına alıyoruz.(1) Bunların her biri, ayrıca incelenmeyi
bekliyor. Buna benzer bir biçimde, zekaya tekli değil çoklu modelle bakarsak,
karşımıza birkaç çeşit yapay zeka çıkacak: Matematiksel yapay zeka, duygusal
yapay zeka, toplumsal yapay zeka vb..
Yapay Zekaya Güvenebilir miyiz?
Son olarak, bugün sık tartışmaya açılan bir alan, yapay
zekaya güven konusu (bkz. Jacovi ve ark.; Thiebes ve ark.). “Yapay zeka
bilinçlenip insanlığı yok eder mi?” sorusu/korkusu, birçok bilim-kurgu yapıtı
için temel malzeme niteliğinde (Suchacka & Horáková, 2019). Bunun dışında,
akla, nükleer füze uyarı sistemlerindeki hatalar geliyor(2). Dahası, Fukuşima
örneği, ileri teknolojinin hatasızlığı güvence altına almadığını gösteriyor.
Yapay zekalı silahların hata yapan insan yapımı makinelerden daha güvenilir
olup olmadığı tartışma konusu (Suchacka & Horáková, 2019). Üstelik, yapay
zeka da yanlış alarm vermek üzere haklanabilir(3).
Yapay zeka alanındaki gelişmeleri eleştirel aklın
süzgecinden geçirmeden kabullenmenin hatalı oluşuna binbir kanıt var. Ancak
küresel egemenler bunları dikkate alır mı tartışılır...
Dipnotlar
1. Yapay
zekanın sağlıkta kullanımıyla ilgili sosyolojik bir çalışma için bkz.
Kasapoğlu, 2020.
2. Bkz.
Sputnik Türkiye. (2019). Nükleer cehennemin eşiğinde: Bazı hatalar insanlığın
hayatına mal olabilirdi. Sputnik Türkiye, 06.12.2019.
3. Bkz. Sputnik Türkiye. (2019). Rus uzman nükleer bir savaşı tetikleyebilecek
nedenleri açıkladı. 13.09.2019.
Kaynakça
Anderson, B. (1989). On artificial intelligence and theory construction in
sociology. Journal of Mathematical Sociology, 14(2-3), 209-216.
Ardigo, A. (1988). Artificial intelligence: A contribution to systems
theories of sociology. AI & SOCIETY, 2(2), 113-120.
Bainbridge, W. S., Brent, E. E., Carley, K. M., Heise, D. R., Macy, M. W.,
Markovsky, B., & Skvoretz, J. (1994). Artificial social intelligence.
Annual Review of Sociology, 407-436.
Bloomfield, B. P. (1988). Expert systems and human knowledge: a view from
the sociology of science. AI & SOCIETY, 2(1), 17-29.
Brent, E. (1988). Is there a role for artificial intelligence in
sociological theorizing?. The American Sociologist, 19(2), 158-166.
Brent, E., & Thompson, G. A. (1999). Sociology: Modeling social
interaction with autonomous agents. Social Science Computer Review, 17(3),
313-322.
Carley, K. M. (1996). Artificial intelligence within sociology.
Sociological Methods & Research, 25(1), 3-30.
Carley, K. (1994). Sociology: computational organization theory. Social
Science Computer Review, 12(4), 611-624.
Forsythe, D. E. (1993). Engineering knowledge: The construction of
knowledge in artificial intelligence. Social Studies of Science, 23(3),
445-477.
Gezgin, U. B. (2020). An invitation to critical social science of big data:
from critical theory and critical research to omniresistance. AI & SOCIETY,
35(1), 187-195.
Halpin, B. (1999). Simulation in sociology. American Behavioral Scientist,
42(10), 1488-1508.
Jacovi, A., Marasović, A., Miller, T., & Goldberg, Y. (2020).
Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and Goals
of Human Trust in AI. arXiv preprint arXiv:2010.07487.
Kasapoglu, A. (2020). sociology of artificial intelligence a relational
sociological investigation in the field of health. Reports on Global Health
Research.
Mlynář, J., Alavi, H. S., Verma, H., & Cantoni, L. (2018, August).
Towards a sociological conception of artificial intelligence. In International
Conference on Artificial General Intelligence (pp. 130-139). Springer, Cham.
Rezaev, A. V., Starikov, V. S., & Tregubova, N. D. (2020). Sociology in
the Age of ‘Artificial Sociality’: Search of New Bases. Sotsiologicheskie
issledovaniya, (2), 3-12.
Rezaev, A. V., & Tregubova, N. D. (2018). Are sociologists ready for
‘artificial sociality’? Current issues and future prospects for studying
artificial intelligence in the social sciences. Мониторинг общественного
мнения: экономические и социальные перемены, 5 (147), 91-108.
Rosental, C. (2003). Certifying knowledge: the sociology of a logical
theorem in artificial intelligence. American Sociological Review, 623-644.
Sawyer, R. K. (2003). Artificial societies: Multiagent systems and the
micro-macro link in sociological theory. Sociological Methods & Research,
31(3), 325-363.
Schwartz, R. D. (1989). Artificial intelligence as a sociological
phenomenon. Canadian Journal of Sociology/Cahiers Canadiens de Sociologie,
179-202.
Suchacka, M., & Horáková, N. (2019). Towards Artificial Intelligence.
Sociological Reflections on the Relationship Man-Organization-Device. System
Safety: Human-Technical Facility-Environment, 1(1), 912-920.
Thiebes, S., Lins, S., & Sunyaev, A. (2020). Trustworthy artificial
intelligence. Electronic Markets, 1-18.
Wolfe, A. (1991). Mind, self, society, and computer: Artificial
intelligence and the sociology of mind. American Journal of Sociology, 96(5),
1073-1096.
Woolgar, S. (1985). Why not a sociology of machines? The
case of sociology and artificial intelligence. Sociology, 19(4), 557-572.
Yapay Zeka Sosyolojisi Notları-3: Yapay Zekanın
Ayrımcılığı ve Yanılabilirliği
Prof.Dr. Ulaş Başar Gezgin
Yapay zekanın ayrımcılığı ve yanılabilirliği, bir başka
yapay zeka sosyolojisi konusu.(1) Çekik gözleri ya da koyu tenleri tanımayan
gümrük teknolojileri ilk akla gelen örnek. Bir diğeri, işe alımlarda yapılan
ayrımcılıkları yapay zekanın da benimsemesi, çünkü sonuçta beslenilen veri
ayrımcı. Sözgelimi, kadınların ‘geleneksel’ olarak alınmadığı önceki işe alım
süreçlerinin verileriyle beslenen yapay zeka aynı ayrımcılıkları yapıyor.
Üçüncü bir örnek, yapay zekanın hukuk alanındaki kullanımlarındaki tehlikeler:
Önceki ırkçı mahkeme kararlarıyla beslenen yapay zeka, ırkçı kararlar öneriyor.
Algoritma Adaletsizliği
Nelson (2019), başka örnekler de veriyor: Diyelim ki,
hemşirelik işi için bir algoritma yalnızca beyaz kadınları seçiyor. Bir deri
kanseri testi, koyu tenlerde çalışmıyor. Bir hemşirelik programı, yoksul
hastalara zenginmiş gibi davranıp onları ödeyemeyecekleri seçeneklere yöneltiyor.
Sağlığa erişimdeki eşitsizlikler de veriye yansıyor: Üstünlüksüz
(disadvantaged) gruplarda daha çok eksik veri var (Parikh, Teeple, &
Navathe, 2019). Nasıl ki toplumsal adaletsizlikler nedeniyle, üstünlüksüz
kesimler sisteme/demokrasiye güvenlerini yitiriyorlar, aynısı yapay zeka
karşısında da geçerli (Woodruff ve ark., 2018). Ayrımcılık, yapay zekaya
duyulan heyecanı doğal olarak söndürüyor.
Veri Demokrasisi ve Algoritma Yanlılığı
Görüldüğü gibi yapay zeka, ‘veri demokrasisi’ olarak
adlandırılan kurucu temel öğenin yokluğunda, varolan eşitsizlikleri ve
adaletsizlikleri çeşitlendiriyor. Artık bu duruma karşılık gelen bir terim de
var: Algoritma yanlılığı. Algoritma yanlılığı, algoritmanın uygulanmasında
sosyoekonomik statü, etnik köken, inanç, cinsiyet, engellilik ve cinsel
yönelimdeki eşitsizlikleri vb. büyütmeye ve eşitsizlikleri böylelikle katlamaya
karşılık geliyor (Panch, Mattie ve Atun, 2019). Eşitsizliklerin başka biçimleri
olabileceği de akılda tutulmalı.
Veri Adaleti ve Algoritma Adaleti
Böylelikle, yapay zeka, kaçınılmaz bir biçimde insan
haklarıyla ilişkilendiriliyor (Ntoutsi ve ark., 2020). Algoritmalarda insan
haklarını çiğneyen ‘birşeyler’ var. Sorunlar toplumsal olduğuna göre, çözüm
yalnızca teknolojide aranmamalı (Ntoutsi ve ark., 2020); çözüm, veri adaletinde
ya da algoritma adaletinde (bkz. Kleinberg ve ark., 2018)... Veri adaleti ise,
tanımlanması zor bir kavram; en az 20 tanımı bulunuyor ve değişik ülkelerle
hukuk sistemlerine göre farklılık gösteriyor (Ntoutsi ve ark., 2020). Klasik
fakat birçok sorunu çözmeyen bir tanım, veri üretiminde ayrımcılığın olmaması
biçiminde (bkz. Xu ve ark., 2018). Oysa gerçek yaşamda, Türkçe’ye yanlış
biçimde ‘pozitif ayrımcılık’ ya da ‘olumlu ayrımcılık’ diye çevrilen olumlayıcı
ya da destekleyici edimler (affirmative action), adalet için gerekli
görülüyor.(2) “Aynısı veri düzeyinde uygulanabilir mi, nasıl?” gibi bir çifte
soru sormak gerekiyor (bkz. Saxena ve ark., 2019). “Veri mi algoritma mı
adaletli olmalı?” sorusu da bizi bekliyor. ‘Fırsat eşitliği’ kavramı verilerle
temsil edilenlere uygulanmalı belki de... Üstünlüklüler (advantaged) için
geçerli olan olumlu betimlemeler, ötekileştirilenler için de geçerli olmalı
(Salimi ve ark., 2019).
Piramidin Tepesindekiler
Challen ve ark. (2019), sağlıkta yapay zekanın
ayrımcılığını ve yanılabilirliğini engellemek için çeşitli soru-testler
sunuyor: Örneğin, sistemin değişik nüfuslarda ve ortamlarda kullanılıp
kullanılmadığı, yapay zekanın eğitimi için kullanılan verinin gerçek yaşamı ne
derece yansıttığı, yanlılıklar ve yanılgılar saptandığında izlenecek yolların
belli olup olmaması, yapay zekanın çıkardığı sonuçların kesinlik düzeyi, karar
vericilerin yapay zekanın bulgu ve önerilerine daha olumlu bakmaları
biçimindeki otomasyon yanlılığına karşı önlemler vb. (3) Ancak tüm bu
önlemlerin ötesinde, “gerçek yaşamda egemen sınıflar demokrasi ister mi?”
sorusunu sormak gerekiyor. Varolan ayrımcılıklar, sonuçta kimilerini piramidin
tepesine çıkarıyor.
Kesişimsellik ve Dilsel Ayrımcılık
Yapay zeka uzmanları arasında kadınların oranı hâlâ
istenilen düzeyde değil. Ayrıca, ‘kesişimsellik’ olarak adlandırılan kavram,
işi iyice karmaşıklaştırıyor. Buna göre, bir kadın yalnızca bir kadın değil,
aynı zamanda Beyaz/Siyah, Anglo/Latino, alt sınıf/üst sınıf vb. olabilir.
Yalnızca tek bir kategoriden değil, kesişen kategorilerden katılım sağlanması
gerekiyor. Bir diğer karmaşıklık, dildeki cinsiyet ayrımcılığından ileri
geliyor (Leavy, 2018). Buna diğer ayrımcılıkları da katabiliriz. Sözgelimi, kalıpyargılar
dilde iyice yerleşik nitelikte. Dolayısıyla, kullanılan dil bile yapay zekayı
tek başına ayrımcılaştırabiliyor.
Sonuç: Yapay Zekanın İnsan Yapımı Olduğunu Anımsamak
Dolayısıyla, gelinen süreç, algoritma ve veri adaleti
gibi kavramları öne çıkararak yapay zekayı eleştirel bir süzgeçten geçirmemizi
gerektiriyor. Yapay zeka, kimi konularda insan zekasından üstün olabilir; ancak
hâlâ insan hatalarıyla dolu verilere dayanıyor ve hatalarıyla nitelenen
insansoyunun elinden çıkma algoritmalarla çalışıyor.
Dipnotlar
(1) Yapay zekanın ayrımcılığı ve sömürüyle ilişkisi için Sendika.org’daki
Yapay Zeka dosyasına bakınız.
https://sendika64.org/2020/07/yapay-zeka-ozgurlestirecek-mi-kolelestirecek-mi-591885/
Yapay zekanın toplumsal etkilerinin ayrıntılı bir değerlendirilmesi için
T24’te Hayri Cem’in yazılarına bakınız. https://t24.com.tr/yazarlar/hayri-cem-haftalik
(2) Bu yanlış çevirinin yarattığı kavramsal sorunlar ve uygulama sorunları için
bkz. Gazi, F. (2020). ‘Pozitif ayrımcılık' geri kalmışlığın gösterenidir’.
Gazete Duvar, 12.10.2020.
(3) Otomasyon yanlılığı için bkz. Bond ve ark., 2018; Goddard, Roudsari &
Wyatt, 2012.
Kaynakça
Bond, R. R., Novotny, T., Andrsova, I., Koc, L., Sisakova, M., Finlay, D.,
... & Leslie, S. J. (2018). Automation bias in medicine: The influence of
automated diagnoses on interpreter accuracy and uncertainty when reading
electrocardiograms. Journal of Electrocardiology, 51(6), S6-S11.
Challen, R., Denny, J., Pitt, M., Gompels, L., Edwards, T., &
Tsaneva-Atanasova, K. (2019). Artificial intelligence, bias and clinical
safety. BMJ Quality & Safety, 28(3), 231-237.
Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: a
systematic review of frequency, effect mediators, and mitigators. Journal of
the American Medical Informatics Association, 19(1), 121-127.
Kleinberg, J., Ludwig, J., Mullainathan, S., & Rambachan, A. (2018,
May). Algorithmic fairness. In Aea papers and proceedings (Vol. 108, pp.
22-27).
Leavy, S. (2018, May). Gender bias in artificial intelligence: The need for
diversity and gender theory in machine learning. In Proceedings of the 1st
international workshop on gender equality in software engineering (pp. 14-16).
Nelson, G. S. (2019). Bias in artificial intelligence. North Carolina
Medical Journal, 80(4), 220-222.
Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V.,
Nejdl, W., Vidal, M. E., ... & Kompatsiaris, I. (2020). Bias in data‐driven
artificial intelligence systems—An introductory survey. Wiley Interdisciplinary
Reviews: Data Mining and Knowledge Discovery, 10(3), e1356.
Panch, T., Mattie, H., & Atun, R. (2019). Artificial
intelligence and algorithmic bias: implications for health systems. Journal of
global health, 9(2), 1-5.
Parikh, R. B., Teeple, S., & Navathe, A. S. (2019).
Addressing bias in artificial intelligence in health care. Jama, 322(24),
2377-2378.
Salimi, B., Rodriguez, L., Howe, B., & Suciu, D.
(2019, June). Interventional fairness: Causal database repair for algorithmic
fairness. In Proceedings of the 2019 International Conference on Management of
Data (pp. 793-810).
Saxena, N. A., Huang, K., DeFilippis, E., Radanovic, G.,
Parkes, D. C., & Liu, Y. (2019, January). How do fairness definitions fare?
Examining public attitudes towards algorithmic definitions of fairness. In
Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (pp.
99-106).
Woodruff, A., Fox, S. E., Rousso-Schindler, S., &
Warshaw, J. (2018, April). A qualitative exploration of perceptions of
algorithmic fairness. In Proceedings of the 2018 chi conference on human
factors in computing systems (pp. 1-14).
Xu, D., Yuan, S., Zhang, L., & Wu, X. (2018,
December). Fairgan: Fairness-aware generative adversarial networks. In 2018
IEEE International Conference on Big Data (Big Data) (pp. 570-575). IEEE.
Yapay Zeka Sosyolojisi Notları-4: Gözetim Kapitalizmi
Prof.Dr. Ulaş Başar Gezgin
Yapay zekayla birlikte, toplu gözetim uygulamaları, veri
gözetimi (dataveillance) ile doruğuna ulaşmış durumda. Yapay zekanın bir başka
kullanım alanı, çalışanları, yurttaşları ve tüketicileri gözetleme biçiminde.
İşveren bunu verimi arttırmakla, devlet, kamu güvenliğiyle, şirketler,
kazançlarını ençoklama güdüsüyle gerekçelendirecek. Yapay zekanın var olan
demokrasiyi ya da demokrasi kırıntılarını aşındırma olasılığı bulunuyor
(Feldstein, 2019). Yapay zeka, demokrasi güçlerinin yokluğunda ya da zayıflığında,
egemen sınıflar için daha fazla özgürlük, ezilenler için daha fazla insan
hakları ihlali getirecek.
Prangalı Çalışma
Mavi yakalı işlerde gün geçtikçe, giyilebilir
teknolojiler yoluyla daha fazla denetim ve gözetim geliyor (Moro ve ark.,
2019). Bu teknolojilerin elde edeceği veriler, iş değiştirirken kullanılacak
girdiler olacak. Beyaz yakalı işlerdeyse, yoğun bir kameralanma görüyoruz.
Yapay zeka, toplanan verilerden birtakım tahminlerde bulunacak. Örneğin sendika
üyesi olma eğilimi (Bales & Stone, 2020). Bir aday, işe alım sürecinde buna
göre işe girebilecek ya da giremeyecek. Bu ve benzeri teknolojiler, ileri
teknoloji olarak sunulup göklere çıkarılacak. İşverenin çıkarına olan
uygulamalar, tüm toplumun çıkarınaymış gibi sunulacak. Nasılsa üretim artıyor,
bedeli kimin umurunda... Daha şimdiden birçok uygulama hayata geçirilmiş
durumda. Örneğin, fabrikalarda işçilerin her anını izlemek için taktırılan
elektronik pranga ya da kelepçe (1).
Amazon’da Çifte Gözetleme
Dünyanın en zengini olan Amazon’un sahibi, işyerindeki
çalışma koşulları için ne kadar övünse azdır; çünkü son gözetleme teknolojileri
ona milyarlar kazandırıyor. Amazon çalışanları içinse bu hızlı çalışma ve
gözetlenme düzeni, robotlaşma ve zombileşmeyle özdeş sayılıyor (bkz. Hanley &
Hubbard, 2020). Amazon’un bilişim şirketiyle sahip olduğu ortak özellikler
arasında çifte gözetim öne çıkıyor: Amazon, içeride çalışanlarını, dışarıda
müşterileri gözetliyor (West, 2019).
Toplu Gözetleme
Yapay zekanın çıkışından önce, yalnızca ‘olağan
şüpheliler’ gözetlenirdi. Şimdiyse, Snowden’ın bize gösterdiği gibi (bkz.
Bauman ve ark., 2014), herkes veri düzeyinde gözetleniyor. Bu durum,
yurttaşların özel yaşam hakkıyla çatışıyor (bkz. Prudentov, 2020). Toplu
gözetlemeye karşı yurttaşlar kendilerini çaresiz hissediyorlar. “Biri bizi
sürekli izliyorsa/dinliyorsa ve bunu önleyemiyorsak niye bunu dert edelim;
yapacak birşey yok” biçiminde düşünüyorlar (Ellis, 2020). Bu, elbette bir
öğrenilmiş çaresizlik örneği. Kitle örgütlerinin, binbir gündem maddesine ek
olarak veri demokrasisine vakit ayırması zor görünüyor. Durum, otoriter
rejimlere özgü de değil; demokratik olarak tariflenen devletlerde de herkesi
gözetleme durumu baskın (Mills, 2019). Hatta bu nedenle, küresel Batı ülkeleri
için ‘post-demokrasi’ sözünü kullananlar var (örneğin Van Buuren, 2014).
Kazanç İçin Gözetleme
Üçüncü olarak, şirketlerin tüketicileri daha fazla kazanç
için gözetlemesi söz konusu. İş çevreleri için veri bir meta; alınıp
satılabiliyor (West, 2019). Veri kapitalizminde orada burada sürekli bir reklam
bombardımanına tutuluruz, bunlardan kimileri satın aldığımız ürün için
bıraktığımız telefon numarası ya da e-posta aracılığıyla bize gelir. Ancak,
verinin bir de öngörme boyutu var: “Bunu alan bunu da aldı” üzerinden bizim bundan
sonra neler satın alabileceğimizi öngörüyor. Bebek giysileri mi almaya
başladık, buradan yakında doğum beklentisi olduğunu çıkarsayabiliyor (elbette
hediyelik de alınabilir, ancak çok sayıda alınıyorsa bu çıkarsama doğru
olabilir); buna göre önerilerde bulunuyor. Kimi şirketler, kayıtlı
kullanıcılara mağazaya yaklaştıklarında reklam iletisi gönderiyor.
İçkisinden Elektrikli Süpürgeye...
Gelecekte herşey kayıt altında olacak. Kimin ne satın
aldığı belli olacak ve bu veri, devletçe kolaylıkla erişilebilecek. Örneğin,
kimler içki satın alıyor? Nesnelerin interneti de bu sorunu derinleştirecek:
Elektrikli süpürgenin çalışma sayısından evin ne kadar temizlendiği
çıkarsanacak; belki ona göre belli ürünler önerilecek. Daha da kötüsü, belki
işe alım sürecinde bu verilere de bakılacak; çünkü burada sıraladığımız üçlü
gözetim düzeni birbirinden bağımsız değil (Gezgin, baskıda).
Yapay Zekanın Aydınlık ve Karanlık Yüzleri
Kısacası, ilerleyen yıllarda çalışan, yurttaş ve tüketici
olarak daha çok gözetleneceğiz ve bizi gözetleyenler insan bile olmayacak.
Yapay zekalar bizi gözetleyip durumumuzu raporlayacak. Yapay zekanın
getirecekleri yanında götürecekleri de bir hayli fazla. Konuya coşkuyla ya da
tersine korkuyla değil, gerçekçi bir biçimde yaklaşmak gerekiyor. Medya
okuryazarlığı gibi yapay zeka okuryazarlığı kazanmamız gerekiyor.
İnsan haklarına aykırı gözetleme uygulamaları son
bulmalı. Gözetlemenin zorunlu olduğu durumlarda ise, gözetleyenin şeffaflığı
sağlanmalı. Algoritmalar da şeffaf olmalı. Bu koşullar sağlandığında, yapay
zekanın aydınlık yüzünü göreceğiz. Ancak karanlık yüzünden çıkar sağlayanlar
varken, yapay zeka bize neden aydınlık yüzünü çevirsin... Bu nedenle, daha
fazla eleştirel düşünmeye gereksinim duyuyoruz, yapay zeka yüceltmelerine
değil...
Dipnotlar
(1) Salgın gerekçesiyle uygulamaya konan, ‘kriz fırsatçılığına örnek’ sayılan
ve pranga ya da tasma olarak da adlandırılan elektronik kelepçeler için bkz.
Birleşik Metal-iş Sendikası (2020). Hedeflenen mesafe değil, denetimdir...
İşçilerin gözetlenmesine ve denetlenmesine hayır. Birleşik Metal-İş,
11.06.2020.
http://www.birlesikmetalis.org/index.php/tr/guncel/basin-aciklamasi/1491-mess-safe
Evrensel (2020). İzole üretim üsleri ve elektronik kelepçe: “Patron
babalar” prangalı çalışma istiyor. Evrensel Gazetesi, 18.05.2020.
Kaynakça
Bales, R. A., & Stone, K. V. (2020). The Invisible
Web at Work-Artificial Intelligence and Electronic Surveillance in the
Workplace. Berkeley Journal of Employment & Labor Law, 41(1), 1-62.
Bauman, Z., Bigo, D., Esteves, P., Guild, E., Jabri, V.,
Lyon, D., & Walker, R. B. (2014). After Snowden: Rethinking the impact of
surveillance. International Political Sociology, 8(2), 121-144.
Ellis, D. (2020). Techno-securitisation of everyday life
and cultures of surveillance-apatheia. Science as Culture, 29(1), 11-29.
Feldstein, S. (2019). How Artificial Intelligence Systems
Could Threaten Democracy. The Conversation.
Gezgin, U.B. (baskıda). Zeka Feşizmine Karşı: Yapay Zeka,
Büyük Veri, Bilişsel Bilim ve Gelecekbilim Üzerine.
https://ulasbasargezginkulliyati.blogspot.com/p/zeka-fesizmine-kars-yapay-zeka-buyuk.html
Hanley, D. A., & Hubbard, S. (2020). Eyes Everywhere:
Amazon's Surveillance Infrastructure and Revitalizing Worker Power.
Mills, A. (2019). Now You See Me–Now You Don't:
Journalists’ Experiences With Surveillance. Journalism Practice, 13(6),
690-707.
Moro, A., Rinaldini, M., Staccioli, J., & Virgillito,
M. E. (2019). Control in the era of surveillance capitalism: an empirical
investigation of Italian Industry 4.0 factories. Journal of Industrial and
Business Economics, 46(3), 347-360.
Prudentov, R. V. (2020). Private Life and Surveillance in
a Digital Era: Human Rights in European Perspective. Digital Law Journal, 1(2),
41-52.
Van Buuren, J. (2014). From oversight to undersight: The
internationalization of intelligence. Security and Human Rights, 24(3-4),
239-252.
West, E. (2019). Amazon: Surveillance as a service.
Surveillance & Society, 17(1/2), 27-33.
West, S. M. (2019). Data capitalism: Redefining the
logics of surveillance and privacy. Business & Society, 58(1), 20-41.
Yapay Zeka Sosyolojisi Notları-5: Emek-Yoğunluğu ve
Etik
Prof.Dr. Ulaş Başar Gezgin
Bugün yapay zekanın beslendiği büyük veri, hiç bir sosyal
hakkı olmayan, asgari ücret yasası uygulanmayan düşük ücretli vasıfsız bilişim
emekçilerinin ham veriyi bilgisayarların işleyeceği biçime dönüştürmesine
dayanıyor (Dilawar, 2020). Beklentinin tersine, fazlasıyla emek yoğun bir çaba
ve açıkça sömürüye dayanıyor. Şimdilik böyle ise, ileride bu durum ortadan
kalkacak ise sorun yok; fakat bu emek yoğunluğu, bugünkü yapay zekanın gelecek
için bir model olamayacağını gösteriyor. Bunun için, verileri de yapay zekanın
dönüştüreceği öğrenme modelleri üstünde duruluyor (Toews, 2020).
‘Olağan Şüpheliler’ Yaratmak
Yapay zekanın ırkçılığı ve genel olarak ayrımcılığı
sürekli olarak tartışılırken, yapay zeka, buna karşın, hukuk alanında
kullanılmaya devam ediyor. ‘Olağan şüpheliler’ dercesine, suç işleme olasılığı
yüksek nüfusları ortaya çıkaran, daha doğrusu ortaya çıkardığı ileri sürülen
yazılımlar, dosyaların içinde kaybolmak yerine verim sağladığı gerekçesiyle
daha fazla kullanılıyor. Benzer yazılımlar işe alım süreçlerinde ayrımcılığa
neden oluyor. Daha çok erkeklerin çalıştırıldığı ataerkil dünyada, eril veriler
eril sonuçlara yol açıyor. Halbuki insan kaynakları alanında yapay zeka, yanlı
olmayacağı, ussal kararlar vereceği vb. beklentilerle işe koşulmuştu. Benzer
ayrımcılıklar, göçmenlik ve yurttaşlık gibi kararlarda da görülüyor. Bu
sorunlara karşı çözüm olarak sunulan etik yapay zeka ya da yapay zeka etiği henüz
gelişmekte. Etik yapay zekanın hangi kesimleri kapsadığı da dikkate değer bir
açmaz (Vincent, 2021). Toplumda adalet yoksa veride nasıl olacak?
Yapay Hukuk: Beklentiler, Sakıncalar
Yapay hukuk alanında da beklenti büyük. Bu nedenle, hukuk
ders programlarına daha fazla teknoloji dersi giriyor. Hukukta kullanılan yapay
zeka çeşitli farklılıklar gösteriyor (Goswami, 2020): Veri kaydetme ve çağrı
üzerine geri getirme, en temel düzey. Karmaşıklık düzeyi arttıkça, olumsuz
sonuç olasılığı da artıyor. Kimi yazılımlar, dava sonucunu tahmin etmekte usta.
Kimileri ise, ‘yapay avukat’ olarak adlandırılacak kadar ileri gidiyor. Yapay
avukat, önceki verilere dayanarak insan avukatları duruşma öncesinde olası
savunma ve saldırılara karşı eğitiyor. Sonuçlanmayı bekleyen çok sayıdaki dava
için yapay hukuk bir rahatlama, bir hızlandırıcı olarak görülüyor. Ancak, yapay
hukukun temel sakıncasının ‘olağan şüpheliler’ yaratmak olduğunu az önce
belirtmiştik.
Yapay Zeka Etiği ya da Etik Yapay Zeka
Hao (2021), yapay zeka etiği ya da etik yapay zeka için 5
öneride bulunuyor: “Araştırmalar üzerindeki şirket etkisini azaltın; sağduyuya
yeniden odaklanın; marjinalleştirilmiş araştırmacıları güçlendirin; etkilenen
toplulukların bakış açılarını merkeze alın ve önlemleri yasal düzenlemeler adı
altında yasalaştırın.”
“Hao’nun önerileri ne kadar gerçekçi?” diye sormakta
yarar var. Kamu yararı gözeten yapay zeka çalışmalarının yaygınlaşması için
sermaye düzeninde bir neden yok. Bir yandan da yapay zeka silahları
geliştiriliyor, bunlar üstünde herhangi bir yasal düzenleme bulunmuyor.
Üçüncüsü, iyimser bakışla, azınlıklardan gelme yapay zeka araştırmacılarının
sayıca arttığını not edebiliriz; ancak, ne kadar temsil olanağı buldukları da
ayrı bir sorun. Yeni geliştirilen ‘katılımcı makine öğrenmesi’ gibi çalışmalar
yine de umut vadediyor (Hao, 2021).
“.... Böyle Algoritmayı”
2020 Ağustosu’nda beklenmedik bir gelişme oldu ve
İngiltere’de algoritmaların kurbanı olmuş öğrenciler “fuck the algorithm” ve
“algoritma geleceğimi çaldı” biçimindeki pankartlarla sokaklara çıktılar. Bunun
üzerine, not verme algoritması iptal edildi. Bundan önce algoritma
adaletsizliğine karşı çıkışlar, verilerin mahremiyeti noktasındayken, bu kez,
algoritmanın kimin hangi okula yerleşeceği konusunda, demek ki öğrencilerin
geleceği konusunda söz sahibi olması protesto ediliyor (Amoore, 2020). Belki
bunun benzerlerini başka coğrafyalarda da göreceğiz. Algoritmaların şeffaflığı,
sık sık talep edilen bir nokta olarak karşımıza çıkacak.
Kaynakça
Amoore, L. (2020). Why 'Ditch the algorithm' is the
future of political protest. The Guardian, 19.08.2020.
Dilawar, A. (2020). The Very Human Labor That Powers
Artificial Intelligence. The Nation, 27.10.2020.
https://www.thenation.com/article/society/amazon-mturk-artificial-intelligence/
Goswami, G. (2020). Implementation of artificial
intelligence in legal practice. The Daily Guardian, 21.08.2020.
https://thedailyguardian.com/implementation-of-artificial-intelligence-in-legal-practice/
Hao, K. (2021). Five ways to make AI a greater force for
good in 2021. MIT Technology Review, 08.01.2020.
https://www.technologyreview.com/2021/01/08/1015907/ai-force-for-good-in-2021/
Toews, R. (2020). The Next Generation Of Artificial
Intelligence. Forbes, 12.10.2020.
Vincent, M. (2021). The Ethics of Tech: Is Artificial
Intelligence Racist? Elle Canada, 08.01.2021. https://www.ellecanada.com/culture/tech/is-artificial-intelligence-racist
Hiç yorum yok:
Yorum Gönder