Videolar

16 Nisan 2021 Cuma

Yapay Zeka Sosyolojisi Notları (1-5)

 

Yapay Zeka Sosyolojisi Notları

 

Prof.Dr. Ulaş Başar Gezgin

 

Yapay zeka uygulamaları, toplumları gün geçtikçe daha fazla etkiliyor. Yorumcuların çoğu, naif, heyecanlı bir iyimserlik taşıyor - sanki bu uygulamalar egemen güçlerin elinde (oyuncak) olmayacakmış gibi... Durum, toplumbilimlerdeki uyum ve çatışma kuramları arasındaki zıtlığa benziyor. İyimserler, yapay zekadan daha fazla uyum, başarı vb. bekliyorlar; ötekiler ise, daha derin çatışmalar... Bu da ‘yapay zeka sosyolojisi’ adında yeni bir alanın doğmasına yol açıyor. Bu kavramı Türkçe’de ilk kez kullanan bu kısa yazıda öne çıkan iki konu, yapay zekanın varolan toplumsal eşitsizlikleri derinleştireceği mi onaracağı mı sorunu ve yaş, cinsiyet, ırk, etnik grup vb. ekseninde değişik toplumsal kesimlere yönelik veri adalet(sizliğ)i... Yapay zeka, algoritmalar ve büyük veri, ötekileştirmeye bağışık değiller; onlar da ötekileştiriyor.

 

 

Varlıklılar ve Yokluklular

 

Birinci konuya bakarsak, üretim aracı olarak kullanılan ve kullanılacak olan yapay zekanın gelir uçurumunu kısa sürede büyüteceğini rahatlıkla söyleyebiliriz. Varlıklılar (haves) daha varlıklı, yokluklular (have nots) daha bir yokluklu olacak. İkinci konuya bakarsak, hukuk kurumlarının gün geçtikçe daha fazla olmak üzere yapay zeka kullandığını görüyoruz. Bu kullanımlarda temel alınan veriler, geçmiş ve şimdiki zamanların ırkçılığı başta olmak üzere çeşitli ayrımcılıklarla nitelenir durumda. Dahası, yapay zeka sektöründe dengesiz bir dağılım söz konusu: Nüfustaki kadar kadına, ileri yaşlıya, etnik gruba ve dünya ölçeğinde alacaksak ulusal kökene rastlanmıyor. Yapay zeka sektörü halen çoğunluğu temsil eden, eril, beyaz, orta sınıf, orta ve altı yaş ağırlıklı...

 

 

Gözetim Kapitalizmi

 

Gözetim kapitalizmi altında yaşıyoruz. Kendimizi internette anonim sanıyoruz ama öyle değiliz. MOBESE kameraları her yerde. Gözetim ağına takılmadan yaşamak olanaksız gibi artık. Yapay zeka, daha fazla suçun olduğu bölgelerin daha fazla gözetilmesini istiyor. Böylelikle, belli bölgeler bir kısır döngünün içine sokulmuş oluyorlar: Toplumsal sorunlar nedeniyle mi gözetim yoksa aşırı gözetim sonucu doğan toplumsal sorunlar mı...

 

 

Nicelik mi Verim mi?

 

Bir olasılık da, yapay zekanın kendi sınıflarını oluşturması; ancak bu, geleneksel kapitalist sınıf bölüntüsünün ne kadar dışına çıkacak tartışmalı... Sözgelimi, insansız üretim yapan bir fabrikanın sahibi, insanlı fabrikanın önüne geçecek. Fakat bunun bir sınırı var. Daha verimli ve böylelikle daha fazla üretim, ürünlerin daha fazla tüketileceği anlamına gelmiyor. Bu durumda, üstünlük bir nicelik değil verim üstünlüğü olacak.

 

 

Yeniden Emek-Yoğun-Sermaye-Yoğun Ayrımı mı?

 

Aynı biçimde, yapay zekanın yaygın kullanımda olduğu sektörlerde çalışanların diğer sektörlerde çalışanlar üstünde bir ağırlığı olacağı çok açık. İnsansız fabrika, üretim-tüketim zincirine dahil olmak için yine de insanlara ihtiyaç duyacak. Fakat bu insanlar, üretime katma değer katmakta daha ileri olacaklar. Böylelikle, endüstri devrimiyle görülen kır-kent ücreti farkını insansız (daha doğrusu az insanlı, çok yapay zekalı) ve insanlı sektörler, diğer bir deyişle az insanlı ve çok insanlı sektörler arasında göreceğiz. Gerçi, bu bizi bilindik bir ayrıma götürüyor: Emek-yoğun ve sermaye-yoğun üretim. Az insanlı bol yapay zekalı sektörler ile çok insanlı sektörler arasındaki fark, belki de, emek-yoğun çalışanlarla sermaye-yoğun çalışanlar arasındaki farktan nitel olarak çok da ayrı olmayacak.

 

Kimi zaman, emek-yoğun üretim daha kârlı olur ve tercih edilir. Dahası, büyük işsizlik dalgasına yol açma potansiyeline sahip bir teknolojik gelişme, toplumsal istikrarı önemsemek zorunda olan devletler açısından arzu edilmeyen sonuçlar doğuracaktır. Devletler, istikrar için emek-yoğun üretimde ısrar edebilir. Bu, kârlı olmasa da, toplumsal olarak kazançlı olacak; düzenin devam etmesini sağlayacaktır.

 

 

Kuşak Yanılsaması

 

Çok sık konuşulan bir kavram, kuşak uçurumu. ‘Z kuşağı’ gibi kavramlar öne çıkıyor. Oysa

“bu kuşak kavramsallaştırmaları, Amerikan siyasal tarihine özgü kırılma noktalarına göre oluşturuldu. Türkiye’de bu kuşakların hiç bir geçerliliği bulunmuyor. Eğer bir kuşak düşüncesi geliştirilecekse, bunun, Türkiye’nin siyasal tarihine uyarlanması gerekir. Bu açıdan, 68 kuşağı, 78 kuşağı, 12 Eylül kuşağı, Gezi kuşağı gibi sınıflandırmalar çok yerinde olacaktır. Üstelik, bu X-Y-Z ayrımları, insan kaynakları araştırmacıları tarafından, çalışma yaşamını daha insancıl duruma getirmek için değil, tersine çalışanları daha yakından tanıyıp onların sırtından daha fazla kazanç sağlamak için yapılmış ayrımlar. Kaldı ki, bu ayrımlar, ABD’de bile, kuşaksal kalıpyargılama ve hatta kendi kendini de kalıpyargılama gibi bir sonuç bile doğurabiliyor. Böylece, kendini doğrulayan bir kehanet gibi, çalışanlar, kendi kuşaklarına uyumlu hale geliyor ya da getiriliyorlar.

Bir de elbette dijital kuşak kavramsallaştırması var. Bu kavramsallaştırma, bütün gençler ya da gençlerin büyük çoğunluğu akıllı telefonlara ve kablosuz bağlantıya erişebilseydi geçerli olabilirdi. Oysa, sınıfsal boyutu olan bir görüngü, kuşaksal sayılamaz. Tüm sınıfların yer almadığı bir gruplandırma ‘kuşak’ olarak adlandırılamaz. Özellikle büyük kentlerden hareketle, kentliler üzerinden küçük kentlere ve kırsal kesimlere genelleme yapamayız.” (Gezgin, 2019, s.167-168)

 

 

Ütopyayla Distopya Sarkacında

 

Herşeyin veriye dönüştüğü, her verinin meta niteliği taşıdığı bir döneme girdik, giriyoruz. Demokrasi güçleri etkili olursa, bu süreçten toplumsal refah çıkar. İnsan sağlığına en zararlı olan işleri yapay zeka yapar, böylece ortalama yaşam beklentisi artar. Sağlıktaki ilerlemeler ise, neo-liberal düzende yine sınıfsal olarak dağıtılacak; daha erken ve daha geç ölümler, daha çok bakım ve az bakım/bakımsızlık sarmalında ortalama yaşam beklentisini eşitsiz olarak etkileyecektir. Demokrasi güçleri o ya da bu nedenle etkili olmazsa, sömürü ve baskı çok daha derinleşecek. Kaydı tutulmadık kimse kalmayacak. Bir tür Matrix’in içinde yaşamaya devam edeceğiz...

 

 

Kaynakça

 

Gezgin, U.B. (2019). Eleştirel Psikolojide Bir Yolculuk: Marksist Psikolojiden Politik Psikolojiye ve Ötesine. Ankara: Töz.

http://ulasbasargezginkulliyati.blogspot.com/p/elestirel-psikolojide-bir-yolculuk.html 

      

 

Yapay Zeka Sosyolojisi Notları-2: Makinelerin Dünyası

 

Prof.Dr. Ulaş Başar Gezgin

 

Yapay zeka sosyolojisi kavramsallaştırması, 1980’lere dek geriye gider; öte yandan beslendiği kaynaklar düşünülürse daha önceki yıllara gideriz. Bu ilk tartışmalarda yapay zekanın toplum üstündeki etkileri henüz kısıtlıdır. Yapay zekanın uygulama alanları da dardır; genellikle üniversite, şirket ve araştırma kurumlarının laboratuvarlarının pek de dışına çıkılmamıştır. Bu nedenle, bu ilk tartışmalarda, yapay zeka ile sosyoloji ilişkisinde başka bir yola sapılır: Buna göre, makineler arasındaki etkileşime sosyoloji modelleri uygulanacaktır (örneğin, Woolgar, 1985; Carley, 1996). Böylelikle, toplumsallık kavramının altında yatan insan varsayımı da dönüşüp geliştirilecektir. 

 

 

Nesnelerin İnternetinin Müjdecisi

 

Woolgar (1985), pergeli daha geniş açarak, ‘makineler’ sınıfına yapay zekaya ek olarak bisikletleri, füzeleri vb. de ekler. Makineler kimi durumlarda (bisiklet örneğinde değil elbette) insansız bir biçimde etkileşmektedir. Bu yaklaşım, daha sonra öne çıkacak ‘nesnelerin interneti’ kavramsallaştırmasını müjdeler. Bu, kullandığımız buzdolabından saç kurutma makinesine tüm elektronik aygıtların internete bağlı olduğu bir dünyaya karşılık gelir (bkz. Gezgin, 2020). Bu dünyada bu elektronik aygıtlar, daha bağımsız bir etkinliğe kavuşacaktır. Böylelikle, makinelerin kendi kendilerine etkileşiminden bir başka yapay zeka sosyolojisi izleği çıkmaktadır. Bu etkileşime bugün ‘yapay toplum/topluluk’ ‘yapay toplumsallık’ (artificial sociality) vb. gibi adlar yakıştırılmaktadır (bkz. Rezaev, Starikov, & Tregubova, 2020; Rezaev & Tregubova, 2018; Sawyer, 2003).

 

 

Yapay Zeka Yöntemleriyle Sosyoloji

 

Sonraki çalışmalarda, yöntem sorunu öne çıkıyor. Makinelerin sosyolojisi yanında, yapay zeka yöntemlerinin toplumsal olgu ve olayları incelemek için nasıl kullanılabileceği değerlendiriliyor (örneğin, Carley, 1996). Ağ kavramsallaştırmasıyla örüntü (pattern) tanımaya öncelik veren bu tartışmalar, bilgisayısal (computational) toplumsal bilimlerin öncülü görünümünde (örneğin bkz. Brent, 1988). Benzer bir yaklaşım, topluma bilgisayısal anlamda ‘karmaşık bir dizge’ olarak bakılmasında görülüyor (örneğin, Anderson, 1989; Wolfe, 1991). Bu bağlamda, yapay zekanın örgütlenmesiyle toplumsal örgütlenme arasındaki koşutluklar inceleniyor (bkz. Ardigo, 1988; Carley, 1994; Schwartz, 1989). Simulasyonlar ve modellemeler, bir diğer buluşma noktası (bkz. Brent, & Thompson, 1999; Halpin, 1989). Bainbridge ve ark. (1994) ‘yapay toplumsal zeka’ diye adlandırdıkları bir kavramı ele alıyor ve bunu makine zekası tekniklerinin sosyal görüngülere uygulanması olarak tanımlıyor (s.408).

 

 

Etnografi ve Çoklu Zeka

 

Sosyolojiyle yapay zekanın bir diğer kesişim noktası, bilim sosyolojisi dolayısıyla: Yapay zeka uzmanlarının nasıl çalıştıkları, akıl yürüttükleri vb. konular, etnografik bir bakış açısını gerektiriyor (bkz. Bloomfield, 1988; Forsythe, 1993; Rosental, 2003). Aynısı, teknoloji sosyolojisi için de geçerli. Bu kez yapay zekadan sosyolojiye bakmak yerine, sosyolojiden yapay zekaya bakıyoruz ve yapay zekanın olası toplumsal sonuçları radarımıza takılıyor (bkz. Mlynář ve ark., 2018). Böylelikle, yapay zekanın eğitim, ulaşım, ev sistemleri, oyunlar, sağlık vb. farklı kullanım alanlarını sosyolojik bir mercek altına alıyoruz.(1) Bunların her biri, ayrıca incelenmeyi bekliyor. Buna benzer bir biçimde, zekaya tekli değil çoklu modelle bakarsak, karşımıza birkaç çeşit yapay zeka çıkacak: Matematiksel yapay zeka, duygusal yapay zeka, toplumsal yapay zeka vb..

 

 

Yapay Zekaya Güvenebilir miyiz?

 

Son olarak, bugün sık tartışmaya açılan bir alan, yapay zekaya güven konusu (bkz. Jacovi ve ark.; Thiebes ve ark.). “Yapay zeka bilinçlenip insanlığı yok eder mi?” sorusu/korkusu, birçok bilim-kurgu yapıtı için temel malzeme niteliğinde (Suchacka & Horáková, 2019). Bunun dışında, akla, nükleer füze uyarı sistemlerindeki hatalar geliyor(2). Dahası, Fukuşima örneği, ileri teknolojinin hatasızlığı güvence altına almadığını gösteriyor. Yapay zekalı silahların hata yapan insan yapımı makinelerden daha güvenilir olup olmadığı tartışma konusu (Suchacka & Horáková, 2019). Üstelik, yapay zeka da yanlış alarm vermek üzere haklanabilir(3).

 

Yapay zeka alanındaki gelişmeleri eleştirel aklın süzgecinden geçirmeden kabullenmenin hatalı oluşuna binbir kanıt var. Ancak küresel egemenler bunları dikkate alır mı tartışılır...

 

 

 

Dipnotlar

1. Yapay zekanın sağlıkta kullanımıyla ilgili sosyolojik bir çalışma için bkz. Kasapoğlu, 2020.

2. Bkz. Sputnik Türkiye. (2019). Nükleer cehennemin eşiğinde: Bazı hatalar insanlığın hayatına mal olabilirdi. Sputnik Türkiye, 06.12.2019.

https://tr.sputniknews.com/infografik/201912061040782764-nukleer-cehennemin-esiginde-bazi-hatalar-insanligin-hayatina-mal-olabilirdi/

3. Bkz. Sputnik Türkiye. (2019). Rus uzman nükleer bir savaşı tetikleyebilecek nedenleri açıkladı. 13.09.2019.

https://tr.sputniknews.com/analiz/201909131040159149-rus-uzman-nukleer-bir-savasi-tetikleyebilecek-nedenleri-acikladi/

 

 

Kaynakça

 

Anderson, B. (1989). On artificial intelligence and theory construction in sociology. Journal of Mathematical Sociology, 14(2-3), 209-216.

 

Ardigo, A. (1988). Artificial intelligence: A contribution to systems theories of sociology. AI & SOCIETY, 2(2), 113-120.

 

Bainbridge, W. S., Brent, E. E., Carley, K. M., Heise, D. R., Macy, M. W., Markovsky, B., & Skvoretz, J. (1994). Artificial social intelligence. Annual Review of Sociology, 407-436.

 

Bloomfield, B. P. (1988). Expert systems and human knowledge: a view from the sociology of science. AI & SOCIETY, 2(1), 17-29.

 

Brent, E. (1988). Is there a role for artificial intelligence in sociological theorizing?. The American Sociologist, 19(2), 158-166.

 

Brent, E., & Thompson, G. A. (1999). Sociology: Modeling social interaction with autonomous agents. Social Science Computer Review, 17(3), 313-322.

 

Carley, K. M. (1996). Artificial intelligence within sociology. Sociological Methods & Research, 25(1), 3-30.

 

Carley, K. (1994). Sociology: computational organization theory. Social Science Computer Review, 12(4), 611-624.

 

Forsythe, D. E. (1993). Engineering knowledge: The construction of knowledge in artificial intelligence. Social Studies of Science, 23(3), 445-477.

 

Gezgin, U. B. (2020). An invitation to critical social science of big data: from critical theory and critical research to omniresistance. AI & SOCIETY, 35(1), 187-195.

 

Halpin, B. (1999). Simulation in sociology. American Behavioral Scientist, 42(10), 1488-1508.

 

Jacovi, A., Marasović, A., Miller, T., & Goldberg, Y. (2020). Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and Goals of Human Trust in AI. arXiv preprint arXiv:2010.07487.

 

Kasapoglu, A. (2020). sociology of artificial intelligence a relational sociological investigation in the field of health. Reports on Global Health Research.

 

Mlynář, J., Alavi, H. S., Verma, H., & Cantoni, L. (2018, August). Towards a sociological conception of artificial intelligence. In International Conference on Artificial General Intelligence (pp. 130-139). Springer, Cham.

 

Rezaev, A. V., Starikov, V. S., & Tregubova, N. D. (2020). Sociology in the Age of ‘Artificial Sociality’: Search of New Bases. Sotsiologicheskie issledovaniya, (2), 3-12.

 

Rezaev, A. V., & Tregubova, N. D. (2018). Are sociologists ready for ‘artificial sociality’? Current issues and future prospects for studying artificial intelligence in the social sciences. Мониторинг общественного мнения: экономические и социальные перемены, 5 (147), 91-108.

 

Rosental, C. (2003). Certifying knowledge: the sociology of a logical theorem in artificial intelligence. American Sociological Review, 623-644.

 

Sawyer, R. K. (2003). Artificial societies: Multiagent systems and the micro-macro link in sociological theory. Sociological Methods & Research, 31(3), 325-363.

 

Schwartz, R. D. (1989). Artificial intelligence as a sociological phenomenon. Canadian Journal of Sociology/Cahiers Canadiens de Sociologie, 179-202.

 

Suchacka, M., & Horáková, N. (2019). Towards Artificial Intelligence. Sociological Reflections on the Relationship Man-Organization-Device. System Safety: Human-Technical Facility-Environment, 1(1), 912-920.

 

Thiebes, S., Lins, S., & Sunyaev, A. (2020). Trustworthy artificial intelligence. Electronic Markets, 1-18.

 

Wolfe, A. (1991). Mind, self, society, and computer: Artificial intelligence and the sociology of mind. American Journal of Sociology, 96(5), 1073-1096.

 

Woolgar, S. (1985). Why not a sociology of machines? The case of sociology and artificial intelligence. Sociology, 19(4), 557-572.     

 

 

 

Yapay Zeka Sosyolojisi Notları-3: Yapay Zekanın Ayrımcılığı ve Yanılabilirliği

 

Prof.Dr. Ulaş Başar Gezgin

 

Yapay zekanın ayrımcılığı ve yanılabilirliği, bir başka yapay zeka sosyolojisi konusu.(1) Çekik gözleri ya da koyu tenleri tanımayan gümrük teknolojileri ilk akla gelen örnek. Bir diğeri, işe alımlarda yapılan ayrımcılıkları yapay zekanın da benimsemesi, çünkü sonuçta beslenilen veri ayrımcı. Sözgelimi, kadınların ‘geleneksel’ olarak alınmadığı önceki işe alım süreçlerinin verileriyle beslenen yapay zeka aynı ayrımcılıkları yapıyor. Üçüncü bir örnek, yapay zekanın hukuk alanındaki kullanımlarındaki tehlikeler: Önceki ırkçı mahkeme kararlarıyla beslenen yapay zeka, ırkçı kararlar öneriyor.

 

 

Algoritma Adaletsizliği

 

Nelson (2019), başka örnekler de veriyor: Diyelim ki, hemşirelik işi için bir algoritma yalnızca beyaz kadınları seçiyor. Bir deri kanseri testi, koyu tenlerde çalışmıyor. Bir hemşirelik programı, yoksul hastalara zenginmiş gibi davranıp onları ödeyemeyecekleri seçeneklere yöneltiyor. Sağlığa erişimdeki eşitsizlikler de veriye yansıyor: Üstünlüksüz (disadvantaged) gruplarda daha çok eksik veri var (Parikh, Teeple, & Navathe, 2019). Nasıl ki toplumsal adaletsizlikler nedeniyle, üstünlüksüz kesimler sisteme/demokrasiye güvenlerini yitiriyorlar, aynısı yapay zeka karşısında da geçerli (Woodruff ve ark., 2018). Ayrımcılık, yapay zekaya duyulan heyecanı doğal olarak söndürüyor.

 

 

Veri Demokrasisi ve Algoritma Yanlılığı

 

Görüldüğü gibi yapay zeka, ‘veri demokrasisi’ olarak adlandırılan kurucu temel öğenin yokluğunda, varolan eşitsizlikleri ve adaletsizlikleri çeşitlendiriyor. Artık bu duruma karşılık gelen bir terim de var: Algoritma yanlılığı. Algoritma yanlılığı, algoritmanın uygulanmasında sosyoekonomik statü, etnik köken, inanç, cinsiyet, engellilik ve cinsel yönelimdeki eşitsizlikleri vb. büyütmeye ve eşitsizlikleri böylelikle katlamaya karşılık geliyor (Panch, Mattie ve Atun, 2019). Eşitsizliklerin başka biçimleri olabileceği de akılda tutulmalı. 

 

 

Veri Adaleti ve Algoritma Adaleti

 

Böylelikle, yapay zeka, kaçınılmaz bir biçimde insan haklarıyla ilişkilendiriliyor (Ntoutsi ve ark., 2020). Algoritmalarda insan haklarını çiğneyen ‘birşeyler’ var. Sorunlar toplumsal olduğuna göre, çözüm yalnızca teknolojide aranmamalı (Ntoutsi ve ark., 2020); çözüm, veri adaletinde ya da algoritma adaletinde (bkz. Kleinberg ve ark., 2018)... Veri adaleti ise, tanımlanması zor bir kavram; en az 20 tanımı bulunuyor ve değişik ülkelerle hukuk sistemlerine göre farklılık gösteriyor (Ntoutsi ve ark., 2020). Klasik fakat birçok sorunu çözmeyen bir tanım, veri üretiminde ayrımcılığın olmaması biçiminde (bkz. Xu ve ark., 2018). Oysa gerçek yaşamda, Türkçe’ye yanlış biçimde ‘pozitif ayrımcılık’ ya da ‘olumlu ayrımcılık’ diye çevrilen olumlayıcı ya da destekleyici edimler (affirmative action), adalet için gerekli görülüyor.(2) “Aynısı veri düzeyinde uygulanabilir mi, nasıl?” gibi bir çifte soru sormak gerekiyor (bkz. Saxena ve ark., 2019). “Veri mi algoritma mı adaletli olmalı?” sorusu da bizi bekliyor. ‘Fırsat eşitliği’ kavramı verilerle temsil edilenlere uygulanmalı belki de... Üstünlüklüler (advantaged) için geçerli olan olumlu betimlemeler, ötekileştirilenler için de geçerli olmalı (Salimi ve ark., 2019).      

 

 

Piramidin Tepesindekiler

 

Challen ve ark. (2019), sağlıkta yapay zekanın ayrımcılığını ve yanılabilirliğini engellemek için çeşitli soru-testler sunuyor: Örneğin, sistemin değişik nüfuslarda ve ortamlarda kullanılıp kullanılmadığı, yapay zekanın eğitimi için kullanılan verinin gerçek yaşamı ne derece yansıttığı, yanlılıklar ve yanılgılar saptandığında izlenecek yolların belli olup olmaması, yapay zekanın çıkardığı sonuçların kesinlik düzeyi, karar vericilerin yapay zekanın bulgu ve önerilerine daha olumlu bakmaları biçimindeki otomasyon yanlılığına karşı önlemler vb. (3) Ancak tüm bu önlemlerin ötesinde, “gerçek yaşamda egemen sınıflar demokrasi ister mi?” sorusunu sormak gerekiyor. Varolan ayrımcılıklar, sonuçta kimilerini piramidin tepesine çıkarıyor.

 

 

Kesişimsellik ve Dilsel Ayrımcılık

 

Yapay zeka uzmanları arasında kadınların oranı hâlâ istenilen düzeyde değil. Ayrıca, ‘kesişimsellik’ olarak adlandırılan kavram, işi iyice karmaşıklaştırıyor. Buna göre, bir kadın yalnızca bir kadın değil, aynı zamanda Beyaz/Siyah, Anglo/Latino, alt sınıf/üst sınıf vb. olabilir. Yalnızca tek bir kategoriden değil, kesişen kategorilerden katılım sağlanması gerekiyor. Bir diğer karmaşıklık, dildeki cinsiyet ayrımcılığından ileri geliyor (Leavy, 2018). Buna diğer ayrımcılıkları da katabiliriz. Sözgelimi, kalıpyargılar dilde iyice yerleşik nitelikte. Dolayısıyla, kullanılan dil bile yapay zekayı tek başına ayrımcılaştırabiliyor.     

 

 

Sonuç: Yapay Zekanın İnsan Yapımı Olduğunu Anımsamak

 

Dolayısıyla, gelinen süreç, algoritma ve veri adaleti gibi kavramları öne çıkararak yapay zekayı eleştirel bir süzgeçten geçirmemizi gerektiriyor. Yapay zeka, kimi konularda insan zekasından üstün olabilir; ancak hâlâ insan hatalarıyla dolu verilere dayanıyor ve hatalarıyla nitelenen insansoyunun elinden çıkma algoritmalarla çalışıyor.

 

 

 

Dipnotlar

(1) Yapay zekanın ayrımcılığı ve sömürüyle ilişkisi için Sendika.org’daki Yapay Zeka dosyasına bakınız.

https://sendika64.org/2020/07/yapay-zeka-ozgurlestirecek-mi-kolelestirecek-mi-591885/

Yapay zekanın toplumsal etkilerinin ayrıntılı bir değerlendirilmesi için T24’te Hayri Cem’in yazılarına bakınız. https://t24.com.tr/yazarlar/hayri-cem-haftalik

(2) Bu yanlış çevirinin yarattığı kavramsal sorunlar ve uygulama sorunları için bkz. Gazi, F. (2020). ‘Pozitif ayrımcılık' geri kalmışlığın gösterenidir’. Gazete Duvar, 12.10.2020.

(3) Otomasyon yanlılığı için bkz. Bond ve ark., 2018; Goddard, Roudsari & Wyatt, 2012.

 

 

Kaynakça

 

Bond, R. R., Novotny, T., Andrsova, I., Koc, L., Sisakova, M., Finlay, D., ... & Leslie, S. J. (2018). Automation bias in medicine: The influence of automated diagnoses on interpreter accuracy and uncertainty when reading electrocardiograms. Journal of Electrocardiology, 51(6), S6-S11.

 

Challen, R., Denny, J., Pitt, M., Gompels, L., Edwards, T., & Tsaneva-Atanasova, K. (2019). Artificial intelligence, bias and clinical safety. BMJ Quality & Safety, 28(3), 231-237.

 

Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121-127.

 

Kleinberg, J., Ludwig, J., Mullainathan, S., & Rambachan, A. (2018, May). Algorithmic fairness. In Aea papers and proceedings (Vol. 108, pp. 22-27).

 

Leavy, S. (2018, May). Gender bias in artificial intelligence: The need for diversity and gender theory in machine learning. In Proceedings of the 1st international workshop on gender equality in software engineering (pp. 14-16).

 

Nelson, G. S. (2019). Bias in artificial intelligence. North Carolina Medical Journal, 80(4), 220-222.

 

Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M. E., ... & Kompatsiaris, I. (2020). Bias in data‐driven artificial intelligence systems—An introductory survey. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 10(3), e1356.

 

Panch, T., Mattie, H., & Atun, R. (2019). Artificial intelligence and algorithmic bias: implications for health systems. Journal of global health, 9(2), 1-5.

 

Parikh, R. B., Teeple, S., & Navathe, A. S. (2019). Addressing bias in artificial intelligence in health care. Jama, 322(24), 2377-2378.

 

Salimi, B., Rodriguez, L., Howe, B., & Suciu, D. (2019, June). Interventional fairness: Causal database repair for algorithmic fairness. In Proceedings of the 2019 International Conference on Management of Data (pp. 793-810).

 

Saxena, N. A., Huang, K., DeFilippis, E., Radanovic, G., Parkes, D. C., & Liu, Y. (2019, January). How do fairness definitions fare? Examining public attitudes towards algorithmic definitions of fairness. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (pp. 99-106).

 

Woodruff, A., Fox, S. E., Rousso-Schindler, S., & Warshaw, J. (2018, April). A qualitative exploration of perceptions of algorithmic fairness. In Proceedings of the 2018 chi conference on human factors in computing systems (pp. 1-14).

 

Xu, D., Yuan, S., Zhang, L., & Wu, X. (2018, December). Fairgan: Fairness-aware generative adversarial networks. In 2018 IEEE International Conference on Big Data (Big Data) (pp. 570-575). IEEE.



 

Yapay Zeka Sosyolojisi Notları-4: Gözetim Kapitalizmi

 

Prof.Dr. Ulaş Başar Gezgin

 

Yapay zekayla birlikte, toplu gözetim uygulamaları, veri gözetimi (dataveillance) ile doruğuna ulaşmış durumda. Yapay zekanın bir başka kullanım alanı, çalışanları, yurttaşları ve tüketicileri gözetleme biçiminde. İşveren bunu verimi arttırmakla, devlet, kamu güvenliğiyle, şirketler, kazançlarını ençoklama güdüsüyle gerekçelendirecek. Yapay zekanın var olan demokrasiyi ya da demokrasi kırıntılarını aşındırma olasılığı bulunuyor (Feldstein, 2019). Yapay zeka, demokrasi güçlerinin yokluğunda ya da zayıflığında, egemen sınıflar için daha fazla özgürlük, ezilenler için daha fazla insan hakları ihlali getirecek.

 

 

Prangalı Çalışma

 

Mavi yakalı işlerde gün geçtikçe, giyilebilir teknolojiler yoluyla daha fazla denetim ve gözetim geliyor (Moro ve ark., 2019). Bu teknolojilerin elde edeceği veriler, iş değiştirirken kullanılacak girdiler olacak. Beyaz yakalı işlerdeyse, yoğun bir kameralanma görüyoruz. Yapay zeka, toplanan verilerden birtakım tahminlerde bulunacak. Örneğin sendika üyesi olma eğilimi (Bales & Stone, 2020). Bir aday, işe alım sürecinde buna göre işe girebilecek ya da giremeyecek. Bu ve benzeri teknolojiler, ileri teknoloji olarak sunulup göklere çıkarılacak. İşverenin çıkarına olan uygulamalar, tüm toplumun çıkarınaymış gibi sunulacak. Nasılsa üretim artıyor, bedeli kimin umurunda... Daha şimdiden birçok uygulama hayata geçirilmiş durumda. Örneğin, fabrikalarda işçilerin her anını izlemek için taktırılan elektronik pranga ya da kelepçe (1).

 

 

Amazon’da Çifte Gözetleme

 

Dünyanın en zengini olan Amazon’un sahibi, işyerindeki çalışma koşulları için ne kadar övünse azdır; çünkü son gözetleme teknolojileri ona milyarlar kazandırıyor. Amazon çalışanları içinse bu hızlı çalışma ve gözetlenme düzeni, robotlaşma ve zombileşmeyle özdeş sayılıyor (bkz. Hanley & Hubbard, 2020). Amazon’un bilişim şirketiyle sahip olduğu ortak özellikler arasında çifte gözetim öne çıkıyor: Amazon, içeride çalışanlarını, dışarıda müşterileri gözetliyor (West, 2019).       

 

 

Toplu Gözetleme

 

Yapay zekanın çıkışından önce, yalnızca ‘olağan şüpheliler’ gözetlenirdi. Şimdiyse, Snowden’ın bize gösterdiği gibi (bkz. Bauman ve ark., 2014), herkes veri düzeyinde gözetleniyor. Bu durum, yurttaşların özel yaşam hakkıyla çatışıyor (bkz. Prudentov, 2020). Toplu gözetlemeye karşı yurttaşlar kendilerini çaresiz hissediyorlar. “Biri bizi sürekli izliyorsa/dinliyorsa ve bunu önleyemiyorsak niye bunu dert edelim; yapacak birşey yok” biçiminde düşünüyorlar (Ellis, 2020). Bu, elbette bir öğrenilmiş çaresizlik örneği. Kitle örgütlerinin, binbir gündem maddesine ek olarak veri demokrasisine vakit ayırması zor görünüyor. Durum, otoriter rejimlere özgü de değil; demokratik olarak tariflenen devletlerde de herkesi gözetleme durumu baskın (Mills, 2019). Hatta bu nedenle, küresel Batı ülkeleri için ‘post-demokrasi’ sözünü kullananlar var (örneğin Van Buuren, 2014). 

 

 

Kazanç İçin Gözetleme

 

Üçüncü olarak, şirketlerin tüketicileri daha fazla kazanç için gözetlemesi söz konusu. İş çevreleri için veri bir meta; alınıp satılabiliyor (West, 2019). Veri kapitalizminde orada burada sürekli bir reklam bombardımanına tutuluruz, bunlardan kimileri satın aldığımız ürün için bıraktığımız telefon numarası ya da e-posta aracılığıyla bize gelir. Ancak, verinin bir de öngörme boyutu var: “Bunu alan bunu da aldı” üzerinden bizim bundan sonra neler satın alabileceğimizi öngörüyor. Bebek giysileri mi almaya başladık, buradan yakında doğum beklentisi olduğunu çıkarsayabiliyor (elbette hediyelik de alınabilir, ancak çok sayıda alınıyorsa bu çıkarsama doğru olabilir); buna göre önerilerde bulunuyor. Kimi şirketler, kayıtlı kullanıcılara mağazaya yaklaştıklarında reklam iletisi gönderiyor.  

 

 

İçkisinden Elektrikli Süpürgeye...

 

Gelecekte herşey kayıt altında olacak. Kimin ne satın aldığı belli olacak ve bu veri, devletçe kolaylıkla erişilebilecek. Örneğin, kimler içki satın alıyor? Nesnelerin interneti de bu sorunu derinleştirecek: Elektrikli süpürgenin çalışma sayısından evin ne kadar temizlendiği çıkarsanacak; belki ona göre belli ürünler önerilecek. Daha da kötüsü, belki işe alım sürecinde bu verilere de bakılacak; çünkü burada sıraladığımız üçlü gözetim düzeni birbirinden bağımsız değil (Gezgin, baskıda). 

 

 

Yapay Zekanın Aydınlık ve Karanlık Yüzleri

 

Kısacası, ilerleyen yıllarda çalışan, yurttaş ve tüketici olarak daha çok gözetleneceğiz ve bizi gözetleyenler insan bile olmayacak. Yapay zekalar bizi gözetleyip durumumuzu raporlayacak. Yapay zekanın getirecekleri yanında götürecekleri de bir hayli fazla. Konuya coşkuyla ya da tersine korkuyla değil, gerçekçi bir biçimde yaklaşmak gerekiyor. Medya okuryazarlığı gibi yapay zeka okuryazarlığı kazanmamız gerekiyor.

 

İnsan haklarına aykırı gözetleme uygulamaları son bulmalı. Gözetlemenin zorunlu olduğu durumlarda ise, gözetleyenin şeffaflığı sağlanmalı. Algoritmalar da şeffaf olmalı. Bu koşullar sağlandığında, yapay zekanın aydınlık yüzünü göreceğiz. Ancak karanlık yüzünden çıkar sağlayanlar varken, yapay zeka bize neden aydınlık yüzünü çevirsin... Bu nedenle, daha fazla eleştirel düşünmeye gereksinim duyuyoruz, yapay zeka yüceltmelerine değil... 

 

 

 

Dipnotlar

 

(1) Salgın gerekçesiyle uygulamaya konan, ‘kriz fırsatçılığına örnek’ sayılan ve pranga ya da tasma olarak da adlandırılan elektronik kelepçeler için bkz.

Birleşik Metal-iş Sendikası (2020). Hedeflenen mesafe değil, denetimdir... İşçilerin gözetlenmesine ve denetlenmesine hayır. Birleşik Metal-İş, 11.06.2020.

http://www.birlesikmetalis.org/index.php/tr/guncel/basin-aciklamasi/1491-mess-safe

Evrensel (2020). İzole üretim üsleri ve elektronik kelepçe: “Patron babalar” prangalı çalışma istiyor. Evrensel Gazetesi, 18.05.2020.

https://www.evrensel.net/haber/404972/izole-uretim-usleri-ve-elektronik-kelepce-patron-babalar-prangali-calisma-istiyor 

 

 

Kaynakça

 

Bales, R. A., & Stone, K. V. (2020). The Invisible Web at Work-Artificial Intelligence and Electronic Surveillance in the Workplace. Berkeley Journal of Employment & Labor Law, 41(1), 1-62.

 

Bauman, Z., Bigo, D., Esteves, P., Guild, E., Jabri, V., Lyon, D., & Walker, R. B. (2014). After Snowden: Rethinking the impact of surveillance. International Political Sociology, 8(2), 121-144.

 

Ellis, D. (2020). Techno-securitisation of everyday life and cultures of surveillance-apatheia. Science as Culture, 29(1), 11-29.

 

Feldstein, S. (2019). How Artificial Intelligence Systems Could Threaten Democracy. The Conversation.

 

Gezgin, U.B. (baskıda). Zeka Feşizmine Karşı: Yapay Zeka, Büyük Veri, Bilişsel Bilim ve Gelecekbilim Üzerine.

https://ulasbasargezginkulliyati.blogspot.com/p/zeka-fesizmine-kars-yapay-zeka-buyuk.html

 

Hanley, D. A., & Hubbard, S. (2020). Eyes Everywhere: Amazon's Surveillance Infrastructure and Revitalizing Worker Power.

 

Mills, A. (2019). Now You See Me–Now You Don't: Journalists’ Experiences With Surveillance. Journalism Practice, 13(6), 690-707.

 

Moro, A., Rinaldini, M., Staccioli, J., & Virgillito, M. E. (2019). Control in the era of surveillance capitalism: an empirical investigation of Italian Industry 4.0 factories. Journal of Industrial and Business Economics, 46(3), 347-360.

 

Prudentov, R. V. (2020). Private Life and Surveillance in a Digital Era: Human Rights in European Perspective. Digital Law Journal, 1(2), 41-52.

 

Van Buuren, J. (2014). From oversight to undersight: The internationalization of intelligence. Security and Human Rights, 24(3-4), 239-252.

 

West, E. (2019). Amazon: Surveillance as a service. Surveillance & Society, 17(1/2), 27-33.

 

West, S. M. (2019). Data capitalism: Redefining the logics of surveillance and privacy. Business & Society, 58(1), 20-41.


 

Yapay Zeka Sosyolojisi Notları-5: Emek-Yoğunluğu ve Etik 

 

Prof.Dr. Ulaş Başar Gezgin

 

Bugün yapay zekanın beslendiği büyük veri, hiç bir sosyal hakkı olmayan, asgari ücret yasası uygulanmayan düşük ücretli vasıfsız bilişim emekçilerinin ham veriyi bilgisayarların işleyeceği biçime dönüştürmesine dayanıyor (Dilawar, 2020). Beklentinin tersine, fazlasıyla emek yoğun bir çaba ve açıkça sömürüye dayanıyor. Şimdilik böyle ise, ileride bu durum ortadan kalkacak ise sorun yok; fakat bu emek yoğunluğu, bugünkü yapay zekanın gelecek için bir model olamayacağını gösteriyor. Bunun için, verileri de yapay zekanın dönüştüreceği öğrenme modelleri üstünde duruluyor (Toews, 2020).

 

 

‘Olağan Şüpheliler’ Yaratmak

 

Yapay zekanın ırkçılığı ve genel olarak ayrımcılığı sürekli olarak tartışılırken, yapay zeka, buna karşın, hukuk alanında kullanılmaya devam ediyor. ‘Olağan şüpheliler’ dercesine, suç işleme olasılığı yüksek nüfusları ortaya çıkaran, daha doğrusu ortaya çıkardığı ileri sürülen yazılımlar, dosyaların içinde kaybolmak yerine verim sağladığı gerekçesiyle daha fazla kullanılıyor. Benzer yazılımlar işe alım süreçlerinde ayrımcılığa neden oluyor. Daha çok erkeklerin çalıştırıldığı ataerkil dünyada, eril veriler eril sonuçlara yol açıyor. Halbuki insan kaynakları alanında yapay zeka, yanlı olmayacağı, ussal kararlar vereceği vb. beklentilerle işe koşulmuştu. Benzer ayrımcılıklar, göçmenlik ve yurttaşlık gibi kararlarda da görülüyor. Bu sorunlara karşı çözüm olarak sunulan etik yapay zeka ya da yapay zeka etiği henüz gelişmekte. Etik yapay zekanın hangi kesimleri kapsadığı da dikkate değer bir açmaz (Vincent, 2021). Toplumda adalet yoksa veride nasıl olacak?

 

 

Yapay Hukuk: Beklentiler, Sakıncalar

 

Yapay hukuk alanında da beklenti büyük. Bu nedenle, hukuk ders programlarına daha fazla teknoloji dersi giriyor. Hukukta kullanılan yapay zeka çeşitli farklılıklar gösteriyor (Goswami, 2020): Veri kaydetme ve çağrı üzerine geri getirme, en temel düzey. Karmaşıklık düzeyi arttıkça, olumsuz sonuç olasılığı da artıyor. Kimi yazılımlar, dava sonucunu tahmin etmekte usta. Kimileri ise, ‘yapay avukat’ olarak adlandırılacak kadar ileri gidiyor. Yapay avukat, önceki verilere dayanarak insan avukatları duruşma öncesinde olası savunma ve saldırılara karşı eğitiyor. Sonuçlanmayı bekleyen çok sayıdaki dava için yapay hukuk bir rahatlama, bir hızlandırıcı olarak görülüyor. Ancak, yapay hukukun temel sakıncasının ‘olağan şüpheliler’ yaratmak olduğunu az önce belirtmiştik.

 

 

Yapay Zeka Etiği ya da Etik Yapay Zeka

 

Hao (2021), yapay zeka etiği ya da etik yapay zeka için 5 öneride bulunuyor: “Araştırmalar üzerindeki şirket etkisini azaltın; sağduyuya yeniden odaklanın; marjinalleştirilmiş araştırmacıları güçlendirin; etkilenen toplulukların bakış açılarını merkeze alın ve önlemleri yasal düzenlemeler adı altında yasalaştırın.”

 

“Hao’nun önerileri ne kadar gerçekçi?” diye sormakta yarar var. Kamu yararı gözeten yapay zeka çalışmalarının yaygınlaşması için sermaye düzeninde bir neden yok. Bir yandan da yapay zeka silahları geliştiriliyor, bunlar üstünde herhangi bir yasal düzenleme bulunmuyor. Üçüncüsü, iyimser bakışla, azınlıklardan gelme yapay zeka araştırmacılarının sayıca arttığını not edebiliriz; ancak, ne kadar temsil olanağı buldukları da ayrı bir sorun. Yeni geliştirilen ‘katılımcı makine öğrenmesi’ gibi çalışmalar yine de umut vadediyor (Hao, 2021).

 

 

“.... Böyle Algoritmayı”

 

2020 Ağustosu’nda beklenmedik bir gelişme oldu ve İngiltere’de algoritmaların kurbanı olmuş öğrenciler “fuck the algorithm” ve “algoritma geleceğimi çaldı” biçimindeki pankartlarla sokaklara çıktılar. Bunun üzerine, not verme algoritması iptal edildi. Bundan önce algoritma adaletsizliğine karşı çıkışlar, verilerin mahremiyeti noktasındayken, bu kez, algoritmanın kimin hangi okula yerleşeceği konusunda, demek ki öğrencilerin geleceği konusunda söz sahibi olması protesto ediliyor (Amoore, 2020). Belki bunun benzerlerini başka coğrafyalarda da göreceğiz. Algoritmaların şeffaflığı, sık sık talep edilen bir nokta olarak karşımıza çıkacak.   

 

 

 

 

Kaynakça

 

Amoore, L. (2020). Why 'Ditch the algorithm' is the future of political protest. The Guardian, 19.08.2020.

https://www.theguardian.com/commentisfree/2020/aug/19/ditch-the-algorithm-generation-students-a-levels-politics

 

Dilawar, A. (2020). The Very Human Labor That Powers Artificial Intelligence. The Nation, 27.10.2020.

https://www.thenation.com/article/society/amazon-mturk-artificial-intelligence/

 

Goswami, G. (2020). Implementation of artificial intelligence in legal practice. The Daily Guardian, 21.08.2020.

https://thedailyguardian.com/implementation-of-artificial-intelligence-in-legal-practice/

 

Hao, K. (2021). Five ways to make AI a greater force for good in 2021. MIT Technology Review, 08.01.2020.

https://www.technologyreview.com/2021/01/08/1015907/ai-force-for-good-in-2021/

 

Toews, R. (2020). The Next Generation Of Artificial Intelligence. Forbes, 12.10.2020.

https://www.forbes.com/sites/robtoews/2020/10/12/the-next-generation-of-artificial-intelligence/?sh=3e5dc92459eb

 

Vincent, M. (2021). The Ethics of Tech: Is Artificial Intelligence Racist? Elle Canada, 08.01.2021. https://www.ellecanada.com/culture/tech/is-artificial-intelligence-racist


Hiç yorum yok:

Yorum Gönder