DOLAR 34,3612 0.02%
EURO 37,3984 0%
ALTIN 3.018,94-0,11
Ankara

AZ BULUTLU

Algoritmaları ayrımcı yapan biziz: Azınlıklar neden dijital dünyada yok gibi?

Algoritmaları ayrımcı yapan biziz: Azınlıklar neden dijital dünyada yok gibi?

Farkında değiliz ama! Algoritmalar tercihlerini beslendikleri sosyal normlara göre yapıyorlar. Bu normlar bazı gruplara karşı daha ayrımcı olduğu için sosyal medya algoritmalarından, internet arama motorlarına kadar, hayatımızı kolaylaştırdığını düşündüğümüz birçok yapay zekâ sistemi, azınlıkları yani “marjinal” grupları yok sayabiliyor.

ABONE OL
22 Ağustos 2023 11:36
Algoritmaları ayrımcı yapan biziz: Azınlıklar neden dijital dünyada yok gibi?
5

BEĞENDİM

ABONE OL

Haber: Asmin Ayçe İdil Kaya – İstanbul

Algoritmaların cinsiyetçi, “ırkçı, ayrımcı  veya önyargılı” olabileceğini biliyor muydunuz? Bu tartışma son zamanlarda sıklıkla ve genellikle batı ülkelerinde sürüyor. Örneğin bazı araştırmalar, “siyahi” kadınların akıllı telefonlardaki yüz tanıma sistemlerinde “tanınmadığını” ortaya koydu. Çünkü bu modeller oluşturulurken siyah kadınlar göz önüne alınmıyor, model oluşturmak için beslenen veriler “beyazlar öncelenerek” oluşturuluyor. Böylece bu algoritmalar siyahiler için çalışmaz hale geliyor ve toplumda siyahilere dönük  ayrımcılıklar, teknoloji üreticilerinin eliyle yeniden üretilebiliyor. Türkiye’de seçim sürecinde “kadınlarla ilgili gerici söylemleri ile eleştirilen ” HÜDAPAR’ın da, Twitter tarafından direkt olarak sansürlemesi sebebiyle bu ayrımcı söylemlerinin geçtiği tweetlerin öne çıkarılmadığı yani “gölgelendiği” de ileri sürülenler arasında.

Dijital dünyada bin bir çeşit algoritma var ve hepsinin üretim süreci farklı. Ayrımcılıklar da bu üretim süreçlerinde tekrar üretilebiliyor. Türkiye’deki azınlıkların algoritmalar eliyle uğradığı ve uğrayacağı ayrımcılıklara bakıldığında, temelde “toplumdaki ayrımcı değerlerin veri olarak algoritmaları nasıl beslediği ve bu verilerin süreç boyunca yapay zekâ yaratıcıları eliyle nasıl kullanıldığı” öne çıkıyor. 

Sinem Görücü

Yapay zekâda sosyal adalet alanında çalışan Sinem Görücü’ye bu konularda sorular yönelttik. Goethe Enstitüsü, Birleşmiş Milletler Kadın Birimi gibi uluslararası pek çok farklı kurumla projeler yürüten, üniversitelerde dersler veren Görücü, yapay zekâ ve algoritmalar alanına eleştirel feminist bir bakışla yaklaşıyor ve algoritmaların aslında toplumdaki ayrımcılıkları bir ayna gibi yansıtabildiğini söylüyor:

“Yapay zekâ dünyadan ne alıyorsa onu işliyor, onu üretiyor ve dünyaya geri veriyor. Dünyadan kastımız ise bu sistemlerin eğitildiği ve insanlık eliyle yaratıldığı,  mevcut düzenin ve tarihimizin yansıması olan veri setleri, yani ayrımcılık için ilk sebep. Yapay zekayı geliştiren insanların, teknoloji çalışanlarının yanlılıkları ve dünya görüşü de bu verinin ve algoritmanın süreç boyunca nasıl kullanılacağını belirlediği için ayrımcılığın ikinci sebebini oluşturuyor. Bunlara ek olarak yapay zekâ ekosisteminin nasıl döndüğü, yapay zekâ endüstrisinde paranın nereden gelip nereye gittiği, kimin çıkarının işin içinde olduğu, hangi modellerin hangi motivasyonlarla üretildiği, yani bu teknolojinin gelişmesine önayak olan sermayenin bu teknolojiyle ne yapmayı amaçladığı, bu alandaki ayrımcılıkların ve zulümlerin temel sebeplerinden bir başkası olabilir. Yani evet, insanlar yanlı, ayrımcı ve önyargılı ama yapay zekayı da biz üretiyoruz. Hem verileri biz veriyoruz hem algoritmayı biz yazıyoruz ve hangi veriye dayanarak nasıl kararlar alacağını biz belirliyoruz.”

Verideki boşluklar, eksikler

Görücü’nün aktardıklarına göre, verilerden kaynaklanan bu ayrımcılıkları birkaç başlık altında toplamak mümkün. Bunlardan biri verideki boşluklar ve eksiklikler. Yani toplanan verilerde bazı grupların hiç yer almaması, temsil edilmemesi ya da çok düşük oranlarda temsil edilmesi söz konusu.

Örneğin, Türkiye’deki Suriyeli ve Roman kadınların yüzde sekseni Türkçe okuma yazma bilmiyor. Onların teknolojiye katılımları buna paralel olarak düştükçe pek çok veri setinde ve dolayısıyla da algoritmada temsiliyet oranları çok düşük olabiliyor. Bir diğer etken ise, kullanıcı davranışından ve geri dönütünden sürekli beslenen  algoritmaların kullanıcı davranışını veri olarak işlediğinde ortaya çıkan ayrımcılıklar. Bu konuda geliştiricilerin daha fazla hassasiyet göstermesi gerekiyor çünkü kullanıcılar algoritmalara sürekli kendi ayrımcılıklarını ve toplumsal yargılarını aktarıyor ve algoritmalar bunlardan öğrenmeye devam ediyor. 

Görücü’nün verdiği örnekler üzerinden Türkiye özelinde veri kaynaklı ayrımcılıkların ortaya çıkışı şöyle değerlendirilebilir:

“Örneğin, Türkiye’de şu an sosyal medya platformlarında azınlık topluluklar ya da LGBT bireylere yönelik nefret söylemi arttıkça algoritmalar, bu nefreti içselleştiriyor, normalleştiriyor ve çoğalmasına aracılık ediyor iddiası öne sürülebilir. Çünkü pek çok sosyal medya algoritması kullanıcının ona sunduğu veriden, neyi öne çıkaracağını, neyin sakıncalı içerik olduğunu, hangi içeriğin hangi kullanıcı gruplarından daha fazla etkileşim alacağın öğreniyor… Kullanılan kelimeler argo olabilir ve ülkeden ülkeye, dilden dile değişebilir. Tüm bu özgün durumları göz önüne alarak tedbir almak önem taşıyor. Ancak, çoğunlukla bu konuya Silikon Vadisi’nde bir avuç batılı erkek tarafından yönetilen bir teknolojiye önem verildiği kadar önem verilmiyor. O yüzden algoritmanın yerelde ne öğrendiği ve neyi çoğalttığını anlamak için onu yerel bağlamda ele almak önemli. Twitter nefret söylemini algılayabilir, evet, ama hepsini algılayamıyor. Niye mesela? Nefret söylemi dolaylı yoldan söylendiğinde, alay edilerek söylediğinde, tarihsel olaylara referans verilerek algoritmanın aşina olmadığı bağlantılar kurularak söylendiğinde, argoyla söylediğinde veya iki dil birbirine katılıp söylendiğinde, İngilizce, Türkçe yeni kelimeler üretilip söylediğinde onları algılayamayabiliyor. Böylece algoritma bu söylemleri elemiyor ve öğreniyor. Bu da bu içeriklerin sakıncalı içerik olarak kaldırılmasına ya da işaretlenmesine değil aksine algoritma gözünde sıradanlaştırılmasına neden oluyor. Bunun örneklerini mesela Madımak ile ilgili atılan çeşitli tweetlerde gördük. Metaforlar kullanarak yahut çeşitli yerel referanslarla dolaylı yoldan vahşet çağrısı yapan ve vahşeti normalleştiren pek çok içerik,  platformlar tarafından sakıncalı bulunmadı ve kaldırılmadı.”

Toplu taşıma sistemi bile etkilenebilir

“Veri boşluğundan ya da temsildeki eksiklikten doğan bir örnek de toplu taşıma verileri. Bu, doğrudan kimin elinde akıllı telefon olduğuyla alakalı bir mesele, zira hangi toplumsal grupların veride nasıl temsil edildiği böyle belirleniyor. Artık, cep telefonlarımızdan alınan lokasyon verileri ulaşım sistemlerinin planlanmasında kullanılabiliyor. Günün hangi saatlerinde hangi bölgelerde yoğunluk olduğundan, kimlerin şehir içi hangi istikametlerde ne kadar seyahat ettiğine kadar… Bu verilerin toplanması ve böyle kullanılması başlı başına bir veri etiği sorunu evet ama verideki temsil noktasında da çok dikkatli olunması gerekiyor. Türkiye’deki kur kriziyle, hatta -telefonunu çıkar göster- kriziyle çok bağlantılı olarak bazı grupların dijital aygıtlara ve hatta internete erişimi gittikçe daha fazla sekteye uğruyor. Belirli yaş ve gelir grupları, özellikle de işgücüne katılan ama diyelim ki evde bakım işi üstlenen kadınların  bu lokasyon bazlı veri setlerinde temsilinde büyük bir eşitsizlik doğuyor. Bu nasıl bir riske yol açabilir? Evde bakım emeğini üstlenen (ama akıllı telefonu olmayan, sürekli internete bağlı olmayan) biriyseniz, birden fazla çocuğa ya da bir yaşlıya bakıyorsanız;- evden çıkarsınız, önce çocuğu bir yere bırakırsınız, sonra markete gidersiniz, sonra dönüşte çocuğun birini alırsınız, yaşlıya yemek bırakırsınız, oradan okula gidersiniz- gibi karmaşık bir ulaşım deseniniz vardır ve bu desen toplanan veriler arasında yer almayabilir, çünkü dijital aygıtlardan toplanan lokasyon verisi toplumun genelini temsil ettiği varsayımıyla hazırlandığı ve azınlıktaki bireyleri  göz ardı ettiği sürece, bu özel bir grupların  farkına varılmadığı sürece toplu taşıma sistemleri bu insanlar için tasarlanmayacaktır. Yani lineer taşıma sistemleri tasarlanırken bu ağlar fark edilmeyecek, evde bakım işi gibi işlerde çalışanlar ulaşım ağında dikkate alınmayacaktır.”

Klişeleştirilen tanımlamalar

“Kullanıcı geri dönütleriyle beslenen ayrımcılıklara başka bir örnek ise üretken yapay zekâ dediğimiz modeller. Son dönemde hayli popüler olan Midjourney’den (metinleri resimlere dönüştüren yapay zeka sistemi)  örnek verelim.. Sen diyorsun ki bana şunu çiz, o da sana o söylediğin şeyi 4 farklı seçenek olarak çiziyor. Daha sonra sen aralarından hayalindeki imaja en yakın olan imajı seçiyorsun. Ya da en yakın olanı seçip buna benzer üret diyorsun ve o dört tane daha üretiyor. Yani senin tercihlerine bağlı olarak gittikçe senin daha çok sevebileceğin seçenekler üretiyor. Örneğin -güzel bir kadın çiz- dediğinde eğitildiği veri setine bakıyor ve sarışın kadınların -güzel- kelimesiyle daha çok anıldığını görüp o gördüğü örneklere daha çok benzeyen sarışın kadınlar üretebiliyor. Bu en temel basit bir örnek. Ama bir Roman kadın çizmesini istediğinde, acaba yapay zekâ veri setindeki stereotiplerin ötesinde Roman kadınlarla ilgili ne biliyor? Ya da biliyor mu? Ya da bu konuda bağlamsal bir bilgisi var mı? Türkiye’deki Roman topluluklarıyla örneğin Kuzey Amerika’daki Roman topluluklarının aynı olduğunu mu varsayacak? 

Bir dönem bu konuda bazı deneyler yaptım.Bu uygulamaya -geleneksel kıyafetli bir Türk kadını çiz- dediğinizde Hint kıyafetleri giymiş kadınlar çiziyor ama arkasındaki mekân Türkiye’ye benziyor. Kıyafette Türk motifleri var örneğin ama kadınlar Asya’ya özgü bir omuz şalı giyiyor üretilen imajlarda… Bu sadece tek bir örnek, daha pek çok böyle yanlılık var.”

Sosyal medyada şikayet oluşturmak önemli

Görücü, verilerdeki klişelerin yine kullanıcıların eksik temsilinden kaynaklanabileceğini söylüyor. Türkiye’deki mülteci Arap kadınların teknolojiye erişimlerinin düşük olmasından kaynaklı onlar hakkında benimsenen kalıplaşmış fikirlerin yayılmasına sebep olabileceğini vurguluyor:

“Türkiye’deki en büyük azınlık gruplarından örneğin göçmen Arapların, Türkçe sosyal medyadaki algoritmalara sundukları geri dönütler hem teknolojiye erişim eksikliğinden, hem de dil bariyerinden dolayı düşük olabilir. Mesela Arap kadınlarla ilgili böyle çok genel geçer algılanan yargılar var toplumda ve bunlar kendileri tarafından bile içselleştiriliyor olabilir. Bu sebeple internette böyle şeylerle karşılaştıklarında platforma bildirme, rapor etme eğilimi göstermiyor da olabilirler. Ama şunun farkında olmak gerekiyor; insanlar farkında olmasalar dahi bu algoritmaları davranışlarıyla ve geri dönütleriyle eğitiyorlar. Dolayısıyla yanlış bir şey görüp bunu rapor etmediğimizde bu yargı görünür kılınmaya devam ediyor ve dolayısıyla algoritmada o saatten sonra üretilen benzer yargıları da sorunsuz görüp yaygınlaştırmaya devam ediyor. O yüzden her zaman bu konuda aktif olmak gerekiyor.”

Görücü son dönemde önemli bir örneğin Twitter’da, Türkiye’deki seçim döneminde yaşandığını dile getirerek, Twitter algoritmasının, kadınları oldukça etkileyebilecek bir sansür politikası uyguladığını aktardı. Bu dönemde Twitter’ın HÜDAPAR ile ilgili tweetlerin görünürlüğünü azaltmış olabileceğini söyledi.  Görücü’ye göre, Twitter kadın haklarıyla ilgili birçok sıkıntılı söylemi olan ve kadınlar tarafından yoğun olarak eleştirilen bu siyasi partinin, öne çıkarılmamasını sağladı.  HÜDAPAR ile ilgili atılan tweetler aynı kullanıcıların diğer tweetlerine kıyasla yüzde doksana varan oranlarla daha az görüntüleme alıyordu. Ayrıca bu sansür durumuyla ilgili başka bir detay da tüm siyasi partilerin parti programları link olarak Twitter’da paylaşılabilirken HÜDAPAR’ın parti programı sisteme link olarak atılamıyordu. Bir anlamda Twitter bu linki blokladı. Yani sosyal medya platformları kendi algoritmalarında direkt olarak, politik veya ekonomik sebeplerle, azınlık veya dezavantajlı gruplara karşı ayrımcı tavır alabiliyorlar.  

Ne yapmalı?

Algoritmaların ayrımcı yönleri toplumsal açıdan sıkıntılara yol açabiliyor, uzmanlara göre bu durum sosyal bir tartışma konusu haline getirilmeli. Görücü de ayrımcı yapay zekalara karşı mücadelenin uzun ve çok kapsamlı bir süreç olduğunu ancak bu alanda okur yazarlığın arttırılarak sağlanabileceğini söylüyor. 

Kaynaklar: 

Siyah kadınların yüz tanıma sistemlerinde tanınmaması: Joy Buolamwini and Gebru Timnit “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.” https://proceedings.mlr.press/v81/buolamwini18a.html

Suriyeli kadınların okuma yazma oranları: Teoman Akpınar “Türkiye’deki Suriyeli Mülteci Çocukların ve Kadınların Sosyal Politika Bağlamında Yaşadıkları Sorunlar.”

https://www.ibaness.org/bnejss/2017_03_03/03_Akpinar.pdf

Roman kadınların okuma yazma oranları: Sosyal İçermenin Desteklenmesi Operasyonu (SİROMA) Projesi kapsamında yapılan anket sonucu ulaşılan veriler.

https://ekmekvegul.net/sectiklerimiz/gunun-rakami-roman-kadinlarda-okuma-yazma-orani-cok-dusuk


Roman Kadınların Teknolojiye Erişimi: Hilal Tok “Roman kadınların koronavirüs günleri: “Çocuğuma yedirmek için ebegümeci topluyorum”. https://www.evrensel.net/haber/401318/roman-kadinlarin-koronavirus-gunleri-cocuguma-yedirmek-icin-ebegumeci-topluyorum

En az 10 karakter gerekli
Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.


HIZLI YORUM YAP

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. KVKK uyarıları ve detaylar için veri politikamızı inceleyebilirsiniz.