1. İçeriğe git
  2. Ana menüye git
  3. DW'nin diğer sayfalarına git

Twitter algoritmalarında ırkçılık mı var?

28 Eylül 2020

Twitter'ın fotoğraf önizlemeleri için kullandığı algoritmalarda ırkçı bir profilleme yapıp yapmadığı tartışılıyor.

https://p.dw.com/p/3j6cr
Fotoğraf: Imago/J. Tack

Twitter algoritmaları ne ölçüde ırkçı? Twitter kullanıcısı Tony Arcieri, bu soruya bir yanıt bulmak için bir deney yaptı. ABD'li siyasetçiler Barack Obama ve Mitch McConnell'in vesikalık fotoğraflarından oluşan bir kolaj hazırladı ve bu fotoğrafı Twitter'da paylaştı. Kolaj, vesikalık iki fotoğrafın arada uzunca bir beyaz alan bırakılarak üst üste eklenmesinden oluşuyor. Algoritma, bu uzun fotoğrafta bulunan iki surat arasından birini seçme ve ön izlemede gösterme konusunda bir tercihte bulunmak zorunda. Arcieri, McConnell ve Obama'nın vesikalıklarını, biri yukarıda diğeri aşağıda olmak üzere iki farklı biçimde yükledi. Ancak hangisi yukarıda olursa olsun Twitter'ın gösterdiği beyaz ten rengine sahip McConnell oldu.

Siyasetçilerin kravatları değiştirildiğinde de sonuç değişmedi. Yüz renklerini değiştirdiğinde ise bu kez Obama da önizlemede görülebildi. Arcieri'ye göre Twitter, algoritmaların ortaya koyduğu ırkçılığın sadece bir örneği. Başka kullanıcıların Obama ve McConnell ile yaptığı deney de aynı sonucu verdi.

Ayrımcılık var ama her zaman değil

Twitter algoritmasının neden önizlemede McConnell'i Obama'ya tercih ettiği açıklığa kavuşmuş değil. Deutsche Welle'nin futbolcu Jerome Boateng ve Sebastian Schweinsteiger ya da aktörler Will Smith ve Tom Cruise ile yaptığı deneylerde koyu ten renkli kişinin de Twitter'ın öngösteriminde öne çıktığı görüldü. Başka kullanıcılar da başka çiftlerle yaptığı deneylerde dengeli bir sonucun ortaya çıktığını tespit etti. Yani konu, göründüğü kadar basit değil.

Twitter basın sözcüsü Liz Kelley, şirketin tartışılan konuyu incelemeye aldığını ve sorunu çözeceğini açıkladı. Ayrıca yazılım kodunun da kamuyla paylaşılacağını söyledi. Twitter 2017'den bu yana otomatik kırpma programını kullanıyor ve fotoğrafların ön izlemesinde bu program belirleyici oluyor. Ancak bu programın tam olarak nasıl çalıştığı hala tam olarak bilinmiyor. Twitter ilk yaptığı testlerde yazılımın ayrımcı bir biçimde düzenlenmiş olduğu sonucuna varmadı.

Veriler rol oynuyor

Berlin merkezli sivil toplum kuruluşu AlgorithmWatch'tan Nicolas Kayser-Bril, fotoğrafların önizlemesi için yazılmış olan Twitter kodlarının yayınlanmasının çok anlamlı olmadığı görüşünde. Algoritmanın verdiği sonuçlarda sadece kodun belirleyici olmadığını söyleyen Kayser-Bril, "Algoritmanın davranışı bir yandan kod tarafından diğer yandansa alıştırma verileri tarafından belirleniyor. Hangi verilerin toplandığı ve hangilerinin algoritmanın kullanımına açık olduğu birçok sosyal etkiye tabi" diyor. Bir başka deyişle algoritma, aldığı veriler üzerinden fotoğrafın hangi kesiminin önizlemede daha iyi duracağı konusunda bazı kurallar belirliyor.

Ancak algoritmaya alıştırma esnasında hangi verilerin aktarılacağı, bu verileri hazırlayan insanlara ve veri kaynaklarına bağlı. Örneğin polisteki sicil kayıtlarından gelen fotoğraf havuzuyla Instagram gibi sosyal platformlardan alınan veriler fark arz ediyor. Algoritmaları çalıştırmak ve eğitmek için kullanılan verilerde açık tenli suratlar ortalamanın çok daha üstünde temsil ediliyor.

Berlin merkezli sivil toplum kuruluşu AlgorithmWatch'tan Nicolas Kayser-Bril
Berlin merkezli sivil toplum kuruluşu AlgorithmWatch'tan Nicolas Kayser-BrilFotoğraf: Marion Kotlarski

Bu etkiyi algoritmalar daha da güçlü hale getirebiliyor. Sosyal ağlarda daha fazla açık tenli insanın görünür olması, örneğin Twitter'ın önizlemesinde de onların daha fazla ön plana çıkmasını beraberinde getirebiliyor. Böylece açık tenli insanlara ait verilerin sayısı daha da artmış oluyor. Durum, Amazon'un kitap tavsiyelerinde yaşanana benzetilebilir, polisiye roman okuyanlara daha fazla polisiye önerilmesi gibi. Kayser-Bril, "Makine öğrenimli algoritmalar her türden önyargıyı güçlendiriyor" diyor.

Silahlar ve maymunlar

Algoritmaların siyahlara ayrımcılık uyguladığı sayısız örnek var. Veri gazetecisi Kayser-Bril, fotoğraflar üzerindeki nesnelere etiket atayan Google Vision Cloud programıyla bir süre çalışmış. Program, fotoğraflar üzerindeki nesneleri hızlı bir biçimde teşhis etmek ve sosyal ağlardaki erotik unsurları hızlı bir biçimde elemek için kullanılıyor. Algoritmaya insan açık ve koyu tenli olmak üzere elindeki termometreyi bir başkasının alnına tutan bir insanın fotoğrafı veriliyor. Sistem, açık tenli elin bir dürbün tuttuğunu teşhis ederken, koyu tenli elinse bir silah tuttuğu sonucuna varıyor.

Kayser-Bril başka algoritmaları da teste tabi tutuyor. Google Perspective adlı program yorumların yönetimini kolaylaştırma amaçlı. Algoritma, trollerin ve hakaret içeren, zehirli yorumların tespitini kolaylaştırmaya yarıyor. "Bunu siyah bir kadın olarak söylüyorum" cümlesi, yüzde 75 oranında toksik olarak tanımlayan program "Bunu bir Fransız olarak söylüyorum" cümlesini sadece yüzde üç olarak tanımlıyor. Liste uzayıp gidiyor. Örneğin bir Google yazılımı Afroamerikan bir kadını "goril" olarak etiketliyor. Google fotoğrafları arasında "profesyonel kuaför" sözü ile yapılan aramada hemen hemen sadece sarı örgülü saçların gözüktüğü fotoğraflar sunuluyor. Google Translate ise bazı çevirilerde cinsiyeti, eğer o meslekte ağırlıklı olarak o cinsiyetten insanlar çalışmıyorsa, değiştiriyor.

Algoritmalar siyaset yaparsa

Algoritmalar hayata da etkide bulunuyor. Yeni Zelanda'da pasaportlarla ilgili bir makam, Asya kökenli kişilerin pasaportların geçerli kabul etmiyor zira kullanılan yazılımın algoritması Asyalıların gözlerini kapalı olarak tanımladı. Büyük Britanya'da ise korona pandemisi nedeniyle sınava katılamayan öğrencilerin lise bitirme sınavları algoritma ile belirlendi ve program eğitimi kötü olan okulların öğrencilerine daha kötü not verdi.

Irkçı algoritmaların sonuçları polisin potansiyel suçları önceden tahmin etmek amaçlı kullandığı yazılımlarda daha da ağır oluyor. Bilgisayar programları hangi mahalle ve caddelerin yoğun polis kontrolüne tabi olması gerektiğini belirliyor. Bazı başka yazılımlar da hâkimlere tedbir olarak yakalama emri çıkarma konusunda tavsiyelerde bulunuyor.

Çözüm olmalı ama nasıl?

Algoritmalardaki ırkçı çarpıtmalarla ilgili tartışma yeni değil. Uzun süredir makine öğrenimi ve yapay zeka ile ilgili literatürde konu tartışılıyor. Uzmanlara göre çözüm, verilerin azınlıklar lehine daha dengeli olarak girilmesinden geçiyor.

Çözüm biraz da algoritmaların neden böyle kararlar verdiğini daha iyi anlamaktan geçiyor. Örneğin Twitter algoritmasının McConnell'i önizlemede tercih etmesi daha belirgin bir biçimde gülümsüyor olmasıyla ilgili ise bu tercihte bir sorun görülemez. Ancak algoritmik tercihleri genellikle mümkün değil zira tek bir algoritma içindeki küçük tercihler milyarlarla ifade edilebiliyor.

Kısacası sorunun herkes farkında ancak açık bir çözümü henüz yok. Tabi zaman da azalıyor. Google Research'ten Margaret Mitchell, "Bununla şimdi ilgilenmeliyiz, zira sistemler gelecek teknolojilerinin temeli" diyor.

Stephanie Höppner

©Deutsche Welle Türkçe