Yanlış Ateşleyen Bir Devlet Veri Makinesinin İçinde


Geçen hafta, KABLOLU Hollanda’nın Rotterdam şehrinin sosyal yardım sahtekarlığının kökünü kazımak amacıyla uyguladığı sorunlu bir algoritma hakkında bir dizi derinlemesine, veriye dayalı hikaye yayınladı.

ile ortak olarak Deniz Feneri RaporlarıAraştırmacı gazetecilikte uzmanlaşmış bir Avrupa kuruluşu olan WIRED, bilgi edinme özgürlüğü yasaları kapsamında algoritmanın iç işleyişine erişim sağladı ve kimin dolandırıcılık yapma olasılığının en yüksek olduğunu nasıl değerlendirdiğini araştırdı.

Algoritmanın etnik köken ve cinsiyete dayalı olarak ayrımcılık yaptığını ve haksız yere kadınlara ve azınlıklara daha yüksek risk puanları vererek davacıların kişisel yaşamlarına önemli zararlar verebilecek soruşturmalara yol açabileceğini bulduk. Algoritmanın derinliklerine inen etkileşimli bir makale, ırk ve cinsiyetin algoritmaya beslenen faktörler arasında yer almamasına rağmen, bir kişinin Felemenkçe dil yeterliliği gibi diğer verilerin temsil görevi görebileceğini göstermek için sizi iki varsayımsal örneğe götürür. bu da ayrımcılığı mümkün kılar.

Proje, hükümetleri daha verimli hale getirmek için tasarlanan ve genellikle daha adil ve daha fazla veriye dayalı olarak müjdelenen algoritmaların toplumsal önyargıları nasıl gizlice artırabileceğini gösteriyor. WIRED ve Lighthouse soruşturması, diğer ülkelerin de dolandırıcıları bulmak için benzer kusurlu yaklaşımları test ettiğini ortaya çıkardı.

WIRED’de projede çalışan bir araştırmacı veri muhabiri olan Dhruv Mehrotra, “Hükümetler, ister bir elektronik tablo ister süslü bir makine öğrenimi olsun, yıllardır sistemlerine algoritmalar yerleştiriyor” diyor. “Ancak bunun gibi bir algoritma, herhangi bir cezai ve öngörülü kanun yaptırımına uygulandığında, yüksek etkili ve oldukça korkutucu hale geliyor.”

Rotterdam’ın algoritması tarafından başlatılan bir soruşturmanın etkisi, sorgulanmak üzere karşı karşıya kalan üç çocuk annesi vakasında görüldüğü gibi üzücü olabilir.

Ancak Mehrotra, projenin bu tür adaletsizlikleri ancak WIRED ve Lighthouse’un algoritmanın nasıl çalıştığını inceleme şansı bulması nedeniyle ortaya çıkarabildiğini söylüyor; sayısız başka sistem, bürokratik karanlık kisvesi altında cezasız bir şekilde çalışıyor. Rotterdam’da kullanılana benzer algoritmaların genellikle doğası gereği adaletsiz sistemler üzerine inşa edildiğini kabul etmenin de önemli olduğunu söylüyor.

“Çoğu zaman, algoritmalar zaten cezalandırıcı olan bir teknolojiyi refah, dolandırıcılık veya polislik için optimize ediyor” diyor. “Algoritma adil olsaydı iyi olurdu demek istemezsin.”

Algoritmaların hükümetin her kademesinde giderek yaygınlaştığını ve yine de bunların işleyişinin genellikle en çok etkilenenlerden tamamen gizlendiğini kabul etmek de önemlidir.

Mehrota’nın 2021’de WIRED’e katılmadan önce yürüttüğü başka bir soruşturma, bazı polis departmanları tarafından kullanılan suç tahmin yazılımının nasıl çalıştığını gösterir Siyah ve Latinx topluluklarını haksız yere hedef aldı. 2016 yılında ProPublica’da algoritmalarda şok edici önyargılar ortaya çıkardı ABD’deki bazı mahkemeler tarafından hangi sanıkların yeniden suç işleme riski en yüksek olduğunu tahmin etmek için kullanılır. Diğer sorunlu algoritmalar çocukların hangi okullara gideceğini belirlemek, hangi şirketlerin işe alınması gerektiğini önermekVe hangi ailelerin ipotek başvurularının onaylanacağına karar vermek.

Pek çok şirket elbette önemli kararlar almak için de algoritmalar kullanır ve bunlar genellikle hükümettekilerden bile daha az şeffaftır. Şirketleri algoritmik karar verme konusunda sorumlu tutmaya yönelik büyüyen bir hareket ve daha fazla görünürlük gerektiren mevzuat için bir baskı var. Ancak sorun karmaşıktır ve algoritmaları daha adil hale getirmek bazen işleri sapkın bir şekilde daha da kötüleştirebilir.


Kaynak : https://www.wired.com/story/algorithmic-bias-government/

Yorum yapın

SMM Panel PDF Kitap indir