Yapay zeka ihtilali hızlandıkça, bir eğilim netleşiyor: Yapay zeka sistemlerinin eğitimindeki önyargılar, gerçek dünyada ayrımcı uygulamalarla sonuçlanıyor.
YÜZ TANIMA TEKNOLOJİSİ SKANDALA NEDEN OLMUŞTU
Yapay zeka işe alım araçlarının bayanlara karşı ayrımcılık yaptığı gösterilmiştir. ChatGPT ırkçı ve ayrımcı önyargıları ortaya koymuştur. Polisin yüz tanıma teknolojisi nedeniyle bir şüpheliyi yanlış teşhis ettiği bildirilen her olayda, bu kişinin ise siyahi bir kişiydi.
Şimdi de yeni bir araştırma, şoförsüz araçlardaki yaya algılama yazılımının bile yapay zeka önyargısının bir sonucu olarak renkli insanları ve genel olarak çocukları tespit etmede daha az tesirli olabileceğini ve daha fazla araba üreticisi teknolojiyi kullandıkça onları daha büyük güvenlik riskine sokabileceğini öne sürüyor.
KOYU RENKTEKİ YAYALARI TESPİT ETMEDE BAŞARISIZ
Insider’in aktardığı bilgilere nazaran, İngiltere ve Çin’de bir küme araştırmacı, sekiz tanınan yaya dedektörünün kişinin ırkına, cinsiyetine ve yaşına bağlı olarak ne kadar âlâ çalıştığını test etti.
Cinsiyet doğrulukta yalnızca küçük bir farklılık gösterirken, araştırmacılar tespit sistemlerinin koyu cilt rengine sahip yayaları tespit etmede daha az yanlışsız olduğunu buldular.
“Daha evvel azınlık bireyler hayati hizmetlerden yoksun bırakılabiliyordu. Artık ise önemli yaralanmalarla karşı karşıya kalabilirler.” King’s College London’da bilgisayar bilimcisi ve araştırma takımının bir üyesi olan Jie Zhang yaptığı açıklamada şunları söyledi
“Araştırmaya nazaran, tespit sistemlerinin yetişkinleri tespit etme mümkünlüğü çocuklara kıyasla %19,67 ve daha açık cilt rengine sahip şahısları tespit etme mümkünlüğü daha koyu deri rengine sahip bireylere kıyasla %7,52 daha yüksekti.
“Genel olarak, bu çalışma mevcut yaya dedektörlerinin karşılaştığı adalet sıkıntılarına ışık tutmakta, yaş ve cilt tonuyla ilgili önyargıları ele almanın ehemmiyetini vurgulamaktadır.” “Elde edilen bilgiler gelecekte daha adil ve tarafsız otonom sürüş sistemlerinin önünü açabilir.”
YAPAY ZEKAYA YÖNELİK ÖNYARGILAR HAKLI ÇIKIYOR
Bu eğilim, birçok şirketin dedektörleri oluşturmak için kullandığı açık kaynaklı yapay zeka sistemlerinde esasen mevcut olan önyargıların bir sonucu olarak görülüyor.
Zhang’a nazaran, çalışma Tesla üzere şirketlerin şoförsüz araçlara güç sağlamak için kullandıkları yazılımları kapalı oldukları için tam olarak kullanmamış olsa da, çalışma için kullanılan yazılım sistemleri bu şirketlerin kullandığı birebir açık kaynaklı yapay zekaya dayanıyor.
Araştırma takımı, kanun koyucuları, algılama sistemlerindeki önyargıyı önlemek için şoförsüz araç yazılımlarını düzenlemeye çağırdı.
Çalışmada, “Politika yapıcıların tüm bireylerin haklarını koruyan ve bu kaygıları uygun bir formda ele alan yasa ve yönetmelikleri yürürlüğe koyması elzemdir” deniyor.