İnsan neyse yarattığı makine de onun bir sureti oluyor. Yapay zekâ dünyayı olduğu gibi kopyaladığı için algoritmaların kararları da ırkçı, cinsiyetçi, ayrımcı olabiliyor. Medya, yapay zekâyı överken insana verdiği zararı da görünür hale getirmeli
Daniel Santos. Houston’da bir okulda öğretmen. İki kez yılın öğretmeni ve bir kez ayın öğretmeni seçildi. Mesleki başarısı beklenenin ötesine geçtiği için birçok kez takdirname aldı. Farklı okulların idarecileri ve müfettişler tarafından defalarca ödüllendirildi. Zaman içerisinde teknoloji okul yönetimlerini de etkiledi ve öğretmenlerin eğitime kattığı değeri puanlayan algoritmalar devreye sokuldu. Puanlama yapan bir algoritma, Santos’u kötü bir öğretmen olarak sınıflandırıldığı için işine son verildi.
Hangi öğretmenin işte kalıp kalmayacağına bir makine karar verince, federal mahkemede bir dava açıldı ve algoritmanın öğretmenler hakkında böylesine adaletsiz bir sonuca nasıl vardığının açıklaması istendi. Bu modeli yaratan şirket, algoritma düzeneğini gizli tuttuğu için öğretmenler atılma gerekçelerini öğrenemedi. Ama mahkeme, kimsenin anlayamadığı bir şekilde işten çıkarıldıkları için öğretmenlerin adil yargılanma haklarının ihlal edildiğine karar verdi.
Tonya LaMyers. Philadelphia’da siyasi bir kadın. Sabıkalı. Ancak şartlı tahliye edildikten sonraki dört yılda yaptığı hizmetlerden ötürü belediye tarafından defalarca ödüllendirildi. Düzenli bir iş sahibi oldu. Suça bulaşmadı. Buna rağmen yüz tarama sisteminde yüksek risk grubunda yer aldığı için geçmişinden kurtulamadı. Risk oluşturduğuna yapay zekâ karar verdi. Algoritmanın puanlaması hem yargıcın hükmünü hem de temyiz sonucunu geçersiz kıldı.
Amerika’da birçok eyalette yargıçlar için, yeniden suç işleme olasılığını yaş, cinsiyet, mahkûmiyet ve sabıka göz önünde bulundurarak tahmin eden bir algoritma oluşturuldu. Dolayısıyla insana dair ırkçılık, cinsiyetçilik gibi ön yargılar yapay zekâda da kendini gösterdi. Bu bir araştırmayla da kanıtlandı. Amerika’da yapılan bir araştırma algoritmaların ırk ayrımı yaptığını ortaya koydu. Siyahiler yüksek risk puanıyla etiketlenirken, beyazlar daha düşük risk grubunda yer aldı.
Bilgisayar bilimcisi Joy Buolamwini, siyahi genç bir kadın. MIT medya laboratuvarında yüz tanıma teknolojileri üzerine araştırma yaparken, bazı algoritmaların koyu tenli yüzleri tespit edemediğini veya kadınları doğru bir şekilde sınıflandıramadığını saptadı. Araştırmasını derinleştirince de algoritmaların birçok alanda insanların ön yargılarıyla beslendiğini ortaya çıkardı. Bu örnekler “Coded Bias” adlı belgeselden.
“Coded Bias” belgeseli, yapay zekânın ön yargıları üzerine kurulu. Belgesel, “Özgürlüklerimiz üzerindeki hükmünü artıran yapay zekâyla biçimlendirilmiş bir toplumda yaşamanın insan hayatına etkisi nedir? Ya da “Ayrımcılık ve ön yargılarla beslenmiş, nasıl işlediğini bilmediğimiz algoritmalarla var olan bir sistem adil olabilir mi?” gibi sorulara yanıt bulmaya çalışıyor.
Çünkü algoritmalar, geçmiş bilgiyi kullanarak, gelecek tahmini yapıyor… Mesela sizin bir borcu ödeyip ödemeyeceğinize, bankadan bir kredi talebinize ya da bir üniversiteye kabul edilip edilmeyeceğinize artık algoritmalar karar veriyor. Sorun da burada. Yapay zekâ dünyayı olduğu gibi kopyalıyor. Hangi bilgi sunulursa o şekli alıyor. Yani insan neyse yarattığı makine de onun bir sureti oluyor. Irkçı, cinsiyetçi, ön yargılı…
Medya; teknolojideki yenilikleri “gelişme” gibi sunarken, insanın geçmişine bakarak geleceğine karar veren ön yargılı algoritmaların insana nasıl zarar verebildiği gerçeğini de göz ardı etmemeli.