TeknolojiSkandal hata! Yapay zeka siyahi kişileri "maymun" olarak algıladı

Skandal hata! Yapay zeka siyahi kişileri "maymun" olarak algıladı

04.09.2021 - 13:32 | Son Güncellenme:

Facebook'un yapay zeka destekli algoritması, Birleşik Krallık merkezli tabloid The Daily Mail gazetesinde 27 Haziran 2020'de yayımlanan ve bir grup siyahi kişinin polis memurlarıyla yaşadığı tartışmanın yer aldığı videoyu izleyenlere "Primatlarla(maymun) ilgili videoları görmeye devam edin" önerisinde bulundu.

Skandal hata Yapay zeka siyahi kişileri maymun olarak algıladı

Sosyal medyada tepki toplayan olay üzerine Facebook cuma günü bir açıklama yayımlayarak kullanıcılarından özür diledi. Bunun "kabul edilemez bir hata" olduğunun belirtildiği açıklamada, bir daha benzer bir durumun yaşanmaması için algoritmanın geçici olarak durdurulduğu ve yeniden gözden geçirildiği ifade edildi.

Haberin Devamı

Facebook sözcüsü Dani Lever, "Yapay zekamızda iyileştirmelere gitsek de mükemmel olmadığının farkındayız. Daha kat etmemiz gereken aşamalar var. Bu nahoş önerileri gören herkesten özür diliyoruz" dedi.

GOOGLE VE TWiTTER ÖZÜR DİLEMİŞTİ

Benzer bir olay ABD'li teknoloji devi Google'ın yapay zeka sisteminde de yaşanmıştı. 2015'te şirketin Photos adlı uygulamasında siyahi kişiler "goril" olarak etiketlenmiş, gelen tepkiler üzerine Google özür dilemişti.

Skandal hata Yapay zeka siyahi kişileri maymun olarak algıladı

Microsoft'un yapay zeka destekli sohbet botu Tay ise 2016'da ırkçı hakaretler içeren tweetler atmaya başlamış, bu nedenle lansmanından sadece 16 saat sonra devre dışı bırakılmıştı.

Twitter da benzer bir algoritma sebebiyle eleştirilmişti. Siyahi ve beyaz insanların fotoğraflarını öne çıkartma noktasında yaşanan problem, bir güncellemeyle çözülmüştü. 

Yazarlar