Искусственный интеллект заподозрили в «сексизме» и «расизме»

фoтo: pixabay.com

Спeциaлисты прoaнaлизирoвaли, кaк три пoпулярныx прoгрaммы для рaспoзнaвaния лиц «рeaгируют» нa 1 200 фoтoгрaфий людей разного пола, относящихся к различным этническим группам. При этом цвет кожи на каждой фотографии оценивался по шестибальной шкале, в которой один балл соответствовал максимально светлому оттенку, а шесть баллов — самому тёмному.

Как выяснилось, чем более тёмной была кожа участников исследования, тем выше был шанс, что программа просто «не заметит» их лицо или же неверно определит, мужчине оно принадлежит или женщине. При этом «угадывать» темнокожих женщин программам удавалось с наибольшим трудом. У мужчин со светлой кожей ошибки встречались менее чем в одном проценте случаев, а пол женщин с очень тёмной кожей некоторым алгоритмам удавалось угадать лишь в половине случаев — то есть не чаще, чем если бы он просто называл его случайным образом.

Таким образом, специалисты отмечают, что алгоритмы в недостаточной степени учитывают разнообразие людей, которые могли бы им пользоваться, а следственно, нуждаются в доработке.

Пока что результаты исследования не были опубликованы ни в одном рецензируемом научном издании, однако специалисты планируют сообщить о них на Конференции по вопросам справедливости, подотчетности и транспарентности в Нью-Йорке. Помимо этого, некоторые эксперты, занимающиеся разработкой программ для распознавания лиц, уже заявили, что выводу учёных будут учитываться ими при дальнейшей работе.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.