Приложения кредитов? Новые методы, чтобы измерить социальный уклон в программном обеспечении

профессор Александра Мелайоу в Колледже Информатики и вычислительной техники говорит, «Увеличенная роль программного обеспечения и потенциального влияния, которое это оказывает на жизни людей, делает справедливость ПО критической собственностью. У управляемого данными ПО имеется свойство организовать поведение человека: это затрагивает продукты, каковые мы рассматриваем и покупаем, новостные статьи, каковые мы читаем, социальные сотрудничества, каковые мы вовлекаем в, и, в конечном счете, мнения, каковые мы формируем».Meliou с преподавателем Юрием Бруном и аспирантом Сэйньямом Гэлхотрой, развивали новую технику, которую они вызывают «Фемидой», чтобы машинально проверить ПО на дискриминацию. Они сохраняют веру, что Фемида уполномочит заинтересованные стороны лучше осознавать поведение ПО, судья, в то время, в то время, когда нежелательный уклон присутствует, и, в конечном счете усиливает ПО.

Брун говорит, «Неконтролируемый, уклоны в данных и программном обеспечении рискуют увековечивать уклоны в обществе. К примеру, предшествующая работа продемонстрировала, что расовый предрассудок существует в совокупностях доставки интернет-рекламы, где поиски онлайн имен традиционно-меньшинства, более быть может, приведут к объявлениям, связанным с отчетами ареста. Такое поведение ПО может помогать расовым стереотипам и вторым ответственным социальным последствиям».

Статья исследователей, обрисовывающая это изучение, изданное в материалах перед конференцией для европейской Конференции по Программированию (ESEC/FSE 2017) до его сентября, видящегося в Падерборне, Германия, победила Ассоциацию Вычисления Особенной группы Оборудования на Программировании (ACM SIGSOFT) Выдающаяся Бумажная Премия. Работа поддержана Национальным научным фондом.

Брун растолковывает это, в то время как более раннее изучение рассмотрело дискриминацию в программном обеспечении, внимании Фемиды на имеющую размеры причинную сообщение в дискриминации. Тестирование ПО разрешает Фемиде делать тестирование предположения, задавать такие вопросы как, затрагивает ли изменение гонки человека, рекомендует ли ПО дать тому человеку ссуду, говорит он.«Отечественный подход измеряет дискриминацию более совсем правильно, чем предшествующая работа, которая сосредоточилась на идентификации различий в распределениях продукции ПО, корреляциях или обоюдной информации между входами и выходами. Фемида может узнать уклон в программном обеспечении, намеренный ли тот уклон или неумышленный, и вероятно применен к ПО, которое сохраняет надежду на машинное обучение, которое может ввести уклоны от данных без ведома разработчиков», додаёт он.

В то время, в то время, когда оценено на публичных совокупностях ПО от GitHub, Фемида нашла, что дискриминация может красться в том, помимо этого в то время, в то время, когда ПО разумеется создано, чтобы быть честным. Современные методы для удаления дискриминации из способов терпят неудачу во многих обстановках, частично по обстоятельству того, что предшествующие определения дискриминации не захватили причинную сообщение, показывают исследователи.

К примеру, Фемида нашла, что основанный на дереве ответов подход машинного обучения, специально предназначенный, чтобы не предвзято относиться к полу, в конечном итоге отличал больше чем 11 процентов времени. Так, больше чем 11 процентов людей видели продукцию ПО, затронутую только, изменяя их пол.Фемида также нашла, что проектирование ПО, чтобы избежать дискриминации в отношении одного показателя может увеличить дискриминацию в отношении вторых.

К примеру, то же самое основанное на дереве ответов ПО, обученное не различать на поле, предвзято относилось к гонке 38 процентов времени. «Эти совокупности выяснят о дискриминации из смещенных данных, но без осмотрительного контроля для потенциального уклона, ПО может увеличить тот уклон еще больше», говорит Гэлхотра.

4 комментария к “Приложения кредитов? Новые методы, чтобы измерить социальный уклон в программном обеспечении”

Оставьте комментарий