Справедливость (Fairness)
Справедливость – метрика, которая проверяет, дает ли классификатор тот же результат для одного человека, что и для другого, который идентичен первому, за исключением одного или нескольких важных атрибутов, вроде цвета кожи или пола.
Это гибкое и субъективное понятие, которое необходимо оценивать в свете
обстоятельств и целей Машинного обучения (Machine Learning).
Сообщество FAT / ML (Fairness, Accountability, and Transparency in Machine Learning – англ. "Справедливость, Подотчетность и Прозрачность в Машинном обучении) предлагает следующее описание принципа справедливости: «Убедитесь, что алгоритмические решения не создают дискриминационных или несправедливых последствий для разных демографических групп».
Сообщество FAT объясняет, что оно сделало этот термин намеренно «широко интерпретируемым», чтобы облегчить его распространение, потому что «правильное применение этих принципов должно включать их понимание в конкретном контексте».
Под справедливостью понимается стремление к справедливым и равноправным результатам. Другими словами, справедливость позволяет избежать предвзятости, которая увековечивает или усиливает существующие социальные, экономические, политические или культурные преимущества или недостатки. Например, если алгоритм с большей вероятностью лишит заявителей женщин права на получение ссуд для начала предпринимательской деятельности, независимо от кредитоспособности заявителей, этот алгоритм может быть признанным несправедливым в отношении женщин (или предвзятым против них).
Однако также возможно, что в погоне за справедливостью алгоритм может намеренно внести предвзятость как средство устранения существовавшего ранее неравенства. В примере ссуды малому бизнесу модель может быть разработана таким образом, чтобы рейтинг кредитоспособности женщин был выше, чем у мужчин с аналогичными полномочиями, чтобы помочь устранить давние препятствия для женщин-предпринимателей. Следовательно, хотя справедливость и предвзятость взаимосвязаны, эти понятия не всегда однозначны.
Справедливость можно понимать по-разному в разных контекстах; она требует принятия определенных этических конструкций и критериев системы ценностей, которые используются для оценки определенного набора результатов и могут зависеть от прав и обязанностей отдельных лиц, определенных местными властями, законами или обычаями. Например, разные типы налоговых систем по-разному относятся к справедливости.
Все ли должны платить одинаковую сумму налога? Или же каждый налогоплательщик будет облагаться согласно прогрессивной шкале (у богатых налоги больше, чем у бедных, как в абсолютном, так и в процентном отношении). Ответы зависят от ценностей и убеждений: люди рассматривают разные обстоятельства по-разному.
Поскольку разные люди и группы обладают уникальными статусами, способностями и проблемами, аналитик – будь то человек или компьютер – должен учитывать все эти факторы, чтобы чтобы прийти к «справедливому» результату. Например, чьи потребности следует учитывать в большей мере при проектировании дороги? Как сделать дороги одинаково безопасными и доступными для людей, идущих пешком, передвигающихся на велосипедах или на автомобилях? А как насчет людей с физическими недостатками, которым может потребоваться специфический прямой доступ к дорогам, и дети, которым приходится ходить через небезопасные районы, чтобы добраться до общественного транспорта, направляющегося в школу? План разрабатывается, чтобы обеспечить базовый уровень доступа к дороге как можно большему количеству людей.
Принятая особая интерпретация справедливости может зависеть от местной культуры, местного правительства или конкретной группы, которая находится у власти. Независимо от того, проводятся ли анализы людьми или компьютерами, нет идеальных ответов к сложным реальным проблемам. Одним из мотивов использования машинного обучения в международном развитии является надежда на то, что компьютерный алгоритм может быть объективным и беспристрастным. Однако беспристрастность может также означать нечувствительность к нюансам ситуации, историческому неравенству, которое привело к тому, что определенные группы оказались в невыгодном положении, а также потребностям разных людей.
Исчезновение справедливости с распространением технологий
Исследования человеческого поведения показывают, что есть причины для беспокойства. Организации, использующие Машинное обучение, могут потерять из виду влияние решений компьютерных программ на людей. Растущая зависимость в принятии решений от машинного обучения, а не от человека, может способствовать явлению, известному как «этическое увядание», когда отдельные люди или организации приостанавливают свои этические рассуждения и принимают решения на основе финансовых или практических соображений. С увеличением автоматизации влияние на людей становится гораздо менее заметным, а этические последствия решений с большей вероятностью будут упущены из виду.
Еще одна проблема – это вина, возникающая при использовании Машинного обучения и вменяемая исполняющему лицу, которое в конечном итоге не несет ответственности за принятие решения. Ученые ввели термин «зона моральной деформации» для обозначения результатов введенной двусмысленности автоматизации и распределенного управления. Подобно тому, как внутри автомобиля находится шасси, поглощающее энергию столкновения, люди, выполняющие роли разработчиков, несут ответственность, когда что-то идет не так в полуавтоматической системе Машинного обучения. Например, в кредитной программе, которая использует ML для оценки кредитоспособности, кредитный специалист находится в зоне моральной деформации, беря на себя вину за несправедливый отказ.
Зоны этического увядания и моральной деформации могут быть вместе, например, при использовании системы на основе машинного обучения для принятия решений о найме. Предположим, компания внедряет новую систему программного обеспечения, которая оценивает кандидатов. Этическое увядание может стать проблемой, если руководство компании некритически принимает рекомендации системы по найму сотрудников из определенной группы. Кроме того, если компания принимает некачественные решения о приеме на работу, обвиняют не программное обеспечение, а скорее разработчиков. Сотрудник, составивший трудовой договор, также может заставить работодателя пребывать в зоне моральной деформации.
В международном развитии, хотя намерение состоит в том, чтобы помочь сообществам, более широкие цели организации (например, в области экономического или технологического развития), тем не менее, могут отдалиться от отдельных людей, затронутых проблемой, что может вызвать трудности или бедствие как для предполагаемых бенефициаров, так и для людей, которым поручено реализовать программу. Когда происходит упадок этических норм, люди просто не рассматривают этику как сферу своей ответственности, часто полагая, что любые этические соображения должным образом учтены технологией. В зонах моральной деформации ответственность по этическим соображениям неуместно возлагается на субъектов, которые имеют ограниченный контроль над решениями. Как может быть этическое увядание смягчено в контексте роста автоматизации? Как можно избежать зон моральной деформации?
Первый шаг – понять, что автоматизация решений с помощью методов Машинного обучения не обязательно улучшит равенство в кредитовании, жилье, найме, приеме в школу и других решения с потенциальными последствиями для изменения жизни. Напротив, чрезмерная зависимость от ML может закрепить предубеждения, существующие в обществе и выявленные на основе данных обучения, а также дистанцировать лиц, принимающих решения, от тех, на кого они влияют. Ответственность за результаты внедрения Машинного обучения должна быть распределены между разработчиками программного обеспечения, теми, кто собирает и готовит данные, теми кто вводит программное обеспечение в использование, и другими лицами, участвующими в процессе машинного обучения. Первый шаг состоит в том, чтобы признать вызов, который создает эта ситуация.
Автор оригинальной статьи: MIT D-Lab
Фото: @nicopic