in ,

Этичный ИИ / МЛ: тематические исследования

Существует ряд подходов к XAI (объяснимому искусственному интеллекту), которые стремятся понять факторы, оказавшие наибольшее влияние на принятие решения моделью, осуществляющей классификацию или предсказание в проблемном пространстве.

Один из самых популярных подходов – LIME (locally interpretable model-independent explanation), алгоритм важности признаков, который пытается проанализировать процесс принятия решений ИИ путем создания объяснимых моделей, дающих те же или похожие результаты, что и исследуемый ИИ. Создатели метода описывают его следующим образом. здесь.

Очевидный пример использования этики при применении искусственного интеллекта проявляется в ситуациях, когда машины принимают решения, напрямую влияющие на человека.

Ярким примером здесь может служить выдача кредитов и ипотечных кредитов.

Однако неоднозначность существует везде, в том числе и в экстремальных случаях.

Это связано с тем, что даже в промышленных приложениях ИИ, таких как модели машинного обучения, рассчитывающие оптимальные составы нефтепродуктов, в процессы и результаты заложены человеческие ценности, независимо от того, были ли они привнесены сознательно.

Будет ли ИИ оптимизировать вязкость или эффективность сгорания без учета снижения загрязнения окружающей среды?

Аналогичным образом можно спросить, оптимизируют ли алгоритмы ИИ, используемые для обработки деталей автомобилей, скорость производства, точность и качество, а также безопасность пассажиров.

Как инвалид, я также могу уточнить, признают ли поисковые системы, что людям с проблемами мобильности при использовании поисковых систем требуются иные входы, чем трудоспособным людям.

Помимо приведенных выше примеров, ситуацию, когда влияние неэтичного ИИ на человека очевидно, можно рассмотреть на примере моделей машинного обучения, определяющих пригодность к ипотеке и процентные ставки.

Может ли модель машинного обучения различать?

Очевидно, что модели машинного обучения, использующие расовую принадлежность, пол, сексуальную ориентацию или скрытые недостатки кандидата в качестве исходных данных для принятия решений, скорее всего, будут демонстрировать поведение, которое может быть расценено как несправедливая дискриминация как с юридической, так и с этической точки зрения.

Трудности возникают, когда в моделях машинного обучения для принятия решений используются косвенные признаки этих характеристик.

До широкого распространения машинного обучения, когда банки использовали почтовый индекс заявителя в качестве причины для отказа в кредите, использовался единственный прокси для расы заявителя.

Почтовый индекс становился индикатором расы и использовался для отказа в кредите представителям меньшинств. Эта практика, известная как “редлайнинг”, была запрещена несколько десятилетий назад.

Но как мы можем быть уверены, что все модели машинного обучения, используемые сегодня для определения кредитоспособности и приемлемости ипотеки, знакомы с законами, регулирующими “редлайнинг”? Простого удаления расы и почтового индекса из данных, вводимых в модели, может быть недостаточно.

А как насчет города, в котором живет кандидат, или школы, в которой он учится? Можно ли использовать эти характеристики в моделях машинного обучения для определения расы и пола, особенно в случае со школами?

 

Кроме того, продукты и медиа, которые потребляет кандидат, могут использоваться в качестве индикаторов расы, пола и других характеристик.
Если сеть спортивного вещания планирует свои маркетинговые расходы и полагается на искусственный интеллект для создания аудитории с высокой демографической вероятностью подписки, может ли модель машинного обучения использовать привычки просмотра и трат этой аудитории для продвижения среди мужчин, а не женщин?
Если больше мужчин, чем женщин, покупают определенные платные мероприятия для трансляции, этично ли для модели использовать эти покупки в качестве функции определения демографических характеристик аудитории, на которую она осуществляет маркетинг?
Очевидно, что люди знают больше, чем машины, о том, какие прокси могут быть использованы людьми и машинами для принятия дискриминационных решений в реальном мире.
Как мы можем научить машины не использовать прокси, кроме как явно запретить моделям использовать определенные характеристики или критерии?
Можно ли обучить модели выявлять человеческие предубеждения? Эти вопросы я и мои коллеги изучаем в сотрудничестве с медиакомпаниями, гигантами электронной коммерции и другими организациями, чтобы внедрить ИИ, который снизит негативное влияние принятия решений на основе прокси для защищенных групп и всех остальных.

What do you think?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

GIPHY App Key not set. Please check settings