Работой был я изнурен, погряз в больших объемах данных, и голос сверху мне изрек, чтоб никогда не забывал я: “С большими данными приходит большая ответственность”.

Это был никто иной, как Призрак Интернета Будущего (и да, он существует). Он предупреждал о колоссальных этических проблемах, с которыми в настоящее время пытается разобраться стремительно развивающийся мир науки о данных. Подобно Человеку-пауку, но только вместо паутины с данными на кончиках пальцев, мы наделены огромной силой и, как следствие, огромной ответственностью. 

Наука о данных, появившаяся всего 20 лет назад, сегодня является секретным ингредиентом многих успешных организаций. Она произвела переворот в промышленности, активизировала научно-технический прогресс и даже помогла решить ряд самых актуальных мировых проблем. Но у этих значительных успехов есть оборотная сторона, о которой редко кто говорит: этические дилеммы. Речь идет не о заурядных дилеммах типа “съесть или не съесть третий кусок пиццы”. Имеются в виду глубокие, сложные вопросы, которые влекут за собой обширные последствия для общества, сферы личной жизни и равноправия. 

Рассмотрим 3 этические проблемы в науке о данных, которые могли выпасть из фокуса вашего внимания. 

1. Алгоритмический пирог с начинкой из предвзятости 

Сьюзен работает специалистом по данным в ведущей технологической компании. Она разработала алгоритм ИИ для одобрения кредитов, который был эффективным, точным и молниеносным. Однако после нескольких месяцев применения алгоритма выяснилось, что он несоразмерно чаще отклонял заявки на получение кредита от представителей определенных этнических групп. Была ли Сьюзен предвзята? Нет. Она просто использовала существующие данные об одобрении кредита, который, к сожалению, отражал социальные предубеждения. Это непреднамеренное действие привело к алгоритмической дискриминации  —  к скрытой этической мине в науке о данных. 

Как решить эту проблему? Путь к беспристрастному ИИ скользкий, но проходимый. Специалисты должны тщательно изучать свои датасеты и сознательно корректировать алгоритмы для устранения предвзятых результатов. Этот процесс подразумевает принятие сложных решений о компромиссе между справедливостью и точностью. А что еще важнее, он приводит к пониманию, что выбор таких решений  —  это привилегия, не допускающая легкомысленного отношения. 

2. Вторжение в личную жизнь или информационная свобода? 

Вы только что поговорили о продукте, и вдруг в браузере всплывает его реклама. Добро пожаловать в темный мир конфиденциальности данных. Каждый клик мыши, движение пальца по экрану или голосовая команда оставляют цифровые “хлебные крошки”: данные, агрегирование которых может вскрыть все интимные подробности вашей жизни. 

Возникает парадокс: те же самые данные позволяют компаниям персонализировать пользовательский опыт, принимать обоснованные решения и зачастую предоставляют бесплатные услуги. Тем не менее существует скользкая грань между персонализацией и всепроникающей слежкой. 

Для решения этой сложной этической ситуации необходимо создать архитектуру данных, обеспечивающую анонимность и безопасность пользовательских данных. Мы должны придумать новый цифровой социальный контракт, который вернет контроль над персональными данными в руки пользователей. 

3. Иллюзия объективности 

Данные не лгут, но определенно могут ввести в заблуждение. При выборочном подходе статистика может подтвердить практически любой нарратив. Специалистов по данным манит возможность использовать “объективность” своей области знаний, чтобы заставить умолкнуть критиков или закрепить решения.  

Возьмем к примеру Брайна, специалиста по планировке и застройке городов, который использует науку о данных для оптимизации общественного транспорта. Он мог бы манипулировать данными для подтверждения своих заранее сложившихся представлений о наиболее эффективной стратегии, а мог бы позволить данным привести его к наиболее беспристрастному решению. В этом случае этическая дилемма заключается в том, чтобы не поддаться желанию злоупотребить силой данных в личных или коллективных целях. 

Чтобы не попасть в эту ловушку, специалисты по данным должны строго придерживаться курса на информационную открытость и интеллектуальную честность. Следует помнить, что данные  —  это не единственный критерий истины. Они всего лишь служат инструментом, который при должном использовании освещает путь в будущее. 

Рецепт этического поведения 

  1. Анализируйте датасеты на наличие скрытых предубеждений. 
  2. Разрабатывайте системы, отдающие приоритет конфиденциальности пользователя и контролю над персональными данными. 
  3. Придерживайтесь принципов интеллектуальной честности и информационной открытости в интерпретации данных. 

Балансирование между этими этическими вопросами напоминает партию в 3D-шахматы с высокими ставками, которая разыгрывается на натянутом канате, подвешенном над чаном с мемами и пиццей (оцените юмор от поколения Z). Но будущее науки о данных зависит от нашей способности подходить к решению таких проблем с эмпатией, ответственностью и стремлением к социальному благу. 

Осмыслите все вышесказанное и приступайте к решению этических вопросов на своих рабочих местах! 

Читайте также:

Читайте нас в Telegram, VK и Дзен


Перевод статьи Mark: 3 Ethical Dilemmas in Data Science You’ve Likely Overlooked

Предыдущая статьяВопросы для собеседования iOS — Swift. Часть 1
Следующая статьяМеханизм самовнимания в моделях интерпретации языка