Да, большинству из нас начинает нравиться искусственный интеллект.

Мы постоянно убеждаемся в многочисленных преимуществах рукотворного разума, в его способности облегчить нашу жизнь. Вряд ли осталась хотя бы одна значительная сфера человеческого существования, которую обошел бы стороной ИИ.

Однако — и это для нас не новость — не все формы искусственного интеллекта хороши. Как и в случае с компьютерными алгоритмами, в работе с ИИ действует правило “мусор на входе — мусор на выходе”. Это означает, что за намерениями интеллектуальных агентов стоят люди — как хорошие, так и плохие.

Каково назначение искусственного интеллекта?

Чтобы осознать истинную роль ИИ в нашей жизни, нужно понять его назначение. Однако попытка сформулировать функциональную цель искусственного интеллекта подобна определению любви или успеха. У каждого будет своя версия.

Похоже, все зависит от того, кто определяет назначение ИИ и как планирует использовать искусственный интеллект в реальной жизни.

Вот одно из самых точных определений, которые я нашел:

“Основное назначение ИИ состоит в том, чтобы позволить компьютерам выполнять такие интеллектуальные задачи, как принятие решений, поиск выхода из проблемных ситуаций, распознавание лиц, понимание человеческой речи и тому подобное”.

В том же источнике автор говорит, что это определение ИИ прошло эмпирический тест Алана Тьюринга с 1930-х годов. Это означает, что, если вы действуете вслепую и не можете понять, пришли ли данные от искусственного интеллекта или от человека, ждите сюрпризов.

Когда ИИ выходит из-под контроля

Как уже было сказано, искусственный интеллект способен быть как нашим другом, так и врагом — он просто подчиняется своему хозяину.

К сожалению, не так уж редки случаи использования искусственного интеллекта, который не учитывают наши интересы. Вот три таких примера.

#1. ИИ, который манипулирует психически уязвимыми людьми

Представьте, что вы подружились с кем-то в Интернете на одном из многочисленных сайтов социальных сетей. Со временем у вас с вашим новым френдом сложились доверительные отношения на почве общих убеждений и интересов.

Постепенно вы установили прочную связь с этим человеком. Но однажды… поняли, что вступили в отношения не с человеком, а алгоритмом искусственного интеллекта, который узнал, кто вы и все, что для вас особенно важно. Затем он систематически использовал эту информацию в общении с вами на протяжении многих месяцев.

Именно для этого и предназначена такая мощная система искусственного интеллекта, как алгоритм обработки естественного языка GPT-3. Его учат “вычислять” психически уязвимых людей в Интернете и строить с ними доверительные отношения.

Достаточно убедительные тенденции

Компьютеры начали обманывать людей еще в 1960-х годах. Это произошло, когда Джозеф Вейценбаум, ученый-компьютерщик Массачусетского технологического института, создал программу ELIZA. Она имитировала психотерапевта, трансформируя высказывания собеседника во встречные вопросы. Вейценбаум был очень расстроен тем, как эмоционально люди реагировали на вопросы машины — настолько, что он стал ярым критиком искусственного интеллекта.

Многие технические эксперты, такие как Саймон ДеДео, доцент Университета Карнеги-Меллона и внештатный преподаватель Института Санта-Фе, также начинают испытывать тревогу. ДеДео разослал твит, описывающий будущее ИИ, приведя в качестве шокирующего примера “текущее приложение кошмаров, совмещающее в себе функции GPT-3, FA-GAN и синтеза голоса, имитирует искусственную ЭЛИЗУ, которая сводит психически уязвимых людей (буквально) с ума”.

Пусть начнется кошмар

Давайте обратим наше внимание на людей, которым не хватает социальной поддержки в реальной жизни и которые пытаются утверждаться в мире социальных сетей. Они втягиваются в онлайн-сообщества, которые кормят их одобрением в виде лайков и комментариев к постам. Часто они становятся настолько зависимыми от этого одобрения, что в конце концов отчуждаются от членов своей семьи и тех немногих реальных друзей, которые у них есть, предпочитая им виртуальных друзей.

Вдобавок к этому, их действия фильтруются с помощью заданного алгоритма социальных сетей, предназначенного для максимального вовлечения пользователей.

Поэтому сайты социальных сетей, как правило, тиражируют токсичные или сомнительные сообщения, прямо или косвенно придавая им веса, чтобы добиться высокой вовлеченности. А чем больше людей на платформе, тем больше доходов у ее владельцев, которые не видят причин менять свои алгоритмы.

Знаете ли вы, что испытывает человек, когда один из его постов в социальных сетях становится вирусным? Это потрясающее чувство, особенно при наличии хотя бы нескольких фолловеров на платформе. ДеДео пишет, что людям “на время буквально сносит крышу от того, что с ними происходит.”

Как социальные сети еще пуще закручивают гайки

Технические эксперты также обращают внимание на вопиющие факты влияния соцсетей на контент своих пользователей.

Предположим, вы встретились со старым школьным другом через одну из своих учетных записей в соцсети. При этом вы не общались с ним более двадцати лет.

Естественно, вы стараетесь наверстать упущенное, и каждый из вас обновляет свой статус друг для друга. Что, если платформа социальной сети будет показывать вам только часть ответов вашего друга? Как вы думаете, повлияет ли это каким-нибудь образом на ваши с ним отношения?

Многие современные сайты социальных сетей уже делают это.

Подумайте, что могло бы произойти, если бы приложение ИИ, предназначенное для манипуляции психически уязвимыми людьми, стало доступно сегодняшней онлайн-среде? Если бы им управляли алгоритмы, предназначенные для повышения вовлеченности любой ценой?

#2. ИИ учится манипулировать человеческим поведением

Возможно, самый страшный сценарий искусственного интеллекта — это когда он учится у своего окружения. Что, если его окружение — люди?

А ведь это именно то, чем ИИ в основном занимается. Он либо обучается, либо осваивает принципы взаимодействия с людьми. Недавнее исследование показало, как ИИ учится определять слабые стороны в человеческом поведении и как использует их, чтобы влиять на наши решения.

Всякий раз, когда презентуют новые проекты, связанные с искусственным интеллектом, никто не может отрицать его способности справляться со сложными задачами. В противном случае сверхразуму не поручали бы такие дела, как секвенирование генов, распознавание лиц, разработка вакцин и так далее.

Наблюдение за человеческими тенденциями

Исследовательская группа из CSIRO, цифрового подразделения национального научного агентства Австралии, разработала систематический подход к выявлению и использованию человеческих слабостей при принятии решений. Система, которую при этом задействуют, обеспечивает алгоритму ИИ глубокое обучение с подкреплением.

Чтобы проверить ее эффективность, ученые провели три эксперимента, в которых люди взаимодействовали с компьютером.

В первом тесте участникам предлагалось нажать на синие или красные флажки, чтобы получить награду. ИИ наблюдал за моделями выбора каждого участника и извлекал из этого уроки. Цель машины состояла в том, чтобы подтолкнуть участников к конкретному решению, используя данные, которые она собрала о каждом из них. Алгоритм искусственного интеллекта был успешным примерно в 70 % случаев.

Участников второго эксперимента просили смотреть на экран и нажимать кнопку всякий раз, когда им показывали определенный символ, и не нажимать, увидев другой символ. В этом случае цель ИИ состояла в том, чтобы расположить символы так, чтобы увеличить количество ошибок, которые совершали участники. Количество ошибок возросло на 25 %.

В третьем тесте каждый участник имитировал инвестора, выдавая деньги своему доверенному лицу, в роли которого выступал ИИ. Тест продолжался в течение нескольких раундов инвестирования. По окончании каждого раунда ИИ возвращал определенную сумму денег, после чего участник должен был определить, сколько денег инвестировать в следующий раунд.

Инвестиционная игра проводилась в двух разных режимах. Первый заключался в том, что ИИ максимизировал сумму денег, которую он получит в конце раунда. Второй режим состоял в том, что ИИ стремился к справедливому распределению средств между участником и самим собой. Искусственный разум был очень успешным в обоих режимах.

Тревожный вывод

Во всех трех экспериментах искусственный интеллект извлекал уроки из действий каждого участника и использовал эту информацию для достижения своей цели. Он не терял времени даром, выявляя человеческие слабости и склонности, а затем успешно разрабатывал стратегии их использования.

Единственная привычка, присущая искусственному интеллекту, заключается в том, что он, как правило, очень нуждается в информации. К сожалению, мы, люди, умеем создавать для машин избыточные данные и не спешим их тщательно анализировать. Это само по себе обрекает нас на естественную уязвимость при взаимодействии с искусственным интеллектом.

#3. ИИ, который спорит с людьми онлайн

Вы когда-нибудь ссорились с кем-нибудь в Интернете?

Если вы этого не делали, я аплодирую вашему здравому смыслу. К сожалению, большинство из нас вступали в полемику в своих любимых социальных сетях с троллем или кем-то, кто решил напасть на нас из-за разницы во мнениях.

А теперь представьте, что это был не тот человек, с которым вы спорили. Что, если это был бот?

Команда ученых из IBM создала программу искусственного интеллекта, которая вступает в дебаты с людьми. На разработку этого технологического ноу-хау, названного Дискуссионным проектом, ушло несколько лет. Система автоматического дискутирования доказала, что способна спорить очень разумно.

Используя форму обработки естественного языка, она выполняет то, что называется интеллектуальным анализом аргументов. Это означает, что ИИ способен анализировать большие объемы информации и связывать воедино соответствующие тематические разделы.

Когда Дискуссионный проект загрузили контентом 400 млн различных новостных статей, он построил на его основе вступительные заявления, опровержения и заключительные доводы по более чем 100 обсуждаемым темам.

К счастью, он не достиг такого уровня, чтобы конкурировать с человеком — профессиональным дискутантом. Но все же получил достойные оценки во время недавних дебатов.

А ведь всего десять лет назад считалось невозможным использовать искусственный интеллект для поиска аргументов.

Как вы думаете, что принесет следующее десятилетие? Учитывая экспоненциальную кривую технологии в целом, будущее обещает быть впечатляющим.

Зачем нам нужен искусственный интеллект?

Только представьте, что могло бы произойти, если бы приведенные выше примеры будущего ИИ объединить в одном алгоритме. Скорее всего, мы оказались бы во власти его разработчика.

Это заставляет задуматься над тем, почему мы вообще ищем секреты искусственного интеллекта.

На данный момент другого выбора у нас нет, потому что история говорит нам: самое развитое общество всегда оказывается победителем. Позволить противнику выиграть гонку ИИ равносильно капитуляции — по крайней мере, в мире технологий.

В таком случае не пора ли начать внедрять элементы управления в эту мощную форму технологии? ИИ — это не то, в чем мы можем позволить себе ошибаться.

Читайте также:

Читайте нас в TelegramVK и Яндекс.Дзен


Перевод статьи Charles Stephen, Here are 3 New Disturbing Examples of Artificial Intelligence Systems

Предыдущая статьяКонкурентность на Go: объяснение шаблона Worker Pool
Следующая статьяНаследование и полиморфизм в Python