С развитием ИИ развивается и его преступный потенциал

  • Размер шрифта: Больше Меньше
  • Печатать
  • PDF

Представьте, что вам позвонила ваша уже не молодая мама, которой нужна помощь, потому что она забыла пин-код от своей банковской карты.

Вот только это не ваша мама. Голос на другом конце провода просто обманчиво похож.

На самом деле, этот голос синтезируется программой на основе ИИ, созданной для того, чтобы можно было притвориться другим человеком во время телефонного звонка.

Такие ситуации всё ещё фантастичны, но уже скоро станут реальностью. И это будущее преступлений.

Программные компоненты, необходимые для того, чтобы сделать такую технологию маскирования широко доступной, быстро развиваются. Например, DeepMind, дочерняя компания Alphabet, разработавшая программу, превзошедшую лучших игроков в настольной игре го, объявила, что в её новом проекте ИИ «подражает любому человеческому голосу, и его речь кажется более естественной, чем речь лучших систем озвучивания текста. Его голос стал на 50% ближе к голосу живого человека».

Ирония в том, что как раз в этом году индустрия компьютерной безопасности, с годовым доходом в $ 75 млрд, начала обсуждать, как машинное обучение и методы распознавания образов могут улучшить прискорбное состояние компьютерной безопасности.

Но есть и обратная сторона.


«На деле люди не осознают, что киберпреступность становится автоматизированной и увеличивает масштабы охвата в геометрической прогрессии», − Сказал Марк Гудмэн (Marc Goodman), консультант правоохранительных органов и автор книги «Future Crimes». Он добавил: «Это уже не история о Мэттью Бродерике, который взламывал компьютеры из своего подвала» − ссылается он на фильм 1983 года «Военные игры».

Тревогу по поводу злоумышленного использования усовершенствованных технологий искусственного интеллекта поднял ранее в этом году Джеймс Р. Клэппер (James R. Clapper), директор национальной разведки. В ежегодном обзоре безопасности Клэппер подчеркнул мысль, что, в то время как системы ИИ упрощают разную работу, они также увеличивают количество слабых мест виртуального мира.

Растущую изощренность компьютерных преступников можно заметить по эволюции инструментов атаки. Это хорошо демонстрирует широко используемая вредоносная программа Blackshades (https://en.wikipedia.org/wiki/Blackshades), по словам Гудмэна. Автор программы, шведский гражданин, был осужден в прошлом году в США.

Система, которая широко продаётся в компьютерном подполье, по сути представляет собой «преступную франшизу в коробке», говорит Гудмэн. Она позволяет пользователям без технических навыков развертывать компьютерную программу-вымогатель, подсматривать видео или подслушивать аудио одним щелчком мыши.

Следующее поколение этих инструментов добавит возможности машинного обучения, которые впервые были введены исследователями искусственного интеллекта для того, чтобы улучшить качество машинного зрения, речевого понимания, речевого синтеза и понимания естественного языка. Некоторые исследователи компьютерной безопасности полагают, что цифровые преступники экспериментировали с использованием технологий искусственного интеллекта больше половины десятилетия.

Это видно по тому, как они пытаются справиться с вездесущей Капчей (Captcha, от Completely Automated Public Turing test to tell Humans from Computers Apart − «Полностью Автоматизированный Общедоступный Тест Тьюринга для компьютеров и людей», контрольный номер или изображение для защиты от ботов и спама) , изобретенной в 2003 исследователями Университета Карнеги-Меллон для блокировки попыток кражи автоматизированными программами с онлайн-счетов.

«И «светлая сторона», исследователи искусственного интеллекта, и преступники «тёмной стороны» разрабатывали ПО машинного зрения, чтобы обходить Капчи, больше половины десятилетия», − сказал Стефан Савадж (Stefan Savage), исследователь компьютерной безопасности в Калифорнийском университете в Сан-Диего. Он утверждает, что еще пара лет – и Капча будет побеждена.

Удивительно, но разработку вредоносного ИИ замедлила доступность дешёвого или бесплатного человеческого труда. Некоторые киберпреступники отдавали Капчу на аутсорс» целой армии людей, которые за мизерное вознаграждение «решали» её в большом количестве.

Еще более изобретательные компьютерные мошенники использовали порнографию в качестве награды за решение человеком нужной Капчи, сказал Гудмэн. Бесплатный труд − товар, с которым программное обеспечение ИИ в ближайшее время не сможет конкурировать.

Итак, что дальше?

Преступники, для начала, могут паразитировать на новых технологических разработках. Технология распознавания речи как у виртуальных помощников в смартфонах Siri Apple и Cortana Microsoft теперь используется экстенсивно, чтобы взаимодействовать с компьютерами. И Amazon’s Echo, управляемый речью динамик, и мессенджер Facebook, платформа чат-бота, быстро становятся проводниками для онлайновой коммерции и поддержки клиентов. Как это часто бывает, каждый раз, когда продвижение связи вроде распознавания речи становится господствующей тенденцией, преступники быстро начинают использовать новшества в своих целях.

«Я утверждал бы, что компании, которые предлагают поддержку клиентов через чат-ботов, невольно становятся ответственными за психологическую атаку», − сказал Брайан Кребс (Brian Krebs), проводящий расследование журналист, который публикуется на krebsonsecurity.com.
Психологическую атаку, которая относится к практике манипулирования людьми для выполнения действий или разглашения информации, часто рассматривается как слабое звено в цепи компьютерной безопасности. Киберпреступники уже эксплуатируют лучшие качества в людях − доверие и готовность помочь другим − чтобы воровать и шпионить. Способность с помощью искусственного интеллекта создавать аватары, которые могут одурачить людей онлайн, только усугубит проблему.

Примеры этого уже давали региональные правительства и политические кампании, активно использующие чат-ботов для политической пропаганды.

Исследователи ввели термин «компьютерная пропаганда», чтобы описать быстрый рост обманчивых средств для социальных кампаний на таких площадках, как Facebook и Твиттер.

В недавней научно-исследовательской работе Филип Н. Говард (Philip N. Howard), социолог из Оксфордского института Интернета (Oxford Internet Institute), Бенс Коллэний (Bence Kollanyi), исследователь из Университета Корвина в Будапеште, описали, как политический чат-бот сыграл «небольшую, но стратегически важную роль» в формировании восприятия в сети во время подготовительного периода к референдуму «Брексит».

Только вопрос времени, когда такое ПО будут использовать преступники.

«Очень трудно спроектировать нападение в виде психологических атак, но насколько я знаю, никто еще не начал использовать машинное обучение для выявления простофиль», − сказал Марк Сейден, независимый специалист по компьютерной безопасности. Он сделал паузу и добавил: «Надо признаться, Дэйв, мне жаль, но я не могу ответить на этот вопрос прямо сейчас».

Источник: The New York Times

Â

в разделе: В мире Просмотров: 772