О вреде искусственного интеллекта: актуальные опасения и что с ними делать

  • Размер шрифта: Больше Меньше
  • Печатать
  • PDF

Кассиры просили о достаточно простой вещи: удалить отслеживающее их действия оборудование, установленное в кассовых терминалах. Иначе они отказывались выходить на работу. Оборудование, следящее за их передвижениями и оценивающая скорость и эффективность работников, было установлена без их ведома. По мнению кассиров, это вмешательство в их частную жизнь.

Звучит как новость из современности. Но на самом деле всё это случилось почти 40 лет назад в крупной сети супермаркетов в Дании. Кассиры в этой истории выглядят этакими луддитами, противниками прогресса и технологий, у них были те же самые причины для беспокойства. Кассиры были обеспокоены способом, по которому новые технологии используются работодателями. Новые технологии могут не только привести к потере рабочих мест, но могут также причинить ущерб самой работе.

Уолтер Рейтер (Walter Reuther), бывший президентом Профсоюза работников автомобильной промышленности (United Automobile Workers) с 1946 по 1970, поднимал подобные вопросы о влиянии машин, автоматизирующих процессы и принимающих решения, на работу для людей, когда он появился перед Конгрессом США в 1955 – за 20 лет до датской забастовки кассиров. «Мы полагаем, что должны посмотреть на эту проблему реалистично, со всей честностью и храбростью», − сказал Рейтер Комитету Конгресса: «Когда Вы говорите, что есть проблема − это не означает, что вы настроены против автоматизации. Это просто означает, что вы стараетесь предугадать появление проблем и подготовиться к ним заранее».


Поскольку мы сталкиваемся с подобными вопросами вокруг искусственного интеллекта, мы должны различать страх перед новыми технологиями и озабоченность по поводу их последствий. Последнее играет важную роль в продвижении правильных разговоров, чтобы гарантировать, что новые технологии развернуты этически и ответственно.

Появляющиеся технологии искусственного интеллекта дарят нам много возможностей для улучшений, для того, чтобы производить еще более качественные продукты и услуги еще более эффективными способами, и делать вещи, которые были попросту недоступны ранее. Если мы не признаем и не принимаем во внимание обоснованную озабоченность людей, мы рискуем потерять потенциальные выгоды этих технологий под горой страхов и негатива. В результате мы можем потерять общественное доверие.
Это запросто может случиться. В США использовалась система оценки криминальных рисков на основе прогнозной аналитики, которая была предвзята к темнокожей части населения. А по свежим оценкам даже новая охранная прогнозирующая система Чикаго не помогает уменьшить количество убийств, хотя была разработана для этого.

У нас должен быть зрелый, информированный и содержательный разговор о будущем автоматизации и потенциальном воздействии новых технологий. В защиту такого диалога Рейтер выступал перед Конгрессом еще в 1955. Он обратился к представителям промышленности, сельского хозяйства, а также к правительству с просьбой сотрудничать с целью разработки «принципов экономической и социальной деятельности, которые обеспечат этичное использование этой новой силы по отношению к экономике, обществу и общественной морали».

Машины работают вместо человека уже много веков, и все это время люди продолжают обсуждать проблему и думать, что делать. Все же эти страхи продолжают повторяться. Даже те поколения, которые видят, сколько раз эти страхи уже возникали в прошлом, не могут сопротивляться подобным предсказаниям в духе Судного Дня – о массовой безработице или грядущей ненужности человеческого труда.
Одна из причин этого – то, что каждое новое поколение полагает, что противостоит фундаментальным техническим достижениям, которые превосходят те, с которыми имело дело любое другое поколение. Каждому новому поколению удается убедить себя, что именно они живут во времена, когда исключение наконец доказывает правило. ИИ сейчас отлично подходит на роль такого исключения, так как он успешно решает множество когнитивных задач и задач принятия решений. И даже если ИИ таким фундаментальным исключением назвать нельзя, он все равно окажет глубокое влияние на общество.

На самом деле, он уже оказывает. Поскольку ИИ находит свой путь во все профессиональные области, автоматизируя существующие или добавляя новые рабочие места, он уже оказывает принципиальнее влияние на нашу жизнь, от интернет-рекламы до кредитных рейтингов или сотрудничества между Google DeepMind и Государственной службой здравоохранения (NHS) (https://www.theguardian.com/technology/2016/feb/24/smartphone-apps-google-deepmind-nhs-hospitals ).
А значит, пора поднять разговор о последствиях этих новых технологий, прежде чем беспокойство и страх захватят наши умы. Трезвый взгляд в будущее, обоснованные предсказания о вещах, навыки работы с которыми могут пригодиться в дальнейшем, помогут нам подготовить следующее поколение. Это лучшее, что мы сможем сделать для любого будущего.

Хотя на данный момент не существует четкого законодательного регулирования вопросов, связанных с ИИ, тем не менее, некоторые шаги в этом направлении уже делаются : британское правительство и HP работают над созданием этических норм использования данных и искусственного интеллекта. Хорошее начало для развития законодательной базы и поддержания доверия общества. Но необходимо, чтобы такие вещи разрабатывались во всех странах.
Возможно, пригодились бы какие-то специальные комиссии по искусственному интеллекту. Такие госструктуры могли бы поддерживать диалог с общественностью и снабжать людей адекватной информацией. Это сделало бы разработку новых поколений алгоритмов, инструментов обучения машин и использования больших данных более этичной, и гарантировало бы, что интересы будущих поколений граждан учитываются.

«Мы должны предвидеть проблемы завтрашнего дня», − сказал Рейтер в 1955г. − «Залог будущей уверенности в том, чтобы не поддаваться беспечности сейчас».

в разделе: В мире Просмотров: 1068