Искусственный интеллект Google учится спасать жизни

  • Размер шрифта: Больше Меньше
  • Печатать
  • PDF

Сверхъестественный успех AlphaGo в игре в го был принят многими как конец превосходства человеческого интеллекта, однако исследователь из компании Google Дэвид Сильвер (David Silver) не воспринимает это таким образом. Вместо этого он видит множество потенциальных возможностей.

Как один из ведущих архитекторов разработанной Google DeepMind системы AlphaGo, которая победила чемпиона Южной Кореи Ли Седоля (Lee Se-dol) со счётом 4:1, Сильвер считает, что далее эта технология должна сыграть роль в помощи здоровью человека.

«Мы хотели бы использовать эти технологи, чтобы делать мир лучше». — сказал он аудитории исследователей во вторник на Международной совместной конференции по вопросам искусственного интеллекта в Нью-Йорке (Joint Conference on Artificial Intelligence in New York).


С большим количеством возможных ходов на доске, чем количество атомов во вселенной, го считается в высшей степени сложной задачей для исследователей. Вначале AlphaGo изучал ходы людей-профессионалов, затем сыграл миллионы игр сам. По мнению экспертов, в матче с Седолем его ходы были «творческими», т.е. не полученными строго из учебных материалов.

По словам Сильвера, сейчас DeepMind применяет навыки глубокого обучения AlphaGo в разработке приложений для анализа информации и помощи медперсоналу в заботе о больных.

Ранее в этом году британская компания DeepMind запустила подразделение здравоохранения. В этом месяце оно объявило о исследовательском партнерстве с больницей Moorfields Eye, их разработки будут сосредоточены на применении машинного обучения для работы с диабетической ретинопатией и возрастной макулярной дегенерацией. Так же DeepMind начинает работу над клиническими мобильными приложениями.

Многие из достижений искусственного интеллекта, которые позволили AlphaGo достичь успеха в го, так же могут помочь ему преуспеть в здравоохранении. Вместо того, чтобы найти лучшие ходы через прямой перебор всех вариантов на несколько ходов вперед, как DeepBlue, выигравший у Гарри Каспарова в шахматы, подход AlphaGo основан на сверхточных нейронных сетях и обучении с подкреплением, что позволяет ему учиться и развиваться всё время.

«Конечно, обставить Седоля было интересно, но для меня еще более захватывающим, чем достижение само по себе, была манера, в которой AlphaGo сделал это», — сказал Сильвер. — «он показал, что он может узнать из данных и самостоятельной игры, вынести знания для себя».

«Обучение с подкреплением раньше считалось «прекрасной, но несбыточной мечтой», — комментирует он. — «Теперь складывается такое ощущение, что эти методы работают. Это реальные изменения, наблюдаемые в самых разных областях. Притом никак не связанных с AlphaGo».

 

в разделе: В мире Просмотров: 1302