Исследовательский центр искусственного интеллекта

Исследовательский центр искусственного интеллекта (ИЦИИ) занимается исследованиями и разработкой интеллектуальных программных систем — систем, способных осуществлять автономную рациональную деятельность, обучаться и адаптироваться, планировать и прогнозировать, рассуждать и делать выводы, взаимодействовать на естественном языке и осуществлять визуальное восприятие.

В настоящее время центр специализируется на следующих направлениях:

  • анализ и обработка текстов на естественном языке, информационный поиск и структуризация информации,
  • представление знаний и проектирование онтологий,
  • машинное обучение.

ИЦИИ является структурным подразделением Института программных систем им. А.К.Айламазяна. Дата основания центра — 4 сентября 1984 года; тогда была создана лаборатория Системного и проблемного ориентировочного математического обеспечения под руководством Геннадия Семеновича Осипова. Позднее лаборатория была реорганизована в центр.

«То, что люди склонны к субъективным оценками и при этом одновременно щедры, дает им определенные эволюционные преимущества» – пишет журнал «Scientific Reports».

У нас есть возможность оценивать друг друга благодаря, в частности, нашему большому мозгу.

В опубликованном на днях исследовании рассмотрена связь между социальным сравнением и щедростью. Испытуемым предложили модель взаимодействия, в которой они должны были делать «пожертвования» друг другу, основываясь на репутации – своей и других игроков. Авторы исследования обнаружили, что люди более склонны жертвовать людям с репутацией такой же, как у них, или лучше. И заметно чаще будут жертвовать тому, кто сам отличается щедростью, чем тому, кто демонстрирует свою скупость.

«Щедрость, которая в этой модели стала двигателем сотрудничества, оказалась заразной: пожертвования одних подстегивали щедрость других» − пишут учёные. Это игра на наших инстинктах выживания: «Я почешу спину тебе, ты – мне».
Распознавание лиц уже создает серьезные проблемы для защитников частной жизни. Оно используется всеми: от правоохранительных органов до церквей. Угроза частной жизни из-за системы распознавания лиц вполне реальна, и далее ее степень будет нарастать.

Способность идентифицировать человека по его фото даёт серьёзное оружие в руки власть предержащих и усиливает дисбаланс между ними и обычными гражданами. Способность идентифицировать тех, чьи лица размыты или иным образом скрыты, убивает этот баланс полностью. И такие разработки, как «Система распознавания закрытых лиц» («Faceless Recognition System», FRS), этому способствуют.

FRS разработана учёными из Института Макса Планка, Саарбрюккен, Германия. Идея состоит в том, чтобы создать инструмент идентификации лиц по неполным изображениям: частично размытым  или другими способами скрытым. Перед использованием система обучает нейронную сеть на множестве фотографий, содержащих как размытые, так и не размытые изображения, после чего сеть овладевает навыком сопоставлять лица с очертаниями тела.
Всем нам знаком внутренний голос, говорящий «может, не стоит прыгать с этой скалы?» или «да ладно, ты же не выпьешь целый галлон молока!» Этот внутренний голос – наша неуверенность в себе, и порой он просто необходим для выживания. У роботов такого «внутреннего голоса» нет – что продемонстрировали, например, состязания роботов DARPA. Однако без него роботы в реальной жизни практически бесполезны: нам не нужен робот, который топчется на месте в темноте или пытается пройти сквозь стены. В своей новой работе учёные из Университета Карнеги – Меллон (Carnegie Mellon University, CMU) пытаются научить робота интроспекции, то есть чувству неуверенности в себе. Способность просчитывать возможные неудачи сделает роботов более точными и безопасными. В основе расчета этой вероятности – вероятности неудачи – лежит способность предсказывать. Мы, люди, легко предсказываем последствия, просто представляя себе все, что в процессе может пойти не так. Дрон же сможет «предсказывать» только при помощи алгоритма, который, опираясь на данные видеокамеры, будет просчитывать, врежется дрон в приближающееся препятствие или нет.