Исследовательский центр искусственного интеллекта

Исследовательский центр искусственного интеллекта (ИЦИИ) занимается исследованиями и разработкой интеллектуальных программных систем — систем, способных осуществлять автономную рациональную деятельность, обучаться и адаптироваться, планировать и прогнозировать, рассуждать и делать выводы, взаимодействовать на естественном языке и осуществлять визуальное восприятие.

В настоящее время центр специализируется на следующих направлениях:

  • анализ и обработка текстов на естественном языке, информационный поиск и структуризация информации,
  • представление знаний и проектирование онтологий,
  • машинное обучение.

ИЦИИ является структурным подразделением Института программных систем им. А.К.Айламазяна. В 1984 году в институте (до 1986 года филиал Института проблем кибернетики АН СССР) была создана лаборатория Проблем представления знаний под руководством Геннадия Семеновича Осипова. Позднее лаборатория была реорганизована в центр.

19 октября в Москве, в офисе компании «Яндекс» пройдет Боткэмп – встреча разработчиков диалоговых продуктов (Алиса, чат-боты). Мероприятие предназначено как для профи, так и для начинающих разработчиков. В первой части мероприятия разработчики Яндекса расскажут про работу над Алисой, про то, как автоматически превращать текст в SQL-запросы и каких ошибок важно избегать при работе над ботом. Вторая часть Боткэмпа будет практической работой над голосовым приложением. Команды участников будут создавать новые диалоговые продукты или улучшать уже существующие, в процессе консультируясь друг с другом и с приглашенными экспертами. В финале каждая команда проведет презентацию своего продукта и расскажет о его технических особенностях.
Transformers 2.0 – это библиотека со всеми state-of-the-art моделями для предобработки естественного языка на TensorFlow. Разработчиками библиотеки являются исследователи из компании HuggingFace. Библиотека содержит архитектуры для задач Natural Language Understanding и Natural Language Generation. Всего в библиотеке более 32 предобученных моделей для более чем ста языков. Ключевой характеристикой Transformers 2.0 является возможность делиться обученными моделями между разработчиками. Помимо этого, есть возможность конвертации модели из одного фреймворка в другой. Затраты на написание кода для обучения модели значительно сокращаются – с библиотекой процедура обучения модели может быть описана 3 строчками.
Учёные из Маастрихтского университета в Нидерландах создали систему генерации логотипов. Новая нейронная сеть создана на базе уже представленной ими год назад системе для создания логотипов — LoGAN. LoGAN умеет создавать логотипы в разрешении 32 на 32 пикселя и ограниченной цветовой гамме. Новая же модель создает логотипы в полном цвете и с хорошей детализацией. В основе программы лежит генеративная состязательная сеть (Generative adversarial network — GAN). Этот тип нейросетей состоит из двух компонентов: генераторов, которые создают образцы на основе ранее изученной выборки данных, и дискриминаторов, которые пытаются отличить их от аналогов из реального мира или просто вынести вердикт, убедителен результат работы генератора или нет.