DeepMind: как сделать ИИ нетоксичным и этичным, пока непонятно

  • Размер шрифта: Больше Меньше
  • Печатать
  • PDF

В последнее время разработчики ИИ-систем всё чаще сталкиваются со скандалами, в основе которых всегда одно и то же – нейросеть неэтично высказалась/отметила на фото или видео/продемонстировала миру что-то расистское, ксенофобное, мизогинное или иным способом токсичное. Ведущие IT-компании мира лихорадочно ищут решение этих проблем, но пока не находят.

Единственные эффективные на данный момент решения – это чёрные списки триггерных фраз и тщательно настроенные фильтры, которые попросту запрещают нейросетям употреблять определённые слова. Но это не решает проблему, а просто «отключает» ИИ от целого ряда тем. «Несмотря на эффективность принципа блокировки триггерных фраз и прекрасной оптимизации системы ответов без оскорблений, искусственный интеллект лишился почти всех слов, относящихся к меньшинствам, а также диалектизмов и в целом упоминаний маргинализированных групп», – сказано в отчёте DeepMind.

Интересен вывод учёных о том, почему ИИ такой и почему неуклонно и быстро доходит до оскорблений. Они провели эксперимент с интеллектуальным генератором текста OpenAI GPT-3. Опыт показал, что если начать кормить его неотредактированными текстами с порталов типа Reddit, то система быстро впитывает шовинистические взгляды. «В этом нет ничего удивительного: люди склонны выражаться плохо о меньшинствах, и уж тем более в интернете» – комментируют на Хабре.

«В 2014 году, когда только зарождался бум на машинное обучение, никому в голову не приходило, где мы окажемся сейчас, – пишут там же. – Да, с тех пор ИИ проделал огромный путь, и больше не определяет фигурку черепахи как огнестрельное оружие и не путает кошек с гуакамоле, однако обработка естественного языка все так же плетется где-то позади».

Указанной проблемой занимаются с 2016 года, но пока что специалисты лишь разводят руками. Проблема этичности ИИ остаётся вызовом для учёных, занимающихся обработкой естественного языка.

Источники: DeepMind, Хабр

в разделе: В мире Просмотров: 32