В последнее время разработчики ИИ-систем всё чаще сталкиваются со скандалами, в основе которых всегда одно и то же – нейросеть неэтично высказалась/отметила на фото или видео/продемонстировала миру что-то расистское, ксенофобное, мизогинное или иным способом токсичное. Ведущие IT-компании мира лихорадочно ищут решение этих проблем, но пока не находят.

Единственные эффективные на данный момент решения – это чёрные списки триггерных фраз и тщательно настроенные фильтры, которые попросту запрещают нейросетям употреблять определённые слова. Но это не решает проблему, а просто «отключает» ИИ от целого ряда тем. «Несмотря на эффективность принципа блокировки триггерных фраз и прекрасной оптимизации системы ответов без оскорблений, искусственный интеллект лишился почти всех слов, относящихся к меньшинствам, а также диалектизмов и в целом упоминаний маргинализированных групп», – сказано в отчёте DeepMind.

Читать дальше
ещё