Исследователи разработали узорчатые оправы, которые могут обмануть алгоритмы распознавания лиц, выдавая его за другого человека. Оправа с принтом, разработанная тремя исследователями из Университета Карнеги−Меллон, позволила в 80-ти процентов случаев успешно избежать идентификации системой распознавания лиц на основе машинного обучения.

Используя определённые варианты оправ, белый мужчина смог одурачить алгоритм и выдать себя за актрису Милу Йовович, в то время как женщина из Южной Азии обманывала алгоритм тем, что она мужчина с Ближнего Востока.

Эта разработка порадует тех, кто беспокоится из-за того, что правоохранительные органы все чаще используют технологию распознавания лиц.

Недавнее исследование показало, что базы данных по распознаванию лиц, используемые правоохранительными органами США, содержат изображения 117 миллионов взрослых американцев − это примерно половина взрослого населения США.

Однако для систем безопасности, которые полагаются на распознавание лиц, данная технология, наоборот, создает проблемы.

Узорчатые оправы менее заметны, чем другие девайсы для обмана системы распознавания лиц, такие как маски, которые в любом случае выдают себя отсутствием у пользователя мимики. Существуют и достаточно незаметные устройства вроде Privacy Visor frames, однако их цена достигает 240$.

Оправа, разработанная Университетом Карнеги−Меллон, стоит всего 22 цента, что делает их метод намного более жизнеспособным подходом для крупномасштабной атаки на алгоритм распознавания лиц, способный ниспровергнуть системы аутентификации, которые полагаются на технологию.

Махмуд Шариф (Mahmood Sharif), один из исследователей, рассказал New Scientist, что оправы можно усовершенствовать, стилизовав под обычный черепаховый узор, что сделает их еще менее заметным при обходе технологии.

Исследователи утверждают, что их метод атаки на алгоритмы распознавания лиц важен по двум причинам.

«Во-первых, такие атаки могут быть сильно разрушительны, т.к. они незаметны, по крайней мере, на первый взгляд. Следовательно, они важны для исследования, и требуется изучить методы защиты от них», − аргументируют они.

«Во-вторых, подобные атаки нарушителей, как злонамеренных, так и случайных, заставят их объясняться перед контролирующими систему людьми. Лицо, желающее лишь защитить свою частную жизнь от агрессивного использования распознавания лиц продажниками, будет честно иметь возможность утверждать, что любой провал алгоритма машинного обучения при распознании произошёл из-за ошибки или случайности, а не преднамеренной уловки».

Однако стоит отметить, что система вас будет видеть и в этой оправе, разумеется.

Во время своих исследований учёные имели доступ к открытому коду системы распознавания лиц. Но также исследователи попробовали пробить уязвимости облачной службы распознавания лиц Face++ и утверждают, что это не удалось, несмотря на ограниченный уровень её защиты.

Источник: http://www.zdnet.com/