ИИ можно выявить настоящие лица людей с помощью генераторов фальшивых лиц

Многие лица, созданные сетью GAN, имеют поразительное сходство с реальными людьми и могут разоблачить их личности.

Специалисты из Университета Кан-Нормандии во Франции поставили под сомнение популярную идею о том, что модели глубокого обучения никогда не раскрывают информацию о своих внутренних механизмах работы. На сайте This Person Does Not Exist пользователям демонстрируется человеческое лицо, сгенерированное искусственным интеллектом. Бесконечная последовательность созданных ИИ лиц создается генеративно-состязательной сетью (Generative adversarial network, GAN) на основе реальных данных.

Но такие сгенерированные лица, используемые в фильмах и рекламе с компьютерной графикой, могут быть не такими уникальными, как кажутся. По словам экспертов, многие лица, созданные GAN, имеют поразительное сходство с реальными людьми и могут разоблачить их личности.

Для раскрытия подобных данных эксперты провели так называемую membership-атаку. Например, модель ИИ может точно идентифицировать ранее невидимое изображение. Атакующая модель может научиться обнаруживать такие элементы в поведении первой модели и использовать их для прогнозирования того, находятся ли определенные данные, такие как фотографии, в обучающем наборе или нет.

Читайте также:  Глава МВД Сербии высказался о позиции ЕС по Косову

Подобные атаки могут привести к серьезным утечкам данных. Например, для выяснения, использовались ли чьи-то медицинские данные для обучения модели ИИ, связанной с определенным заболеванием.

Затем команда экспертов вместо определения точных фотографий, используемых для обучения GAN, определила фотографии в обучающем наборе ИИ, которые изображали одного и того же человека. Для этого исследователи сначала сгенерировали лица с помощью GAN, а затем использовали отдельный ИИ для распознавания лиц, сравнивая идентичность сгенерированных лиц с идентичностью любого из лиц, замеченных в данных обучения. Во многих случаях команда находила несколько фотографий реальных людей в данных обучения, которые соответствовали поддельным лицам.

Другая команда ученых обнаружила способ воссоздать входное изображение из внутренних данных модели. Они протестировали эту технику на множестве распространенных моделей распознавания изображений и GAN. В одном из тестов они показали, что могут точно воссоздавать изображения из ImageNet — одного из самых известных наборов данных для распознавания изображений.

 

Не жмись, лайкни!!!

ЧИТАЙТЕ ТАКЖЕ:

Добавить комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены *

Яндекс.Метрика Рейтинг@Mail.ru
Подробнее в Общество
О чём Андрей Богинский не рассказал президенту

Как «Вертолёты России» осваивали бюджет на проекте Ка-62 8 ноября текущего года гендиректор холдинга «Вертолёты России» Андрей Богинский удостоился чести...

Генпрокуратура потребовала ликвидировать правозащитную организацию «Мемориал»*

Генпрокуратура потребовала ликвидировать признанную иноагентом международную правозащитную организацию "Мемориал"*. Организацию обвиняют в систематическом нарушении закона об иностранных агентах. "Мемориал"* продолжает...

Facebook блокирует звук в трансляциях с гимном Украины

Соцсеть Facebook начала блокировать звук в видеозаписях, в которых звучит государственный гимн Украины. Об этом сообщил телеграм-канал «Политика страны». По...

Обещали? Выполняйте! Власти должны индексировать пенсии на размер инфляции

В проекте федерального бюджета заложена индексация пенсии примерно на 6%, тогда как реальная инфляция превысит к концу года 8%. Известный...

Закрыть