Ученые разработали инструмент для разоблачения дипфейков

Все материалы на данном сайте взяты из открытых источников — имеют обратную ссылку на материал в интернете или присланы посетителями сайта и предоставляются исключительно в ознакомительных целях. Права на материалы принадлежат их владельцам. Администрация не несет ответственности за содержание материалов предоставленных партнерами. Если Вы обнаружили на нашем сайте материалы, которые нарушают авторские права, принадлежащие Вам, Вашей компании или организации, пожалуйста, сообщите нам.

Исследователи из Университета Баффало разработали инструмент на основе искусственного интеллекта, который по отражению света в роговице глаза способен распознать дипфейк-фотографию. Ученым удалось добиться точности в 94%, пишет The Next Web со ссылкой на результаты работы.

Они обнаружили, что на реальных фотографиях людей отражения в роговицах, как правило, идентичны. Но дипфейк-изображения, синтезированные с помощью GAN, зачастую не могут передать это сходство.

Разница отражения света в роговице глаза человека на настоящей и сгенерированной фотографии. Данные: исследование группы ученых Университета Баффало.

Алгоритм ученых позволяет находить эти несоответствия, анализируя свет, отраженный в каждом глазном яблоке. Он генерирует оценку, которая служит метрикой сходства. Чем меньше балл, тем больше вероятность, что лицо на фотографии создала нейросеть.

Оценка степени сходства отражений в каждом глазном яблоке. Данные: исследование группы ученых Университета Баффало.

Система оказалась эффективной при обнаружении поддельных фотографий, взятых из This Person Does Not Exist – репозитория изображений, созданных с помощью архитектуры StyleGAN2. Однако авторы исследования признают, что у нее есть несколько ограничений.

Алгоритм распознавания подделок использует источник света, отраженный обоими глазами. Это несоответствие можно исправить с помощью ручной постобработки фотографии, а метод не сработает, если один глаз не виден на изображении.

Ученые также отметили, что их алгоритм эффективен только для портретных фото. Если лицо на картинке не смотрит в камеру, система, скорее всего, выдаст ложные срабатывания.

Исследователи планируют изучить эти проблемы, чтобы повысить эффективность метода.

Напомним, ранее в США задержали женщину за распространение дипфейк-видео девушек-подростков. Таким образом она хотела скомпрометировать соперниц своей дочери в группе черлидинга.

В декабре прошлого года британский телеканал Channel 4 выпустил дипфейк королевы Елизаветы II в качестве альтернативного рождественского поздравление.

Источник: forklog.com

Это также будет Вам интересно:
Популярные темы часа: cryptowiki.ruNEOнейросетьНовости

Источник

iMag.one - Самые важные новости достойные вашего внимания из более чем 300 изданий!