Вчені довели, що детектори діпфейків можна обдурити

Університети, організації та технологічні гіганти, такі як Microsoft і Facebook, працюють над інструментами, які можуть виявляти діпфейки, щоб запобігти їхньому використанню для поширення шкідливих медіа та дезінформації. Однак детектори діпфейків все ще можна обдурити. Про це заявила група вчених з Каліфорнійського університету в Сан-Дієго.

На конференції з комп’ютерного зору WACV 2021, яка проходила онлайн в січні, вчені показали, як можна обдурити діпфеки. Для цього необхідно вставляти вхідні дані, які ще називають конкуруючими прикладами (adversarial examples) в кожен відеокадр.

У своїй заяві вчені пояснили, що конкуруючі приклади — це злегка змінені вхідні дані, які можуть призвести до помилок систем ШІ. За їхніми словами, більшість детекторів відстежують обличчя на відео і відправляють його окремі фрагменти в нейронну мережу. Потім система визначає, чи є відео справжнім або підробленим.

Так як же розробникам створювати детектори, які не можна обдурити? Вчені рекомендують використовувати методику, коли «ворожа» нейромережа намагається обдурити детектор, генеруючи все більш якісні діпфейки, а детектор на цих прикладах удосконалює своє вміння виявляти підробки.

Команда UC San Diego відмовилася опублікувати свій код, щоб виключити його зловживання.