Массовое использование технологий внутрикадрового монтажа видео с помощью нейронных сетей — дипфейков — пока не распространено. На текущий момент, если видео в высоком разрешении, понять, что, это не реальный человек, всё же можно. Об этом заявил «Известиям» 21 мая Сергей Голованов, главный эксперт «Лаборатории Касперского», комментируя сообщения представителя Банка России о рисках при идентификации банковских клиентов по видео.
Вот кто-то в профиль и анфас: могут ли мошенники воспользоваться чужой биометрией
Кому дадут кредит по записи голоса или фотографии
По словам Голованова, сейчас известны лишь отдельные случаи дипфейков, например, когда злоумышленники подделывали голос для реализации своих схем.
В настоящее время, чтобы обнаружить дипфейк, можно, например, вводить дополнительные факторы при идентификации, вплоть до прямого включения по видеосвязи с выполнением определённых действий.
Эксперт добавил, что при идентификации банковских клиентов по видеосвязи есть определенные риски, которые «уже были обозначены регуляторами и другими участниками этой инициативы».
Среди недостатков при идентификации банковских клиентов по видео и по биометрическим данным есть риск ошибок первого и второго рода, но, вводя всё больше факторов, их можно свести к минимуму, заключил специалист.
Он пояснил, что ошибки первого рода — это «когда система решает, что это не тот человек, хотя он самый настоящий», второго рода — когда, «наоборот, решила, что это правильный человек», а на самом деле — нет.
Ранее в пятницу СМИ со ссылкой на отзыв ЦБ на законопроект Ассоциации банков России (АБР), предполагающий наделение банков возможностью удаленно открывать счета новым клиентам для выдачи ипотечных кредитов, сообщили, что использование видеосвязи для удаленного открытия счетов новым банковским клиентам влечет за собой риски, например, подделку паспорта, применение технологии DeepFake (подмена изображения человека) или использование профессионального грима. Схожие риски отмечают Минфин и Росфинмониторинг.
Представитель регулятора отмечал, что сейчас продолжается работа «с заинтересованными участниками рынка по поиску приемлемых решений», позволяющих сделать сервисы видеоидентификации более безопасными, но вердикт Центробанка пока не окончательный.
Источник: