Создан инструмент для защиты голосовых данных от создания дипфейков

Российские исследователи разработали и выложили в открытый доступ алгоритм защиты персональных голосовых данных, позволяющий защищать подкасты, интервью, потоковые трансляции и прочие типы аудиозаписей от несанкционированного сбора биометрии и анализа при помощи ИИ. Об этом сообщила пресс-служба Института искусственного интеллекта AIRI.

“Наша цель – усилить методологию защиты “цифрового следа” людей в публичном пространстве. В первую очередь – их голосовой идентичности. Разработанное решение позволяет свободно делиться аудиоконтентом, значительно снижая вероятность того, что голос станет сырьем для несанкционированного сбора биометрических данных или создания дипфейков” – отметил руководитель Лаборатории безопасного ИИ AIRI-МТУСИ Олег Рогов, чьи слова приводит пресс-служба AIRI.

Как отмечают ученые, сейчас в глобальной сети присутствует огромный набор публично доступных аудиозаписей, которые злоумышленники или недобросовестные компании могут использовать для автоматического сбора голосовых биометрических данных и подготовки на их базе различных дипфейков. Особенно сильно это угрожает публичным лицам и контент-мейкерам, чьи выступления легко можно найти в интернете.

Предыдущая статьяМинпросвещения рассказало о проекте системы оценок поведения в школах