Это опасно, потому что технологии создания дипфейков, в том числе звуковых, совершенствуются с каждым днем.
В Британии провели эксперимент с участием 500 носителей китайского и английского языков. Часть из них предварительно обучили распознавать голосовые дипфейки (сгенерированный нейросетью голос). Испытуемым ставили 50 аудиозаписей с голосом — часть из них записали живые носители китайского и английского, часть — искусственный интеллект. Участникам исследования предстояло отличить речь ИИ от речи живых людей. Параллельно с людьми аналогичный тест проходила нейросеть, обученная отличать голосовые дипфейки.
Оказалось, что люди, причем носители обоих языков в равной степени, смогли распознать 73-75% дипфейков. То есть часть сгенерированной речи они приняли за живую человеческую. А вот искусственный интеллект распознал всю сгенерированную речь, передает ТАСС.
Ученые пришли к выводу, что необходимо быстрее развивать технологии распознавания фейков. Иначе повышается риск неправомерного использования сгенерированной речи.
Дипфейки бывают разного рода: помимо записи голоса, это также может быть видео или изображение «с участием» реально существующих людей. Добавить сюда голосовой дипфейк — и можно производить ложный контент, дискредитирующий конкретных личностей. Или, наоборот, обеляющий преступников. Также с помощью дипфейков можно заниматься шантажом и вымогательством.