Исследование: люди не способны полностью распознать сгенерированную ИИ речь

    0
    42

    Это опасно, потому что технологии создания дипфейков, в том числе звуковых, совершенствуются с каждым днем.

    В Британии провели эксперимент с участием 500 носителей китайского и английского языков. Часть из них предварительно обучили распознавать голосовые дипфейки (сгенерированный нейросетью голос). Испытуемым ставили 50 аудиозаписей с голосом — часть из них записали живые носители китайского и английского, часть — искусственный интеллект. Участникам исследования предстояло отличить речь ИИ от речи живых людей. Параллельно с людьми аналогичный тест проходила нейросеть, обученная отличать голосовые дипфейки.

    Оказалось, что люди, причем носители обоих языков в равной степени, смогли распознать 73-75% дипфейков. То есть часть сгенерированной речи они приняли за живую человеческую. А вот искусственный интеллект распознал всю сгенерированную речь, передает ТАСС.

    Ученые пришли к выводу, что необходимо быстрее развивать технологии распознавания фейков. Иначе повышается риск неправомерного использования сгенерированной речи.

    Дипфейки бывают разного рода: помимо записи голоса, это также может быть видео или изображение «с участием» реально существующих людей. Добавить сюда голосовой дипфейк — и можно производить ложный контент, дискредитирующий конкретных личностей. Или, наоборот, обеляющий преступников. Также с помощью дипфейков можно заниматься шантажом и вымогательством.

    ОСТАВЬТЕ ОТВЕТ

    Please enter your comment!
    Please enter your name here