Технополис завтра
Самое важное. Самое полезное. Самое интересное...
Новости ЧП, криминал

Не верьте ушам своим. Опасное изобретение по копированию голоса

Удивился тому, что Тимур Бекмамбетов, оказывается, владеет компанией Screenlife Technologies, которая, в свою очередь, создала искусственный самообучающийся интеллект Vera Voice, который умеет разговаривать голосом любого человека.

Вот посмотрите, как имитируется голос Путина, Собчак, Познера...

Как сообщается, в основе технологии — «ансамбль из нейронных сетей», позволяющий скопировать любой голос и произнести им что угодно. Чтобы синтезировать голос, нейросети должны проанализировать несколько часов аудиозаписей обладателя голоса и оцифрованный текст, который он зачитывает.

Я думаю, что если эта разработка пойдет в массы, то "чьими-то" голосами будут не поздравления рассылать, а просить деньги в долг и совершать другие мошенничества.

Есть ли такая опасность? А как ей противостоять? Сейчас шлют СМС с текстом, "мама я в беде, положи деньги на телефон или вышли деньги на кошелек". А потом будут звонить и рассказывать голосом сына, друга, дочери, родственника про то, что надо срочно выслать куда-то деньги или напомнить пароль от Яндекс.Кошелька или Сбербанка.Онлайн.

Какие еще могут пакости устроить? При деловых контактах - запросто. А фейковые интервью по телефону? Да сто процентов будут.

Что делать? Как защищаться будем?

Источник


 

© 2009 Технополис завтра

Перепечатка  материалов приветствуется, при этом гиперссылка на статью или на главную страницу сайта "Технополис завтра" обязательна. Если же Ваши  правила  строже  этих,  пожалуйста,  пользуйтесь при перепечатке Вашими же правилами.