В последнее время искусственный интеллект и чат-боты стали частью нашей повседневной жизни. Однако возникли опасения, связанные с так называемыми “дипфейками”, которые могут подорвать общественное доверие и исказить правду.
Теперь появилась новая проблема – клонирование голоса
OpenAI, создатели популярной модели языка ChatGPT, разработали инструмент для клонирования голоса, который может создать “естественно звучащую” копию чьего-то голоса всего из 15-секундной аудиозаписи. Однако компания решила не выпускать его в широкое использование из-за рисков, связанных с возможным злоупотреблением.
Этот инструмент, названный Voice Engine, был в разработке около двух лет и может создавать голоса, “очень похожие на оригинал”. Генерируемые голоса будут иметь специальные отметки, позволяющие отслеживать их происхождение. Кроме того, текущие партнерства OpenAI требуют “явного и осознанного согласия оригинального диктора” и запрещают “разработчикам создавать способы для пользователей клонировать свои собственные голоса”.
Несмотря на впечатляющие возможности Voice Engine, компания решила отложить его широкий выпуск из-за опасений по поводу неправильного использования и угрозы распространения дезинформации, особенно в год глобальных выборов.
OpenAI надеется начать диалог о ответственном использовании синтетических голосов и адаптации общества к новым возможностям. Компания также предпринимает шаги, включая отказ от использования голосовой аутентификации для доступа к банковским счетам и другой конфиденциальной информации, и призывает к разработке политик для защиты использования голосов людей в ИИ, а также к образованию общественности о возможностях и ограничениях ИИ-технологий.