
基于AI的視聽配音和語言本地化公司Deepdub發(fā)布其所稱的首創(chuàng)的口音控制技術(shù)。
該專有的生成式AI技術(shù)允許在將內(nèi)容配音為另一語種時保留或修改角色的口音。
在傳統(tǒng)的配音過程中,導(dǎo)演必須決定本土化演出是否應(yīng)該保留原始口音,或者是否應(yīng)該以某種方式進(jìn)行改編,使內(nèi)容更適合目標(biāo)觀眾。
該公司表示,Deepdub的口音控制技術(shù)利用自定義生成式AI模型操縱和控制配音內(nèi)容中角色的口音。
口音控制由該公司的情感文本到語音(eTTS) 2.0模型提供支持,這是一個支持130多種語言的多模態(tài)大型語言模型。
Deepdub的研究團(tuán)隊開發(fā)了多語言模型來生成情感表達(dá)的語音,發(fā)現(xiàn)了能夠操縱包括口音在內(nèi)的各種語音特征的能力。Deepdub表示,這些功能被開發(fā)成口音控制,可以精確控制所有130多種語言的口音。
Deepdub的研究團(tuán)隊開發(fā)了多語種模型以生成情感表達(dá)的語音,發(fā)現(xiàn)能夠操縱包括口音在內(nèi)的各種語音特征的能力。Deepdub表示,這些功能被開發(fā)為口音控制,可以精確控制全部130多種語言的口音的運用和改編。
該公司補充說,目前正在努力擴(kuò)展這些功能,以支持地方口音,實現(xiàn)微本地化。
口音控制將首先用于與MHz Choice合作,為北美觀眾配音國際節(jié)目。MHz在Amazon Prime和Apple TV上播放其流媒體內(nèi)容。