
基于AI的視聽配音和語言本地化公司Deepdub發布其所稱的首創的口音控制技術。
該專有的生成式AI技術允許在將內容配音為另一語種時保留或修改角色的口音。
在傳統的配音過程中,導演必須決定本土化演出是否應該保留原始口音,或者是否應該以某種方式進行改編,使內容更適合目標觀眾。
該公司表示,Deepdub的口音控制技術利用自定義生成式AI模型操縱和控制配音內容中角色的口音。
口音控制由該公司的情感文本到語音(eTTS) 2.0模型提供支持,這是一個支持130多種語言的多模態大型語言模型。
Deepdub的研究團隊開發了多語言模型來生成情感表達的語音,發現了能夠操縱包括口音在內的各種語音特征的能力。Deepdub表示,這些功能被開發成口音控制,可以精確控制所有130多種語言的口音。
Deepdub的研究團隊開發了多語種模型以生成情感表達的語音,發現能夠操縱包括口音在內的各種語音特征的能力。Deepdub表示,這些功能被開發為口音控制,可以精確控制全部130多種語言的口音的運用和改編。
該公司補充說,目前正在努力擴展這些功能,以支持地方口音,實現微本地化。
口音控制將首先用于與MHz Choice合作,為北美觀眾配音國際節目。MHz在Amazon Prime和Apple TV上播放其流媒體內容。