基于RTVC-7VoiceCloningModel的Tuned-GE2E-SayEN-EarSpeech搭建怎样的

基于RTVC-7 Voice Cloning Model 的Tuned-GE2E-SayEN-EarSpeech 搭建怎样的,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

创新互联公司长期为上1000+客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为温江企业提供专业的成都网站制作、网站建设、外贸网站建设温江网站改版等技术服务。拥有10年丰富建站经验和众多成功案例,为您定制开发。

0. 说明

  • 和 https://blog.csdn.net/u013625492/article/details/114433738 中 GE2E 的版本几乎一致

  • 区别就是文本是 英文, 使用 VCTK 等英文数据集训练

1. Git Clone

  • https://github.com/ruclion/Tuned-GE2E-SayEN-EarSpeech

2. 训练数据

2.1. VCTK

之前训练 AutoVC 用过

基于RTVC-7 Voice Cloning Model 的Tuned-GE2E-SayEN-EarSpeech 搭建怎样的

  • 处理数据的逻辑从: /ceph/home/hujk17/Tuned-GE2E-SayEN-EarSpeech/FaPig_extract_GE2E_VCTK_nosli.py 开始

  • 保留了 train, val, unseen. 训练的时候只使用 train

基于RTVC-7 Voice Cloning Model 的Tuned-GE2E-SayEN-EarSpeech 搭建怎样的

3. speaker embedding

在 2.1. 中也一并提取了, 使用 GE2E

4. 预处理数据 -> mel

在 2.1. 中也一并提取了, 使用 实验室的 mel.嘿嘿(●ˇ∀ˇ●), 终于方便啦

5. 改代码

  • symbols 不用动, 本身就保留了英文的标点

  • 需要改下 train.txt 的路径

  • 以 Kiss 为模型名字, 逻辑从 Kiss_train.py 开始

  • 直接用 本来的小 Batch 训练, batch_size = 12

6. GE2E 版逻辑

  • 256 的 Embedding 仍然后面接了一个 FC, 和中文的一致

  • 中文的叫 FaPig, 英文叫 Kiss, 逻辑从 Kiss_train.py 开始

  • from synthesizer.FaPig_train import train 和 from synthesizer.Kiss_train import train 其实完全一致, 只是为了统一格式, 拷贝了一份

看完上述内容,你们掌握基于RTVC-7 Voice Cloning Model 的Tuned-GE2E-SayEN-EarSpeech 搭建怎样的的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注创新互联行业资讯频道,感谢各位的阅读!


新闻名称:基于RTVC-7VoiceCloningModel的Tuned-GE2E-SayEN-EarSpeech搭建怎样的
分享链接:http://pwwzsj.com/article/geisgh.html