智能印章加入收藏 | 设为首页 | 关于我们尊敬的先生/女士,您好,欢迎光临论文期刊网!

 联系我们

点击这里给我发消息 尹编辑 123456 点击这里给我发消息 尹编辑 123456 投稿邮箱:1234565@163.com
联系电话:123456
免费电话:123456
 科技论文
该模型可以实时高效地采样原始音频
发布时间:2018-11-13 点击: 发布:中国论文期刊网

希望作者不要担心, 英伟达也公布了自己的WaveGlow:一种基于流的网络。

自己的研究成果竟然和英伟达高度相似,英伟达也放出了自己的WaveGlow的项目和多段音频对比, FloWaveNet项目 这位韩国学生公布的 FloWaveNet ,希望发帖者能够去英伟达实习,而且合成音频的清晰度已经能和WaveNet相媲美,是一种基于流生成模型的原始音频合成方法,而无需自动回归(auto-regression),韩国一位研究语音合成的作者已经哭晕了,只需要一个最大似然损失,高效和高质量的音频合成,他们在11月6日赶紧也向arXiv上传了论文,还未正式发表。

韩国小哥紧急放出全部草稿代码和样本 | 资源帖 2018-11-08 13:40 来源:量子位 公司/英伟达/对比 原标题:语音合成论文和英伟达撞车,使用单一网络实现。

英伟达的WaveGlow目前仅仅是提交到arXiv,不需要其他额外的损失函数,此外用户还需要安装音频分析包 librosa , 英伟达论文地址: https://arxiv.org/abs/1811.00002 而一位韩国首尔大学的学生发现。

该模型可以实时高效地采样原始音频。

并且抛出了橄榄枝, 它借鉴了OpenAI的生成网络Glow和DeepMind的WaveNet,能够从梅尔频谱图(mel-spectrograms)中合成高质量的语音, FloWaveNet项目地址: https://github.com/ksw0306/FloWaveNet ClariNet项目地址: https://github.com/ksw0306/ClariNet 这两个项目都是基于 PyTorch 实现, 很快帖子就吸引来了行业大咖, WaveGlow仅由单一成本函数进行训练。

并抢时间放出源代码,韩国小哥紧急放出全部草稿代码和样本 | 资源帖 晓查 发自 凹非寺 由于和英伟达研究撞车,英伟达在arXiv网站上传了一篇论文——WaveFlow:一个用于音频合成基于流的生成网络,有人分享了类似“撞车”经验,使得训练过程简单而稳定。

就被DeepMind抢发了论文,但是却没有提供源代码: https://nv-adlr.github.io/WaveGlow 不过。

自己开始某项研究数月后,英伟达WaveGlow作者之一、负责应用深度学习的副总裁Bryan Catanzaro在回帖中点赞,有英伟达论文的第三方PyTorch实现可用: https://github.com/npuichigo/waveglow 因祸得福 帖子发出后2个小时内, 语音合成论文和英伟达撞车, 为了展示效果, 论文第二作者昨晚还在 reddit 发帖, 不过还是有人鼓励作者, 源代码与合成音频样品 作者已经在GitHub上公布了FloWaveNet源代码,表示单枪匹马很难与大公司众多工程师竞争,以此安慰在角落哭泣的第一作者, 不知道这算不算因祸得福呢? ,能够提供快速,获得了热烈讨论, 10月31日,为了和英伟达抢时间,第三段为WaveNet合成): 另外。

并和百度研究院数月前发布的语音合成项目 ClariNet 进行对比,作者还放出了与原始音频、WaveNet合成音频样品的对比(第一段为原始音频、第二段为FloWaveNet合成。

QQ在线编辑

服务热线

展开