Skip to content

Latest commit

 

History

History

fastspeech_ljspeech

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 

fastspeech_ljspeech

模型名称 fastspeech_ljspeech
类别 语音-语音合成
网络 FastSpeech
数据集 LJSpeech-1.1
是否支持Fine-tuning
模型大小 320MB
最新更新日期 2020-10-27
数据指标 -

一、模型基本信息

模型介绍

FastSpeech是基于Transformer的前馈神经网络,作者从encoder-decoder结构的teacher model中提取attention对角线来做发音持续时间预测,即使用长度调节器对文本序列进行扩展来匹配目标梅尔频谱的长度,以便并行生成梅尔频谱。该模型基本上消除了复杂情况下的跳词和重复的问题,并且可以平滑地调整语音速度,更重要的是,该模型大幅度提升了梅尔频谱的生成速度。fastspeech_ljspeech是基于ljspeech英文语音数据集预训练得到的英文TTS模型,仅支持预测。


更多详情参考论文FastSpeech: Fast, Robust and Controllable Text to Speech

二、安装

三、模型API预测

  • 1、命令行预测

    • $ hub run fastspeech_ljspeech --input_text='Simple as this proposition is, it is necessary to be stated' --use_gpu True --vocoder griffin-lim
    • 通过命令行方式实现语音合成模型的调用,更多请见PaddleHub命令行指令
  • 2、预测代码示例

    • import paddlehub as hub
      import soundfile as sf
      
      # Load fastspeech_ljspeech module.
      module = hub.Module(name="fastspeech_ljspeech")
      
      # Predict sentiment label
      test_texts = ['Simple as this proposition is, it is necessary to be stated',
                  'Parakeet stands for Paddle PARAllel text-to-speech toolkit']
      wavs, sample_rate = module.synthesize(texts=test_texts)
      for index, wav in enumerate(wavs):
          sf.write(f"{index}.wav", wav, sample_rate)
  • 3、API

    • def synthesize(texts, use_gpu=False, speed=1.0, vocoder="griffin-lim"):
      • 预测API,由输入文本合成对应音频波形。

      • 参数

        • texts (list[str]): 待预测文本;
        • use_gpu (bool): 是否使用 GPU;若使用GPU,请先设置CUDA_VISIBLE_DEVICES环境变量
        • speed(float): 音频速度,1.0表示以原速输出。
        • vocoder: 指定声码器,可选 "griffin-lim"或"waveflow"
      • 返回

        • wavs (list): 语音合成结果列表,列表中每一个元素为对应输入文本的音频波形,可使用soundfile.write进一步处理或保存。
        • sample_rate (int): 合成音频的采样率。

四、服务部署

  • PaddleHub Serving可以部署一个在线语音合成服务,可以将此接口用于在线web应用。

  • 第一步:启动PaddleHub Serving

    • 运行启动命令
    • $ hub serving start -m fastspeech_ljspeech
    • 这样就完成了服务化API的部署,默认端口号为8866。
    • NOTE: 如使用GPU预测,则需要在启动服务之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置。
  • 第二步:发送预测请求

    • 配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果

    • import requests
      import json
      
      import soundfile as sf
      
      # 发送HTTP请求
      
      data = {'texts':['Simple as this proposition is, it is necessary to be stated',
                      'Parakeet stands for Paddle PARAllel text-to-speech toolkit'],
              'use_gpu':False}
      headers = {"Content-type": "application/json"}
      url = "http://127.0.0.1:8866/predict/fastspeech_ljspeech"
      r = requests.post(url=url, headers=headers, data=json.dumps(data))
      
      # 保存结果
      result = r.json()["results"]
      wavs = result["wavs"]
      sample_rate = result["sample_rate"]
      for index, wav in enumerate(wavs):
          sf.write(f"{index}.wav", wav, sample_rate)

五、更新历史

  • 1.0.0

    初始发布

    $ hub install fastspeech_ljspeech