這是是之前的訓練colab里導出ONNX模型
#創建虛擬環境
!conda create -n ONNX python= -y
(資料圖片)
前面數據集制作有condacolab安轉方法
#激活虛擬環境(!空格activate ONNX )
! activate ONNX
#安裝pytorch==只適用colab沒更新的情況
!conda install pytorch== torchvision== torchaudio== pytorch-cuda= -c pytorch
#安裝依賴
%cd /content/drive/MyDrive/DiffSinger
!pip install -r -i /simple
#diffsingerdatsaet歌手
#diffsingerdatsaet_acoustic訓練模型目錄名
#diffsingerdatsaet_acoustic_ONNX生成目錄.默認在DiffSinger目錄產生
#--expose_gender --expose_velocity根據自己模型添加,如果和我之前config_一樣就可以這樣導出支持Gen參數,支持VEL參數
#導出聲音模型
%cd /content/drive/MyDrive/DiffSinger
!python scripts/ acoustic --exp diffsingerdatsaet?--expose_gender --expose_velocity --out diffsingerdatsaet_acoustic_ONNX
#自動音高導出
導出后可以構建OpenUTAU音源包
官方有詳細介紹
我的打包僅供參考
diffsingerdatsaet ? ? ? ? ? ?#文件夾可任意命名
? ? #diffsingerdatsaet_
? ? ?#diffsingerdatsaet_acoustic.phonemes音素列表
? ? #Diffsinger音源信息文件自己創建
phonemes: ? ? #音素列表
acoustic:diffsingerdatsaet_#你的onnx聲學模型
vocoder: nsf_hifigan? ? ? #所使用的聲碼器包名
augmentation_args:
random_pitch_shifting:
range: [-5., 5.]
scale:
random_time_stretching:
domain: log
range: [, ]
scale:
use_key_shift_embed: true
use_speed_embed: true
#我的預處理和導出設置這樣的
? ?#OpenUTAU音源信息
text_file_encoding: utf-8
portrait_opacity:
default_phonemizer:
singer_type: diffsinger
? ? #音源基本信息文件
name=diffsingerdatsaet_acoustic
image=? ? ? ? ? ?#圖
voice=? ? ? ? ? ? #作者
web=? ? ? ? ? ? ? #網址
這樣就聲音就可以了,如果沒有音高模型就可以直接使用導入OpenUTAU
如果加入音高分別新建兩個文件夾dsdur、dspitch按照官方的導入
/wiki/NmPdwuMxei03i1kQHHhcJWBJnce
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。
下一篇:最后一頁