.github | ||
assets | ||
configs | ||
docs | ||
i18n | ||
infer | ||
logs/mute | ||
tools | ||
.env | ||
.gitignore | ||
api_231006.py | ||
api_240604.py | ||
CONTRIBUTING.md | ||
docker-compose.yml | ||
Dockerfile | ||
environment_dml.yaml | ||
go-realtime-gui-dml.bat | ||
go-realtime-gui.bat | ||
go-web-dml.bat | ||
go-web.bat | ||
gui_v1.py | ||
infer-web.py | ||
LICENSE | ||
MIT协议暨相关引用库协议 | ||
poetry.lock | ||
pyproject.toml | ||
README.md | ||
requirements-amd.txt | ||
requirements-dml.txt | ||
requirements-ipex.txt | ||
requirements-py311.txt | ||
requirements-win-for-realtime_vc_gui-dml.txt | ||
requirements-win-for-realtime_vc_gui.txt | ||
requirements.txt | ||
Retrieval_based_Voice_Conversion_WebUI_v2.ipynb | ||
Retrieval_based_Voice_Conversion_WebUI.ipynb | ||
run.sh | ||
venv.sh |
Retrieval-based-Voice-Conversion-WebUI
一个基于VITS的简单易用的变声框架更新日志 | 常见问题解答 | AutoDL·5毛钱训练AI歌手 | 对照实验记录 | 在线演示
English | 中文简体 | 日本語 | 한국어 (韓國語) | Français | Türkçe | Português
底模使用接近50小时的开源高质量VCTK训练集训练,无版权方面的顾虑,请大家放心使用
请期待RVCv3的底模,参数更大,数据更大,效果更好,基本持平的推理速度,需要训练数据量更少。
训练推理界面 | 实时变声界面 |
go-web.bat | go-realtime-gui.bat |
可以自由选择想要执行的操作。 | 我们已经实现端到端170ms延迟。如使用ASIO输入输出设备,已能实现端到端90ms延迟,但非常依赖硬件驱动支持。 |
简介
本仓库具有以下特点
- 使用top1检索替换输入源特征为训练集特征来杜绝音色泄漏
- 即便在相对较差的显卡上也能快速训练
- 使用少量数据进行训练也能得到较好结果(推荐至少收集10分钟低底噪语音数据)
- 可以通过模型融合来改变音色(借助ckpt处理选项卡中的ckpt-merge)
- 简单易用的网页界面
- 可调用UVR5模型来快速分离人声和伴奏
- 使用最先进的人声音高提取算法InterSpeech2023-RMVPE根绝哑音问题。效果最好(显著地)但比crepe_full更快、资源占用更小
- A卡I卡加速支持
点此查看我们的演示视频 !
环境配置
以下指令需在 Python 版本大于3.8的环境中执行。
Windows/Linux/MacOS等平台通用方法
下列方法任选其一。
1. 通过 pip 安装依赖
- 安装Pytorch及其核心依赖,若已安装则跳过。参考自: https://pytorch.org/get-started/locally/
pip install torch torchvision torchaudio
- 如果是 win 系统 + Nvidia Ampere 架构(RTX30xx),根据 #21 的经验,需要指定 pytorch 对应的 cuda 版本
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117
- 根据自己的显卡安装对应依赖
- N卡
pip install -r requirements.txt
- A卡/I卡
pip install -r requirements-dml.txt
- A卡ROCM(Linux)
pip install -r requirements-amd.txt
- I卡IPEX(Linux)
pip install -r requirements-ipex.txt
2. 通过 poetry 来安装依赖
安装 Poetry 依赖管理工具,若已安装则跳过。参考自: https://python-poetry.org/docs/#installation
curl -sSL https://install.python-poetry.org | python3 -
通过 Poetry 安装依赖时,python 建议使用 3.7-3.10 版本,其余版本在安装 llvmlite==0.39.0 时会出现冲突
poetry init -n
poetry env use "path to your python.exe"
poetry run pip install -r requirments.txt
MacOS
可以通过 run.sh
来安装依赖
sh ./run.sh
其他预模型准备
RVC需要其他一些预模型来推理和训练。
你可以从我们的Hugging Face space下载到这些模型。
1. 下载 assets
以下是一份清单,包括了所有RVC所需的预模型和其他文件的名称。你可以在tools
文件夹找到下载它们的脚本。
-
./assets/hubert/hubert_base.pt
-
./assets/pretrained
-
./assets/uvr5_weights
想使用v2版本模型的话,需要额外下载
- ./assets/pretrained_v2
2. 安装 ffmpeg
若ffmpeg和ffprobe已安装则跳过。
Ubuntu/Debian 用户
sudo apt install ffmpeg
MacOS 用户
brew install ffmpeg
Windows 用户
下载后放置在根目录。
3. 下载 rmvpe 人声音高提取算法所需文件
如果你想使用最新的RMVPE人声音高提取算法,则你需要下载音高提取模型参数并放置于RVC根目录。
- 下载rmvpe.pt
下载 rmvpe 的 dml 环境(可选, A卡/I卡用户)
4. AMD显卡Rocm(可选, 仅Linux)
如果你想基于AMD的Rocm技术在Linux系统上运行RVC,请先在这里安装所需的驱动。
若你使用的是Arch Linux,可以使用pacman来安装所需驱动:
pacman -S rocm-hip-sdk rocm-opencl-sdk
对于某些型号的显卡,你可能需要额外配置如下的环境变量(如:RX6700XT):
export ROCM_PATH=/opt/rocm
export HSA_OVERRIDE_GFX_VERSION=10.3.0
同时确保你的当前用户处于render
与video
用户组内:
sudo usermod -aG render $USERNAME
sudo usermod -aG video $USERNAME
开始使用
直接启动
使用以下指令来启动 WebUI
python infer-web.py
若先前使用 Poetry 安装依赖,则可以通过以下方式启动WebUI
poetry run python infer-web.py
使用整合包
下载并解压RVC-beta.7z
Windows 用户
双击go-web.bat
MacOS 用户
sh ./run.sh
对于需要使用IPEX技术的I卡用户(仅Linux)
source /opt/intel/oneapi/setvars.sh
参考项目
- ContentVec
- VITS
- HIFIGAN
- Gradio
- FFmpeg
- Ultimate Vocal Remover
- audio-slicer
- Vocal pitch extraction:RMVPE