fishspeech2 / docs /zh /inference.md
pineconeT94's picture
first commit
8b14bed
|
raw
history blame
4.77 kB

推理

推理支持命令行, http api, 以及 webui 三种方式.

!!! note 总的来说, 推理分为几个部分:

1. 给定一段 ~10 秒的语音, 将它用 VQGAN 编码.
2. 将编码后的语义 token 和对应文本输入语言模型作为例子.
3. 给定一段新文本, 让模型生成对应的语义 token.
4. 将生成的语义 token 输入 VQGAN 解码, 生成对应的语音.

命令行推理

从我们的 huggingface 仓库下载所需的 vqganllama 模型。

huggingface-cli download fishaudio/fish-speech-1.4 --local-dir checkpoints/fish-speech-1.4

对于中国大陆用户,可使用 mirror 下载。

HF_ENDPOINT=https://hf-mirror.com huggingface-cli download fishaudio/fish-speech-1.4 --local-dir checkpoints/fish-speech-1.4

1. 从语音生成 prompt:

!!! note 如果你打算让模型随机选择音色, 你可以跳过这一步.

python tools/vqgan/inference.py \
    -i "paimon.wav" \
    --checkpoint-path "checkpoints/fish-speech-1.4/firefly-gan-vq-fsq-8x1024-21hz-generator.pth"

你应该能得到一个 fake.npy 文件.

2. 从文本生成语义 token:

python tools/llama/generate.py \
    --text "要转换的文本" \
    --prompt-text "你的参考文本" \
    --prompt-tokens "fake.npy" \
    --checkpoint-path "checkpoints/fish-speech-1.4" \
    --num-samples 2 \
    --compile

该命令会在工作目录下创建 codes_N 文件, 其中 N 是从 0 开始的整数.

!!! note 您可能希望使用 --compile 来融合 cuda 内核以实现更快的推理 (~30 个 token/秒 -> ~500 个 token/秒).
对应的, 如果你不打算使用加速, 你可以注释掉 --compile 参数.

!!! info 对于不支持 bf16 的 GPU, 你可能需要使用 --half 参数.

3. 从语义 token 生成人声:

VQGAN 解码

python tools/vqgan/inference.py \
    -i "codes_0.npy" \
    --checkpoint-path "checkpoints/fish-speech-1.4/firefly-gan-vq-fsq-8x1024-21hz-generator.pth"

HTTP API 推理

运行以下命令来启动 HTTP 服务:

python -m tools.api \
    --listen 0.0.0.0:8080 \
    --llama-checkpoint-path "checkpoints/fish-speech-1.4" \
    --decoder-checkpoint-path "checkpoints/fish-speech-1.4/firefly-gan-vq-fsq-8x1024-21hz-generator.pth" \
    --decoder-config-name firefly_gan_vq

如果你想要加速推理,可以加上--compile参数。

推荐中国大陆用户运行以下命令来启动 HTTP 服务:

HF_ENDPOINT=https://hf-mirror.com python -m ...(同上)

随后, 你可以在 http://127.0.0.1:8080/ 中查看并测试 API.

下面是使用tools/post_api.py发送请求的示例。

python -m tools.post_api \
    --text "要输入的文本" \
    --reference_audio "参考音频路径" \
    --reference_text "参考音频的文本内容" \
    --streaming True

上面的命令表示按照参考音频的信息,合成所需的音频并流式返回.

下面的示例展示了, 可以一次使用多个 参考音频路径参考音频的文本内容。在命令里用空格隔开即可。

python -m tools.post_api \
    --text "要输入的文本" \
    --reference_audio "参考音频路径1" "参考音频路径2" \
    --reference_text "参考音频的文本内容1" "参考音频的文本内容2"\
    --streaming False \
    --output "generated" \
    --format "mp3"

上面的命令表示按照多个参考音频的信息,合成所需的MP3格式音频,并保存为当前目录的generated.mp3文件。

还可以用--reference_id(仅能用一个)来代替--reference_audio--reference_text, 前提是在项目根目录下创建references/<your reference_id>文件夹, 里面放上任意对音频与标注文本。 目前支持的参考音频最多加起来总时长90s。

!!! info 要了解有关可用参数的更多信息,可以使用命令python -m tools.post_api -h

GUI 推理

下载客户端

WebUI 推理

你可以使用以下命令来启动 WebUI:

python -m tools.webui \
    --llama-checkpoint-path "checkpoints/fish-speech-1.4" \
    --decoder-checkpoint-path "checkpoints/fish-speech-1.4/firefly-gan-vq-fsq-8x1024-21hz-generator.pth" \
    --decoder-config-name firefly_gan_vq

如果你想要加速推理,可以加上--compile参数。

!!! note 你可以提前将label文件和参考音频文件保存到主目录下的 references 文件夹(需要自行创建),这样你可以直接在WebUI中调用它们。

!!! note 你可以使用 Gradio 环境变量, 如 GRADIO_SHARE, GRADIO_SERVER_PORT, GRADIO_SERVER_NAME 来配置 WebUI.

祝大家玩得开心!