Files
ViGent2/Docs/DevLogs/Day13.md
Kevin Wong 661a8f357c 更新
2026-01-29 12:16:41 +08:00

8.7 KiB
Raw Blame History

Day 13 - 声音克隆功能集成完成

日期2026-01-29


🎙️ Qwen3-TTS 服务集成

背景

在 Day 12 完成 Qwen3-TTS 模型部署后,今日重点是将其集成到 ViGent2 系统中,提供完整的声音克隆功能。

架构设计

┌─────────────────────────────────────────────────────────────┐
│                    前端 (Next.js)                             │
│      参考音频上传 → TTS 模式选择 → 视频生成请求               │
└─────────────────────────────────────────────────────────────┘
                            │
                            ▼
┌─────────────────────────────────────────────────────────────┐
│                   后端 (FastAPI :8006)                        │
│  ref-audios API → voice_clone_service → video_service        │
└─────────────────────────────────────────────────────────────┘
                            │
                            ▼
┌─────────────────────────────────────────────────────────────┐
│               Qwen3-TTS 服务 (FastAPI :8009)                  │
│            HTTP /generate → 返回克隆音频                      │
└─────────────────────────────────────────────────────────────┘

Qwen3-TTS HTTP 服务 (qwen_tts_server.py)

创建独立的 FastAPI 服务,运行在 8009 端口:

from fastapi import FastAPI, UploadFile, Form, HTTPException
from fastapi.responses import Response
import torch
import soundfile as sf
from qwen_tts import Qwen3TTSModel
import io, os

app = FastAPI(title="Qwen3-TTS Voice Clone Service")

# GPU 配置
GPU_ID = os.getenv("QWEN_TTS_GPU_ID", "0")
model = None

@app.on_event("startup")
async def load_model():
    global model
    model = Qwen3TTSModel.from_pretrained(
        "./checkpoints/0.6B-Base",
        device_map=f"cuda:{GPU_ID}",
        dtype=torch.bfloat16,
    )

@app.get("/health")
async def health():
    return {"service": "Qwen3-TTS", "ready": model is not None, "gpu_id": GPU_ID}

@app.post("/generate")
async def generate(
    ref_audio: UploadFile,
    text: str = Form(...),
    ref_text: str = Form(""),
    language: str = Form("Chinese"),
):
    # 保存临时参考音频
    ref_path = f"/tmp/ref_{ref_audio.filename}"
    with open(ref_path, "wb") as f:
        f.write(await ref_audio.read())
    
    # 生成克隆音频
    wavs, sr = model.generate_voice_clone(
        text=text,
        language=language,
        ref_audio=ref_path,
        ref_text=ref_text or "一段参考音频。",
    )
    
    # 返回 WAV 音频
    buffer = io.BytesIO()
    sf.write(buffer, wavs[0], sr, format="WAV")
    buffer.seek(0)
    return Response(content=buffer.read(), media_type="audio/wav")

后端声音克隆服务 (voice_clone_service.py)

通过 HTTP 调用 Qwen3-TTS 服务:

import aiohttp
from loguru import logger

QWEN_TTS_URL = "http://localhost:8009"

async def generate_cloned_audio(
    ref_audio_path: str,
    text: str,
    output_path: str,
    ref_text: str = "",
) -> str:
    """调用 Qwen3-TTS 服务生成克隆音频"""
    
    async with aiohttp.ClientSession() as session:
        with open(ref_audio_path, "rb") as f:
            data = aiohttp.FormData()
            data.add_field("ref_audio", f, filename="ref.wav")
            data.add_field("text", text)
            data.add_field("ref_text", ref_text)
            
            async with session.post(f"{QWEN_TTS_URL}/generate", data=data) as resp:
                if resp.status != 200:
                    raise Exception(f"Qwen3-TTS error: {resp.status}")
                    
                audio_data = await resp.read()
                with open(output_path, "wb") as out:
                    out.write(audio_data)
    
    return output_path

📂 参考音频管理 API

新增 API 端点 (ref_audios.py)

端点 方法 功能
/api/ref-audios GET 获取参考音频列表
/api/ref-audios POST 上传参考音频
/api/ref-audios/{id} DELETE 删除参考音频

Supabase Bucket 配置

为参考音频创建独立存储桶:

-- 创建 ref-audios bucket
INSERT INTO storage.buckets (id, name, public)
VALUES ('ref-audios', 'ref-audios', true)
ON CONFLICT (id) DO NOTHING;

-- RLS 策略
CREATE POLICY "Allow public uploads" ON storage.objects
FOR INSERT TO anon WITH CHECK (bucket_id = 'ref-audios');

CREATE POLICY "Allow public read" ON storage.objects
FOR SELECT TO anon USING (bucket_id = 'ref-audios');

CREATE POLICY "Allow public delete" ON storage.objects
FOR DELETE TO anon USING (bucket_id = 'ref-audios');

🎨 前端声音克隆 UI

TTS 模式选择

在视频生成页面新增声音克隆选项:

{/* TTS 模式选择 */}
<div className="flex gap-2 mb-4">
  <button
    onClick={() => setTtsMode("edge")}
    className={`px-4 py-2 rounded-lg ${ttsMode === "edge" ? "bg-purple-600" : "bg-white/10"}`}
  >
    🔊 EdgeTTS
  </button>
  <button
    onClick={() => setTtsMode("clone")}
    className={`px-4 py-2 rounded-lg ${ttsMode === "clone" ? "bg-purple-600" : "bg-white/10"}`}
  >
    🎙️ 声音克隆
  </button>
</div>

参考音频管理

新增参考音频上传和列表展示功能:

功能 实现
音频上传 拖拽上传 WAV/MP3直传 Supabase
列表展示 显示文件名、时长、上传时间
快速选择 点击即选中作为参考音频
删除功能 删除不需要的参考音频

端到端测试验证

测试流程

  1. 上传参考音频: 3 秒参考音频 → Supabase ref-audios bucket
  2. 选择声音克隆模式: TTS 模式切换为 "声音克隆"
  3. 输入文案: 测试口播文案
  4. 生成视频:
    • TTS 阶段调用 Qwen3-TTS (17.7s)
    • LipSync 阶段调用 LatentSync (122.8s)
  5. 播放验证: 视频声音与参考音色一致

测试结果

  • 参考音频上传成功
  • Qwen3-TTS 生成克隆音频 (15s 推理4.6s 音频)
  • LatentSync 唇形同步正常
  • 总生成时间 143.1s
  • 前端视频播放正常

🔧 PM2 服务配置

新增 Qwen3-TTS 服务

前置依赖安装

conda activate qwen-tts
pip install fastapi uvicorn python-multipart

启动脚本 run_qwen_tts.sh (位于项目根目录)

#!/bin/bash
cd /home/rongye/ProgramFiles/ViGent2/models/Qwen3-TTS
/home/rongye/ProgramFiles/miniconda3/envs/qwen-tts/bin/python qwen_tts_server.py

PM2 管理命令:

# 进入根目录启动
cd /home/rongye/ProgramFiles/ViGent2
pm2 start ./run_qwen_tts.sh --name vigent2-qwen-tts
pm2 save

# 查看状态
pm2 status

# 查看日志
pm2 logs vigent2-qwen-tts --lines 50

完整服务列表

服务名 端口 功能
vigent2-backend 8006 FastAPI 后端
vigent2-frontend 3002 Next.js 前端
vigent2-latentsync 8007 LatentSync 唇形同步
vigent2-qwen-tts 8009 Qwen3-TTS 声音克隆

📁 今日修改文件清单

文件 变更类型 说明
models/Qwen3-TTS/qwen_tts_server.py 新增 Qwen3-TTS HTTP 推理服务
run_qwen_tts.sh 新增 PM2 启动脚本 (根目录)
backend/app/services/voice_clone_service.py 新增 声音克隆服务 (HTTP 调用)
backend/app/api/ref_audios.py 新增 参考音频管理 API
backend/app/main.py 修改 注册 ref-audios 路由
frontend/src/app/page.tsx 修改 TTS 模式选择 + 参考音频 UI

🔗 相关文档