配音工作室 #
概述 #
配音工作室(Dubbing Studio)是 ElevenLabs 的专业视频配音工具,支持自动翻译、口型同步、多语言配音等功能。
text
┌─────────────────────────────────────────────────────────────┐
│ 配音工作室功能 │
├─────────────────────────────────────────────────────────────┤
│ │
│ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │
│ │ 视频上传 │ │ 自动翻译 │ │ 语音合成 │ │
│ └─────────────┘ └─────────────┘ └─────────────┘ │
│ │
│ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │
│ │ 口型同步 │ │ 时间轴编辑 │ │ 多语言输出 │ │
│ └─────────────┘ └─────────────┘ └─────────────┘ │
│ │
└─────────────────────────────────────────────────────────────┘
支持格式 #
输入格式 #
text
┌─────────────────────────────────────────────────────────────┐
│ 支持的视频格式 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 视频格式: │
│ ├── MP4 │
│ ├── MOV │
│ ├── AVI │
│ ├── WebM │
│ └── MKV │
│ │
│ 音频格式: │
│ ├── MP3 │
│ ├── WAV │
│ ├── M4A │
│ └── AAC │
│ │
│ 时长限制: │
│ └── 根据计划有所不同 │
│ │
└─────────────────────────────────────────────────────────────┘
输出语言 #
text
支持语言(29+):
├── 中文(普通话、粤语)
├── 英语(美式、英式、澳式)
├── 日语
├── 韩语
├── 法语
├── 德语
├── 西班牙语
├── 意大利语
├── 葡萄牙语
├── 俄语
├── 阿拉伯语
├── 印地语
└── 更多...
使用流程 #
完整流程 #
text
┌─────────────────────────────────────────────────────────────┐
│ 配音工作流程 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 1. 上传视频 │
│ ├── 选择本地文件 │
│ ├── 或提供视频 URL │
│ └── 等待上传完成 │
│ │
│ 2. 语言设置 │
│ ├── 选择源语言(或自动检测) │
│ ├── 选择目标语言 │
│ └── 选择配音数量 │
│ │
│ 3. 语音选择 │
│ ├── 为每个说话者选择语音 │
│ ├── 使用预置语音 │
│ ├── 使用克隆语音 │
│ └── 自动匹配语音 │
│ │
│ 4. 生成配音 │
│ ├── 自动转录 │
│ ├── 自动翻译 │
│ ├── 语音合成 │
│ └── 口型同步 │
│ │
│ 5. 编辑调整 │
│ ├── 查看时间轴 │
│ ├── 编辑文本 │
│ ├── 调整时间 │
│ └── 重新生成片段 │
│ │
│ 6. 导出结果 │
│ ├── 下载视频 │
│ ├── 下载音频 │
│ └── 下载字幕 │
│ │
└─────────────────────────────────────────────────────────────┘
Web 界面使用 #
创建项目 #
text
步骤:
1. 登录 ElevenLabs 账户
2. 进入 "Dubbing Studio" 页面
3. 点击 "Create New Project"
4. 上传视频文件
5. 配置语言和语音
6. 开始处理
编辑界面 #
text
┌─────────────────────────────────────────────────────────────┐
│ 编辑界面布局 │
├─────────────────────────────────────────────────────────────┤
│ │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ 视频预览区 │ │
│ └─────────────────────────────────────────────────────┘ │
│ │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ 时间轴编辑区 │ │
│ │ [片段1] [片段2] [片段3] [片段4] ... │ │
│ └─────────────────────────────────────────────────────┘ │
│ │
│ ┌─────────────────┐ ┌─────────────────┐ │
│ │ 文本编辑 │ │ 语音设置 │ │
│ └─────────────────┘ └─────────────────┘ │
│ │
└─────────────────────────────────────────────────────────────┘
API 使用 #
创建配音项目 #
python
from elevenlabs import ElevenLabs
client = ElevenLabs(api_key="your_api_key")
# 创建配音项目
project = client.dubbing.create(
name="My Dubbing Project",
source_url="https://example.com/video.mp4",
target_language="zh",
num_speakers=2
)
print(f"Project ID: {project.id}")
print(f"Status: {project.status}")
查看项目状态 #
python
# 获取项目状态
status = client.dubbing.get(project_id=project.id)
print(f"Status: {status.status}")
print(f"Progress: {status.progress}%")
if status.status == "completed":
print(f"Download URL: {status.download_url}")
下载结果 #
python
# 下载配音后的视频
video = client.dubbing.download(
project_id=project.id,
format="mp4"
)
with open("dubbed_video.mp4", "wb") as f:
for chunk in video:
f.write(chunk)
多说话者处理 #
说话者识别 #
text
┌─────────────────────────────────────────────────────────────┐
│ 说话者识别 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 自动识别: │
│ ├── AI 自动识别不同说话者 │
│ ├── 标记说话者编号 │
│ └── 可手动调整 │
│ │
│ 手动设置: │
│ ├── 指定说话者数量 │
│ ├── 手动标记说话者 │
│ └── 更精确的控制 │
│ │
└─────────────────────────────────────────────────────────────┘
分配语音 #
python
# 为不同说话者分配语音
speakers = [
{"speaker_id": 1, "voice_id": "male_voice_id"},
{"speaker_id": 2, "voice_id": "female_voice_id"},
]
project = client.dubbing.create(
name="Multi-speaker Project",
source_url="https://example.com/video.mp4",
target_language="en",
speakers=speakers
)
口型同步 #
工作原理 #
text
┌─────────────────────────────────────────────────────────────┐
│ 口型同步技术 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 处理流程: │
│ 1. 分析原始视频中的口型 │
│ 2. 生成新语音的时间信息 │
│ 3. 调整视频帧以匹配新语音 │
│ 4. 合成最终视频 │
│ │
│ 效果: │
│ ├── 视频中人物的口型与新语音匹配 │
│ ├── 更自然的观看体验 │
│ └── 适合专业内容本地化 │
│ │
└─────────────────────────────────────────────────────────────┘
启用口型同步 #
python
# 启用口型同步
project = client.dubbing.create(
name="Lip Sync Project",
source_url="https://example.com/video.mp4",
target_language="zh",
lip_sync=True
)
最佳实践 #
视频准备 #
text
┌─────────────────────────────────────────────────────────────┐
│ 视频准备建议 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 视频质量: │
│ ├── 清晰的音频 │
│ ├── 较少的背景噪音 │
│ └── 清晰的说话者画面 │
│ │
│ 内容建议: │
│ ├── 清晰的对话 │
│ ├── 避免多人同时说话 │
│ └── 适当的语速 │
│ │
│ 格式建议: │
│ ├── MP4 或 MOV │
│ ├── 高质量的音频轨道 │
│ └── 标准帧率 │
│ │
└─────────────────────────────────────────────────────────────┘
翻译质量 #
text
提升翻译质量:
├── 检查自动翻译结果
├── 手动修正专业术语
├── 调整口语化表达
└── 保持文化适应性
限制说明 #
text
┌─────────────────────────────────────────────────────────────┐
│ 功能限制 │
├─────────────────────────────────────────────────────────────┤
│ │
│ 计划要求: │
│ └── 需要 Creator 计划或更高 │
│ │
│ 时长限制: │
│ ├── Creator:最长 60 分钟 │
│ ├── Pro:最长 120 分钟 │
│ └── Enterprise:自定义 │
│ │
│ 处理时间: │
│ ├── 取决于视频长度 │
│ └── 通常需要几分钟到几十分钟 │
│ │
└─────────────────────────────────────────────────────────────┘
下一步 #
最后更新:2026-04-05