近日,Deepdub 宣布推出其
Lightning2.5 的开发基于 Deepdub 自主研发的语言和语音基础模型,结合了人类水平的表达能力和高保真度,支持多种语言。这款模型在实时性能方面进行了基础设施的扩展,能够保留说话者的身份、语调和情感细腻之处,从而为用户提供逼真的生产级语音体验。
Deepdub 的首席执行官兼联合创始人 OfirKrakowski 表示:「Lightning 代表了实时、富有表现力的语音生成技术的一次重大进步。无论是驱动多语言 AI 代理、沉浸式内容平台,还是大规模的语音优先自动化,Lightning 都能够以客户所需的速度、保真度和质量,将基础语音 AI 推向生产应用。」
这款新模型配备了重新设计的推理引擎,带来了 2.8 倍的吞吐量和 5 倍的并发能力,延迟低至 200 毫秒,比行业标准快了半秒。这使得 Lightning 非常适合在实时语音交互、动态语音解说以及事件驱动的 AI 流程中应用,尤其适用于自主语音代理、交互系统和大规模语音自动化等多个行业。
作为 NVIDIA 初创企业孵化计划的一员,Deepdub 针对多种 NVIDIAGPU(如 H100、A100、L40S 和 A10G) 进行了 Lightning 的优化,支持本地和云环境的部署。通过利用 NVIDIATensorRT-LLM 加速堆栈,Lightning 在企业规模下实现了高吞吐量、低延迟的推理,同时保持了高效的运营成本。
NVIDIA 媒体与娱乐副总裁 RichardKerris 指出:「组织对于能够结合逼真质量、速度和可扩展性的实时语音 AI 需求日益增长。Deepdub 通过基于 NVIDIAGPU 和 TensorRT-LLM 构建 Lightning2.5,使多语言语音体验具备超低延迟和高并发能力,帮助客户在全球范围内交付下一代 AI 代理、沉浸式内容和企业语音应用。」
Deepdub 将在 2025 年国际广播会议 (IBC) 上展示 Lightning,届时将进行实时语音本地化、动态内容自动化和可扩展语音管道的现场演示。感兴趣的朋友可以前往 AI 展区,Hall14,Booth14.B53 体验 Lightning 的魅力。
划重点:
🎤Lightning2.5 是 Deepdub
最新推出的实时语音 AI 模型,具有 2.8 倍的吞吐量和 5 倍的并发能力。 🌍新模型支持多语言应用,适用于 AI 代理、呼叫中心自动化等多个场景。
⚡Deepdub 将在 IBC2025 展会上进行 Lightning 的现场演示,展示其强大功能。










