近日,Deepdub宣布推出其
Lightning2.5的开发基于Deepdub自主研发的语言和语音基础模型,结合了人类水平的表达能力和高保真度,支持多种语言。这款模型在实时性能方面进行了基础设施的扩展,能够保留说话者的身份、语调和情感细腻之处,从而为用户提供逼真的生产级语音体验。
Deepdub的首席执行官兼联合创始人OfirKrakowski表示:“Lightning代表了实时、富有表现力的语音生成技术的一次重大进步。无论是驱动多语言AI代理、沉浸式内容平台,还是大规模的语音优先自动化,Lightning都能够以客户所需的速度、保真度和质量,将基础语音AI推向生产应用。”
这款新模型配备了重新设计的推理引擎,带来了2.8倍的吞吐量和5倍的并发能力,延迟低至200毫秒,比行业标准快了半秒。这使得Lightning非常适合在实时语音交互、动态语音解说以及事件驱动的AI流程中应用,尤其适用于自主语音代理、交互系统和大规模语音自动化等多个行业。
作为NVIDIA初创企业孵化计划的一员,Deepdub针对多种NVIDIAGPU(如H100、A100、L40S和A10G)进行了Lightning的优化,支持本地和云环境的部署。通过利用NVIDIATensorRT-LLM加速堆栈,Lightning在企业规模下实现了高吞吐量、低延迟的推理,同时保持了高效的运营成本。
NVIDIA媒体与娱乐副总裁RichardKerris指出:“组织对于能够结合逼真质量、速度和可扩展性的实时语音AI需求日益增长。Deepdub通过基于NVIDIAGPU和TensorRT-LLM构建Lightning2.5,使多语言语音体验具备超低延迟和高并发能力,帮助客户在全球范围内交付下一代AI代理、沉浸式内容和企业语音应用。”
Deepdub将在2025年国际广播会议(IBC)上展示Lightning,届时将进行实时语音本地化、动态内容自动化和可扩展语音管道的现场演示。感兴趣的朋友可以前往AI展区,Hall14,Booth14.B53体验Lightning的魅力。
划重点:
🎤Lightning2.5是Deepdub
最新推出的实时语音AI模型,具有2.8倍的吞吐量和5倍的并发能力。 🌍新模型支持多语言应用,适用于AI代理、呼叫中心自动化等多个场景。
⚡Deepdub将在IBC2025展会上进行Lightning的现场演示,展示其强大功能。