今年人工智能语音领域一个有趣的进展是——模型被“变差”,以使其听起来更像人类。 我见过的一些例子? 增加延迟、增加背景噪音、降低响应速度(不要在暂停时立即响应)、降低被打断的可能性(不要因为填充词而停下来)
我预测,明年即使是普通的语音助手,听起来也会与真人几乎没有区别。 这也为消费者声音的应用开辟了更多可能性,因为“最后2%”的真实感可能对提升用户体验的留存率至关重要。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 2 条推文 · 2025年12月12日 20:13
今年人工智能语音领域一个有趣的进展是——模型被“变差”,以使其听起来更像人类。 我见过的一些例子? 增加延迟、增加背景噪音、降低响应速度(不要在暂停时立即响应)、降低被打断的可能性(不要因为填充词而停下来)
我预测,明年即使是普通的语音助手,听起来也会与真人几乎没有区别。 这也为消费者声音的应用开辟了更多可能性,因为“最后2%”的真实感可能对提升用户体验的留存率至关重要。