今年人工智慧語音領域一個有趣的進展是——模型被“變差”,以使其聽起來更像人類。 我見過的一些例子? 增加延遲、增加背景噪音、降低反應速度(不要在暫停時立即回應)、降低被打斷的可能性(不要因為填充詞而停下來)
我預測,明年即使是普通的語音助手,聽起來也會與真人幾乎沒有差別。 這也為消費者聲音的應用開啟了更多可能性,因為「最後2%」的真實感可能對提升用戶體驗的留存率至關重要。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 2 則推文 · 2025年12月12日 晚上8:13
今年人工智慧語音領域一個有趣的進展是——模型被“變差”,以使其聽起來更像人類。 我見過的一些例子? 增加延遲、增加背景噪音、降低反應速度(不要在暫停時立即回應)、降低被打斷的可能性(不要因為填充詞而停下來)
我預測,明年即使是普通的語音助手,聽起來也會與真人幾乎沒有差別。 這也為消費者聲音的應用開啟了更多可能性,因為「最後2%」的真實感可能對提升用戶體驗的留存率至關重要。