為什麼多模態模型訓練都會保留色情圖片? 前幾天聽播客才知道。 如果模型訓練時去除對裸體色情圖片,AI 就會失去對人體結構的理解能力。 就像一個好的畫家需要研究解剖學才能知道人的結構一樣,模型也需要這些資料。 所以,只會標記NSFW(Not Safe For Work) 模型輸出再去掉這類圖。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 1 則推文 · 2025年11月7日 凌晨3:26
為什麼多模態模型訓練都會保留色情圖片? 前幾天聽播客才知道。 如果模型訓練時去除對裸體色情圖片,AI 就會失去對人體結構的理解能力。 就像一個好的畫家需要研究解剖學才能知道人的結構一樣,模型也需要這些資料。 所以,只會標記NSFW(Not Safe For Work) 模型輸出再去掉這類圖。