局部麻醉一個人的手指,他將連最基本的劃火柴的動作都會喪失準確率。表面上我們以為抓起火柴,劃火柴,只需要"指頭的能力",實際上,它依賴於最底層的指尖上的複雜觸覺。 沒有觸覺回饋,人類的手就是一個笨拙的夾子。 Meissner小體(梅斯納小體)位於表皮和真皮交界處,特別密集於指尖、嘴唇、手掌。橢圓形結構,由層疊的扁平細胞包裹神經末梢。專門感知輕觸和低頻振動(10-50Hz)。 Merkel細胞最靠近皮膚表層,與神經末梢形成複合體。慢速適應型-只要壓力持續存在,就會持續發送訊號。 Pacinian小體(帕西尼小體)最大的觸覺感受器,肉眼可見,像個微型洋蔥-由幾十層同心圓狀的結締組織包裹一根神經纖維。 Ruffini小體梭形結構,位於真皮深層。慢速適應型,對持續的壓力和皮膚拉伸敏感。當你握緊一個物體,或感受到手指關節的位置和角度,Ruffini小體在提供持續的狀態報告。 這就是為什麼我對現在人形機器人的訓練方法很悲觀。因為人類每一個「宏觀」動作的底層,都鋪滿了密密麻麻的「微觀」感應器-皮膚。 馬斯克的擎天柱,端到端的視覺訓練。攝影機擷取資訊,神經網路輸出動作。聽起來很美:AI看,AI學,AI做。一切都交給算力,相信大力出奇蹟。 但這是在用"眼睛"取代"皮膚"。 一個人閉著眼睛,依然能從口袋裡掏出鑰匙。因為指尖能感知形狀、重量、溫度、紋理。這些訊息的密度,是視覺永遠無法企及的。你可以用相機看到鑰匙,但你看不到"抓握鑰匙時,拇指和食指之間那0.1毫米的微調"。 端對端訓練的本質,是在用一個低頻寬的訊號源(視覺),去模擬一個高頻寬的控制系統(觸覺+本體感覺)。這是降維打擊——反向的。 所以你看到的示範影片裡,機器人的動作都慢得像太極。不是因為馬達不夠快,是因為沒有即時的觸覺回饋,它必須用"慢"來換取"穩"。每一次接觸都是一次賭博,每一次力的施加都是一次盲打。 人類嬰兒用六個月學會抓握,用的是什麼?是百萬次的觸摸、擠壓、鬆開、再觸摸。每一次,指尖都在告訴大腦:"這個力度,這個角度,這個結果。"這是一個閉環。 端到端訓練呢?沒有閉環。或說,有一個殘缺的閉環-沒有皮膚因操作失誤感受到的疼痛,沒有心裡因疼痛而產生的懊惱。只有人為的,對,或錯。粗略、淺薄的獎賞機制,如何打造真正的「靈巧手」?
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。