今天我提了一輛嶄新的、閃亮的HW4特斯拉Model X,立刻就出去試駕了FSD(完全自動駕駛),就像我過去五年幾乎每天都做的那樣。總而言之……我驚艷到了——它的駕駛體驗真的非常棒,平順、自信,明顯比我之前那輛HW3(我的上一輛車)好得多,更比我大約九年前在特斯拉第一天開的那輛車(當時在280號高速公路上行駛,每次路面稍微有點彎或坡度,我都得手動幹預)好太多了。 (注意:這是v13版本,我的車還沒升級到最新的v14版本。) 在高速公路上,我感覺自己像是坐在一個超高科技的磁浮列車艙裡——車子穩穩地停在車道中央,我則透過Model X的高位全景前窗欣賞沿途風景,聆聽著(令人驚豔的)音響系統,或者和我的Grok聊天。在城市街道上,這輛車輕鬆應對了許多棘手的路況,而這些路況在幾年前還讓我輾轉反側難以入眠。它在狹窄的車道上巧妙地避開了迎面而來的車輛,優雅地繞過了施工路段和暫時停在車道上的車輛,精準地把握了左右兩側來車的時機,優雅地讓行了在四向停車標誌處違規行駛的車輛,找到了擠進擁堵車流中轉彎的辦法,超越了正在上客的一圈,但仍然在停車位被停了下來,然後停車位,然後停車了最後一圈。總之,這是一次完美無瑕的駕駛體驗。 我以前習慣在附近進行一次短暫的試駕,然後拍下20個影片片段,找出可以改進的地方。現在,我做了和以前一樣的事情,卻什麼也沒發現,這對我來說是全新的體驗。完美的駕駛,沒有任何記錄。我知道團隊在「9」的漫長旅程中還有很多工作要做,但最酷的是,我們現在不再只是在附近進行一次大約1小時的試駕就能發現問題,而是需要親自去車隊挖掘才能發現。以前,我對大規模自動駕駛(以特斯拉那種完全可擴展、僅視覺、端到端的方式)的巨大潛力只是在理論上理解,但現在,只要出去試駕一下,就能直觀地感受到它。等等,當然,由一個完全專用的「駕駛大腦」神經網路處理的60Hz環繞視訊串流肯定有效,而且肯定比人類駕駛員更好、更安全。難道有人不這麼認為嗎? 上週我也看了@aelluswamy 在 ICCV25 上的新演講(https://t.co/RdaM23kvez),其中提到了一些推動這項進展的底層技術組件。長時間(例如約 30 秒)的感測器資料流(視訊、地圖、運動學、音訊等)被輸入到一個大型神經網路中,輸出轉向/加速數據,並可選擇添加視覺化輔助數據。這正是軟體 1.0 到軟體 2.0 全面重寫的願景,它能夠完全擴展以處理來自車隊中數百萬輛車的數據流以及晶片的計算能力,而不是某些工程師巧妙地使用了一個帶有未定義內存和運行時特性的新型 C++ 抽象類 DoubleParkedCarHandler。影片中還有更多關於新興的「大規模機器人+人工智慧技術堆疊」發展方向的線索。世界重建器、世界模擬器、「夢境」動力學、強化學習,所有這些組件都是通用的、基礎性的、基於神經網路的,汽車實際上只是機器人的一種……人們理解這一點了嗎? 熱烈祝賀團隊-你們正在打造未來的神奇產品,太棒了!我愛我的車<3。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。