今天我提了一辆崭新的、闪亮的HW4特斯拉Model X,立刻就出去试驾了FSD(完全自动驾驶),就像我过去五年几乎每天都做的那样。总而言之……我惊艳到了——它的驾驶体验真的非常棒,平顺、自信,明显比我之前那辆HW3(我的上一辆车)好得多,更比我大约九年前在特斯拉上班第一天开的那辆车(当时在280号高速公路上行驶,每次路面稍微有点弯或坡度,我都得手动干预)好太多了。(注意:这是v13版本,我的车还没升级到最新的v14版本。) 在高速公路上,我感觉自己像是坐在一个超高科技的磁悬浮列车舱里——车子稳稳地停在车道中央,我则透过Model X的高位全景前窗欣赏沿途风景,聆听着(令人惊艳的)音响系统,或者和我的Grok聊天。在城市街道上,这辆车轻松应对了许多棘手的路况,而这些路况在几年前还让我辗转反侧难以入眠。它在狭窄的车道上巧妙地避开了迎面而来的车辆,优雅地绕过了施工路段和暂时停在车道上的车辆,精准地把握了左右两侧来车的时机,优雅地让行了在四向停车标志处违规行驶的车辆,找到了挤进拥堵车流中转弯的办法,超越了正在上客的公交车,但仍然在被公交车挡住的停车标志前停了下来,最后绕着停车场转了一圈,找到一个车位,然后……停了下来。总之,这是一次完美无瑕的驾驶体验。 我以前习惯于在附近进行一次短暂的试驾,然后拍下20个视频片段,找出可以改进的地方。现在,我做了和以前一样的事情,却什么也没发现,这对我来说是全新的体验。完美的驾驶,没有任何记录。我知道团队在“9”的漫长征程中还有很多工作要做,但最酷的是,我们现在不再只是在附近进行一次大约1小时的试驾就能发现问题,而是需要亲自去车队挖掘才能发现。以前,我对大规模自动驾驶(以特斯拉那种完全可扩展、仅视觉、端到端的方式)的巨大潜力只是在理论上理解,但现在,只要出去试驾一下,就能直观地感受到它。等等,当然,由一个完全专用的“驾驶大脑”神经网络处理的60Hz环绕视频流肯定有效,而且肯定比人类驾驶员更好、更安全。难道有人不这么认为吗? 上周我也看了@aelluswamy 在 ICCV25 上的新演讲(https://t.co/RdaM23kvez),其中提到了一些推动这一进展的底层技术组件。长时间(例如约 30 秒)的传感器数据流(视频、地图、运动学、音频等)被输入到一个大型神经网络中,输出转向/加速数据,并可选择添加可视化辅助数据。这正是软件 1.0 到软件 2.0 全面重写的愿景,它能够完全扩展以处理来自车队中数百万辆车的数据流以及芯片的计算能力,而不是某些工程师巧妙地使用了一个带有未定义内存和运行时特性的新型 C++ 抽象类 DoubleParkedCarHandler。视频中还有更多关于新兴的“大规模机器人+人工智能技术栈”发展方向的线索。世界重建器、世界模拟器、“梦境”动力学、强化学习,所有这些组件都是通用的、基础性的、基于神经网络的,汽车实际上只是机器人的一种……人们理解这一点了吗? 热烈祝贺团队——你们正在打造未来的神奇产品,太棒了!我爱我的车<3。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。