危险的“极限”测试,揭秘特斯拉自动驾驶背后的试车员队伍
北京时间 11 月 1 日,《商业内幕》杂志周四发文称,自 2013 年以来,埃隆・马斯克 (Elon Musk) 一直宣称,特斯拉将推出自动驾驶汽车。
为了实现这一目标,特斯拉组建了一支专业的试车员队伍,测试自动驾驶技术。这些试车员属于特斯拉内部所称的“牛仔竞技项目”(Project Rodeo)。
特斯拉的自动驾驶测试伴随着危险该项目的试车员表示,他们把特斯拉自动驾驶系统推向了极限,努力缩小辅助驾驶系统和完全自动驾驶系统 (FSD) 之间的差距。他们在开放的街道上测试尚未发布的系统,会遇到其他车辆、骑行者和行人。对于特斯拉来说,这些测试对于该公司推进自动驾驶技术至关重要。
据试车员们透露,他们有时会遇到危险情况,尤其是“牛仔竞技项目”下属“关键干预”团队的驾驶员。“关键干预”团队试车员表示,他们经过了培训,被要求在接管汽车之前等待尽可能长的时间。特斯拉工程师表示,这么做是有原因的:汽车自动驾驶的时间越长,他们收集到的数据就越多。自动驾驶技术和安全方面的专家表示,这种方法可以加快软件的开发,但会给试车员和公路上的人带来安全风险。
“这就好比你是一个骑在公牛上的牛仔,尽量坚持得越久越好。”一名前试车员说,他曾在旧金山的“关键干预”团队接受过培训。
特斯拉自动驾驶技术关系重大。马斯克在 2022 年表示,自动驾驶决定了“特斯拉是值很多钱还是基本上一文不值”。摩根士丹利分析师亚当・乔纳斯 (Adam Jonas) 上月在一份报告中写道,特斯拉未来的估值“高度依赖于其开发、制造并将自动驾驶技术商业化的能力”。由于特斯拉的自动驾驶出租车发布会令人失望,特斯拉股价在次日大跌了 10%。在特斯拉 10 月 23 日发布财报后,该股出现反弹,今年为止累计上涨超过 3%。
“危险驾驶”
《商业内幕》采访了美国加州、得州和佛罗里达州等州的九名现任和前任“牛仔竞技项目”项目试车员和三名特斯拉 Autopilot 工程师。这些试车员负责训练特斯拉的 FSD 和 Autopilot 系统。尽管这两个系统的名称中都带有自动驾驶,但它们仍需要一名有驾照的司机来驾驶。
其中八位试车员描述了他们在过去一年中的经历,主要集中在去年 11 月至今年 4 月。他们都表示,自己没有卷入过事故。
五名在 2024 年为特斯拉工作的试车员表示,他们曾经有几次险些发生碰撞,包括差点撞到一群行人。一名在得州工作的前“关键干预”团队试车员表示,他们有时会在深夜前往市里的酒吧区,观察特斯拉 FSD 如何应对醉酒的顾客在酒吧打烊后成群结队地出现在街道上。旧金山的一名前试车员回忆起在斯坦福大学附近行驶,测试 FSD 在他们需要接管前能让车辆离人行横道上的人有多近。第三位“关键干预”团队试车员表示,他们允许汽车加速闯黄灯,在高速公路上以低于限速的 35 英里 / 小时行驶,以避免车辆脱离自动驾驶系统。
特斯拉 Autopilot 辅助自动驾驶系统一位前 Autopilot 工程师表示,虽然测试是在开放道路上进行的,但特斯拉首先会进行数百次模拟,有时会在封闭场道路上测试难以处理的场景,然后才将新系统推送到试车员的车辆。
特斯拉没有回应有关“牛仔竞技项目”及其自动驾驶技术的详细问题。
“关键干预”团队
领英资料显示,特斯在今年大举招聘,至少在 6 个美国城市招募了试车员。
2023 年的一份招聘启事称,试驾员需要“安全驾驶习惯、无不良驾驶记录以及至少 4 年的持证驾驶经验”。八名试车员告诉《商业内幕》,入职过程包括两到三周的实践培训,包括有培训员坐在副驾驶座位上的试驾。
根据试车员提供的信息和内部文件,“牛仔竞技项目”中有一个专门小组,他们会在地图上随机选择一些地点,在这之间驾驶,以模拟网约车司机的工作。而另一个被称为“黄金手册”团队的小组则完全手动驾驶,不使用任何辅助功能,以便为 FSD 系统提供规范、无误的驾驶表现。
“关键干预”团队试车员是“牛仔竞技项目”中最有经验的一批人,即使在自动驾驶系统犯错后,他们也会让系统继续驾驶。据三名“关键干预”团队试车员和另外五名熟悉该团队任务的试车员表示,他们接受的“干预”(手动控制汽车) 培训只是为了防止撞车。
根据试车员提供的信息和内部文件,当 FSD 启用时,车辆有时会闯红灯、转入其他车道,或未遵循规定的限速。试车员表示,他们在这些情况下仍然会允许 FSD 保持对汽车的控制,因为主管鼓励他们尽量避免接管汽车。
马斯克卡内基梅隆大学的自动驾驶专家菲利普・库普曼 (Philip Koopman) 表示,特斯拉的关键干预方法是“不负责任的”,该公司应该在封闭场地上模拟所有“关键场景”。“通过让软件继续错误操作,达到试车员需要避免碰撞的程度,特斯拉实际上把风险强加给其他未同意作为测试对象的道路使用者。”
风投公司 NIVC 的合伙人、前自动驾驶创业公司 Argo AI 的运营总监亚历克斯・罗伊 (Alex Roy) 表示,企业应该在自动驾驶系统一旦偏离正常轨道时立即进行修正,特别是在公共道路上。“你应该在模拟环境中处理这些错误,而不是在开放道路上,”罗伊说,“现实世界的测试是必要的,但不能在现实世界犯错误。”
上述前特斯拉 Autopilot 工程师表示,他们怀疑计算机模拟是否足够精密到创造出真实驾驶所产生数据的水平。这位前工程师说,为了帮助软件改进,试车员最好尽可能不要干预。
“如果你的父母一直扶着自行车,你永远学不会骑车。”该工程师说。
现实世界的测试惊心动魄,“牛仔竞技项目”的试车员们对此深有体会。“在整个八小时轮班中,你几乎都是在肾上腺素的刺激下驾驶,”一位来自美国西南部的前试车员说,“你会有一种感觉,那就是危险即将发生。”
为了工作面临危险
据“关键干预”团队试车员回忆,他们曾遇到过多次感到不安全的情况,但他们认为干预汽车可能会让他们丢掉工作。一名得州前试车员回忆说,只有在 FSD 几乎将车撞向一个停在路口的车辆侧面时,他才接管了汽车。
非“关键干预”团队的试车员也表示,他们承受着压力,要尽可能地把自动驾驶汽车推向极限。五名现任和前任试车员称,他们被告知,如果对系统的行为感到不适,可以进行干预,但有时如果被认为接管得太早,可能会收到来自主管的反馈意见。
特斯拉前试驾员和数据分析师约翰・伯纳尔 (John Bernal) 表示,他们早在 2022 年就处理过危险情况。就是在那一年,伯纳尔被特斯拉解雇。他说,自己之所以被解雇,是因为他在自己的 YouTube 频道上分享了他的私人特斯拉汽车在启用 FSD 时发生故障的视频。他描述了自己为了收集数据而违反交通法规的例子。伯纳尔说,他的主管从未指示他违法,但他有时觉得这是获得公司想要数据的唯一途径。
他回忆起 2022 年的一次测试,目的是看系统识别红灯的能力。“我接受的训练是,等到车轮碰到白线时,我才能猛踩刹车。”他说,如果系统不能正常工作,他有时会停在十字路口的中间。
伯纳尔还曾训练自动驾驶系统识别“弱势道路使用者”。根据美国运输部的定义,“弱势道路使用者”为行人、自行车骑行者、滑板车或轮椅使用者以及在路上作业的工作人员。在此过程中,他手动驾驶一辆配备激光雷达和雷达传感器的特斯拉“真实数据采集车”,帮助系统绘制并识别物体。
“我会压过双实线靠近一辆自行车,”伯纳尔说,“我会慢吞吞地穿过一条满是醉汉的小巷,而且我还会非常粗鲁地靠近他们。”
行业惯例?
这些试车员的经历凸显出,特斯拉和其他汽车制造商在准备把他们的自动驾驶系统提供给更广泛消费者使用时,需要平衡技术开发和安全风险。
专家表示,公路测试至关重要,这有助于自动驾驶技术在进入市场前确定安全问题。美国国家公路交通安全管理局 (NHTSA) 的前安全顾问米西・卡明斯 (Missy Cummings) 表示,尽管做法各不相同,但她认为许多自动驾驶汽车公司很可能会采用类似于特斯拉的策略。
“从理论上讲,这些试车员都经过了培训,汽车最终也确实需要能够在公共领域运行。”卡明斯称。她补充说,清晰标识的车辆可以帮助公众更好地识别试车员。
Waymo 自动驾驶出租车两位前 Waymo 员工表示,他们也有一个类似于特斯拉“关键干预”团队的队伍,但 Waymo 的“关键干预”测试仅限于封闭赛道,且使用的是假人。通用旗下自动驾驶公司 Cruise 的两名前员工则表示,他们有测绘团队以及在封闭场地及公共道路上进行测试的团队,但与特斯拉不同的是,这些团队被指示在系统出现差错时立即接管,并且测试时车内至少有两个人。
Waymo 发言人表示,该公司的安全框架包括在受控环境和公共道路上进行严格的测试。Cruise 发言人则表示,该公司的车辆的设计初衷是完全自动驾驶系统,因此与特斯拉的驾驶辅助技术有着根本性不同。。
“狂野的西部”
安全专家指出,分散且有限的自动驾驶汽车法规以及汽车制造商的自我报告,创造了一个复杂的环境。在这种环境下,企业必须在公共安全与推进产品商业化之间找到平衡。
“关于自动驾驶测试的规定非常少,很大程度上依赖于企业的自我报告,”前 NHTSA 管理员、亚马逊旗下自动驾驶出租车公司 Zoox 的首席安全创新官马克・罗斯金德 (Mark Rosekind) 说,“如果企业不进行报告,就很难知道发生了什么。”
过去十年,美国监管机构已对包括特斯拉、Waymo 和 Cruise 在内的几家汽车制造商进行了调查,原因是他们的汽车卷入了与自动驾驶或辅助驾驶系统相关的事故。
特斯拉是众多试图让自动驾驶汽车成为现实的汽车制造商之一。在谷歌母公司 Alphabet 的支持下,Waymo 于 2020 年在凤凰城推出了首个无人驾驶出租车服务。
“在很多方面,这就像狂野的西部 (缺乏监管),”前 NHTSA 安全顾问卡明斯说,“在训练自动驾驶汽车或向公众告知测试方面,几乎没有什么监管。”