cha

当ChatGPT遇到智能辅助驾驶 老司机直呼内行

  最近网络上最热门的话题大概是“ChatGPT会取代人的哪些工作?”“哪些人群需要重新规划职业生涯”,当然也会有相反的观点,“某某工作不可被ChatGPT取代”。突然爆火ChatGPT是由美国OpenAI研发,上线仅仅两个月,月活跃用户就已经达到了1个亿。能够如此迅速的积累起大量用户群体,用过的人都知道ChatGPT的独到之处,那就是ChatGPT的“人味儿”很浓。

  简单举几个例子,可以明显看到ChatGPT并不是冷冷冰冰回复了你,除了举一反三它还能逻辑的列举出1、2、3、4条,这种经过“思考”的感觉让它身上的“机械感”弱化了很多。

  也许大家都体验过,在某宝上的客服自动回复、语音智能客服,虽然是已经做到了有求必应,但跟ChatGPT相比却显得“脑子不太好使”的样子。这种感觉就像一种桌游“猜猜我是谁”,双方都是在不断用问题减去错误答案,通过不断筛选最终剩下的就是正确答案。这种方式仅仅是做到了初步自动化,距离ChatGPT这种打破人们传统认知的惊艳感还相差很远。

  基于Transformer模型,从2018年开始GPT-1到GPT-2再到GPT-3,直至如今的ChatGPT,每一代模型的进化,都在让GPT更加拟人化,更加具有处理通用语言任务的能力。ChatGPT的出现,很容易让人联想到好莱坞电影《我,机器人》当中的场景,几乎绝大多数的工作都被机器人取代,这也是行业认为ChatGPT有着极大的商业想象空间。

  GPT-1是通过预训练再结合下游任务finetune的传统方式,参数量也比较小,只有1.7亿。GPT2则通过Prompt实现了多任务学习,并且参数量提升到了15亿。GPT3开始在业界引起关注,核心原因在于其参数规模暴涨到1750亿,并实现了能力的突破。现在,ChatGPT更是在GPT3的基础上,引入RLHF(基于人类反馈对语言模型进行强化学习)技术,通过人类行为反馈来选出最优答案,取得了惊人的效果。通过更强的自我学习能力,它有更高的准确性、更高的适应性,能够胜任各种语言领域的任务。

  通过GPT的发展历程来看,除了在模型参数量上有近1000倍的提升外,实现GPT3到Chat GPT的龙门一跃,最重要的是ChatGPT引用了RLHF(基于人类反馈对语言模型进行强化学习)的训练方式,更好的利用了人类知识,让模型自己能够判断其答案的质量,逐步提升自己给出高质量答案的能力。这个思路,与毫末在自动驾驶认知决策上的思路不谋而合。

  与魏牌一起打造国内首个可量产城市NOH技术的毫末智行,已经在智能驾驶领域,率先开始对ChatGPT背后所采用的Transformer模型以及RLHF算法等相关技术的探索。

  与ChatGPT所要处理自然语言的文本数据不同,自动驾驶需要处理的数据维度、数据量更加庞大复杂,但其采用模型的训练逻辑是相同的。从效果上看,基于ChatGPT所达成的“人味儿”,也就是“所答即所问”的泛化效果,正是自动驾驶认知决策同样追求的。毫末智行通过引用了RLHF的训练方式,让车辆的驾驶策略、驾乘感受更像“老司机”,在自动驾驶领域成就一番新景象。

  与GPT的进化相似,毫末智行的认知驾驶决策也是有过多次的更迭。在第一阶段,毫末引入了个别场景的端到端模仿学习,直接拟合人驾行为;第二阶段,毫末通过大模型,引入海量正常人驾数据,通过Prompt的方式实现认知决策的可控可解释。在当前的第三阶段,毫末尝试通过引入真实接管数据,尝试通过RLHF这种训练方式,将其当作改进认知决策的正样本来学习。为此,毫末构建了一个 <旧策略、接管策略、人工label策略> 的pairwise排序模型。基于这个模型,毫末构建了自动驾驶决策的奖励模型(reward model),从而在各种情况下做出最优的决策。

  通过这一认知大模型,将使得车端决策更加像人类老司机。比如,在路口排队等待红灯的决策中,车辆可以像老司机一样,根据车辆距离路口和前车的距离,选择提前减速和稳定刹停,当绿灯之后前车启动,也可以丝滑的启动,而非根据之前所设定的启停条件进行刹停和起步,驾驶决策将越来越接近优秀的人类司机,而非人类司机的均值水平。

  这种极具“人性化”的驾车方式,正是搭载毫末智能驾驶产品的车辆所追求的效果——提升整体驾乘感,行驶风格更像老司机。目前,通过这一大模型的训练方式,在例如掉头、环岛等公认困难场景,场景通过率提升了30%以上。

  技术的探索是无止境的,通过AI技术赋能的自动驾驶让未来出行充满了想象力。不过无论技术发展什么样,最终目的依然是服务好用户,让更多人享受到智能驾驶的安全与便捷。魏牌与毫末将始终保持对前瞻性技术的探索和应用,致力于为用户打造更智能、更安全、更便捷的全场景智慧出行体验。


您可能还会对下面的文章感兴趣:

登录 注册 退出