实测车载DeepSeek:做北京旅游攻略 避开喝豆汁儿那种

内容摘要接入DeepSeek后,理想又为车机自研了一个推理模型:它能帮你编故事哄孩子,提供买房建议,还能制定旅游攻略,直接筛掉你不想要的体验。虽然此前的推理模型也能胜任这些任务,不过理想自研推理模型有所不同——它能自主分析,你的问题需要不需要思考,

接入DeepSeek后,理想又为车机自研了一个推理模型:

它能帮你编故事哄孩子,提供买房建议,还能制定旅游攻略,直接筛掉你不想要的体验。

虽然此前的推理模型也能胜任这些任务,不过理想自研推理模型有所不同——

它能自主分析,你的问题需要不需要思考,需要深度思考还是短思考。

行业争着接入了DeepSeek的当下,理想选了一条新路径,打造了「汽车版DeepSeek」。

汽车版DeepSeek有什么特点?

为什么理想要花大力气自研推理模型,而不是直接上车DeepSeek?

带着这些问题,智能车参考第一时间上车“拷问”了一番理想同学:

不是,你一句“我不喝豆汁儿”,他就真给你做北京一日游攻略啊。

实测「汽车版DeepSeek」

更新理想OTA 7.2版本后,进入语音设置界面会看到一个深度思考的按钮,就像咱们日常用的DeepSeek一样,点击打开:

你也可以用语音对话,让理想同学帮你打开。

不过与常见推理模型不同的是,即便打开了深度思考开关,理想同学也不会每条对话都陷入沉思,而是模型自主决策要不要思考,要思考多久:

车控命令「不思考」,理想同学直接执行简单需求「短思考」,车机上方会显示生成中

复杂需求才「深度思考」,理想同学还会说「emmm,我得想想」

实际体验下来,像“我好热啊”、“腰好酸”、“还有多久到目的地”这类对话,即便是处于「深度思考」模式下,理想同学也会分别打开空调、座椅按摩、显示目的地,瞬间响应,无需思考。

而对于车主的一些复杂需求,比方说,你想去北京旅游,但又不想品鉴老北京豆汁儿,那就直接把定制攻略的需求说给理想同学。

稍等几秒,私人定制的旅行攻略就出来了,精确到每个小时去哪儿玩,吃什么(pass掉了豆汁),花多少钱。:

家孩子在车上不睡觉闹腾,你可以让TA现编个故事哄哄孩子:

老婆打电话沟通房子买哪儿,你也可以问问理想同学:

这都是理想同学深度思考后给出的答案,而且比常见的推理模型响应要快一点。

自主选择思考长度,更快的深度思考,这背后是怎么实现的?

「汽车版DeepSeek」的实现过程

理想此前自研的MindGPT大家都比较熟悉了,「汽车版DeepSeek」实际就是以MindGPT为基座模型,进行了后训练,指令微调和强化学习多阶段优化。

首先,由于模型能力和数据质量直接相关,所以理想在训练数据上做了非常细致的工作。

据介绍,理想基于过去已有的1100多个技能体系,根据问题复杂度和场景,对数据做了精细归类。

数据类型主要分三种:

第一类,适合做长推理的多轮对话样本,规模在数十万级,用DeepSeek去产出思考过程,然后将产出结果作为训练深度思考能力的数据。

第二类,不适合做长推理,但是仍然需要短思考的数据,还是借助DeepSeek加工形成的短思考数据,规模大概在十万级。

第三类则是以往存储的不需要思考的数据,这部分数据最多,据了解规模在百万级,理想从中做了抽样。

这三类数据最终合在一起对模型做后训练,模型就具备了长思考能力,同时也会自主决策是否需要思考,以及思考长短。

完成模型训练后,理想又遇到了另一个痛点:

如何让模型在深度思考的同时,又能响应的更快?

理想关注的首要指标是首token响应时间,最快可达0.3秒。

背后主要是三项措施:

PD分离,将Prefill和Decoder分离部署由于Prefill阶段对首Token影响最大,这一阶段采用高性能Attention机制多卡并行推理工程优化

看上去实现过程并不复杂,但实际上理想遇到了很多挑战,春节复工归来就定下了4月初上新的时间点,然后开启冲刺,时间紧,任务重。

为什么理想车端不直接用DeepSeek,而是自研推理模型?

为什么自研车端推理模型?

据理想汽车透露,其打造车端推理模型有内外两大因素:

据介绍,实际上此前理想的车主就有这方面需求。有的车主日常会问车机一些时事新闻,然后想了解背后的投资建议,比如最近疯涨的金价。

也有车主上班路上突然接到通知要开会,但是对会议主题涉及的市场又不够了解,想让模型归纳相关信息进行分析。

过去的模型不能满足车主这方面的需求,理想便考虑上车推理模型。

然后DeepSeek火爆海内外,加速了上车过程。

DeepSeek强大的破圈效应让很多用户第一次了解到AI的威力,原来AI可以深度思考,提供如此强大的分析能力。

有的车主就直接来问理想:

你们什么时候接入DeepSeek?

这样的问题,相信业内不只有理想收到了。这也是为什么春节复工后,一众车企争先宣布接入DeepSeek。

实际上,理想同学App此前也接入了满血版的DeepSeek。

那为什么还要理想要在车端自研推理模型呢?

理想汽车认为,DeepSeek更倾向电脑和手机等终端场景,车载场景更加垂直,不管是车主的相关知识需求,还是对话要求的响应速度,都需要打造一个「汽车版DeepSeek」。

现有的推理模型,一般思考时间都比较长,而且思考后输出的内容也很长,但车主并不是每次对话都需要一个很丰富的内容作为回应。你是个好模型,只是咱们不合适。

所以理想认为,需要一个「汽车版的DeepSeek」,能提高模型思考能力的同时,也能更灵活快速地响应车主对话,避免车主问一个问题无法得到及时回复,而且回复显得冗长。

模型自主决策是否思考和思考长度,这区别于目前的主流方案。

这一特性有希望推广到其他场景吗?

理想汽车也对未来趋势做出了展望,这很可能会是后续AI助手应用的一个发展方向。

结合当前行业进展,以及理想对理想同学的追求来看,或许理想未来会在端侧部署大模型,以加快响应车主相关需求。

也有分析指出,由于英伟达Thor即将上车,更充沛的算力和前瞻设计,也为未来实现「舱驾一体」提供了可能。

会深度思考的理想同学,是不是朝着李想此前提出的「硅基家人」,又近了一步doge?

理想自研推理模型,解决你的痛点了吗?

 
举报 收藏 打赏 评论 0
24小时热闻
今日推荐
浙ICP备19001410号-1