简单跟大家聊一下明天即将开始的理想Ai talk第二季。
七月份,理想的VLA大模型即将伴随着理想i8正式面世,这是截止目前,智能驾驶领域最高等级的人工智能大模型,也必将对现阶段的自动驾驶带来全新的体验。
现阶段理想的端到端+VLM大模型,本质上是一个高位截瘫的聋子和一个四肢健全的瞎子的组合,高位截瘫的聋子负责描述他看到的东西,指挥四肢健全的瞎子背着他前行。
两个人之间的沟通成本非常高,而且几乎无法干涉到对方的执行。一旦聋子的描述出现问题,瞎子就无法正常的行进,瞎子走错路,聋子也只能不断的调整话术去跟瞎子沟通。只要是两边需要沟通,沟通时间成本就一定是居高不下的,这也就是现在端到端+VLM经常遇到在复杂路况下遇到的延迟问题。
大部分的动物,都是依赖本能在对世界做出反应,本质上确实是残疾的,这也就是为什么Ai talk 里面提到了动物的原因。
那回到VLA,中文全称应该是视觉-语言-行动大模型,这三个要素,其实就是人的基本行动原则,眼睛看到的东西,听到的语言,简单的动作可以直接执行,复杂的动作,想一想再执行,减掉了不必要的沟通成本,也就将无谓的延迟消除掉了。
对于自动驾驶来说,消灭判断延迟,就能避免大部分的卡滞,解决有时候感觉智驾傻乎乎的问题。
从动物到人,这个比喻真的非常恰当,越来越期待明天的Ai talk第二课了
理想AI Talk第二季