精灵女佣正的可以帮助用户做家务嘛?
凭什么断定它是人工智能,而不是人工智障?
鲁柏民用疾雷汽车的自动驾驶功能来举例,他说道疾雷汽车智能驾驶功能,其实就是叶总当初在采访里憧憬的智能识别技术。
这种智能识别技术是相通的,是巨兽工业开发出来非常成熟的识别技术,是必然会被应用到精灵女佣身上的。
鲁柏民用3D动画方式,展现了智能识别系统所看到的世界,与人类肉眼观察到的世界有那些区别,以及疾雷智能识别系统是如何工作的。
3D动画中,一辆疾雷汽车行驶在拥堵的马路上。
在疾雷汽车周围马路上,遍布着几十个绿色、大小不一的正方体和长方体。
这些绿色正方体和长方体,是马路上的汽车。
再根据轿车与货车的体积差别,分别用不同大小的绿色方框表示。
在马路边缘,是体积更小的橙黄色长方体,和红色的立方体。
橙红色长方体表示摩托车和电动车,红色立方体表示的是人。
除此之外,还有用实线和虚线表示的马路交通线,以及用不规则形状表示的道路绿化。
以及出现在路上的其它物体,包括三角架、警示牌,以及交通锥等等。
这就是智能识别程序看到的世界。
没有绚丽多姿的色彩,没有神态不一的人群,没有五花八门的汽车品牌。
只有可以被数字化的线条,和模型化的立体图形。
鲁柏民告诉大家,不要觉得这些图形看似简单。以为一个摄像头外加一个图形分析程序,就能完成这些图像采集。
疾雷汽车为了能实现智能识别功能,不仅在车身周围安装了六个高清探头,在车顶扰流板处,还安装了一台长焦摄像头,可以在人类肉眼观测范围外,就锁定远处信号灯发出的红绿信号。
除此之外,疾雷汽车周围还安装有毫米波雷达,激光雷达,一同组成感知模块共同工作。
感知模块对疾雷汽车周围上百个保持运动的交通参与者,进行实时检测与追踪,并且对他们的下一步行为和轨迹进行预判。
如果遇到复杂物体,例如道路垃圾,临时路障之类。
感知模块还会根据采集到的数据进行融合判断,路面较小的物体,激光雷达采集到的信息非常稀疏,高分辨率摄像头采集到的图像清晰,但单一图像又缺乏深度信息,不足以主导判断结果。
这时感知模块就会通过多帧检测结果,与图像信息进行融合,得到物体厘米级的坐标精度信息。
这些信息传递到下游规划与控制模块,让它们来主导疾雷汽车的提前减速或避让选项。
这也是很多用户们在开启疾雷汽车自动驾驶后,惊喜发现自动驾驶功能,竟然能提前锁定他们视野盲区外的行人,对他们行为轨迹提前预判。
用户们再也不用担心有人突然横穿马路,或是冷不丁一辆摩托车从后面飞快蹿过来占道。
因为疾雷汽车的感知模块是360度工作,无论视野角度还是高度都远超人类双眼。
只要是出现在感知模块中的交通参与者,都会被牢牢锁定。
哪怕行人暂时被车辆或绿化遮挡,感知模块也会根据他们轨迹进行预判。
鲁柏民讲解完了疾雷汽车的智能识别程序工作原理,又把3D动画换成了一名站立在房间里的机器人。
机器人当然是精灵女佣,此时精灵女佣看到的世界,远比疾雷汽车在路上,看见的世界更复杂。
但无论环境复杂多少倍。
它们的环境感知模块,与下游规划控制模块工作原理是相同的,处理起来只是算力占用的问题。
汽车变成了家电沙发,道路变成了家里地面,那些路障绿化,变成了家里的瓶瓶罐罐,还有锅碗瓢盆。
鲁柏民强调,精灵女佣的感知模块一定比疾雷汽车复杂多倍。
在无数线条与图形组成的单调世界里,精灵女佣通过这些复杂的传感器,完全可以精确的把物体坐标定位到毫米级。
有了物体坐标,就等于有了可执行的运动轨迹。
以精灵女佣拿起一件衣服,丢入洗衣机为例。
用户在下达命令后,精灵女佣只需要融合用户的眼神、语言、和手势动作,就能对衣物进行锁定。
接着规划模块将拿起衣服,再到丢入洗衣机的一整套动作,拆解成几百到几千条,精确到毫米级的空间运动轨迹。
再通过控制模块,去控制热神经单元组成的肌肉运动系统,完成这些空间轨迹动作。
这些动作的计算过程是复杂的,但在强悍的处理器面前,只需要0.01秒,就能计算完毕。
精灵女佣的智能程序,只需要事先导入各种品牌的洗衣机参数,还有衣物与洗衣液的配比。
就能在超算中,进行几百万次的模拟计算,找出丢衣服最流畅的动作轨迹。
鲁柏民告诉观众们,在精灵女佣的眼里,拿起衣服丢到洗衣机的一整套动作,和它拿起菜刀,把一块土豆切成丝,再丢进锅里没有什么不同。