出门问问李志飞:AI落地要实现软硬件集合和多场景联动

今日,出门问问CEO李志飞现身GIF2017大会,并发表《虚拟个人助理离我们还有多远?》的主题演讲,分享了对人工智能技术落地应用方面的最新进展和技术方面的挑战。

蓝鲸TMT 杨博丞

今日,出门问问CEO李志飞现身GIF2017大会,并发表《虚拟个人助理离我们还有多远?》的主题演讲,分享了对人工智能技术落地应用方面的最新进展和技术方面的挑战。

李志飞表示,AI的发展和应用,虚拟个人助理必然是一个很重要的方向,而出门问问的愿景是要做跨越多场景的虚拟个人助理,真正改变人们的生活。 

当大家希望未来的虚拟个人助理总是无所不知,无所不能,能像一个真正的朋友那样和你交流谈心,又能随时随地你需要她帮助的时候她都会出现,现实的VPA应用比较尴尬,往往只能沦为被调戏的对象。

随后,李志飞对导致这种巨大差异的原因做出了自己的思考:

首先,人机对话依然很难。很多时候,机器还是听不懂或看不懂人类世界的语言和事物。因为计算机跟人不一样,没有简单常识、没有复杂推理、没有合理的知识表示。

其次,现在的很多虚拟个人助理的尝试,实用性较弱。例如siri、cortana,普及率虽然很高,但使用率并不高。这是因为没有实现功能性的落地。如果只是查个天气、餐厅,手机和App能解决的事情,也就不需要智能助手了。

李志飞认为,要想去改变这个现状,让VPA更实用,主要有三个方向:

首先,需要找到更多更合适的应用场景,比如人机对话的交互,在公共场所一定不如在私家车里;

其次,需要端到端的问题解决,如果仅仅是查询个天气,打开手机看一眼也不麻烦,但如果能控制室内、车内温度,可能还要解决更多的互联和交互。

最后,需要让用户能够统一便捷的管理,用户的需求是分散的,要端到端的解决问题,设备也是分散的,但怎么能让用户通过统一的指令、操作、控制来简单管理分散的设备?

基于以上三个方向思考,李志飞认为AI的落地应该应该是软硬件集合和多场景联动,可以从三个方面转为实践:

1.交互体验的不断优化

2.软硬结合的解决方案

3.统一账户下的多场景联动

在交互上,李志飞称出门问问提出了以语音交互为主的综合智能交互。李志飞认为语言本来就是人类最主要的交互方式,也是实现虚拟个人助理最便捷、最常用、也适用性最广的交互方式。在语音的基础上,针对不同场景的需要,出门问问的产品还辅助以手势、触控、计算机视觉等综合交互方式。

而在语音交互之外,出门问问目前还实现了无手无屏的操作。比如,在问问魔镜Ticmirror上,采用DSP数字信号处理器配合双麦克风阵列方案,确保在车内噪音环境里也可以听得清用户指令。

第二是软硬结合实践。出门问问采用全栈式的解决方案,即从算法做到系统再做到硬件让用户的需求落地。

第三个实践是多场景联动。通过设备联网、统一账户、操作系统独立开发的前提,完成了个人、智能设备、家居等多场景联动。

多场景联动的实现必须是在设备联网、统一账户、操作系统独立开发的前提下实现的。而李志飞对于多场景联动的理解是,“不论是穿戴、家里还是路上,所有的智能终端,其实都是入口,这个入口背后是统一的虚拟个人助理服务。”

随后,出门问问产品总监林宜立现场展示了出门问问系列产品相关的联动,从问问手表Ticwatch 2一键发送地址到问问魔镜Ticmirror并开启导航,上班途中收到问问魔镜的推送,提醒家中的灯没关,并语音关灯等。

最后,李志飞还总结称,目前离像钢铁侠电影中Javis那样的虚拟个人助理可能还很遥远。但现在已经找到了清晰地可实现的路径。出门问问希望重新定义下一代的语音交互。

“以软硬结合、多场景联动,做能跨越多场景的虚拟个人助理是我们今后未来的发展方向。” 李志飞说道。