手机成为新一代微型服务器,这也符合Tim Berners-Lee“每个人都拥有自己的网络服务器”的观点。目前手机的性能和容量已经可以媲美一台台式计算机,更重要的是,为了减少对CPU的压力,手机拥有不同的协处理器。各协处理器各司其职,专门为手机提供不同的特色功能,例如iPhone从5s开始集成了运动协处理器,它能低功耗监测并记录用户的运动数据;MotoX搭载的协处理器可以识别你的语音/处理运动信息,从而在未唤醒状态下使用Google now功能。 手机上各种传感器可以从不同维度监测用户数据,如果手机成为下一代微型服务器,那么它需要承担着存储用户数据的责任。同时人工智能助手需要每个用户海量的数据作为基础才能更好地理解用户并实时提供帮助,成为“千人千面”的个人助理,所以手机存储和分析用户数据是人工智能助手的基础。 分析用户的非结构化数据需要大量的计算,为了降低对CPU和电池的压力,手机需要一块低功耗专门分析用户数据的协处理器。它能够低功耗地进行深度学习、迁移学习等机器学习方法,对用户的海量非结构化数据进行分析、建模和处理。 家庭也需要一个更大容量的服务器来减少手机容量的压力,例如24小时长期工作的冰箱、路由器或者智能音箱是一个很好地承载数据的容器。用户手机可以定期将时间较长远的数据备份到家里服务器,这样的方式有以下好处: 降低了手机里用户数据的使用空间 家庭服务器可以24小时稳定工作,可以承担更多更复杂的计算,并将结果反馈给移动端 用户手机等设备更换时,可以无缝使用现有功能 Google在2015年已经开始使用自家研发的TPU,它在深度学习的运算速度上比当前的CPU和GPU快15~30倍,性能功耗比高出约30~80倍。当手机、智能音箱等设备拥有与TPU类似的协处理器时,个人人工智能助理会到达新的顶峰。在17年9月份,华为发布了全球第一款AI移动芯片麒麟970,其AI性能密度大幅优于CPU和GPU。在处理同样的AI应用任务时,相较于四个Cortex-A73核心,麒麟970的新异构计算架构拥有大约50倍能效和25倍性能优势,这意味未来在手机上处理AI任务不再是难事。更厉害的是,iPhone X的A11仿生芯片拥有神经引擎,每秒运算次数最高可达 6000 亿次。它是专为机器学习而开发的硬件,它不仅能执行神经网络所需的高速运算,而且具有杰出的能效。 数据的进一步利用 人工智能的发展依赖于大数据、高性能的运算能力和实现框架,数据是人工智能的基础。在过去30年里,人类数据经历了两个阶段,孤岛阶段和集体阶段。 孤岛阶段 在没有互联网以及互联网前期,人类使用计算机基本处于单机状态,数据也只能存储在计算机本地。由于计算机性能较差,产品较为简单以及技术的不成熟,人类在计算机上产生的数据价值不大。 集体阶段 在互联网中后期和移动互联网时代,计算机行业开始往互联网发展并衍生出更多领域,例如网上社交、搜索等等,视频音乐等娱乐行业也开始互联网化;到了移动互联网时代,巨头们结合传统行业产生出更多的玩法。人类每天的活动逐渐创造出庞大的数据。 由于数据的庞大以及技术有限,个人没有能力对自己的数据进行存储和分析,个人数据对个人来讲仍然价值不大,但对于巨头来说就不一样了。巨头们有的是资金和技术,即使个人数据拥有太多特征,但放在一起成为群体数据时,巨头们可以通过数据清洗,建模等方法分析出相关群体的普遍特征,得出相关的用户画像,更了解自己的用户是谁,从而设计出更有针对性的功能和服务,探索出新的用户需求和衍生出新的产品。 随着近几年技术的成熟,巨头们可以做到一些相对简单的个人推荐。如亚马逊,它可以根据你的购买记录推荐相关商品给你,其背后的原理是通过分析大量的用户购买数据后得到的商品推荐。 由于服务器的普遍昂贵以及普通用户缺乏对数据处理的能力,而巨头们有能力使用户数据发挥更大价值,所以用户数据一直“默许”被Google、Facebook、苹果、腾讯、阿里、百度等巨头收集着,这是可以理解的。每个用户一天产生的数据涵括了社交、健康、购物、地理信息等等,但是巨头们的垄断和相互竞争,导致用户数据被各巨头分割和收集使用,再加上巨头们宁愿生产更多的产品进行竞争也不愿意使用户数据互通,导致用户数据发挥不出更大的价值。这也是人工智能发展道路上的一道很现实赤裸裸的门槛。 互通阶段 (责任编辑:admin) |