分享

移动AI时代,iOS 14的“设备端智能”为何格外可贵

 三易生活 2021-01-15
说到智能手机上的AI,相信如今已经几乎没有人会感到陌生。无论是早已普及的AI语音助手、还是智能手机产品中已经普及的AI相机,亦或是许多手机厂商在发布会上都会强调的“机器学习系统优化”,都早就已经不算是什么新玩意了。
 
在这样的背景下,要想进一步提高手机的AI体验,厂商自然就需要引入一些更为先进的技术。比如近年来,一些品牌都推出了将云计算能力融入其中的解决方案,通过“端云结合”的方式来增强智能手机在例如语音输入、图像辨识、文字语义理解等方面的能力,甚至一些设备就连系统的底层优化都已经用上了云端的AI辅助。


这算不算技术进步?当然算。但智能手机AI性能的进一步强化,是不是一定就非得走“云计算”这条技术路线呢,至今从目前来看,在苹果的iOS 14上我们看到了不一样的答案。
 
  • 焕然一新的iOS 14,背后是苹果的“设备端智能”


初次见到iOS 14,可能大部分人与我们三易生活一样,首先注意到的都会是全新设计的小组件功能,新加入的“APP资源库”,大幅加强的隐私保护提示,以及精简化的来电呼叫与Siri语音界面。


总的来说,我们认为iOS 14的界面改变基本上可以概括为,“精简无用的装饰细节、呈现更多有用的信息”。不过,在更进一步的在使用了iOS 14的开发者预览版后,就会发现iOS 14并不是简单的对UI进行了改动。它的很多新增的细节功能在使用中都会令人感受到“似乎不简单”的内涵。
 
比如说在新增的小组件里,有一个名为“智能堆叠”的功能。开启之后,在不同的时间段、不同的地点,甚至是刚刚使用完其他的应用后,这个小组件都会显示出最适合的建议。例如在早上起床时,它会自动显示一天的天气预报;在通勤的路上,它会自动变成新歌推荐;而到了快下班的时候,这个小组件的内容可能又变成了路况信息。


另外,对于那些习惯于在iPhone上安装上百个APP的用户来说,此次iOS 14新增的App资源库,更是瞬间解决了APP分类归纳与快速查找的难题。但事实上,它并不仅仅是把APP按照用途类别自动进行归纳这么简单。在“APP资源库”界面中,位列第一的文件夹其实是系统根据当前地点、时间,以及用户行为,给出用户最可能需要的“应用建议”,并且往往还相当的准确。
 
不仅如此,在对于用户的人文关怀方面,iOS 14更是再次走在了行业的前面。经过强化的“旁白”功能,可以自动识别大量第三方APP中的按钮、文字、图片,甚至是视频内容,并将它们转化为描述性的语音进行智能提示。而新加入的“声音侦测”功能,则可以在周边环境中响起警铃、警报声,或者是婴儿的哭声时,自动在手机上弹出显眼的提示,这样一来,即便是听障人士,也可以在其帮助下获得更好的安全保障。


很显然,以上我们所讲到的iOS 14系统这些新特性,全部都是基于AI技术来驱动。但是据我们了解,苹果在移动端AI运算的实现方式上,却走出了他们特立独行的一条道路,也就是所谓的“设备端智能”。
 
  • 手机AI必须“云计算”吗?苹果的答案是否定的


什么叫“设备端智能”?通俗来讲,就是不依赖云计算,不依赖于和远程服务器之间的数据上传与下载,直接在手机上完成AI应用的环境感知、逻辑判断,以及模型计算这整个过程。
 
与“云+AI”相比,设备端智能到底有哪些好处?首先,由于设备端智能不依赖于网络的存在,因此哪怕是在网络信号不好的地区,当其他手机上的“云端AI”可能根本无法使用的时候,iPhone上的许多AI功能依然可以确保正常工作。


这一点,在iOS 14的翻译功能中体现得尤为明显。一方面来说, iOS 14的翻译功能从一开始就瞄准了用户在旅行及商务等环境下的实际需求,是以“能够自然的翻译连贯对话”为前提进行设计,在使用体验上轻松超越了许多仅能做到短语或单句翻译的同类软件。另外一方面来说,在整个翻译应用中,从语音转文字、语义分析、翻译,以及最终的文字转语音输出,如今都可以通过苹果自行开发的神经网络技术,在完全没有网络连接的情况下在iPhone上经由本机计算完成——既节约了流量,同时也带来了相比依赖云计算的同类应用,快得多的反应速度。
 
当然,低延迟和不耗流量甚至还不是设备端智能最大的好处。在涉及到用户敏感信息的应用中,还能够更好的保护隐私、彻底避免个人信息泄露,才是设备端智能相比“云端AI”根本性的区别所在。


事实上早在iOS 13.2中,大家所熟悉的Siri就已经实现了完全本地化的神经网络语音合成。而到了iOS 14里,系统自带的听写输入功能,也紧跟着转向了设备端智能解决方案。这意味着不管你是编辑文档、创建语音备忘录,还是平日里单纯习惯于用语音作为输入方式,iOS 14所有的语音辨识过程均完全不消耗流量在本地进行,并且一个字节也不会上传到云端。


类似的情况,则还有iOS 14中的智能相册。众所周知,当前不少手机都具备了对相册进行自动人脸识别分类、或是根据所拍摄的内容智能进行分组的功能。但如果这个过程中,手机需要借助云端算力才能完成的话,那么实际上就意味着你的相册已经在不知情的时候,被上传到了云端服务器上进行了“分析”。很显然,这并不是用户想要看到的情况,而这也正是为什么苹果在上线智能相册整理功能时,从一开始就将它设计为了只依靠手机端的算力自行识别,完全不涉及任何云端处理的原因。
 
  • 先进完善的用户体验,源自高度自主的技术积淀


当然,我们可以说,苹果对于用户隐私的保护是极度重视的,iOS 14对于应用权限的控制也是近乎严苛的。但是站在消费者的角度上来看,如果苹果的“设备端智能”本身性能表现不够好,AI计算速度不够快,那显然也会影响到用户的体验。换句话说,苹果之所以要做设备端智能,是因为他们想要更好的保护用户隐私;但其之所以能够在自家设备上全面实现设备端智能体验,则是源自他们有着自研处理器、自有操作系统,以及自主软件生态的优势。


论处理器的性能水准,苹果的自研芯片如今早已无人质疑。且不说前段时间苹果刚刚公布的自研Mac芯片计划,给业界带来了多大的震撼,就以如今iPhone 11里的A13仿生处理器为例,其内置的机器学习加速器模块,让CPU处理机器学习代码的速度比之前快了足足6倍,使得A13仿生处理器成为了少数能够达到每秒1万亿次运算的移动计算平台。


论软硬件的结合设计,苹果在业界更是无出其右。事实上,不仅只有iPhone具备了设备端智能技术,大到iPad、小到Apple Watch,如今都同样受惠于这一兼具性能与高度隐私保护的新技术。在iPad Pro上,苹果很早就将设备端智能用在了书写内容的识别方面;而在小巧的Apple Watch里,它那备受好评的跌倒检测与精确的运动追踪功能背后,同样是设备端智能技术起到了关键性作用。


更为重要的是,苹果的设备端智能技术并不仅限于iOS 14里自带APP的“官方自嗨”。因为他们很早就推出了方便开发者使用的CoreML套件,让开发针对于iPhone、iPad,甚至是Apple Watch的AI应用变得不再难于登天。换句话说,当很多智能手机产品还在勉力依靠远程服务器、云计算,和用户数据撑起“AI体验”的时候,苹果和他们的“设备端智能”体系,却早已解决了AI运算与用户隐私保护的难题,并开启了真正意义上“移动AI”普及的大门。

【本文图片来自网络】

推荐阅读:

高通再出手,这次他们要认真的推动5G全民化

在IFA展的开幕演讲上,高通端出了两款普及5G的利器。

快递员每单只赚两毛五,可快递公司又挣了多少

快递员、快递企业,以及用户间的矛盾,在这件事情上表现得淋漓尽致。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多