伴随着苹果全新一代 iPhone 智能手机 iPhone 8、iPhone 8 Plus 和 iPhone X 的发布,所有最初我们想了解的任何信息现在几乎都已一清二楚,包括零售价格、全新命名、机型数量,还有诸多最新功能等等,其实大多数信息在发布会之前就已经被爆料出来了。尽管如此,iPhone X、面部识别技术,以及 AR 现实增强技术这些新特性,依然十分引人注目。
在今天移动互联网时代数据爆炸,大数据的出现让 AI人工智能变得越来越好用。虽然很多移动设备的数据可以在云计算中得到更深入的分析,因为有例如 Google TPU,NVIDIA Volta 这种强大的 AI 运算解决方案。但问题是,数据需要花费一定时间才能到达云端,而苹果考虑隐私不会将数据传到云端,因此让一款移动设备提供略微接近云硬件的计算性能相当用必要。
苹果在发布会上解释称,有一种 AI人工智能叫作机器学习,即让设备通过观察的方式进行学习。因此,一枚移动 SoC 芯片中,应该有专门负责虚拟神经元和深度学习的 AI 处理单元,而神经网络引擎就是专为机器学习而开发的硬件,它不仅能执行神经网络所需的高速运算,而且具有杰出的能效。
简而言之,通过神经网络引擎能够担 CPU 和 GPU 的任务,大幅提升芯片的运算效率,以更少的能耗更快的完成更多任务。在 A11 仿生中,苹果自家的神经网络引擎采用双核设计,两个核心专为 AI人工智能特定的机器学习算法而设计的,实时处理过程中,每秒运算次数最高可达 6000 亿次。
苹果表示,神经网络可以在 CPU 主处理单元或 GPU 图形处理单元上运行,但对于这种神经网络类型的编程模型,利用针对这些应用的定制芯片,在执行相同任务时,它将比使用图形引擎更加节能。神经网络引擎的神秘之处在于,它能够处理矩阵乘法和浮点处理的能力,分担 CPU 和 GPU 之外的特定任务,实现了硬件性能大幅改善。
其实苹果很早就十分清楚移动 AI 处理单元的趋势。几天前,苹果硬件技术高级副总裁斯强尼·斯洛基接受采访时表示,3 年前发布搭载 A8 芯片的 iPhone 6 时,苹果就已经在开发 A11 仿生芯片了,然而三年前移动行业关于 AI 和机器学习的话题还不多。斯强尼·斯洛基特别强调,“内置神经网络引擎是苹果在 3 年打的一个赌。”
神经网络引擎服务于现在和未来
苹果称,有了“神经网络引擎服”的 A11 变得十分智能,因为能够把云端基于大数据深度学习训练成型的神经网络传输到手机中,与本地的神经网络引擎结合提供完整的 AI 知识和能力。而对于本地的 AI人工智能处理,目前神经网络引擎已胜任诸多任务,包括更智能的够识别人物、地点和物体,为“面容 ID”和“动话表情”等创新的功能提供强大的性能等等。
其中对于 iPhone X 的“面容 ID”就运用到了智能面部识别和机器学习这些 AI人工智能技术。其原深感摄像头系统,通过泛光感应元件会借助不可见的红外光线,来“照亮”识别人的脸,然后点阵投影器将 30000 多个肉眼不可见的光点投影在人脸部,绘制出精确细致、独一无二的深度面谱,而红外摄像头会探测点阵反射的细微变化,读取点阵图案,捕捉它的红外图像数据。
关键是,被捕捉到的这些非常精确的红外图像和点阵图案的深度数据,将会被发送至 A11 仿生这枚芯片中的神经网络,创建脸部的数学模型,再将这些精准绘制面谱的数据发送至安全隔区,以确认数据是否匹配。苹果从来不会将生物识别的数据传输到网络上,面容 ID 功能的面谱数据同样如此。
与此同时,面容 ID 功能在神经网络引擎的 AI人工智能技术下,就算人脸的样貌随着时间而改变,也能随之进行调整适应,哪怕是化妆、卸妆、戴上眼镜、帽子或留起胡须时也能一眼认出。一般使用照片或面具这种欺骗性手段来破解面容 ID,在 AI 技术下基本是不可能的事情。
AI 技术除了服务于面容 ID 之外,新一代 iPhone 的相机系统也受益于此。例如人像模式自拍现在有了神经网络引擎的 AI 技术加持,景深虚化效果更加突出,而且所延伸出的“人像光效”这一特性,也利用到了 AI 复杂的算法,计算出容貌特征会怎样受到光线影响,利用数据创造出色的光效。至于“动话表情”,AI 技术能够让捕捉到的运动更准确的分析肌肉运动,以便于重现神态。 当然了,A11 的神经网络引擎是是苹果 AR 增强现实体验和 Siri 私人助理的核心,而且未来还将运用到更多方面,并扩展到更多苹果生态的领域当中,包括医疗健康相关应用、无人驾驶汽车系统、Apple Watch、Apple TV 和 HomePod 音箱等,让更多原本生硬的设备也能采用与人类同样的方式进行交互,变得真正会思考。