CatTalk's Blog

Google I/O 2021 What's new in Android Machine Learning

视频地址:Android 机器学习新功能,Video 时长:9min29s

以下是视频内容的小总结,以供参考

一、背景知识

设备端的机器学习近年来发展迅速,Google I/O 2021 《What's new in Android Machine Learning》这一part主要从设备端机器学习的一些优势、常见应用场景、在部署中面临的一些技术挑战,以及Google针对这些问题的解决方案几个方向来展开。

二、分享内容

2.1 设备端机器学习的发展与优势

过去十年,机器学习在视觉、语音及语言任务能力方面取得了长足的发展。

与云端部署相比,设备端机器学习有很多优势:

常见应用:会议背景模糊、实时语音字幕、使用ML Kit进行实时姿态检测、离线翻译、手写识别等,其他内容可以访问g.co/on-device-ml

Android设备上ML发展迅速,含硬件加速功能的设备超过7.3亿,ML Kit每月活跃用户超过5亿

2.2 设备端机器学习面临的一些挑战

在Android上部署这些应用面临一些共同的挑战

能不能有一套组件来解决这些问题

2.3 解决方案

提供一套可更新的完全集成的机器学习推理堆栈

针对TensorFlow Lite for Android

TensorFlow Lite拥有强大的CPU后端,并能使用Android基础的硬件加速

想让模型运行在GPU上,在Android上非常复杂

目前,已经提供了部分解决方案,从TFLite 2.3起,Android版内置了GPU加速支持列表,只需实例化,通过GPU代理类安全使用确认支持的相关硬件调用,但是并没法衡量使用GPU后是否达到加速效果

为此提供了自动加速,将模型考虑在内,借助额外的元数据,检查模型是否正常运行,以及使用加速器时的性能是否优于CPU。自动支持列表不仅适用于CPU和GPU,还适用于其他DSP、NPU

Android 神经网络API

随着新ANdroid机型DSP、NPU硬件单元的增加,NNAPI可以保证在不同设备上访问这些底层硬件单元

但是自Android 10版本以来NNAPI是集成到Android OS中了,更新缓慢,新模型只能再新设备上运行,并且需要开发者自动适配不同的设备

Android 12开始NNAPI从OS中移除,通过Google Play更新,并且可更实际的新硬件驱动。不同的Android版本-硬件使用相同的NNAPI,并且高通将成为可更新NNAPI产品的合作伙伴

三、总结

3.1 内容小结

设备端机器学习Android新特性

  1. 支持Google Play的手机将在设备端自动集成TensorFlow Lite,无需打包到应用中;
  2. 机器学习框架侧支持自动硬件加速,通过对模型添加meta-data,自动对比和选择CPU、GPU、NPU等模型运行时的最佳性能;
  3. 将NNAPI从Android OS侧剥离出来,通过Google Play更新,并且可实际更新对应的硬件驱动,以便在不同Android版本和硬件设备上提供统一兼容的NNAPI;

3.2 关键QA

Q:TensorFlow Lite如何在设备端直接集成?

A:https://www.infoq.com/news/2021/07/android-on-device-ml/。通过Google Play Service服务更新常用组件一样,成为基础API库

Q:自动硬件加速如何实现?

A:简单理解应该是在每次运行过程中在不指定硬件backend情况下,自发收集和调度模型的运行情况,找到最有解;

Q:NNAPI到底是什么?

A:之前是集成在Android OS层面的神经网络库,后续单独剥离出来,也是通过Google Play Services更新,另外正在和硬件厂商合作,统一对应硬件兼容和驱动更新。