TensorFlow Android Lite 在Android
TensorFlow旨在成为移动平台的良好深度学习解决方案。目前,我们有两种在移动和嵌入式设备上部署机器学习应用的解决方案: TensorFlow for Mobile 和 TensorFlow Lite。
TensorFlow for Mobile 网址:
https://www.tensorflow.org/mobile/mobile_intro?hl=zh-cn
TensorFlow Lite 网址:
https://www.tensorflow.org/mobile/tflite/?hl=zh-cn
以上介绍两种方案的特点,我们来看看 TensorFlow Lite与TensorFlow Mobile的区别
TensorFlow旨在成为移动平台的良好深度学习解决方案。目前,我们有两种在移动和嵌入式设备上部署机器学习应用的解决方案: TensorFlow for Mobile和TensorFlow Lite。
TensorFlow Lite与TensorFlow Mobile的比较
以下是两者之间的一些差异:
-
TensorFlow Lite是TensorFlow Mobile的演变。在大多数情况下,使用TensorFlow Lite开发的应用程序将具有更小的二进制大小,更少的依赖性和更好的性能。
-
TensorFlow Lite在开发者预览版中,因此并未涵盖所有用例。我们期望您使用TensorFlow Mobile覆盖生产案例。
-
TensorFlow Lite仅支持一组有限的运算符,因此默认情况下并非所有模型都可以运行。TensorFlow for Mobile具有更全面的支持功能。
TensorFlow Lite在移动平台上提供了更好的性能和更小的二进制大小,并且可以在平台上利用硬件加速。此外,它具有更少的依赖关系,因此可以构建和托管在更简单,更受限制的设备方案中。TensorFlow Lite还允许通过Neural Networks API定位加速器。
TensorFlow Lite目前覆盖了一些有限的运营商。虽然默认情况下TensorFlow for Mobile仅支持受限制的操作集,但原则上,如果您在TensorFlow中使用任意运算符,则可以自定义以构建该内核。因此TensorFlow Lite当前不支持的用例应继续使用TensorFlow for Mobile。随着TensorFlow Lite的发展,它将获得更多的运营商,并且决策将更容易实现。
下图显示了TensorFlow Lite的架构设计:
image2.jpg
各个组件是:
- TensorFlow模型:保存在磁盘上的训练有素的TensorFlow模型。
- TensorFlow Lite Converter:将模型转换为TensorFlow Lite文件格式的程序。
- TensorFlow Lite模型文件:基于FlatBuffers的模型文件格式,它已针对最大速度和最小尺寸进行了优化。
然后将TensorFlow Lite模型文件部署在移动应用程序中,其中:
- Java API:围绕Android上C ++ API的便捷包装
- C ++ API:加载TensorFlow Lite模型文件并调用解释器。Android和iOS都提供相同的库
- 解释器:使用一组运算符来执行模型。口译员支持选择性操作员加载; 没有运营商,只有70KB,加载所有运营商的300KB。这是TensorFlow Mobile(使用普通操作员)所需的1.5M的显着降低。
- 在选定的Android设备上,解释器将使用Android神经网络API进行硬件加速,或者如果没有可用的CPU,则默认执行CPU。
开发人员也可以使用C ++ API实现定制内核,解释器可以使用它。
环境要求:
AndroidStudio3.0
确保Android SDK版本大于26并且NDK版本大于14(在Android Studio设置中)。
需要的可以到这里下载MAC https://pan.baidu.com/s/1su9dyvQeE71uIO6hc8eWBg
-
导入
image.png
的demo文件到 androidstudio
倒入后出现 Error:SSL peer shut down incorrectly这个error,不要着急,先在本地构建一个新的项目,获取到gradle的配置 image.png
这样问题就解决了
结下来我们需要获得模型
可以:
- 下载量化的Mobilenet TensorFlow Lite模型 并解压缩并复制
mobilenet_quant_v1_224.tflite
到assets目录中:tensorflow/contrib/lite/java/demo/app/src/main/assets/
。 - 或者,下载浮点Inception-v3模型 并解压并复制
inceptionv3_non_slim_2015.tflite
到资产目录。将Camera2BasicFragment.java中选定的分类器
从:更改classifier = new ImageClassifierQuantizedMobileNet(getActivity());
为:classifier = new ImageClassifierFloatInception(getActivity());
。
现在您可以构建并运行演示应用程序。