人工智能(语言识别&图像识别)深度学习-推荐系统-CV-NLP

集成 tensorFlow模型到 iOS

2018-08-17  本文已影响3人  osbornZ

原文

iconicon

苹果在2017WWDC上发布了 CoreML 框架,它可以支持集成机器学习到iOS应用. 官方提供了多种模型支持,详情参照官当文档Apple Core ML,他们已经可以直接集成到你的iOS应用中使用。

但是你必须使用深度学习训练你的模型呢 ? 幸运的是谷歌提供了一套开源的深度学习框架TensorFlow
它能够基于数值计算创建深度学习图。这就意味着你可以训练出适应自己需求的模型库。但遗憾的是iOS应用程序使用TensorFlow创建的许多不同的模型,需要消耗大量工作。最近,谷歌发布了一个tf-coreml工具,支持了TensorFlow 模型转换到 CoreML 模型。

下面我将阐述怎么使用tfcoreml 工具进行模型转换,这个过程比较负责,花费了我好几天的时间。特别要感谢期间谷歌工具团队的持续支持。

Installing tfcoreml(安装 tfcoreml)

这里有好几种安装方式,最快的办法则是使用 pip

pip install -U tfcoreml

在书写本文时我建议不要使用上述方法。原因是对tfcoreml工具的Master分支源代码有一些修复。从源代码安装你必须对仓库进行Clone

git clone https://github.com/tf-coreml/tf-coreml.git

完成之后,进入到文件夹下面执行如下命令

python setup.py bdist_wheel

最后,使用命令添加安装包

pip install -e .

至此你就已经成功安装了 tfcoreml 工具。

Converting TensorFlow Model(转换模型)

在进行转换之前,我们先进行了解下TensorFlow模型,你可以在文档最后看到几个兼容型号,我们Demo需要使用“Inception v1 (Slim)”,下载完成后你会发现里面包含两个文件:

  1. inception_v1_2016_08_28_frozen.pb
  2. imagenet_slim_labels.txt

第一个是模型pb文件,第二个则是类标签文件,他会作为识别后的预测结果值。
文档中你会发现下面的转换代码:

import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'my_model.pb',
                     mlmodel_path = 'my_model.mlmodel',
                     output_feature_names = ['softmax:0'])

我使用了上面的代码创建一个Python的可执行文件 convertor.py,而且使用了我正确文件名替换了变量。

import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
                     mlmodel_path = 'InceptionV1.mlmodel',
                     output_feature_names = ['softmax:0'])

终端中索引到模型所在文件夹下面,执行Python脚本文件

python convertor.py 

此处报错!!!

欢迎来到将TensorFlow模型转换为Core ML的精彩世界!我知道你很想骂人。谷歌的解释说我需要传递正确的操作符才能使用tfcoreml工具。为了找到运算符,您可以将TensorFlow模型转换为文本摘要,并在文本文件中搜索运算符。
TensorFlow工具已包含Python脚本,用于将模型转换为基于文本的概要。您可以在以下位置查看脚本的实现:

tf-coreml/utils/inspect_pb.py

我拷贝脚本文件到我的本地文件夹下以便更容易引用它。下面的代码显示了如何将TensorFlow模型转换为文本摘要。
在文件末尾,您将看到特定模型的所有运算符的列表。

现在,让我们搜索"Softmax",你会发现几个不同的条目。根据对应要素名称替换上面脚本文件,

import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
                     mlmodel_path = 'InceptionV1.mlmodel',
                     output_feature_names = ['InceptionV1/Logits/Predictions/Softmax:0'])

重新编译后将生成Core ML模型“InceptionV1.mlmodel”。继续并双击生成的模型。这将在Xcode中打开它。

虽然,模型已经成功创建,但对我们来说并不是真的有用,因为我们希望我们的模型将图像作为图像参数,并提供类标签来识别检测到的对象。幸运的是,我们已经可以访问类标签文件“imagenet_slim_labels.txt”,我们可以使用text_summary.txt文件找出提供image_input_names所需的参数,更新的“convertor.py”代码。

我们将输入作为图像,输出作为预测词典和classLabel。
让我们继续将此模型导入我们的iOS项目并查看预测。我已经有了一个Core ML iOS项目设置,可以从Github下载。我只是插入这个模型,这是我得到的结果。

不幸的是,转换后的模型预测很有问题。在与Google开发人员交谈后,他们提出原因是因为图像需要在使用之前进行预处理。这意味着我们需要更新我们的“convertor.py”以包含图像的预处理。

import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
                     mlmodel_path = 'InceptionV1.mlmodel',
                     output_feature_names = ['InceptionV1/Logits/Predictions/Softmax:0'],
                     image_input_names = 'input:0',
                     class_labels = 'imagenet_slim_labels.txt',
                     red_bias = -1,
                     green_bias = -1,
                     blue_bias = -1,
                     image_scale = 2.0/255.0
                     )

再次从终端运行“convertor.py”,它将生成一个新模型。将模型导入iOS应用程序,您将看到现在预测正常。
最后恭喜你完成了模型转换并集成到了你的项目中,如果您想了解有关Core ML的更多信息,请查看课程iOS的Core ML

上一篇下一篇

猜你喜欢

热点阅读