手把手教你训练一个属于你自己的core ml模型
2019-03-30 本文已影响0人
太阳骑士索拉尔
前言
- 最近项目里想要使用core ml进行图像识别,作为小组里唯一有Xcode10的人,模型训练这块成功落在了我的头上
- 这篇文章将介绍如何训练一个自己的简单的core ml模型
参考文章
- 如何评价苹果在 WWDC 2017 上推出的机器学习框架 Core ML?
- Core ML框架详细解析(一) —— Core ML基本概览
- 参考文章基本把常用的点都放进去了,不再赘述
简单认识
- 如果对于人工智能,图像识别没有较直观的认识,推荐看第一篇参考文章,其中对于黑盒白盒的例子简单易懂
- 如果对于core ml缺乏了解,想知道其特点是什么,推荐看第二篇参考文章
- core ml确实已经将人工智能里图像识别这块的难度降到了最低,训练一个模型,需要的仅仅是准备适当的训练集,简直没有任何门槛
- 使用core ml训练模型必须得有Xcode10,但不是说Xcode9不能用训练出来的模型,仅仅是不能训练
开始训练
- 首先创建一个Swift Playground文件,选择默认的Blank
- 然后输入下面的代码
// Import CreateMLUI to train the image classifier in the UI.
// For other Create ML tasks, import CreateML instead.
import CreateMLUI
let builder = MLImageClassifierBuilder()
builder.showInLiveView()
运行之后打开Assistant editor,将训练集拖入
- 训练集是一个文件夹,其中的子文件夹名字就是该子文件夹图集的识别名,例如我想做一个识别猫狗的模型,就应该在文件夹里分两个子文件夹,一个叫Dog,一个叫Cat(注意必须起英文名,中文名最后会变成乱码,亲测)
- 然后理论上来讲你就已经训练完了,接下来会需要你拖入一个测试集,在测试集,之后就能拿出去用了
- 具体的调用方法,可以看我这篇博客一篇文章教你看懂.mlmodle的方法头文件