Anaconda实践与图像识别
这几天在培训图像识别和自然语言的培训,整个过程一头雾水,特别是教程全部是公式或图形,文字少的可怜,基本很难理解。不知道培训老师都不关注受众的情况吗?虽然内容难以理解,讲解水平也有限,但是还是收获了一点知识。
Conda是一个管理版本和Python环境的工具,环境基于Anaconda,包含多个科学包及其依赖项。以前笔者在windows下都是一个个库安装,这一个Anaconda就可以解决,也可以切换不同的环境。整个知识非常复杂,笔者只测试过下面的几个模块,而是也只是浅尝辄止,因为理论方面确实很难于理解,只能应用。

jieba分词、kmeans聚类、OCR文字识别都是基于python库来实现的,那么实践测试就很简单了。
1、OCR
关于OCR方面,笔者也写了一篇短小的文章来阐述-Python使用easyocr模块完成图片文字识别 。
2、jieba
关于分词,利用jieba库来实现,下面是笔者的一些测试:


3、kmeans
关于kmeans聚类,对(大)数据进行分群。笔者使用mubaris/friendly-fortnight: K-Means Clustering using Python from Scratch (github.com) 来测试。


4、bert训练模型
我没有跑出来,待以后深入研究后再解决吧。
5、YOLOv5(CNN)
YOLOv5是一种将图像划分为网格系统的对象检测算法。ultralytics/yolov5: YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite (github.com)。github上有关于YOLOv5库的说明信息。
物体检测需要训练,可以根据配置里面的物体列表来下载COCO数据集来完成训练,但是训练时间非常漫长,笔者的太弱的笔记本估计也支撑不住。

我使用了已经训练好的模型,yolov5s.pt模型也只有有15M大小。命令python detect.py --source data/images/zidane.jpg --weights ./yolov5s.pt 开始检测zidane.jpg图片 。source指定为视频,也可以在视频中检测模型中的物体。

查看结果,在./runs/detect/exp*可以生成检测后的图片,下图就自动检测到人和领带。

那么YOLOv5在换个训练人以及口罩,就可以检测人和口罩,现在商场的的一些测温机器人上就有这样的功能 。检测人脸,然后检测你是否佩戴口罩来提醒。