【openpose】学习集锦

2021-07-03  本文已影响0人  何几时

使用openpose的两种方式

  1. 在本地PC上装好caffe,然后编译openpose(小白劝退操作!)
  2. colab 上进行操作,已经有现成的 -> jupyter notebook <-可用

符合Project Aruora的两个模型

输出的关节点信息(官方文档 >url<)(掘金中文博客:https://cloud.tencent.com/developer/article/1396323

colab openpose jupyte笔记中执行识别的语句,其中加上选项 --write_json ./output/就会把识别到的关节点数据导出
!cd openpose && ./build/examples/openpose/openpose.bin --model_pose BODY_25 --video ../video.mp4 --write_json ./output/ --display 0 --write_video ../openpose.avi

BODY_25

image.png
输出的json格式:
{"version":1.3,"people":[{"person_id":[-1],"pose_keypoints_2d":[x1, y1,c1,...,x25,y25,c25],"face_keypoints_2d":[],"hand_left_keypoints_2d":[],"hand_right_keypoints_2d":[],"pose_keypoints_3d":[],"face_keypoints_3d":[],"hand_left_keypoints_3d":[],"hand_right_keypoints_3d":[]},{"person_id":[-1],...}]
格式分析:
  1. 为什么会有两个 "person_id":[-1] ?
    答:因为colab的识别视频出现两个人,而 person_id 只会是 -1
  2. "pose_keypoints_2d " 的 x y c,分别是什么意思?
    答:x是横像数点位置,y是竖像素点位置,c是置信度

COCO

image.png

下周迭代的功能

  1. 运用COCO模型识别18个点
  2. 录制一段自己的深蹲视频,二十秒即可,然后上传到colab来识别
  3. 编译 Openpose ,利用 python 的api来实现批量化得到模型(有两种做法,一种是用python去调用shell,另一种就是完全用Python的api)
上一篇下一篇

猜你喜欢

热点阅读