摔倒检测,基于骨骼点人体动作识别,部分代码用 Chatgpt 完成

人工智能
有能力的朋友可以自己训练模型试试,另外,百度的Paddle也基于STGCN开发了一个跌倒检测模型,只支持摔倒这一种行为的识别。

哈喽,大家好。

今天给大家分享一个摔倒检测项目,准确地说是基于骨骼点的人体动作识别。

图片

图片

大概分为三个步骤

  • 识别人体
  • 识别人体骨骼点
  • 动作分类

项目源码已经打包好了,获取方式见文末。

0. chatgpt

首先,我们需要获取监控的视频流。这段代码比较固定,我们可以直接让chatgpt完成

图片

chatgpt写的这段代码是没有问题的,可以直接使用。

但后面涉及到业务型任务,比如:用mediapipe​识别人体骨骼点,chatgpt给出的代码是不对的。

我觉得chatgpt​可以作为一个工具箱,能独立于业务逻辑,都可以试着交给chatgpt完成。

所以,我觉得未来对程序员的要求会更加注重业务抽象的能力。扯远了,言归正传。

1. 人体识别

人体识别可以用目标检测模型,比如:YOLOv5​,之前我们也分享过好多训练YOLOv5模型的文章。

但这里我没有用YOLOv5​,而是用mediapipe​。因为mediapipe​运行速度更快,在 CPU 上也能流畅地运行。

2. 骨骼点识别

识别骨骼点的模型有很多,如:alphapose、openpose,每种模型识别出来的骨骼点个数和位置都有所差异。比如下面这两种:

图片

mediapipe 32个骨骼点

图片

coco 17个骨骼点

骨骼点的识别我仍然使用mediapipe​,除了速度快,另一个优势是mediapipe识别的骨骼点多,有 32 个,能满足我们的使用。因为下面要用的人体动作分类,强依赖于骨骼点。

image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
results = pose.process(image)

if not results.pose_landmarks:
continue

# 识别人体骨骼点
image.flags.writeable = True
image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)

mp_drawing.draw_landmarks(
image,
results.pose_landmarks,
mp_pose.POSE_CONNECTIONS,
landmark_drawing_spec=mp_drawing_styles.get_default_pose_landmarks_style()
)

3. 动作识别

动作识别使用的是基于骨架动作识别的时空图卷积网络,开源方案是STGCN(Skeleton-Based Graph Convolutional Networks)

https://github.com/yysijie/st-gcn

图片

一组动作,如:摔倒,由 N 帧组成,每一帧可以构造出以骨骼点坐标组成的空间图,骨骼点在帧之间连接起来就构成时间图,骨骼点的连接和时间帧的连接便可以构造一张时空图。

图片

时空图

在时空图上进行多层图卷积运算,便可生成更高层次的特征图。然后输入到SoftMax分类器进行动作分类(Action Classification)。

图片

图卷积

本来我打算训练STGCN模型的,但遇到的坑实在是太多了,最后直接用了别人训练好的模型。

坑1. STGCN​ 支持 OpenPose​ 识别的骨骼点,有数据集Kinetics-skeleton​可以直接用。坑的地方在于OpenPose安装太麻烦,需要一堆步骤,挣扎后放弃。

坑2. STGCN​ 还支持 NTU RGB+D数据集,该数据集有 60 个动作分类,如:起立、行走、摔倒等。这份数据集的人体包含 25 个骨骼点,只有坐标数据,原始视频基本搞不到,所以没办法知道这 25 个骨骼点对应哪些位置,以及用什么模型能识别出这 25 个骨骼点,挣扎后放弃。

上面两个大坑,导致没法直接训练STGCN​模型,找了一个开源的方案,它用的是alphapose​识别 14 个骨骼点,同时修改STGCN源码支持自定义骨骼点。

https://github.com/GajuuzZ/Human-Falling-Detect-Tracks

我看了下mediapipe包含了这 14 个骨骼点,所以可以用mediapipe识别的骨骼点输入他的模型,实现动作分类。

图片

mediapipe 32个骨骼点

图片

选出14个关键骨骼点

14个骨骼点提取代码:

KEY_JOINTS = [
mp_pose.PoseLandmark.NOSE,
mp_pose.PoseLandmark.LEFT_SHOULDER,
mp_pose.PoseLandmark.RIGHT_SHOULDER,
mp_pose.PoseLandmark.LEFT_ELBOW,
mp_pose.PoseLandmark.RIGHT_ELBOW,
mp_pose.PoseLandmark.LEFT_WRIST,
mp_pose.PoseLandmark.RIGHT_WRIST,
mp_pose.PoseLandmark.LEFT_HIP,
mp_pose.PoseLandmark.RIGHT_HIP,
mp_pose.PoseLandmark.LEFT_KNEE,
mp_pose.PoseLandmark.RIGHT_KNEE,
mp_pose.PoseLandmark.LEFT_ANKLE,
mp_pose.PoseLandmark.RIGHT_ANKLE
]

landmarks = results.pose_landmarks.landmark
joints = np.array([[landmarks[joint].x * image_w,
landmarks[joint].y * image_h,
landmarks[joint].visibility]
for joint in KEY_JOINTS])

STGCN​原始方案构造的空间图只支持openpose​18个骨骼点和NTU RGB+D数据集25个骨骼点

图片

修改这部分源码,以支持自定义的14个骨骼点

图片

模型直接使用Human-Falling-Detect-Tracks项目已经训练好的,实际运行发现识别效果很差,因为没有看到模型训练过程,不确定问题出在哪。

有能力的朋友可以自己训练模型试试,另外,百度的Paddle​也基于STGCN​开发了一个跌倒检测模型,只支持摔倒这一种行为的识别。

当然大家也可以试试Transformer的方式,不需要提取骨骼点特征,直接将 N 帧图片送入模型分类。

关于STGCN的原理,大家可以参考文章:https://www.jianshu.com/p/be85114006e3  总结的非常好。

需要源码的朋友留言区回复即可。

如果大家觉得本文对你有用就点个 在看 鼓励一下吧,后续我会持续分享优秀的 Python+AI 项目。

责任编辑:武晓燕 来源: 渡码
相关推荐

2023-04-06 19:06:28

ChatGPT开发摔倒识别

2023-09-28 11:01:24

AI摔倒检测

2024-02-26 12:48:28

ChatGPT人工智能论文

2020-08-21 13:40:17

Python代码人体肤色

2017-10-17 13:30:32

Python人脸识别

2020-02-28 15:33:12

代码人工智能检测

2011-03-31 11:14:14

2024-06-12 12:57:12

2023-09-04 08:23:29

ChatGPT​代码开发

2021-03-14 22:14:55

代码语法Java

2019-07-24 15:25:29

框架AI开发

2011-07-20 17:29:12

iPhone 网络

2010-07-13 15:23:10

vsftpd

2024-05-09 08:14:52

2022-09-23 14:44:31

前端huskyeslint

2024-03-19 13:15:23

EAI 框架人体动作预测

2013-07-27 21:04:58

2023-06-02 13:19:15

模型AI

2022-12-25 10:35:09

ChatGPTPython

2024-06-12 08:10:08

点赞
收藏

51CTO技术栈公众号