转自AI Studio,原文链接:
1.背景介绍
自从疫情以来,全民健身横行~ 刘畊宏带起一波的健身热潮,自己小伙伴弄了个仰卧起坐的计数,这里就来复刻一个引体向上的计数(虽然我自己个位数可能用不上)。 为了方便做的时候不要再操心计数的问题,从而诞生了本产品,AI帮引体向上计数
2.实现思路
- 1.用户打开手机APP,将手机固定在场地一侧,适当设置手机角度,根据应用的自动语音提示调整身体与手机距离,直到人体完全位于识别框内,即可开始运动。
- 2.通过PaddleHub的human_pose_estimation_resnet50_mpii模型,进行人体关键点检测。
- 3.根据检测的数据计数(此处选择头部关键点进行判断,一次完整的上下为一次)
二、环境准备
1.PaddleHub安装
In [ ]
!pip install -U pip --user >log.log
!pip install -U paddlehub >log.log
In [ ]
!pip list |grep paddle
2.human_pose_estimation_resnet50_mpii模型安装
- 模型地址: 飞桨PaddlePaddle-源于产业实践的开源深度学习平台
- 模型概述:人体骨骼关键点检测(Pose Estimation) 是计算机视觉的基础性算法之一,在诸多计算机视觉任务起到了基础性的作用,如行为识别、人物跟踪、步态识别等相关领域。具体应用主要集中在智能视频监控,病人监护系统,人机交互,虚拟现实,人体动画,智能家居,智能安防,运动员辅助训练等等。 该模型的论文《Simple Baselines for Human Pose Estimation and Tracking》由 MSRA 发表于 ECCV18,使用 MPII 数据集训练完成。
In [ ]
!hub install human_pose_estimation_resnet50_mpii >log.log
In [ ]
!hub list|grep human
三、人体关键点检测示例
1.演示视频
自行获取视频
2.关键点检测演示
针对下面这三张图片做关键点检测,具体如下:
In [14]
import cv2
import paddlehub as hub
import osos.environ['CUDA_VISIBLE_DEVICES'] = '0'
pose_estimation = hub.Module(name="human_pose_estimation_resnet50_mpii")image1=cv2.imread('data/data145808/1.png') # 起始
image2=cv2.imread('data/data145808/2.png') # 中间状态
image3=cv2.imread('data/data145808/3.png') # 拉上去results = pose_estimation.keypoint_detection(images=[image1,image2,image3], visualization=True)
[2022-05-12 14:52:53,816] [ WARNING] - The _initialize method in HubModule will soon be deprecated, you can use the __init__() to handle the initialization of the object
image saved in output_pose/ndarray_time=1652338376102544.jpg image saved in output_pose/ndarray_time=1652338376102573.jpg image saved in output_pose/ndarray_time=1652338376102578.jpg
In [9]
# 打印关键点
print(results[0]['data'])
print(results[0]['data'])
print(results[0]['data'])
OrderedDict([('left_ankle', [396, 33]), ('left_knee', [246, 651]), ('left_hip', [246, 437]), ('right_hip', [176, 437]), ('right_knee', [167, 668]), ('right_ankle', [418, 24]), ('pelvis', [211, 437]), ('thorax', [215, 222]), ('upper_neck', [215, 222]), ('head_top', [233, 90]), ('right_wrist', [387, 41]), ('right_elbow', [348, 132]), ('right_shoulder', [282, 206]), ('left_shoulder', [154, 206]), ('left_elbow', [74, 123]), ('left_wrist', [44, 49])])
3.如何判断起身下落 判断一次仰卧起坐的依据是什么呢?根据上面的三张图,可以轻松得出结论,用头部坐标的移动可以作为评判标准。
In [11]
# 打印三张头部关键点
print(results[0]['data']['head_top'])
print(results[1]['data']['head_top'])
print(results[2]['data']['head_top'])
[233, 90] [221, 0] [207, 0]
四、智能计数
In [ ]
import cv2
import paddlehub as hub
import math
from matplotlib import pyplot as plt
import numpy as np
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0'
%matplotlib inlinedef countYwqz():pose_estimation = hub.Module(name="human_pose_estimation_resnet50_mpii")flag = Falsecount = 0num = 0all_num = []flip_list = []fps = 60# 可选择web视频流或者文件file_name = 'data/data145808/ytxs.mp4'cap = cv2.VideoCapture(file_name)width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))fourcc = cv2.VideoWriter_fourcc(*'mp4v')# out后期可以合成视频返回out = cv2.VideoWriter('output.mp4',fourcc,fps,(width,height))while cap.isOpened():success, image = cap.read()# print(image)if not success:breakimage_height, image_width, _ = image.shape# print(image_height, image_width)image.flags.writeable = Falseresults = pose_estimation.keypoint_detection(images=[image], visualization=True ,use_gpu = True)flip = results[0]['data']['head_top'][1] # 获取头部的y轴坐标值flip_list.append(flip)all_num.append(num)num +=1# 写入视频img_root="output_pose/"# 排序,不然是乱序的合成出来im_names=os.listdir(img_root) im_names.sort(key=lambda x: int(x.replace("ndarray_time=","").split('.')[0]))for im_name in range(len(im_names)):img = img_root+str(im_names[im_name])print(img)frame=cv2.imread(img)out.write(frame) out.release()return all_num,flip_listdef get_count(x,y):count = 0flag = Falsecount_list = [0] # 记录极值的y值for i in range(len(y)-1):if y[i] <= y[i + 1] and flag == False:continueelif y[i] >= y[i + 1] and flag == True:continueelse:# 防止附近的轻微抖动也被计入数据# count_list.append(y[i])if abs(count_list[-1] - y[i]) >60 or abs(count_list[-1] - y[i-1]) >60 or abs(count_list[-1] - y[i-2]) >60 or abs(count_list[-1] - y[i-3]) >60 or abs(count_list[-1] - y[i+1]) >60 or abs(count_list[-1] - y[i+2]) >60 or abs(count_list[-1] - y[i+3]) >60:count = count + 1count_list.append(y[i])print(x[i])flag = not flagreturn math.floor(count/2)if __name__ == "__main__":x,y = countYwqz()plt.figure(figsize=(8, 8))count = get_count(x,y)plt.title(f"point numbers: {count}")plt.plot(x, y)plt.show()
1. 计数效果如下
··········可以看到这哥们从前面到后面渐渐不老行了,最后一个下是他从杠上下来了
不过四十多个确实挺吊的了,已经是笔者的十倍了。。。。。。锻炼!
2. 视频生成如下
在根目录下可以看到:
项目借鉴了Javaroom大佬和ithui的实现手法,进行了改进和实现,改进了部分代码,增加了代码可读性,并成功完成了仰卧起坐的计数实现。
参考项目:
【超简单之50行代码】基于PaddleHub的跳绳AI计数器
【畊宏女孩】全民健身热潮之AI帮你仰卧起坐计数
个人总结
本文链接:https://my.lmcjl.com/post/14063.html
展开阅读全文
4 评论