目录
  • 什么是姿态估计?
  • 2d 与 3d 姿态估计
  • 为姿态估计准备数据集
  • 创建姿势估计模型
  • 模型结果
  • 结论

姿态检测是计算机视觉领域的一个活跃研究领域。你可以从字面上找到数百篇研究论文和几个试图解决姿势检测问题的模型。

之所以有如此多的机器学习爱好者被姿势估计所吸引,是因为它的应用范围很广,而且实用性很强。

在本文中,我们将介绍一种使用机器学习和 python 中一些非常有用的库进行姿势检测和估计的应用。

什么是姿态估计?

姿态估计是一种跟踪人或物体运动的计算机视觉技术。这通常通过查找给定对象的关键点位置来执行。基于这些关键点,我们可以比较各种动作和姿势并得出见解。姿态估计在增强现实、动画、游戏和机器人领域得到了积极的应用。

目前有几种模型可以执行姿态估计。下面给出了一些姿势估计的方法:

1.open pose

2.pose net

3.blaze pose

4.deep pose

5.dense pose

6.deep cut

选择任何一种模型而不是另一种可能完全取决于应用程序。此外,运行时间、模型大小和易于实现等因素也可能是选择特定模型的各种原因。因此,最好从一开始就了解你的要求并相应地选择模型。

在本文中,我们将使用 blaze pose检测人体姿势并提取关键点。该模型可以通过一个非常有用的库轻松实现,即众所周知的media pipe。

media pipe——media pipe是一个开源的跨平台框架,用于构建多模型机器学习管道。它可用于实现人脸检测、多手跟踪、头发分割、对象检测和跟踪等前沿模型。

blaze pose detector ——大部分姿态检测依赖于由 17 个关键点组成的 coco 拓扑结构,而blaze姿态检测器预测 33 个人体关键点,包括躯干、手臂、腿部和面部。包含更多关键点对于特定领域姿势估计模型的成功应用是必要的,例如手、脸和脚。每个关键点都使用三个自由度以及可见性分数进行预测。blaze pose是亚毫秒模型,可用于实时应用,其精度优于大多数现有模型。该模型有两个版本:blazepose lite 和 blazepose full,以提供速度和准确性之间的平衡。

blaze 姿势提供多种应用程序,包括健身和瑜伽追踪器。这些应用程序可以通过使用一个额外的分类器来实现,比如我们将在本文中构建的分类器。

你可以在此处了解有关blaze pose detector的更多信息: https://ai.googleblog.com/2020/08/on-device-real-time-body-pose-tracking.html

2d 与 3d 姿态估计

姿势估计可以在 2d 或 3d 中完成。2d 姿态估计通过像素值预测图像中的关键点。而3d姿态估计是指预测关键点的三维空间排列作为其输出。

为姿态估计准备数据集

我们在上一节中了解到,人体姿势的关键点可以用来比较不同的姿势。在本节中,我们将使用media pipe库本身来准备数据集。我们将拍摄两个瑜伽姿势的图像,从中提取关键点并将它们存储在一个 csv 文件中。

你可以通过此链接从 kaggle 下载数据集

该数据集包含 5 个瑜伽姿势,但是,在本文中,我只采用了两个姿势。如果需要,你可以使用所有这些,程序将保持不变。

import mediapipe as mp
import cv2
import time
import numpy as np
import pandas as pd
import os
mppose = mp.solutions.pose
pose = mppose.pose()
mpdraw = mp.solutions.drawing_utils # for drawing keypoints
points = mppose.poselandmark # landmarks
path = "dataset/train/plank" # enter dataset path
data = []
for p in points:
        x = str(p)[13:]
        data.append(x + "_x")
        data.append(x + "_y")
        data.append(x + "_z")
        data.append(x + "_vis")
data = pd.dataframe(columns = data) # empty dataset

在上面的代码片段中,我们首先导入了有助于创建数据集的必要库。然后在接下来的四行中,我们将导入提取关键点所需的模块及其绘制工具。

接下来,我们创建一个空的 pandas 数据框并输入列。这里的列包括由blaze姿态检测器检测到的 33 个关键点。每个关键点包含四个属性,即关键点的 x 和 y 坐标(从 0 到 1 归一化),z 坐标表示以臀部为原点且与 x 的比例相同的地标深度,最后是可见度分数。可见性分数表示地标在图像中可见或不可见的概率。

count = 0
 
for img in os.listdir(path):
 
        temp = []
 
        img = cv2.imread(path + "/" + img)
 
        imagewidth, imageheight = img.shape[:2]
 
        imgrgb = cv2.cvtcolor(img, cv2.color_bgr2rgb)
 
        blackie = np.zeros(img.shape) # blank image
 
        results = pose.process(imgrgb)
 
        if results.pose_landmarks:
 
                # mpdraw.draw_landmarks(img, results.pose_landmarks, mppose.pose_connections) #draw landmarks on image
 
                mpdraw.draw_landmarks(blackie, results.pose_landmarks, mppose.pose_connections) # draw landmarks on blackie
 
                landmarks = results.pose_landmarks.landmark
 
                for i,j in zip(points,landmarks):
 
                        temp = temp + [j.x, j.y, j.z, j.visibility]
 
                data.loc[count] = temp
 
                count +=1
 
        cv2.imshow("image", img)
 
        cv2.imshow("blackie",blackie)
 
        cv2.waitkey(100)
 
data.to_csv("dataset3.csv") # save the data as a csv file

在上面的代码中,我们单独遍历姿势图像,使用blaze姿势模型提取关键点并将它们存储在临时数组“temp”中。

迭代完成后,我们将这个临时数组作为新记录添加到我们的数据集中。你还可以使用media pipe本身中的绘图实用程序来查看这些地标。

在上面的代码中,我在图像以及空白图像“blackie”上绘制了这些地标,以仅关注blaze姿势模型的结果。空白图像“blackie”的形状与给定图像的形状相同。

应该注意的一件事是,blaze姿态模型采用 rgb 图像而不是 bgr(由 opencv 读取)。

获得所有图像的关键点后,我们必须添加一个目标值,作为机器学习模型的标签。你可以将第一个姿势的目标值设为 0,将另一个设为 1。之后,我们可以将这些数据保存到 csv 文件中,我们将在后续步骤中使用该文件创建机器学习模型。

你可以从上图中观察数据集的外观。

创建姿势估计模型

现在我们已经创建了我们的数据集,我们只需要选择一种机器学习算法来对姿势进行分类。在这一步中,我们将拍摄一张图像,运行 blaze 姿势模型(我们之前用于创建数据集)以获取该图像中人物的关键点,然后在该测试用例上运行我们的模型。

该模型有望以高置信度给出正确的结果。在本文中,我将使用 sklearn 库中的 svc(支持向量分类器)来执行分类任务。

from sklearn.svm import svc
data = pd.read_csv("dataset3.csv")
x,y = data.iloc[:,:132],data['target']
model = svc(kernel = 'poly')
model.fit(x,y)
mppose = mp.solutions.pose
pose = mppose.pose()
mpdraw = mp.solutions.drawing_utils
path = "enter image path"
img = cv2.imread(path)
img = cv2.cvtcolor(img, cv2.color_bgr2rgb)
results = pose.process(imgrgb)
if results.pose_landmarks:
        landmarks = results.pose_landmarks.landmark
        for j in landmarks:
                temp = temp + [j.x, j.y, j.z, j.visibility]
        y = model.predict([temp])
        if y == 0:
            asan = "plank"
        else:
            asan = "goddess"
        print(asan)
        cv2.puttext(img, asan, (50,50), cv2.font_hershey_simplex,1,(255,255,0),3)
        cv2.imshow("image",img)

在上面的代码行中,我们首先从 sklearn 库中导入了 svc(支持向量分类器)。我们已经用目标变量作为 y 标签训练了我们之前在 svc 上构建的数据集。

然后我们读取输入图像并提取关键点,就像我们在创建数据集时所做的那样。

最后,我们输入临时变量并使用模型进行预测。现在可以使用简单的 if-else 条件检测姿势。

模型结果

从上面的图像中,你可以观察到模型已经正确地对姿势进行了分类。你还可以在右侧看到blaze姿势模型检测到的姿势。

在第一张图片中,如果你仔细观察,一些关键点是不可见的,但姿势分类是正确的。由于blaze姿态模型给出的关键点属性的可见性,这是可能的。

结论

姿势检测是机器学习领域的一个活跃研究领域,并提供了多种实际应用。在本文中,我们尝试开发一个这样的应用程序,并通过姿势检测来解决问题。

我们了解了姿势检测和几个可用于姿势检测的模型。出于我们的目的选择了 blaze 姿势模型,并了解了它相对于其他模型的优缺点。

最后,我们使用 sklearn 库中的支持向量分类器构建了一个分类器来对瑜伽姿势进行分类。为此,我们还构建了自己的数据集,可以使用更多图像进一步扩展。

你也可以尝试其他机器学习算法而不是 svm,并相应地比较结果。 

到此这篇关于在python中通过机器学习实现人体姿势估计的文章就介绍到这了,更多相关python机器学习 人体姿势估计内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!