Python Opencv实践 - 手势音量控制

这篇具有很好参考价值的文章主要介绍了Python Opencv实践 - 手势音量控制。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

    本文基于前面的手部跟踪功能做一个手势音量控制功能,代码用到了前面手部跟踪封装的HandDetector.这篇文章在这里:

Python Opencv实践 - 手部跟踪-CSDN博客文章浏览阅读626次,点赞11次,收藏7次。使用mediapipe库做手部的实时跟踪,关于mediapipe的介绍,请自行百度。https://blog.csdn.net/vivo01/article/details/135071340?spm=1001.2014.3001.5502

      使用了pycaw来做音量控制,pacaw的安装直接使用pip install pycaw即可。

        代码如下:

import cv2 as cv
import math
import mediapipe as mp
import time
from ctypes import cast,POINTER
from comtypes import CLSCTX_ALL
#使用pycaw来控制音量,pip install pycaw
from pycaw.pycaw import AudioUtilities,IAudioEndpointVolume

class HandDetector():
    def __init__(self, mode=False,
                 maxNumHands=2,
                 modelComplexity=1,
                 minDetectionConfidence=0.5,
                 minTrackingConfidence=0.5):
        self.mode = mode
        self.maxNumHands = maxNumHands
        self.modelComplexity = modelComplexity
        self.minDetectionConfidence = minDetectionConfidence
        self.minTrackingConfidence = minTrackingConfidence
        #创建mediapipe的solutions.hands对象
        self.mpHands = mp.solutions.hands
        self.handsDetector = self.mpHands.Hands(self.mode, self.maxNumHands, self.modelComplexity, self.minDetectionConfidence, self.minTrackingConfidence)
        #创建mediapipe的绘画工具
        self.mpDrawUtils = mp.solutions.drawing_utils

    def findHands(self, img, drawOnImage=True):
        #mediapipe手部检测器需要输入图像格式为RGB
        #cv默认的格式是BGR,需要转换
        imgRGB = cv.cvtColor(img, cv.COLOR_BGR2RGB)
        #调用手部检测器的process方法进行检测
        self.results = self.handsDetector.process(imgRGB)
        #print(results.multi_hand_landmarks)
    
        #如果multi_hand_landmarks有值表示检测到了手
        if self.results.multi_hand_landmarks:
            #遍历每一只手的landmarks
            for handLandmarks in self.results.multi_hand_landmarks:
                if drawOnImage:
                    self.mpDrawUtils.draw_landmarks(img, handLandmarks, self.mpHands.HAND_CONNECTIONS)
        return img;

    #从结果中查询某只手的landmark list
    def findHandPositions(self, img, handID=0, drawOnImage=True):
        landmarkList = []
        if self.results.multi_hand_landmarks:
            handLandmarks = self.results.multi_hand_landmarks[handID]
            for id,landmark in enumerate(handLandmarks.landmark):
                #处理每一个landmark,将landmark里的X,Y(比例)转换为帧数据的XY坐标
                h,w,c = img.shape
                centerX,centerY = int(landmark.x * w), int(landmark.y * h)
                landmarkList.append([id, centerX, centerY])
                if (drawOnImage):
                    #将landmark绘制成圆
                    cv.circle(img, (centerX,centerY), 8, (0,255,0))
        return landmarkList

def DisplayFPS(img, preTime):
    curTime = time.time()
    if (curTime - preTime == 0):
        return curTime;
    fps = 1 / (curTime - preTime)
    cv.putText(img, "FPS:" + str(int(fps)), (10,70), cv.FONT_HERSHEY_PLAIN,
              3, (0,255,0), 3)
    return curTime

def AudioEndpointGet():
    devices = AudioUtilities.GetSpeakers()
    interface = devices.Activate(IAudioEndpointVolume._iid_, CLSCTX_ALL, None)
    volume = cast(interface, POINTER(IAudioEndpointVolume))
    range = volume.GetVolumeRange()
    return volume,range

def AudioVolumeLevelSet(volume, range, value):
    if volume:
        if (value < range[0]) or (value > range[1]):
            return
        volume.SetMasterVolumeLevel(value, None)

def main():
    video = cv.VideoCapture('../../SampleVideos/handVolumeControl.mp4')
    #FPS显示
    preTime = 0
    handDetector = HandDetector(minDetectionConfidence=0.7)
    volume,volumeRange = AudioEndpointGet()
    print(volumeRange)
    #AudioVolumeLevelSet(volume, volumeRange, volumeRange[0])
    minFingerDistance = 1000
    maxFingerDistance = 0
    
    while True:
        ret,frame = video.read()
        if ret == False:
            break;
        frame = handDetector.findHands(frame)
        hand0Landmarks = handDetector.findHandPositions(frame)
        if (len(hand0Landmarks) != 0):
            #print(hand0Landmarks[4], hand0Landmarks[8])
            #取出大拇指(4)和食指(8)的指尖的点对应的坐标
            thumbX,thumbY = hand0Landmarks[4][1], hand0Landmarks[4][2]
            indexFingerX,indexFingerY = hand0Landmarks[8][1],hand0Landmarks[8][2]
            #计算两个指尖的点指尖的中点
            cx,cy = (thumbX + indexFingerX) / 2, (thumbY + indexFingerY) / 2
            #用实心圆突出显示出这两个个点
            cv.circle(frame, (thumbX,thumbY), 18, (90,220,180), cv.FILLED)
            cv.circle(frame, (indexFingerX,indexFingerY), 18, (0,120,255), cv.FILLED)
            
            #绘制两个点形成的直线
            cv.line(frame, (thumbX,thumbY), (indexFingerX,indexFingerY), (255,60,60), 3)
            #计算食指和拇指指尖的距离
            distance = math.hypot(thumbX - indexFingerX, thumbY - indexFingerY)
            #测试两指指尖最小和最大距离,改进方案可以是用摄像头做实时校准后再进行控制
            #本案例中直接获取视频里的最小和最大距离直接用作判断(我拍的视频里范围是30 - 425之间)
            if distance < minFingerDistance:
                minFingerDistance = distance
            if distance > maxFingerDistance:
                maxFingerDistance = distance
            #print(distance)
            if distance < 40:
                #两个指尖的中点显示为绿色,音量设置为最小值
                cv.circle(frame, (int(cx),int(cy)), 18, (0,255,0), cv.FILLED)
                AudioVolumeLevelSet(volume, volumeRange, volumeRange[0])
            else:
                cv.circle(frame, (int(cx),int(cy)), 18, (0,0,255), cv.FILLED)
                #这里为了方便直接使用425(本视频最大值)做比例换算
                #我本机的volumeRange是-63.5 到 0, 步长0.5
                value = volumeRange[0] * (1 - (distance / 425))
                print(value)
                AudioVolumeLevelSet(volume, volumeRange, value)
            
        preTime = DisplayFPS(frame, preTime)
        cv.imshow('Real Time Hand Detection', frame)
        if cv.waitKey(30) & 0xFF == ord('q'):
            break;
    print("Min & Max distance between thumb and index finger tips: ", minFingerDistance, maxFingerDistance)
    video.release()
    cv.destroyAllWindows()

if __name__ == "__main__":
    main()

        效果可以参考我的B站视频:

Python Opencv实践 - 手势音量控制,OpenCV实践-python,python,opencv,开发语言,手势控制,mediapipe

Python Opencv实践 - 手势音量控制,OpenCV实践-python,python,opencv,开发语言,手势控制,mediapipe

Python Opencv练手-手势音量控制_哔哩哔哩_bilibili基于mediapipe手部检测实现一个手势音量控制功能源码参考我的CSDN:https://blog.csdn.net/vivo01/article/details/135118979?spm=1001.2014.3001.5502, 视频播放量 1、弹幕量 0、点赞数 0、投硬币枚数 0、收藏人数 0、转发人数 0, 视频作者 vivo119, 作者简介 一个喜欢小狗子的码农,业余爱好游戏开发,相关视频:小乖最喜欢吃面条,小乖(白)芝麻(黑)的日常冲突,这只胖狗想要跳上沙发,可是胖了点,Python Opencv - mediapipe做手部跟踪识别,为什么小狗看镜头就尴尬,突然爱吃番茄的狗子,旋转的米糯狗子,有手动旋转和自动旋转两种模式,好好上课,小狗的无糖藕粉初体验,米糯狗子洗澡记,全程都是乖乖狗https://www.bilibili.com/video/BV1Ej411H79q/?vd_source=474bff49614e62744eb84e9f8340d91a文章来源地址https://www.toymoban.com/news/detail-767515.html

到了这里,关于Python Opencv实践 - 手势音量控制的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Opencv项目实战:14 手势控制音量

    目录 0、项目介绍 1、项目展示 2、项目搭建 3、项目的代码与讲解 4、项目资源

    2024年02月02日
    浏览(41)
  • 用手势操控现实:OpenCV 音量控制与 AI 换脸技术解析

    HandTrackingModule.py 定义了一个名为 handDetector 的类,用于检测和跟踪手部。下面是代码的详细分析: 导入库 cv2 : OpenCV 库,用于图像处理。 mediapipe as mp : 用于多媒体解决方案的库,在此用于手部检测。 time : 用于时间管理,但在给定的代码段中未使用。 handDetector 类 初始化方法

    2024年02月11日
    浏览(37)
  • OpenCV实现手势音量控制 报错日志 INFO: Created TensorFlow Lite XNNPACK delegate for CPU.

    👋 Hi, I’m @货又星 👀 I’m interested in … 🌱 I’m currently learning … 💞️ I’m looking to collaborate on … 📫 How to reach me … README 目录(持续更新中) 各种错误处理、爬虫实战及模板、百度智能云人脸识别、计算机视觉深度学习CNN图像识别与分类、PaddlePaddle自然语言处理知识图谱

    2024年02月05日
    浏览(71)
  • OpenCV+python实现摄像头简单手势识别--进度条控制亮度

    例如:随着人工智能的不断发展,计算机视觉这门技术也越来越重要,很多人都开启了学习计算机视觉,本文在Opencv基础上实现了摄像头简单手势识别–进度条控制亮度的基础内容,并没有使用深度学习技术,因此准确率并不高。 ∙ bullet ∙ 第一步: 开启摄像头,检测每帧图

    2023年04月08日
    浏览(50)
  • 基于Python+OpenCV的手势识别系统:智能家居和智能小车的灯光控制

    基于python+opencv的手势识别系统,可控制灯的亮度,智能家居,智能小车。 基于python+opencv的手势识别系统软件。 内含svm模型,和肤色识别,锐化处理。 基于 win10+Python3.7的环境,利用Python的OpenCV、Sklearn和PyQt5等库搭建了一个较为完整的手势识别系统,用于识别日常生活中1-1

    2024年04月15日
    浏览(56)
  • 毕设项目分享 基于机器视觉opencv的手势检测 手势识别 算法 - 深度学习 卷积神经网络 opencv python

    今天学长向大家介绍一个机器视觉项目 基于机器视觉opencv的手势检测 手势识别 算法 普通机器视觉手势检测的基本流程如下: 其中轮廓的提取,多边形拟合曲线的求法,凸包集和凹陷集的求法都是采用opencv中自带的函数。手势数字的识别是利用凸包点以及凹陷点和手部中心

    2024年02月03日
    浏览(81)
  • 软件工程毕设 基于机器视觉opencv的手势检测 手势识别 算法 - 深度学习 卷积神经网络 opencv python

    今天学长向大家介绍一个机器视觉项目 基于机器视觉opencv的手势检测 手势识别 算法 普通机器视觉手势检测的基本流程如下: 其中轮廓的提取,多边形拟合曲线的求法,凸包集和凹陷集的求法都是采用opencv中自带的函数。手势数字的识别是利用凸包点以及凹陷点和手部中心

    2024年01月17日
    浏览(78)
  • 计算机竞赛 题目:基于机器视觉opencv的手势检测 手势识别 算法 - 深度学习 卷积神经网络 opencv python

    🔥 优质竞赛项目系列,今天要分享的是 基于机器视觉opencv的手势检测 手势识别 算法 该项目较为新颖,适合作为竞赛课题方向,学长非常推荐! 🧿 更多资料, 项目分享: https://gitee.com/dancheng-senior/postgraduate 普通机器视觉手势检测的基本流程如下: 其中轮廓的提取,多边形

    2024年02月07日
    浏览(81)
  • 用python实现实现手势音量控制

    要实现手势音量控制,您可以使用Python中的PyAutoGUI和pynput库。PyAutoGUI可以模拟鼠标和键盘操作,而pynput可以检测用户的输入事件。 以下是一个简单的示例代码,可以实现通过手势控制音量的功能: python复制代码 import pyautogui import pynput.mouse as mouse import pynput.keyboard as keyboard

    2024年01月19日
    浏览(49)
  • Python实战项目:手势识别控制电脑音量

    今天给大家带来一个OpenCV的实战小项目——手势识别控制电脑音量 先上个效果图: 通过大拇指和食指间的开合距离来调节电脑音量,即通过识别大拇指与食指这两个关键点之间的距离来控制电脑音量大小 技术要学会分享、交流,不建议闭门造车。一个人走的很快、一堆人可

    2024年02月09日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包