使用 OpenCV 和 FER 在 Python 中进行实时情绪识别
import cv2
import numpy as np
# 初始化摄像头和情绪识别模型
camera = cv2.VideoCapture(0)
emotion_classifier = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')
# 打开摄像头,进行实时情绪识别
while camera.isOpened():
# 读取摄像头帧
ret, frame = camera.read()
if not ret:
break
# 灰度转换和高斯模糊,预处理图片以提高面部检测效率
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
blur = cv2.GaussianBlur(gray, (5, 5), 0)
# 检测图片中的面部
faces = emotion_classifier.detectMultiScale(blur, 1.3, 5)
# 遍历检测到的面部,绘制矩形框并标注情绪
for (x, y, w, h) in faces:
cv2.rectangle(frame, (x, y), (x+w, y+h), (255, 0, 0), 2)
# 这里可以添加更多代码以调用情绪识别模型,并根据结果标注情绪
# 显示结果
cv2.imshow('Emotion Recognition', frame)
# 按 'q' 退出循环
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# 释放摄像头资源并关闭所有窗口
camera.release()
cv2.destroyAllWindows()
这段代码展示了如何使用OpenCV和一个预先训练好的面部检测分类器来进行实时的面部检测,并在检测到的面部周围绘制矩形框。在实际应用中,你需要扩展代码以实现情绪识别模型的调用和情绪标注。
评论已关闭