Tác vụ Trình nhận dạng cử chỉ MediaPipe cho phép bạn nhận dạng cử chỉ tay theo thời gian thực, đồng thời cung cấp kết quả nhận dạng cử chỉ tay và các điểm đánh dấu tay của tay được phát hiện. Những hướng dẫn này cho bạn biết cách sử dụng Trình nhận dạng cử chỉ với các ứng dụng Python.
Bạn có thể xem cách thực hiện tác vụ này bằng cách xem Bản minh hoạ trên web. Để biết thêm thông tin về các tính năng, mô hình và tuỳ chọn cấu hình của tác vụ này, hãy xem phần Tổng quan.
Ví dụ về mã
Mã ví dụ cho Trình nhận dạng cử chỉ cung cấp cách triển khai đầy đủ tác vụ này trong Python để bạn tham khảo. Mã này giúp bạn kiểm thử nhiệm vụ này và bắt đầu tạo trình nhận dạng cử chỉ tay của riêng mình. Bạn có thể xem, chạy và chỉnh sửa mã ví dụ của Trình nhận dạng cử chỉ chỉ bằng trình duyệt web.
Nếu bạn đang triển khai Trình nhận dạng cử chỉ cho Raspberry Pi, hãy tham khảo ứng dụng mẫu Raspberry Pi.
Thiết lập
Phần này mô tả các bước chính để thiết lập môi trường phát triển và dự án mã dành riêng cho việc sử dụng Trình nhận dạng cử chỉ. Để biết thông tin chung về cách thiết lập môi trường phát triển cho việc sử dụng các tác vụ MediaPipe, bao gồm cả các yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho Python.
Gói
Tác vụ Trình nhận dạng cử chỉ MediaPipe yêu cầu gói mediapipe PyPI. Bạn có thể cài đặt và nhập các phần phụ thuộc này bằng cách sau:
$ python -m pip install mediapipe
Nhập
Nhập các lớp sau để truy cập vào các hàm tác vụ của Trình nhận dạng cử chỉ:
import mediapipe as mp
from mediapipe.tasks import python
from mediapipe.tasks.python import vision
Mẫu
Tác vụ Trình nhận dạng cử chỉ MediaPipe yêu cầu một gói mô hình đã huấn luyện tương thích với tác vụ này. Để biết thêm thông tin về các mô hình đã huấn luyện hiện có cho Trình nhận dạng cử chỉ, hãy xem phần Mô hình trong phần tổng quan về tác vụ.
Chọn và tải mô hình xuống, sau đó lưu mô hình đó vào một thư mục cục bộ:
model_path = '/absolute/path/to/gesture_recognizer.task'
Chỉ định đường dẫn của mô hình trong tham số Tên mô hình, như minh hoạ dưới đây:
base_options = BaseOptions(model_asset_path=model_path)
Tạo việc cần làm
Tác vụ Trình nhận dạng cử chỉ MediaPipe sử dụng hàm create_from_options
để thiết lập tác vụ. Hàm create_from_options
chấp nhận các giá trị cho các tuỳ chọn cấu hình cần xử lý. Để biết thêm thông tin về các tuỳ chọn cấu hình, hãy xem phần Tuỳ chọn cấu hình.
Mã sau đây minh hoạ cách tạo và định cấu hình tác vụ này.
Các mẫu này cũng cho thấy các biến thể của cấu trúc tác vụ cho hình ảnh, tệp video và luồng video trực tiếp.
Hình ảnh
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions GestureRecognizer = mp.tasks.vision.GestureRecognizer GestureRecognizerOptions = mp.tasks.vision.GestureRecognizerOptions VisionRunningMode = mp.tasks.vision.RunningMode # Create a gesture recognizer instance with the image mode: options = GestureRecognizerOptions( base_options=BaseOptions(model_asset_path='/path/to/model.task'), running_mode=VisionRunningMode.IMAGE) with GestureRecognizer.create_from_options(options) as recognizer: # The detector is initialized. Use it here. # ...
Video
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions GestureRecognizer = mp.tasks.vision.GestureRecognizer GestureRecognizerOptions = mp.tasks.vision.GestureRecognizerOptions VisionRunningMode = mp.tasks.vision.RunningMode # Create a gesture recognizer instance with the video mode: options = GestureRecognizerOptions( base_options=BaseOptions(model_asset_path='/path/to/model.task'), running_mode=VisionRunningMode.VIDEO) with GestureRecognizer.create_from_options(options) as recognizer: # The detector is initialized. Use it here. # ...
Sự kiện phát trực tiếp
import mediapipe as mp BaseOptions = mp.tasks.BaseOptions GestureRecognizer = mp.tasks.vision.GestureRecognizer GestureRecognizerOptions = mp.tasks.vision.GestureRecognizerOptions GestureRecognizerResult = mp.tasks.vision.GestureRecognizerResult VisionRunningMode = mp.tasks.vision.RunningMode # Create a gesture recognizer instance with the live stream mode: def print_result(result: GestureRecognizerResult, output_image: mp.Image, timestamp_ms: int): print('gesture recognition result: {}'.format(result)) options = GestureRecognizerOptions( base_options=BaseOptions(model_asset_path='/path/to/model.task'), running_mode=VisionRunningMode.LIVE_STREAM, result_callback=print_result) with GestureRecognizer.create_from_options(options) as recognizer: # The detector is initialized. Use it here. # ...
Các lựa chọn về cấu hình
Tác vụ này có các tuỳ chọn cấu hình sau đây cho các ứng dụng Python:
Tên tuỳ chọn | Mô tả | Phạm vi giá trị | Giá trị mặc định | |
---|---|---|---|---|
running_mode |
Đặt chế độ chạy cho tác vụ. Có 3 chế độ: HÌNH ẢNH: Chế độ cho dữ liệu đầu vào là một hình ảnh. VIDEO: Chế độ cho các khung hình đã giải mã của video. LIVE_STREAM: Chế độ phát trực tiếp dữ liệu đầu vào, chẳng hạn như từ máy ảnh. Ở chế độ này, bạn phải gọi resultListener để thiết lập trình nghe nhận kết quả một cách không đồng bộ. |
{IMAGE, VIDEO, LIVE_STREAM } |
IMAGE |
|
num_hands |
GestureRecognizer có thể phát hiện được số lượng tay tối đa.
|
Any integer > 0 |
1 |
|
min_hand_detection_confidence |
Điểm tin cậy tối thiểu để quá trình phát hiện bàn tay được coi là thành công trong mô hình phát hiện lòng bàn tay. | 0.0 - 1.0 |
0.5 |
|
min_hand_presence_confidence |
Điểm tin cậy tối thiểu của điểm số về sự hiện diện của bàn tay trong mô hình phát hiện điểm đánh dấu bàn tay. Ở chế độ Video và chế độ Phát trực tiếp của Trình nhận dạng cử chỉ, nếu điểm tự tin về sự hiện diện của bàn tay từ mô hình điểm đánh dấu bàn tay thấp hơn ngưỡng này, thì mô hình phát hiện lòng bàn tay sẽ được kích hoạt. Nếu không, một thuật toán theo dõi tay gọn nhẹ sẽ được dùng để xác định vị trí của(các) bàn tay để phát hiện các điểm đánh dấu tiếp theo. | 0.0 - 1.0 |
0.5 |
|
min_tracking_confidence |
Điểm tin cậy tối thiểu để tính năng theo dõi chuyển động tay được coi là thành công. Đây là ngưỡng IoU của hộp giới hạn giữa các bàn tay trong khung hình hiện tại và khung hình cuối cùng. Trong chế độ Video và chế độ Truyền trực tuyến của Trình nhận dạng cử chỉ, nếu không theo dõi được, Trình nhận dạng cử chỉ sẽ kích hoạt tính năng phát hiện tay. Nếu không, tính năng phát hiện tay sẽ bị bỏ qua. | 0.0 - 1.0 |
0.5 |
|
canned_gestures_classifier_options |
Các tuỳ chọn để định cấu hình hành vi của bộ phân loại cử chỉ đóng hộp. Cử chỉ soạn sẵn là ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"] |
|
|
|
custom_gestures_classifier_options |
Các tuỳ chọn để định cấu hình hành vi của bộ phân loại cử chỉ tuỳ chỉnh. |
|
|
|
result_callback |
Đặt trình nghe kết quả để nhận kết quả phân loại không đồng bộ khi trình nhận dạng cử chỉ ở chế độ phát trực tiếp.
Chỉ có thể sử dụng khi chế độ chạy được đặt thành LIVE_STREAM |
ResultListener |
Không áp dụng | Không áp dụng |
Chuẩn bị dữ liệu
Chuẩn bị dữ liệu đầu vào dưới dạng tệp hình ảnh hoặc mảng numpy, sau đó chuyển đổi dữ liệu đó thành đối tượng mediapipe.Image
. Nếu dữ liệu đầu vào là tệp video hoặc luồng trực tiếp từ webcam, bạn có thể sử dụng thư viện bên ngoài như OpenCV để tải các khung hình đầu vào dưới dạng mảng numpy.
Hình ảnh
import mediapipe as mp # Load the input image from an image file. mp_image = mp.Image.create_from_file('/path/to/image') # Load the input image from a numpy array. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_image)
Video
import mediapipe as mp # Use OpenCV’s VideoCapture to load the input video. # Load the frame rate of the video using OpenCV’s CV_CAP_PROP_FPS # You’ll need it to calculate the timestamp for each frame. # Loop through each frame in the video using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
Sự kiện phát trực tiếp
import mediapipe as mp # Use OpenCV’s VideoCapture to start capturing from the webcam. # Create a loop to read the latest frame from the camera using VideoCapture#read() # Convert the frame received from OpenCV to a MediaPipe’s Image object. mp_image = mp.Image(image_format=mp.ImageFormat.SRGB, data=numpy_frame_from_opencv)
Chạy tác vụ
Trình nhận dạng cử chỉ sử dụng các hàm recognize, recognize_for_video và recognize_async để kích hoạt suy luận. Đối với tính năng nhận dạng cử chỉ, bạn cần xử lý trước dữ liệu đầu vào, phát hiện bàn tay trong hình ảnh, phát hiện điểm mốc bàn tay và nhận dạng cử chỉ bàn tay từ các điểm mốc đó.
Đoạn mã sau đây minh hoạ cách thực thi quá trình xử lý bằng mô hình tác vụ.
Hình ảnh
# Perform gesture recognition on the provided single image. # The gesture recognizer must be created with the image mode. gesture_recognition_result = recognizer.recognize(mp_image)
Video
# Perform gesture recognition on the provided single image. # The gesture recognizer must be created with the video mode. gesture_recognition_result = recognizer.recognize_for_video(mp_image, frame_timestamp_ms)
Sự kiện phát trực tiếp
# Send live image data to perform gesture recognition. # The results are accessible via the `result_callback` provided in # the `GestureRecognizerOptions` object. # The gesture recognizer must be created with the live stream mode. recognizer.recognize_async(mp_image, frame_timestamp_ms)
Xin lưu ý những điều sau:
- Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp cho tác vụ Trình nhận dạng cử chỉ dấu thời gian của khung đầu vào.
- Khi chạy trong mô hình hình ảnh hoặc video, tác vụ Trình nhận dạng cử chỉ sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh hoặc khung đầu vào.
- Khi chạy ở chế độ phát trực tiếp, tác vụ Trình nhận dạng cử chỉ không chặn luồng hiện tại mà trả về ngay lập tức. Phương thức này sẽ gọi trình nghe kết quả bằng kết quả nhận dạng mỗi khi hoàn tất quá trình xử lý một khung đầu vào. Nếu hàm nhận dạng được gọi khi tác vụ Trình nhận dạng cử chỉ đang bận xử lý một khung khác, thì tác vụ này sẽ bỏ qua khung đầu vào mới.
Để xem ví dụ đầy đủ về cách chạy Trình nhận dạng cử chỉ trên hình ảnh, hãy xem ví dụ về mã để biết thông tin chi tiết.
Xử lý và hiển thị kết quả
Trình nhận dạng cử chỉ tạo một đối tượng kết quả phát hiện cử chỉ cho mỗi lần chạy nhận dạng. Đối tượng kết quả chứa các điểm đánh dấu tay theo toạ độ hình ảnh, các điểm đánh dấu tay theo toạ độ thế giới, thuận tay(tay trái/tay phải) và các danh mục cử chỉ tay của những bàn tay được phát hiện.
Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:
GestureRecognizerResult
thu được chứa 4 thành phần và mỗi thành phần là một mảng, trong đó mỗi phần tử chứa kết quả phát hiện của một bàn tay được phát hiện.
Tay thuận
Tay thuận cho biết tay được phát hiện là tay trái hay tay phải.
Cử chỉ
Danh mục cử chỉ được nhận dạng của bàn tay đã phát hiện.
Địa danh
Có 21 điểm đánh dấu tay, mỗi điểm bao gồm toạ độ
x
,y
vàz
. Toạ độx
vày
được chuẩn hoá thành [0,0, 1,0] theo chiều rộng và chiều cao của hình ảnh tương ứng. Toạ độz
thể hiện chiều sâu của điểm tham quan, trong đó chiều sâu ở cổ tay là gốc. Giá trị càng nhỏ thì điểm tham chiếu càng gần máy ảnh. Magnitude củaz
sử dụng gần giống với quy mô củax
.Điểm mốc Thế giới
21 điểm đánh dấu tay cũng được trình bày theo toạ độ thế giới. Mỗi điểm đánh dấu bao gồm
x
,y
vàz
, đại diện cho toạ độ 3D trong thực tế tính bằng mét, với gốc tại tâm hình học của tay.
GestureRecognizerResult:
Handedness:
Categories #0:
index : 0
score : 0.98396
categoryName : Left
Gestures:
Categories #0:
score : 0.76893
categoryName : Thumb_Up
Landmarks:
Landmark #0:
x : 0.638852
y : 0.671197
z : -3.41E-7
Landmark #1:
x : 0.634599
y : 0.536441
z : -0.06984
... (21 landmarks for a hand)
WorldLandmarks:
Landmark #0:
x : 0.067485
y : 0.031084
z : 0.055223
Landmark #1:
x : 0.063209
y : -0.00382
z : 0.020920
... (21 world landmarks for a hand)
Hình ảnh sau đây minh hoạ kết quả của tác vụ:
Mã ví dụ về Trình nhận dạng cử chỉ minh hoạ cách hiển thị kết quả nhận dạng được trả về từ tác vụ, hãy xem ví dụ về mã để biết thông tin chi tiết.