Hướng dẫn nhận dạng cử chỉ dành cho Android

Tác vụ Trình nhận dạng cử chỉ MediaPipe cho phép bạn nhận dạng cử chỉ tay theo thời gian thực và cung cấp kết quả nhận dạng cử chỉ tay cũng như các điểm đánh dấu tay của bàn tay được phát hiện. Những hướng dẫn này cho bạn biết cách sử dụng Trình nhận dạng cử chỉ với các ứng dụng Android. Bạn có thể xem mã mẫu được mô tả trong các hướng dẫn này trên GitHub.

Bạn có thể xem tác vụ này hoạt động bằng cách xem bản minh hoạ trên web. Để biết thêm thông tin về các tính năng, mô hình và tuỳ chọn cấu hình của tác vụ này, hãy xem phần Tổng quan.

Ví dụ về mã

Mã ví dụ về Tác vụ MediaPipe là một cách triển khai đơn giản của ứng dụng Trình nhận dạng cử chỉ cho Android. Ví dụ này sử dụng máy ảnh trên một thiết bị Android thực để liên tục phát hiện cử chỉ tay, đồng thời cũng có thể sử dụng hình ảnh và video trong thư viện thiết bị để phát hiện cử chỉ một cách tĩnh.

Bạn có thể sử dụng ứng dụng này làm điểm xuất phát cho ứng dụng Android của riêng mình hoặc tham khảo ứng dụng này khi sửa đổi một ứng dụng hiện có. Mã ví dụ về Trình nhận dạng cử chỉ được lưu trữ trên GitHub.

Tải mã xuống

Hướng dẫn sau đây cho bạn biết cách tạo bản sao cục bộ của mã ví dụ bằng công cụ dòng lệnh git.

Cách tải mã mẫu xuống:

  1. Sao chép kho lưu trữ git bằng lệnh sau:
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. Bạn có thể định cấu hình thực thể git để sử dụng tính năng kiểm tra thư mục thưa, nhờ đó, bạn chỉ có các tệp cho ứng dụng mẫu Trình nhận dạng cử chỉ:
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/gesture_recognizer/android
    

Sau khi tạo phiên bản cục bộ của mã ví dụ, bạn có thể nhập dự án vào Android Studio và chạy ứng dụng. Để biết hướng dẫn, hãy xem Hướng dẫn thiết lập cho Android.

Các thành phần chính

Các tệp sau đây chứa mã quan trọng cho ứng dụng mẫu nhận dạng cử chỉ tay này:

Thiết lập

Phần này mô tả các bước chính để thiết lập môi trường phát triển và dự án mã dành riêng cho việc sử dụng Trình nhận dạng cử chỉ. Để biết thông tin chung về cách thiết lập môi trường phát triển cho việc sử dụng các tác vụ MediaPipe, bao gồm cả các yêu cầu về phiên bản nền tảng, hãy xem Hướng dẫn thiết lập cho Android.

Phần phụ thuộc

Tác vụ Trình nhận dạng cử chỉ sử dụng thư viện com.google.mediapipe:tasks-vision. Thêm phần phụ thuộc này vào tệp build.gradle của ứng dụng Android:

dependencies {
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

Mẫu

Tác vụ Trình nhận dạng cử chỉ MediaPipe yêu cầu một gói mô hình đã huấn luyện tương thích với tác vụ này. Để biết thêm thông tin về các mô hình đã huấn luyện hiện có cho Trình nhận dạng cử chỉ, hãy xem phần Mô hình trong phần tổng quan về tác vụ.

Chọn và tải mô hình xuống, sau đó lưu mô hình đó trong thư mục dự án:

<dev-project-root>/src/main/assets

Chỉ định đường dẫn của mô hình trong tham số ModelAssetPath. Trong mã mẫu, mô hình được xác định trong tệp GestureRecognizerHelper.kt:

baseOptionBuilder.setModelAssetPath(MP_RECOGNIZER_TASK)

Tạo việc cần làm

Tác vụ Trình nhận dạng cử chỉ MediaPipe sử dụng hàm createFromOptions() để thiết lập tác vụ. Hàm createFromOptions() chấp nhận các giá trị cho các tuỳ chọn cấu hình. Để biết thêm thông tin về các tuỳ chọn cấu hình, hãy xem phần Tuỳ chọn cấu hình.

Trình nhận dạng cử chỉ hỗ trợ 3 loại dữ liệu đầu vào: hình ảnh tĩnh, tệp video và luồng video trực tiếp. Bạn cần chỉ định chế độ chạy tương ứng với loại dữ liệu đầu vào khi tạo tác vụ. Chọn thẻ tương ứng với loại dữ liệu đầu vào để xem cách tạo tác vụ và chạy quy trình suy luận.

Hình ảnh

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setRunningMode(RunningMode.IMAGE)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

Video

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setRunningMode(RunningMode.VIDEO)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

Sự kiện phát trực tiếp

val baseOptionsBuilder = BaseOptions.builder().setModelAssetPath(MP_RECOGNIZER_TASK)
val baseOptions = baseOptionBuilder.build()

val optionsBuilder =
    GestureRecognizer.GestureRecognizerOptions.builder()
        .setBaseOptions(baseOptions)
        .setMinHandDetectionConfidence(minHandDetectionConfidence)
        .setMinTrackingConfidence(minHandTrackingConfidence)
        .setMinHandPresenceConfidence(minHandPresenceConfidence)
        .setResultListener(this::returnLivestreamResult)
        .setErrorListener(this::returnLivestreamError)
        .setRunningMode(RunningMode.LIVE_STREAM)

val options = optionsBuilder.build()
gestureRecognizer =
    GestureRecognizer.createFromOptions(context, options)
    

Việc triển khai mã ví dụ về Trình nhận dạng cử chỉ cho phép người dùng chuyển đổi giữa các chế độ xử lý. Phương pháp này khiến mã tạo tác vụ trở nên phức tạp hơn và có thể không phù hợp với trường hợp sử dụng của bạn. Bạn có thể thấy mã này trong hàm setupGestureRecognizer() trong tệp GestureRecognizerHelper.kt.

Các lựa chọn về cấu hình

Tác vụ này có các tuỳ chọn cấu hình sau đây cho ứng dụng Android:

Tên tuỳ chọn Mô tả Phạm vi giá trị Giá trị mặc định
runningMode Đặt chế độ chạy cho tác vụ. Có 3 chế độ:

HÌNH ẢNH: Chế độ cho dữ liệu đầu vào là một hình ảnh.

VIDEO: Chế độ cho các khung hình đã giải mã của video.

LIVE_STREAM: Chế độ phát trực tiếp dữ liệu đầu vào, chẳng hạn như từ máy ảnh. Ở chế độ này, bạn phải gọi resultListener để thiết lập trình nghe nhận kết quả một cách không đồng bộ.
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
numHands GestureRecognizer có thể phát hiện được số lượng tay tối đa. Any integer > 0 1
minHandDetectionConfidence Điểm tin cậy tối thiểu để quá trình phát hiện bàn tay được coi là thành công trong mô hình phát hiện lòng bàn tay. 0.0 - 1.0 0.5
minHandPresenceConfidence Điểm tin cậy tối thiểu của điểm số về sự hiện diện của bàn tay trong mô hình phát hiện điểm đánh dấu bàn tay. Ở chế độ Video và chế độ Phát trực tiếp của Trình nhận dạng cử chỉ, nếu điểm tự tin về sự hiện diện của bàn tay từ mô hình điểm đánh dấu bàn tay thấp hơn ngưỡng này, thì mô hình phát hiện lòng bàn tay sẽ được kích hoạt. Nếu không, một thuật toán theo dõi tay gọn nhẹ sẽ được dùng để xác định vị trí của(các) bàn tay để phát hiện các điểm đánh dấu tiếp theo. 0.0 - 1.0 0.5
minTrackingConfidence Điểm tin cậy tối thiểu để tính năng theo dõi chuyển động tay được coi là thành công. Đây là ngưỡng IoU của hộp giới hạn giữa các bàn tay trong khung hình hiện tại và khung hình cuối cùng. Trong chế độ Video và chế độ Truyền trực tuyến của Trình nhận dạng cử chỉ, nếu không theo dõi được, Trình nhận dạng cử chỉ sẽ kích hoạt tính năng phát hiện tay. Nếu không, tính năng phát hiện tay sẽ bị bỏ qua. 0.0 - 1.0 0.5
cannedGesturesClassifierOptions Các tuỳ chọn để định cấu hình hành vi của bộ phân loại cử chỉ đóng hộp. Cử chỉ soạn sẵn là ["None", "Closed_Fist", "Open_Palm", "Pointing_Up", "Thumb_Down", "Thumb_Up", "Victory", "ILoveYou"]
  • Ngôn ngữ tên hiển thị: ngôn ngữ dùng cho tên hiển thị được chỉ định thông qua Siêu dữ liệu mô hình TFLite (nếu có).
  • Số kết quả tối đa: số kết quả phân loại có điểm số cao nhất được trả về. Nếu < 0, tất cả kết quả có sẵn sẽ được trả về.
  • Ngưỡng điểm: điểm mà kết quả sẽ bị từ chối nếu thấp hơn. Nếu bạn đặt giá trị này thành 0, tất cả kết quả có sẵn sẽ được trả về.
  • Danh sách cho phép danh mục: danh sách cho phép tên danh mục. Nếu không trống, kết quả phân loại có danh mục không thuộc tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau với danh sách từ chối.
  • Danh sách từ chối danh mục: danh sách từ chối tên danh mục. Nếu không trống, kết quả phân loại có danh mục nằm trong tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau với danh sách cho phép.
    • Ngôn ngữ hiển thị tên: any string
    • Số kết quả tối đa: any integer
    • Ngưỡng điểm: 0.0-1.0
    • Danh sách cho phép danh mục: vector of strings
    • Danh sách từ chối danh mục: vector of strings
    • Ngôn ngữ hiển thị tên: "en"
    • Số kết quả tối đa: -1
    • Ngưỡng điểm: 0
    • Danh sách cho phép danh mục: trống
    • Danh sách từ chối danh mục: trống
    customGesturesClassifierOptions Các tuỳ chọn để định cấu hình hành vi của bộ phân loại cử chỉ tuỳ chỉnh.
  • Ngôn ngữ tên hiển thị: ngôn ngữ dùng cho tên hiển thị được chỉ định thông qua Siêu dữ liệu mô hình TFLite (nếu có).
  • Số kết quả tối đa: số kết quả phân loại có điểm số cao nhất được trả về. Nếu < 0, tất cả kết quả có sẵn sẽ được trả về.
  • Ngưỡng điểm: điểm mà kết quả sẽ bị từ chối nếu thấp hơn. Nếu bạn đặt giá trị này thành 0, tất cả kết quả có sẵn sẽ được trả về.
  • Danh sách cho phép danh mục: danh sách cho phép tên danh mục. Nếu không trống, kết quả phân loại có danh mục không thuộc tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau với danh sách từ chối.
  • Danh sách từ chối danh mục: danh sách từ chối tên danh mục. Nếu không trống, kết quả phân loại có danh mục nằm trong tập hợp này sẽ bị lọc ra. Loại trừ lẫn nhau với danh sách cho phép.
    • Ngôn ngữ hiển thị tên: any string
    • Số kết quả tối đa: any integer
    • Ngưỡng điểm: 0.0-1.0
    • Danh sách cho phép danh mục: vector of strings
    • Danh sách từ chối danh mục: vector of strings
    • Ngôn ngữ hiển thị tên: "en"
    • Số kết quả tối đa: -1
    • Ngưỡng điểm: 0
    • Danh sách cho phép danh mục: trống
    • Danh sách từ chối danh mục: trống
    resultListener Đặt trình nghe kết quả để nhận kết quả phân loại không đồng bộ khi trình nhận dạng cử chỉ ở chế độ phát trực tiếp. Chỉ có thể sử dụng khi chế độ chạy được đặt thành LIVE_STREAM ResultListener Không áp dụng Không áp dụng
    errorListener Đặt trình nghe lỗi không bắt buộc. ErrorListener Không áp dụng Không áp dụng

    Chuẩn bị dữ liệu

    Trình nhận dạng cử chỉ hoạt động với hình ảnh, tệp video và video phát trực tiếp. Tác vụ này xử lý quá trình xử lý trước dữ liệu đầu vào, bao gồm cả việc đổi kích thước, xoay và chuẩn hoá giá trị.

    Mã sau đây minh hoạ cách chuyển dữ liệu để xử lý. Các mẫu này bao gồm thông tin chi tiết về cách xử lý dữ liệu từ hình ảnh, tệp video và luồng video trực tiếp.

    Hình ảnh

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(image).build()
        

    Video

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    val argb8888Frame =
        if (frame.config == Bitmap.Config.ARGB_8888) frame
        else frame.copy(Bitmap.Config.ARGB_8888, false)
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(argb8888Frame).build()
        

    Sự kiện phát trực tiếp

    import com.google.mediapipe.framework.image.BitmapImageBuilder
    import com.google.mediapipe.framework.image.MPImage
    
    // Convert the input Bitmap object to an MPImage object to run inference
    val mpImage = BitmapImageBuilder(rotatedBitmap).build()
        

    Trong mã ví dụ về Trình nhận dạng cử chỉ, việc chuẩn bị dữ liệu được xử lý trong tệp GestureRecognizerHelper.kt.

    Chạy tác vụ

    Trình nhận dạng cử chỉ sử dụng các hàm recognize, recognizeForVideorecognizeAsync để kích hoạt suy luận. Đối với tính năng nhận dạng cử chỉ, bạn cần xử lý trước dữ liệu đầu vào, phát hiện bàn tay trong hình ảnh, phát hiện điểm mốc bàn tay và nhận dạng cử chỉ bàn tay từ các điểm mốc đó.

    Đoạn mã sau đây minh hoạ cách thực thi quá trình xử lý bằng mô hình tác vụ. Các mẫu này bao gồm thông tin chi tiết về cách xử lý dữ liệu từ hình ảnh, tệp video và luồng video trực tiếp.

    Hình ảnh

    val result = gestureRecognizer?.recognize(mpImage)
        

    Video

    val timestampMs = i * inferenceIntervalMs
    
    gestureRecognizer?.recognizeForVideo(mpImage, timestampMs)
        ?.let { recognizerResult ->
            resultList.add(recognizerResult)
        }
        

    Sự kiện phát trực tiếp

    val mpImage = BitmapImageBuilder(rotatedBitmap).build()
    val frameTime = SystemClock.uptimeMillis()
    
    gestureRecognizer?.recognizeAsync(mpImage, frameTime)
        

    Xin lưu ý những điều sau:

    • Khi chạy ở chế độ video hoặc chế độ phát trực tiếp, bạn cũng phải cung cấp dấu thời gian của khung đầu vào cho tác vụ Trình nhận dạng cử chỉ.
    • Khi chạy ở chế độ hình ảnh hoặc video, tác vụ Trình nhận dạng cử chỉ sẽ chặn luồng hiện tại cho đến khi xử lý xong hình ảnh hoặc khung đầu vào. Để tránh chặn giao diện người dùng, hãy thực thi quá trình xử lý trong luồng nền.
    • Khi chạy ở chế độ phát trực tiếp, tác vụ Trình nhận dạng cử chỉ không chặn luồng hiện tại mà trả về ngay lập tức. Phương thức này sẽ gọi trình nghe kết quả bằng kết quả nhận dạng mỗi khi hoàn tất quá trình xử lý một khung đầu vào. Nếu hàm nhận dạng được gọi khi tác vụ Trình nhận dạng cử chỉ đang bận xử lý một khung khác, thì tác vụ này sẽ bỏ qua khung đầu vào mới.

    Trong mã ví dụ về Trình nhận dạng cử chỉ, các hàm recognize, recognizeForVideorecognizeAsync được xác định trong tệp GestureRecognizerHelper.kt.

    Xử lý và hiển thị kết quả

    Trình nhận dạng cử chỉ tạo một đối tượng kết quả phát hiện cử chỉ cho mỗi lần chạy nhận dạng. Đối tượng kết quả chứa các điểm đánh dấu tay theo toạ độ hình ảnh, các điểm đánh dấu tay theo toạ độ thế giới, thuận tay(tay trái/tay phải) và các danh mục cử chỉ tay của những bàn tay được phát hiện.

    Sau đây là ví dụ về dữ liệu đầu ra của tác vụ này:

    GestureRecognizerResult thu được chứa 4 thành phần và mỗi thành phần là một mảng, trong đó mỗi phần tử chứa kết quả phát hiện của một bàn tay được phát hiện.

    • Tay thuận

      Tay thuận cho biết tay được phát hiện là tay trái hay tay phải.

    • Cử chỉ

      Danh mục cử chỉ được nhận dạng của bàn tay đã phát hiện.

    • Địa danh

      Có 21 điểm đánh dấu tay, mỗi điểm bao gồm toạ độ x, yz. Toạ độ xy được chuẩn hoá thành [0,0, 1,0] theo chiều rộng và chiều cao của hình ảnh tương ứng. Toạ độ z thể hiện chiều sâu của điểm tham quan, trong đó chiều sâu ở cổ tay là gốc. Giá trị càng nhỏ thì điểm tham chiếu càng gần máy ảnh. Magnitude của z sử dụng gần giống với quy mô của x.

    • Điểm mốc Thế giới

      21 điểm đánh dấu tay cũng được trình bày theo toạ độ thế giới. Mỗi điểm đánh dấu bao gồm x, yz, đại diện cho toạ độ 3D trong thực tế tính bằng mét, với gốc tại tâm hình học của tay.

    GestureRecognizerResult:
      Handedness:
        Categories #0:
          index        : 0
          score        : 0.98396
          categoryName : Left
      Gestures:
        Categories #0:
          score        : 0.76893
          categoryName : Thumb_Up
      Landmarks:
        Landmark #0:
          x            : 0.638852
          y            : 0.671197
          z            : -3.41E-7
        Landmark #1:
          x            : 0.634599
          y            : 0.536441
          z            : -0.06984
        ... (21 landmarks for a hand)
      WorldLandmarks:
        Landmark #0:
          x            : 0.067485
          y            : 0.031084
          z            : 0.055223
        Landmark #1:
          x            : 0.063209
          y            : -0.00382
          z            : 0.020920
        ... (21 world landmarks for a hand)
    

    Hình ảnh sau đây minh hoạ kết quả của tác vụ:

    Một bàn tay đang giơ ngón tay cái lên, với cấu trúc xương của bàn tay được lập bản đồ

    Trong mã ví dụ về Trình nhận dạng cử chỉ, lớp GestureRecognizerResultsAdapter trong tệp GestureRecognizerResultsAdapter.kt sẽ xử lý kết quả.