Android 圖片嵌入指南

MediaPipe 圖片嵌入器工作可將圖片資料轉換為數值表示法,以便完成機器學習相關的圖片處理工作,例如比較兩張圖片的相似程度。本操作說明將說明如何在 Android 應用程式中使用圖片嵌入工具。

如要進一步瞭解這項工作的功能、模型和設定選項,請參閱總覽

程式碼範例

MediaPipe Tasks 範例程式碼是 Android 版 Image Embedder 應用程式的簡單實作。這個範例會使用實體 Android 裝置的相機持續嵌入圖片,也可以在裝置上儲存的圖片檔案上執行嵌入器。

您可以使用這個應用程式做為自有 Android 應用程式的起點,或是在修改現有應用程式時參考這個應用程式。圖片嵌入器範例程式碼託管於 GitHub

下載程式碼

以下操作說明說明如何使用 git 指令列工具,建立範例程式碼的本機副本。

下載程式碼範例:

  1. 使用下列指令複製 Git 存放區:
    git clone https://github.com/google-ai-edge/mediapipe-samples
    
  2. 您可以選擇將 Git 例項設定為使用稀疏檢查,這樣您就只會取得 Image Embedder 範例應用程式的檔案:
    cd mediapipe
    git sparse-checkout init --cone
    git sparse-checkout set examples/image_embedder/android
    

建立本機版本的範例程式碼後,您可以將專案匯入 Android Studio 並執行應用程式。如需操作說明,請參閱 Android 設定指南

重要元件

以下檔案包含此圖片嵌入器範例應用程式的重要程式碼:

設定

本節將說明設定開發環境和程式碼專案以使用圖片嵌入工具的重要步驟。如要進一步瞭解如何設定開發環境,以便使用 MediaPipe 工作,包括平台版本需求,請參閱 Android 設定指南

依附元件

圖片嵌入工具使用 com.google.mediapipe:tasks-vision 程式庫。將這個依附元件新增至 Android 應用程式開發專案的 build.gradle 檔案。使用以下程式碼匯入必要的依附元件:

dependencies {
    ...
    implementation 'com.google.mediapipe:tasks-vision:latest.release'
}

型號

MediaPipe 圖片嵌入器工作需要訓練的模型與此工作相容。如要進一步瞭解可供 Image Embedder 使用的訓練模型,請參閱工作總覽的「模型」一節。

選取並下載模型,然後將模型儲存在專案目錄中:

<dev-project-root>/src/main/assets

ModelAssetPath 參數中指定模型的路徑。在範例程式碼中,模型是在 ImageEmbedderHelper.kt 檔案的 setupImageEmbedder() 函式中定義:

請使用 BaseOptions.Builder.setModelAssetPath() 方法指定模型使用的路徑。這個方法會在下一節的程式碼範例中提及。

建立工作

您可以使用 createFromOptions 函式建立工作。createFromOptions 函式會接受設定選項,以便設定嵌入選項。如要進一步瞭解設定選項,請參閱「設定總覽」。

圖片嵌入器工作支援 3 種輸入資料類型:靜態圖片、影片檔案和即時影像串流。建立工作時,您需要指定與輸入資料類型相對應的執行模式。請選擇對應於輸入資料類型的分頁,瞭解如何建立工作並執行推論。

圖片

ImageEmbedderOptions options =
  ImageEmbedderOptions.builder()
    .setBaseOptions(
      BaseOptions.builder().setModelAssetPath("model.tflite").build())
    .setQuantize(true)
    .setRunningMode(RunningMode.IMAGE)
    .build();
imageEmbedder = ImageEmbedder.createFromOptions(context, options);
    

影片

ImageEmbedderOptions options =
  ImageEmbedderOptions.builder()
    .setBaseOptions(
      BaseOptions.builder().setModelAssetPath("model.tflite").build())
    .setQuantize(true)
    .setRunningMode(RunningMode.VIDEO)
    .build();
imageEmbedder = ImageEmbedder.createFromOptions(context, options);
    

直播

ImageEmbedderOptions options =
  ImageEmbedderOptions.builder()
    .setBaseOptions(
      BaseOptions.builder().setModelAssetPath("model.tflite").build())
    .setQuantize(true)
    .setRunningMode(RunningMode.LIVE_STREAM)
    .setResultListener((result, inputImage) -> {
         // Process the embedding result here.
    })
    .build();
imageEmbedder = ImageEmbedder.createFromOptions(context, options);
    

範例程式碼實作可讓使用者切換處理模式。這個方法會使建立工作程式碼變得更複雜,可能不適合您的用途。您可以在 ImageEmbedderHelper.kt 檔案的 setupImageEmbedder() 函式中看到這段程式碼。

設定選項

此工作提供下列 Android 應用程式設定選項:

選項名稱 說明 值範圍 預設值
runningMode 設定工作執行模式。共有三種模式:

IMAGE:單一圖片輸入模式。

VIDEO:影片解碼影格模式。

LIVE_STREAM:輸入資料 (例如來自攝影機的資料) 的直播模式。在這個模式中,必須呼叫 resultListener,才能設定事件監聽器,以非同步方式接收結果。
{IMAGE, VIDEO, LIVE_STREAM} IMAGE
l2_normalize 是否要使用 L2 正規化,將傳回的特徵向量正規化。只有在模型未包含原生 L2_NORMALIZATION TFLite 運算時,才使用這個選項。在大多數情況下,模型都已包含這個運算,因此可透過 TFLite 推論達成 L2 規格化,而不需要使用這個選項。 Boolean False
quantize 是否應透過純量量化,將傳回的嵌入值量化為位元組。系統會隱含假設嵌入項目為單位規範,因此任何維度都保證會具有 [-1.0, 1.0] 的值。如果不是這種情況,請使用 l2_normalize 選項。 Boolean False
resultListener 在圖片嵌入工具處於即時串流模式時,將結果事件監聽器設為以非同步方式接收嵌入結果。只有在執行模式設為 LIVE_STREAM 時,才能使用 不適用 未設定
errorListener 設定選用的錯誤監聽器。 不適用 未設定

準備資料

圖片嵌入工具可用於圖片、影片檔案和直播影片。這個工作會處理資料輸入預先處理作業,包括調整大小、旋轉和值規格化。

您必須先將輸入圖片或影格轉換為 com.google.mediapipe.framework.image.MPImage 物件,再將其傳送至圖片嵌入器工作。

圖片

import com.google.mediapipe.framework.image.BitmapImageBuilder;
import com.google.mediapipe.framework.image.MPImage;

// Load an image on the users device as a Bitmap object using BitmapFactory.

// Convert an Androids Bitmap object to a MediaPipes Image object.
Image mpImage = new BitmapImageBuilder(bitmap).build();
    

影片

import com.google.mediapipe.framework.image.BitmapImageBuilder;
import com.google.mediapipe.framework.image.MPImage;

// Load a video file on the user's device using MediaMetadataRetriever

// From the videos metadata, load the METADATA_KEY_DURATION and
// METADATA_KEY_VIDEO_FRAME_COUNT value. Youll need them
// to calculate the timestamp of each frame later.

// Loop through the video and load each frame as a Bitmap object.

// Convert the Androids Bitmap object to a MediaPipes Image object.
Image mpImage = new BitmapImageBuilder(frame).build();
    

直播

import com.google.mediapipe.framework.image.MediaImageBuilder;
import com.google.mediapipe.framework.image.MPImage;

// Create a CameraXs ImageAnalysis to continuously receive frames
// from the devices camera. Configure it to output frames in RGBA_8888
// format to match with what is required by the model.

// For each Androids ImageProxy object received from the ImageAnalysis,
// extract the encapsulated Androids Image object and convert it to
// a MediaPipes Image object.
android.media.Image mediaImage = imageProxy.getImage()
Image mpImage = new MediaImageBuilder(mediaImage).build();
    

在範例程式碼中,資料準備作業會在 ImageEmbedderHelper.kt 檔案中處理。

執行工作

您可以呼叫對應於執行模式的 embed 函式,觸發推論。Image Embedder API 會傳回輸入圖片或影格片段的嵌入向量。

圖片

ImageEmbedderResult embedderResult = imageEmbedder.embed(image);
    

影片

// Calculate the timestamp in milliseconds of the current frame.
long frame_timestamp_ms = 1000 * video_duration * frame_index / frame_count;

// Run inference on the frame.
ImageEmbedderResult embedderResult =
    imageEmbedder.embedForVideo(image, frameTimestampMs);
    

直播

// Run inference on the frame. The embedding results will be available
// via the `resultListener` provided in the `ImageEmbedderOptions` when
// the image embedder was created.
imageEmbedder.embedAsync(image, frameTimestampMs);
    

注意事項:

  • 在影片模式或直播模式中執行時,您也必須向圖片嵌入器工作提供輸入影格時間戳記。
  • 在圖片或影片模式下執行時,圖片嵌入器工作會阻斷目前的執行緒,直到處理完輸入圖片或影格為止。為避免阻斷目前的執行緒,請在背景執行緒中執行處理作業。
  • 在直播模式下執行時,圖片嵌入器工作不會阻斷目前的執行緒,而是立即傳回。每次處理完輸入影格後,它都會使用偵測結果叫用結果監聽器。如果在圖片嵌入器工作忙於處理其他影格時呼叫 embedAsync 函式,工作會忽略新的輸入影格。

在範例程式碼中,embed 函式是在 ImageEmbedderHelper.kt 檔案中定義。

處理及顯示結果

執行推論時,圖像嵌入器工作會傳回 ImageEmbedderResult 物件,其中包含輸入圖像的嵌入項目清單 (浮點或標量量化)。

以下是這項工作的輸出資料範例:

ImageEmbedderResult:
  Embedding #0 (sole embedding head):
    float_embedding: {0.0, 0.0, ..., 0.0, 1.0, 0.0, 0.0, 2.0}
    head_index: 0

我們是透過嵌入下列圖片取得這項結果:

異國貓的中距離鏡頭

您可以使用 ImageEmbedder.cosineSimilarity 函式比較兩個嵌入項目的相似程度。請參閱以下程式碼範例。

// Compute cosine similarity.
double similarity = ImageEmbedder.cosineSimilarity(
  result.embeddingResult().embeddings().get(0),
  otherResult.embeddingResult().embeddings().get(0));