Wszystkie nowe funkcje związane z wysoko wydajnym środowiskiem wykonawczym Google do korzystania z AI na urządzeniu będą dostępne wyłącznie w LiteRT. Aplikacje korzystające z pakietów TensorFlow Lite będą nadal działać, ale wszystkie nowe aktualizacje będą uwzględniane tylko w pakietach LiteRT. Interfejsy LiteRT zawierają te same nazwy metod co interfejsy TF Lite, więc przejście na LiteRT nie wymaga szczegółowych zmian w kodzie.
Informacje o zmianach nazwy pakietu znajdziesz w przewodnikach dotyczących migracji na konkretne platformy.
Migracja z Androida
Aby przenieść aplikację na Androida korzystającą z Tensorflow Lite, zastąp zależność org.tensorflow:tensorflow-lite
wartością com.google.ai.edge.litert
. Repozytorium LiteRT Maven zawiera te pakiety:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
Możesz wprowadzić tę zmianę w zależnościach build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Usługi Google Play
LiteRT w czasie wykonywania Usług Google Play nadal używa zależności play-services-tflite
. Jeśli Twoja aplikacja korzysta już z czasu wykonywania Usług Play z TensorFlow Lite, nie musisz wprowadzać żadnych zmian w kodzie.
Aby używać LiteRT w Usługach Google Play, dodaj te zależności do build.gradle
:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
Migracja za pomocą Pythona
Aby przenieść kod Pythona korzystający z Tensorflow Lite, zastąp pakiet PIP z tflite-runtime
na ai-edge-litert
.
Instalowanie LiteRT z PIP:
$ python3 -m pip install ai-edge-litert
Importuj LiteRT za pomocą tych funkcji:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
Inne biblioteki
Pakiety SDK Swift i Objective-C na iOS, pakiet SDK C++, biblioteka Task Library i bibliotek Model Maker nadal są dostępne w interfejsach API TensorFlow Lite. Aplikacje korzystające z tych pakietów SDK lub bibliotek nie powinny przechodzić na LiteRT.