Models

Punkt końcowy modeli umożliwia programowe wyświetlanie listy dostępnych modeli i pobieranie rozszerzonych metadanych, takich jak obsługiwane funkcje i rozmiar okna kontekstu. Więcej informacji znajdziesz w przewodniku po modelach.

Metoda: models.get

Pobiera informacje o konkretnym Model, takie jak numer wersji, limity tokenów, parametry i inne metadane. Szczegółowe informacje o modelach znajdziesz w przewodniku po modelach Gemini.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Parametry ścieżki

name string

Wymagany. Nazwa zasobu modelu.

Ta nazwa powinna pasować do nazwy modelu zwróconej przez metodę models.list.

Format: models/{model}. Przyjmuje postać models/{model}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

from google import genai

client = genai.Client()
model_info = client.models.get(model="gemini-2.0-flash")
print(model_info)

Przeczytaj

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

modelInfo, err := client.Models.Get(ctx, "gemini-2.0-flash", nil)
if err != nil {
	log.Fatal(err)
}

fmt.Println(modelInfo)

Muszla

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash?key=$GEMINI_API_KEY

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Model.

Metoda: models.list

Wyświetla listę Models dostępnych w interfejsie Gemini API.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/models

Parametry zapytania

pageSize integer

Maksymalna liczba zwracanych Models (na stronę).

Jeśli nie podasz tej wartości, na każdej stronie zostanie zwróconych 50 modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli podasz większą wartość parametru pageSize.

pageToken string

Token strony otrzymany z poprzedniego wywołania models.list.

Podaj wartość pageToken zwróconą przez jedno żądanie jako argument następnego żądania, aby pobrać następną stronę.

Podczas paginacji wszystkie inne parametry przekazane do funkcji models.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

from google import genai

client = genai.Client()

print("List of models that support generateContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "generateContent":
            print(m.name)

print("List of models that support embedContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "embedContent":
            print(m.name)

Przeczytaj

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}


// Retrieve the list of models.
models, err := client.Models.List(ctx, &genai.ListModelsConfig{})
if err != nil {
	log.Fatal(err)
}

fmt.Println("List of models that support generateContent:")
for _, m := range models.Items {
	for _, action := range m.SupportedActions {
		if action == "generateContent" {
			fmt.Println(m.Name)
			break
		}
	}
}

fmt.Println("\nList of models that support embedContent:")
for _, m := range models.Items {
	for _, action := range m.SupportedActions {
		if action == "embedContent" {
			fmt.Println(m.Name)
			break
		}
	}
}

Muszla

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GEMINI_API_KEY

Treść odpowiedzi

Odpowiedź z usługi ListModel zawierająca podzieloną na strony listę modeli.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
models[] object (Model)

Zwrócone modele.

nextPageToken string

Token, który można wysłać jako pageToken, aby pobrać następną stronę.

Jeśli pominiesz to pole, nie będzie kolejnych stron.

Zapis JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Zasób REST: models

Zasób: Model

Informacje o generatywnym modelu językowym.

Pola
name string

Wymagany. Nazwa zasobu Model. Wszystkie dozwolone wartości znajdziesz w sekcji Warianty modelu.

Format: models/{model} z konwencją nazewnictwa {model}:

  • „{baseModelId}-{version}”

Przykłady:

  • models/gemini-1.5-flash-001
baseModelId string

Wymagany. Nazwa modelu podstawowego, którą należy przekazać w żądaniu generowania.

Przykłady:

  • gemini-1.5-flash
version string

Wymagany. Numer wersji modelu.

Reprezentuje to wersję główną (1.0 lub 1.5).

displayName string

Czytelna nazwa modelu. np. „Gemini 1.5 Flash”.

Nazwa może składać się z maksymalnie 128 znaków i zawierać dowolne znaki UTF-8.

description string

Krótki opis modelu.

inputTokenLimit integer

Maksymalna liczba tokenów wejściowych dozwolonych w przypadku tego modelu.

outputTokenLimit integer

Maksymalna liczba tokenów wyjściowych dostępnych w tym modelu.

supportedGenerationMethods[] string

Obsługiwane metody generowania modelu.

Odpowiednie nazwy metod interfejsu API są zdefiniowane jako ciągi znaków w notacji PascalCase, np. generateMessagegenerateContent.

thinking boolean

Określa, czy model obsługuje myślenie.

temperature number

Określa losowość danych wyjściowych.

Wartości mogą mieścić się w zakresie [0.0,maxTemperature] (włącznie). Wyższa wartość spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0 zwykle spowoduje, że model będzie generować mniej zaskakujące odpowiedzi. Ta wartość określa domyślne ustawienie, które ma być używane przez backend podczas wywoływania modelu.

maxTemperature number

Maksymalna temperatura, jakiej może używać ten model.

topP number

W przypadku próbkowania jądra.

Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP. Ta wartość określa domyślne ustawienie, które ma być używane przez backend podczas wywoływania modelu.

topK integer

W przypadku próbkowania Top-K.

Próbkowanie Top-k uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne ustawienie, które ma być używane przez backend podczas wywoływania modelu. Jeśli jest pusty, oznacza to, że model nie używa próbkowania top-k, a wartość topK nie jest dozwolona jako parametr generowania.

Zapis JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "thinking": boolean,
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}

Metoda: models.predict

Wysyła żądanie prognozy.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:predict

Parametry ścieżki

model string

Wymagany. Nazwa modelu do prognozowania. Format: name=models/{model}. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
instances[] value (Value format)

Wymagany. Instancje, które są danymi wejściowymi wywołania prognozy.

parameters value (Value format)

Opcjonalnie. Parametry, które określają wywołanie prognozy.

Treść odpowiedzi

Wiadomość z odpowiedzią dla [PredictionService.Predict].

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
predictions[] value (Value format)

Dane wyjściowe wywołania prognozy.

Zapis JSON
{
  "predictions": [
    value
  ]
}

Metoda: models.predictLongRunning

Tak samo jak models.predict, ale zwraca LRO.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:predictLongRunning

Parametry ścieżki

model string

Wymagany. Nazwa modelu do prognozowania. Format: name=models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
instances[] value (Value format)

Wymagany. Instancje, które są danymi wejściowymi wywołania prognozy.

parameters value (Value format)

Opcjonalnie. Parametry, które określają wywołanie prognozy.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu Operation.