Конечная точка моделей позволяет программно выводить список доступных моделей и получать расширенные метаданные, такие как поддерживаемые функции и размеры контекстного окна. Подробнее см. в руководстве по моделям .
Метод: models.get
Получает информацию о конкретной Model
, такую как номер версии, ограничения по токенам, параметры и другие метаданные. Подробную информацию о модели см. в руководстве по моделям Gemini .
Конечная точка
получитьhttps: / /generativelanguage.googleapis.com /v1beta /{name=models /*}
Параметры пути
string
name
Обязательно. Имя ресурса модели.
Это имя должно совпадать с именем модели, возвращаемым методом models.list
.
Формат: models/{model}
Он имеет вид models/{model}
.
Текст запроса
Тело запроса должно быть пустым.
Пример запроса
Питон
Идти
Оболочка
Тело ответа
В случае успеха тело ответа содержит экземпляр Model
.
Метод: models.list
Перечисляет Model
, доступные через API Gemini.
Конечная точка
получитьhttps: / /generativelanguage.googleapis.com /v1beta /models
Параметры запроса
pageSize
integer
Максимальное количество возвращаемых Models
(на страницу).
Если не указано, будет возвращено 50 моделей на страницу. Этот метод возвращает не более 1000 моделей на страницу, даже если вы передадите большее значение pageSize.
string
pageToken
Токен страницы, полученный от предыдущего вызова models.list
.
Предоставьте pageToken
, возвращенный одним запросом, в качестве аргумента следующему запросу для получения следующей страницы.
При пагинации все остальные параметры, предоставленные models.list
должны соответствовать вызову, который предоставил токен страницы.
Текст запроса
Тело запроса должно быть пустым.
Пример запроса
Питон
Идти
Оболочка
Тело ответа
Ответ от ListModel
, содержащий постраничный список моделей.
В случае успеха тело ответа содержит данные со следующей структурой:
models[]
object ( Model
)
Возвращенные модели.
string
nextPageToken
Токен, который можно отправить как pageToken
для получения следующей страницы.
Если это поле пропущено, страниц больше нет.
JSON-представление |
---|
{
"models": [
{
object ( |
Ресурс REST: модели
Ресурс: Модель
Информация о генеративной языковой модели.
string
name
Обязательно. Имя ресурса Model
. Все допустимые значения см. в разделе «Варианты модели» .
Формат: models/{model}
с соглашением об именовании {model}
:
- "{baseModelId}-{version}"
Примеры:
-
models/gemini-1.5-flash-001
string
baseModelId
Обязательно. Имя базовой модели, передайте его в запрос на генерацию.
Примеры:
-
gemini-1.5-flash
string
version
Обязательно. Номер версии модели.
Это представляет основную версию ( 1.0
или 1.5
)
string
displayName
Удобочитаемое название модели. Например, «Gemini 1.5 Flash».
Имя может иметь длину до 128 символов и может состоять из любых символов UTF-8.
string
description
Краткое описание модели.
inputTokenLimit
integer
Максимальное количество входных токенов, разрешенное для этой модели.
outputTokenLimit
integer
Максимальное количество выходных токенов, доступных для этой модели.
string
supportedGenerationMethods[]
Поддерживаемые моделью методы генерации.
Соответствующие имена методов API определяются как строки регистра Pascal, например generateMessage
и generateContent
.
thinking
boolean
Поддерживает ли модель мышление.
temperature
number
Управляет случайностью выходных данных.
Значения могут находиться в диапазоне [0.0,maxTemperature]
включительно. Более высокое значение приведет к более разнообразным ответам, в то время как значение, близкое к 0.0
, обычно приводит к менее неожиданным ответам модели. Это значение определяет значение по умолчанию, которое будет использоваться бэкендом при вызове модели.
maxTemperature
number
температурМаксимальная температура, которую может использовать эта модель.
number
topP
Для отбора проб ядра .
Ядерная выборка учитывает наименьший набор токенов, сумма вероятностей которых не менее topP
. Это значение определяет значение по умолчанию, которое будет использоваться бэкендом при вызове модели.
topK
integer
Для выборки Top-k.
Выборка top-k учитывает набор наиболее вероятных токенов topK
. Это значение определяет значение по умолчанию, которое будет использоваться бэкендом при вызове модели. Если значение пустое, это означает, что модель не использует выборку top-k, и topK
не допускается в качестве параметра генерации.
JSON-представление |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "thinking": boolean, "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |
Метод: models.predict
Выполняет запрос прогнозирования.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:predict
Параметры пути
string
model
Обязательно. Имя модели для прогнозирования. Формат: name=models/{model}
. Имеет вид models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
instances[]
value ( Value
format)
Обязательно. Экземпляры, являющиеся входными данными для вызова прогнозирования.
parameters
value ( Value
format)
Необязательно. Параметры, управляющие вызовом прогноза.
Тело ответа
Ответное сообщение для [PredictionService.Predict].
В случае успеха тело ответа содержит данные со следующей структурой:
predictions[]
value ( Value
format)
Результаты прогнозного вызова.
JSON-представление |
---|
{ "predictions": [ value ] } |
Метод: models.predictLongRunning
То же, что и models.predict, но возвращает LRO.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:predictLongRunning
Параметры пути
string
model
Обязательно. Имя модели для прогнозирования. Формат: name=models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
instances[]
value ( Value
format)
Обязательно. Экземпляры, являющиеся входными данными для вызова прогнозирования.
parameters
value ( Value
format)
Необязательно. Параметры, управляющие вызовом прогноза.
Тело ответа
В случае успеха тело ответа содержит экземпляр Operation
.