2.0 Flash
Il nostro modello multimodale più recente, con funzionalità di nuova generazione e funzionalità migliorate
- Inserisci audio, immagini, video e testo e ricevi risposte di testo
- Generare codice, estrarre dati, analizzare file, generare grafici e altro ancora
- Bassa latenza, prestazioni migliorate, progettato per offrire esperienze agentive
2.0 Flash-Lite
Un modello Gemini 2.0 Flash ottimizzato per l'efficienza in termini di costi e la bassa latenza
- Inserisci audio, immagini, video e testo e ricevi risposte di testo
- Raggiunge risultati migliori di 1.5 Flash nella maggior parte dei benchmark
- Una finestra contestuale da 1 milione di token e input multimodale, come Flash 2.0
Varianti del modello
L'API Gemini offre diversi modelli ottimizzati per casi d'uso specifici. Ecco una breve panoramica delle varianti di Gemini disponibili:
Variante del modello | Input | Output | Ottimizzato per |
---|---|---|---|
Gemini 2.0 Flash
gemini-2.0-flash |
Audio, immagini, video e testo | Testo, immagini (disponibile a breve) e audio (disponibile a breve) | Funzionalità di nuova generazione, velocità e generazione multimodale per una vasta gamma di attività |
Anteprima di Gemini 2.0 Flash-Lite
gemini-2.0-flash-lite-preview-02-05 |
Audio, immagini, video e testo | Testo | Un modello Gemini 2.0 Flash ottimizzato per l'efficienza in termini di costi e la bassa latenza |
Gemini 1.5 Flash
gemini-1.5-flash |
Audio, immagini, video e testo | Testo | Prestazioni rapide e versatili per una vasta gamma di attività |
Gemini 1.5 Flash-8B
gemini-1.5-flash-8b |
Audio, immagini, video e testo | Testo | Attività con volumi elevati e un livello di intelligenza inferiore |
Gemini 1.5 Pro
gemini-1.5-pro |
Audio, immagini, video e testo | Testo | Attività di ragionamento complesso che richiedono una maggiore intelligenza |
Incorporamento di testo
text-embedding-004 |
Testo | Incorporamenti di testo | Misurazione della pertinenza delle stringhe di testo |
Puoi visualizzare i limiti di frequenza per ciascun modello nella pagina dei limiti di frequenza.
Gemini 2.0 Flash
Gemini 2.0 Flash offre funzionalità di nuova generazione e funzionalità migliorate, tra cui velocità superiore, utilizzo di strumenti nativi, generazione multimodale e una finestra contestuale da 1 milione di token.
Dettagli modello
Proprietà | Descrizione |
---|---|
Codice modello | models/gemini-2.0-flash |
Tipi di dati supportati |
Input Audio, immagini, video e testo Output Audio (disponibile a breve), immagini (disponibile a breve) e testo |
[*] | Limiti di token
Limite di token di input 1.048.576 Limite di token di output 8.192 |
Funzionalità |
Output strutturati Supportato Memorizzazione nella cache Disponibile a breve Sintonizzazione Non supportato Chiamata di funzioni Supportato Esecuzione del codice Supportato Ricerca Supportato Generazione di immagini Disponibile a breve Utilizzo di strumenti nativi Supportato Generare audio Disponibile a breve API Multimodal Live Disponibile a breve |
Versions |
|
Aggiornamento più recente | Febbraio 2025 |
Soglia di conoscenza | Agosto 2024 |
Anteprima di Gemini 2.0 Flash-Lite
Un modello Gemini 2.0 Flash ottimizzato per l'efficienza in termini di costi e la bassa latenza.
Dettagli modello
Proprietà | Descrizione |
---|---|
Codice modello | models/gemini-2.0-flash-lite-preview-02-05 |
Tipi di dati supportati |
Input Audio, immagini, video e testo Output Testo |
[*] | Limiti di token
Limite di token di input 1.048.576 Limite di token di output 8.192 |
Funzionalità |
Output strutturati Supportato Memorizzazione nella cache Non supportato Sintonizzazione Non supportato Chiamata di funzioni Non supportato Esecuzione del codice Non supportato Ricerca Non supportato Generazione di immagini Non supportato Utilizzo di strumenti nativi Non supportato Generare audio Non supportato API Multimodal Live Non supportato |
Versions |
|
Aggiornamento più recente | Febbraio 2025 |
Soglia di conoscenza | Agosto 2024 |
Gemini 1.5 Flash
Gemini 1.5 Flash è un modello multimodale veloce e versatile per eseguire il scaling su diverse attività.
Dettagli modello
Proprietà | Descrizione |
---|---|
Codice modello | models/gemini-1.5-flash |
Tipi di dati supportati |
Input Audio, immagini, video e testo Output Testo |
[*] | Limiti di token
Limite di token di input 1.048.576 Limite di token di output 8.192 |
Specifiche audio/video |
Numero massimo di immagini per prompt 3.600 Durata massima del video 1 ora Durata massima dell'audio Circa 9,5 ore |
Funzionalità |
Istruzioni di sistema Supportato Modalità JSON Supportato Schema JSON Supportato Impostazioni di sicurezza regolabili Supportato Memorizzazione nella cache Supportato Sintonizzazione Supportato Chiamata di funzioni Supportato Esecuzione del codice Supportato Streaming bidirezionale Non supportato |
Versions |
|
Aggiornamento più recente | Settembre 2024 |
Gemini 1.5 Flash-8B
Gemini 1.5 Flash-8B è un modello di piccole dimensioni progettato per attività di intelligenza di livello inferiore.
Dettagli modello
Proprietà | Descrizione |
---|---|
Codice modello | models/gemini-1.5-flash-8b |
Tipi di dati supportati |
Input Audio, immagini, video e testo Output Testo |
[*] | Limiti di token
Limite di token di input 1.048.576 Limite di token di output 8.192 |
Specifiche audio/video |
Numero massimo di immagini per prompt 3.600 Durata massima del video 1 ora Durata massima dell'audio Circa 9,5 ore |
Funzionalità |
Istruzioni di sistema Supportato Modalità JSON Supportato Schema JSON Supportato Impostazioni di sicurezza regolabili Supportato Memorizzazione nella cache Supportato Sintonizzazione Supportato Chiamata di funzioni Supportato Esecuzione del codice Supportato Streaming bidirezionale Non supportato |
Versions |
|
Aggiornamento più recente | Ottobre 2024 |
Gemini 1.5 Pro
Gemini 1.5 Pro è un modello multimodale di medie dimensioni ottimizzato per un'ampia gamma di attività di ragionamento. 1.5 Pro può elaborare grandi quantità di dati contemporaneamente, tra cui 2 ore di video, 19 ore di audio, codebase con 60.000 righe di codice o 2000 pagine di testo.
Dettagli modello
Proprietà | Descrizione |
---|---|
Codice modello | models/gemini-1.5-pro |
Tipi di dati supportati |
Input Audio, immagini, video e testo Output Testo |
[*] | Limiti di token
Limite di token di input 2.097.152 Limite di token di output 8.192 |
Specifiche audio/video |
Numero massimo di immagini per prompt 7200 Durata massima del video 2 ore Durata massima dell'audio Circa 19 ore |
Funzionalità |
Istruzioni di sistema Supportato Modalità JSON Supportato Schema JSON Supportato Impostazioni di sicurezza regolabili Supportato Memorizzazione nella cache Supportato Sintonizzazione Non supportato Chiamata di funzioni Supportato Esecuzione del codice Supportato Streaming bidirezionale Non supportato |
Versions |
|
Aggiornamento più recente | Settembre 2024 |
Embedding di testo e incorporamento
Incorporamento di testo
Gli embedding di testo vengono utilizzati per misurare la pertinenza delle stringhe e sono ampiamente utilizzati in molte applicazioni di IA.
text-embedding-004
ottiene un rendimento di recupero migliore e supera i modelli esistenti
con dimensioni paragonabili, sui benchmark di embedding MTEB standard.
Dettagli modello
Proprietà | Descrizione |
---|---|
Codice modello |
API Gemini
|
Tipi di dati supportati |
Ingresso Testo Output Incorporamenti di testo |
[*] | Limiti di token
Limite di token di input 2048 Dimensione della dimensione di output 768 |
[**] | Limiti di frequenza1500 richieste al minuto |
Impostazioni di sicurezza regolabili | Non supportato |
Aggiornamento più recente | Aprile 2024 |
Incorporamento
Puoi utilizzare il modello di embedding per generare incorporamenti di testo per il testo di input.
Il modello di embedding è ottimizzato per la creazione di incorporamenti con 768 dimensioni per testo fino a 2048 token.
Dettagli del modello di embedding
Proprietà | Descrizione |
---|---|
Codice modello |
models/embedding-001
|
Tipi di dati supportati |
Ingresso Testo Output Incorporamenti di testo |
[*] | Limiti di token
Limite di token di input 2048 Dimensione della dimensione di output 768 |
[**] | Limiti di frequenza1500 richieste al minuto |
Impostazioni di sicurezza regolabili | Non supportato |
Aggiornamento più recente | Dicembre 2023 |
AQA
Puoi utilizzare il modello AQA per eseguire attività correlate alla risposta alle domande attribuite (AQA) su un documento, un corpus o un insieme di passaggi. Il modello AQA restituisce le risposte alle domande basate sulle fonti fornite, oltre a stimare la probabilità di risposta.
Dettagli modello
Proprietà | Descrizione |
---|---|
Codice modello | models/aqa |
Tipi di dati supportati |
Ingresso Testo Output Testo |
Lingua supportata | Inglese |
[*] | Limiti di token
Limite di token di input 7.168 Limite di token di output 1024 |
[**] | Limiti di frequenza1500 richieste al minuto |
Impostazioni di sicurezza regolabili | Supportato |
Aggiornamento più recente | Dicembre 2023 |
Consulta gli esempi per scoprire le funzionalità di queste varianti del modello.
[*] Un token equivale a circa 4 caratteri per i modelli Gemini. 100 token equivale a circa 60-80 parole in inglese.
Pattern dei nomi delle versioni del modello
I modelli Gemini sono disponibili nelle versioni beta o stabili. Nel codice, puoi utilizzare uno dei seguenti formati dei nomi dei modelli per specificare il modello e la versione che vuoi utilizzare.
Ultima: indica la versione più avanzata del modello per una generazione e una variante specificate. Il modello sottostante viene aggiornato regolarmente e potrebbe essere una versione di anteprima. Solo le app e i prototipi di test esplorativi devono utilizzare questo alias.
Per specificare la versione più recente, utilizza il seguente pattern:
<model>-<generation>-<variation>-latest
. Ad esempio,gemini-1.0-pro-latest
.Ultima versione stabile:fa riferimento alla versione stabile più recente rilasciata per la generazione e la variazione del modello specificati.
Per specificare la versione stabile più recente, utilizza il seguente pattern:
<model>-<generation>-<variation>
. Ad esempio,gemini-1.0-pro
.Stabile:indica un modello stabile specifico. I modelli stabili non cambiano. La maggior parte delle app di produzione dovrebbe utilizzare un modello stabile specifico.
Per specificare una versione stabile, utilizza il seguente pattern:
<model>-<generation>-<variation>-<version>
. Ad esempio,gemini-1.0-pro-001
.Sperimentale: fa riferimento a un modello sperimentale disponibile in Anteprima, come definito nei Termini, il che significa che non è destinato all'uso in produzione. Lanciamo modelli sperimentali per raccogliere feedback, mettere rapidamente a disposizione degli sviluppatori i nostri aggiornamenti più recenti ed evidenziare il ritmo dell'innovazione in Google. Ciò che impariamo dai lanci sperimentali definisce il modo in cui rilasciamo i modelli a un pubblico più ampio. Un modello sperimentale può essere sostituito con un altro senza preavviso. Non garantiamo che un modello sperimentale diventerà un modello stabile in futuro.
Per specificare una versione sperimentale, utilizza il seguente pattern:
<model>-<generation>-<variation>-<version>
. Ad esempio,gemini-exp-1121
.
Lingue disponibili
I modelli Gemini vengono addestrati per funzionare con le seguenti lingue:
- Arabo (
ar
) - Bengali (
bn
) - Bulgaro (
bg
) - Cinese semplificato e tradizionale (
zh
) - Croato (
hr
) - Ceco (
cs
) - Danese (
da
) - Olandese (
nl
) - Inglese (
en
) - Estone (
et
) - Finlandese (
fi
) - Francese (
fr
) - Tedesco (
de
) - Greco (
el
) - Ebraico (
iw
) - Hindi (
hi
) - Ungherese (
hu
) - Indonesian (
id
) - Italiano (
it
) - Giapponese (
ja
) - Coreano (
ko
) - Lettone (
lv
) - Lituano (
lt
) - Norvegese (
no
) - Polacco (
pl
) - Portoghese (
pt
) - Rumeno (
ro
) - Russo (
ru
) - Serbo (
sr
) - Slovacco (
sk
) - Sloveno (
sl
) - Spagnolo (
es
) - Swahili (
sw
) - Svedese (
sv
) - Thailandese (
th
) - Turco (
tr
) - Ucraino (
uk
) - Vietnamita (
vi
)