Memorizzazione nella cache del contesto

In un tipico flusso di lavoro di IA, potresti passare più volte gli stessi token di input a un modello. Utilizzando la funzionalità di memorizzazione nella cache del contesto dell'API Gemini, puoi passare alcuni contenuti al modello una volta, memorizzare nella cache i token di input e poi fare riferimento ai token memorizzati nella cache per le richieste successive. A determinati volumi, l'utilizzo di token memorizzati nella cache ha un costo inferiore rispetto al passaggio ripetuto dello stesso corpus di token.

Quando memorizzi nella cache un insieme di token, puoi scegliere per quanto tempo deve rimanere attiva la cache prima che i token vengano eliminati automaticamente. Questa durata della cache è chiamata durata (TTL). Se non viene impostato, il valore predefinito del TTL è 1 ora. Il costo della memorizzazione nella cache dipende dalle dimensioni del token di input e dal periodo di conservazione dei token.

La memorizzazione nella cache del contesto è supportata sia da Gemini 1.5 Pro che da Gemini 1.5 Flash.

Quando utilizzare la memorizzazione nella cache del contesto

La memorizzazione nella cache del contesto è particolarmente adatta a scenari in cui un contesto iniziale sostanziale viene fatto riferimento ripetutamente da richieste più brevi. Valuta la possibilità di utilizzare la memorizzazione nella cache del contesto per casi d'uso come:

  • Chatbot con istruzioni di sistema dettagliate
  • Analisi ripetitiva di file video di grandi dimensioni
  • Query ricorrenti su insiemi di documenti di grandi dimensioni
  • Analisi frequenti del repository di codice o correzione di bug

In che modo la memorizzazione nella cache riduce i costi

La memorizzazione nella cache del contesto è una funzionalità a pagamento progettata per ridurre i costi operativi complessivi. La fatturazione si basa sui seguenti fattori:

  1. Numero di token della cache:il numero di token di input memorizzati nella cache, fatturati a un tariffa ridotta se inclusi nei prompt successivi.
  2. Durata di archiviazione:il periodo di tempo per cui i token memorizzati nella cache vengono archiviati (TTL), fatturato in base alla durata del TTL del conteggio dei token memorizzati nella cache. Non sono previsti limiti minimi o massimi per il TTL.
  3. Altri fattori: si applicano altri addebiti, ad esempio per i token di input e di output non memorizzati nella cache.

Per informazioni aggiornate sui prezzi, consulta la pagina dei prezzi dell'API Gemini. Per scoprire come conteggiare i token, consulta la guida ai token.

Come utilizzare la memorizzazione nella cache del contesto

Questa sezione presuppone che tu abbia installato un SDK Gemini (o che tu abbia installato curl) e che tu abbia configurato una chiave API, come mostrato nella guida introduttiva.

Considerazioni aggiuntive

Tieni presenti le seguenti considerazioni quando utilizzi la memorizzazione nella cache del contesto:

  • Il numero minimo di token di input per la memorizzazione nella cache del contesto è 32.768 e il valore massimo è uguale a quello massimo per il modello specificato. Per saperne di più sul conteggio dei token, consulta la guida ai token.
  • Il modello non fa distinzione tra token memorizzati nella cache e token di input regolari. I contenuti memorizzati nella cache sono semplicemente un prefisso del prompt.
  • Non sono previsti limiti di frequenza o di utilizzo speciali per la memorizzazione nella cache del contesto. Si applicano i limiti di frequenza standard per GenerateContent e i limiti di token includono i token memorizzati nella cache.
  • Il numero di token memorizzati nella cache viene restituito in usage_metadata dalle operazioni di creazione, recupero e elenco del servizio cache e anche in GenerateContent quando si utilizza la cache.