9 APRILE 2025
Scalabilità della comprensione del codice: come Jolt AI sfrutta l'API Gemini

Gli sviluppatori che lavorano con codebase estese e su larga scala conoscono il problema. Comprendere il contesto, trovare i file pertinenti e apportare modifiche può sembrare di navigare in un labirinto. Jolt AI sta affrontando questo problema direttamente con uno strumento di generazione di codice e chat progettato specificamente per codebase reali con oltre 100.000 righe di codice. La sua arma segreta per offrire velocità e precisione? L'API Gemini, in particolare Gemini 2.0 Flash.
La missione di Jolt AI è consentire agli sviluppatori di comprendere e contribuire istantaneamente a qualsiasi codebase. Molti degli strumenti attuali hanno difficoltà con le codebase esistenti di grandi dimensioni e richiedono agli utenti di selezionare manualmente i file di contesto. È noioso e poco pratico. Jolt AI utilizza una nuova ricerca semantica che identifica in modo accurato e automatico i file di contesto pertinenti. È una svolta per lo sviluppo di funzionalità, la correzione di bug, l'onboarding e altro ancora.

La sfida per Jolt AI era trovare un modello in grado di alimentare la pipeline di ricerca con la giusta combinazione di velocità, coerenza e comprensione del codice. "Volevamo velocizzare tre passaggi basati sull'AI nella nostra pipeline di ricerca del codice", spiega Yev Spektor, CEO di Jolt AI. "Ogni passaggio richiede la comprensione di vari linguaggi di programmazione, framework, codice utente e intenzione dell'utente."
Gemini 2.0 Flash: velocità e comprensione del codice migliorate
Ti presentiamo Gemini 2.0 Flash. Per Jolt AI, questo modello ha fornito il salto di rendimento che stava cercando. "Dopo un po' di ottimizzazione dei prompt, siamo riusciti a ottenere risultati più coerenti e di qualità superiore con Gemini 2.0 Flash rispetto a un modello più lento e più grande di un altro fornitore", osserva Spektor.
In che modo Jolt AI utilizza Gemini 2.0 Flash? Supporta diversi passaggi cruciali nella pipeline di ricerca del codice, fornendo la velocità e l'accuratezza necessarie per navigare e comprendere repository di grandi dimensioni. Sebbene i dettagli esatti siano il loro "ingrediente segreto", l'impatto è chiaro: Gemini 2.0 Flash consente a Jolt AI di trovare rapidamente le informazioni giuste all'interno di codebase complessi.
Il passaggio all'API Gemini è stato straordinariamente efficiente. "Un paio d'ore per implementare l'SDK e due giorni per l'ottimizzazione e il test dei prompt", riferisce Spektor. Il team ha utilizzato anche Google AI Studio per l'ideazione e l'ottimizzazione dei prompt, semplificando il processo di sviluppo.
Risultati: più rapidi, di qualità superiore e più convenienti
Il passaggio a Gemini 2.0 Flash ha prodotto risultati impressionanti per Jolt AI:
- Riduzione del 70-80% dei tempi di risposta: i passaggi della pipeline di ricerca basati sull'AI sono molto più veloci.
- Risposte di qualità superiore e più coerenti: gli utenti ricevono risultati migliori più del doppio della velocità.
- Costi inferiori dell'80%: i carichi di lavoro AI migrati ora sono molto più convenienti.
"Forniamo ai nostri utenti risposte di qualità superiore più del doppio della velocità", sottolinea Spektor. Questa combinazione di velocità, qualità e risparmio sui costi sottolinea la potenza di Gemini 2.0 Flash per le applicazioni sensibili alle prestazioni.
Focus sul futuro e approfondimenti per gli sviluppatori
Jolt AI sta ampliando attivamente il supporto IDE con un plug-in JetBrains in arrivo ed esplorando l'accessibilità delle API. Spektor è entusiasta del potenziale più ampio di Jolt AI nelle aziende, dall'aiuto agli sviluppatori e ai leader dell'ingegneria al supporto dei team di assistenza clienti e all'abilitazione di pipeline di codice AI automatizzate.
Riflettendo sul suo percorso con l'API Gemini, Spektor offre questo consiglio agli altri sviluppatori:
"Gemini 2.0 Flash è più potente di quanto pensi, non sottovalutarlo. È molto bravo nel recupero, molto meglio di alcuni modelli lenti e più costosi." Incoraggia inoltre gli sviluppatori a esplorare i modelli più recenti della famiglia Gemini: "La nuova generazione, Gemini 2.0 Flash e Gemini 2.5 Pro, deve essere presa in considerazione. Gemini 2.0 Flash ha reso il nostro prodotto più del doppio più veloce, aumentando al contempo la qualità delle risposte. I nuovi modelli rappresentano un importante passo avanti".
La storia di successo di Jolt AI evidenzia come la velocità e la funzionalità di Gemini 2.0 Flash possano migliorare significativamente gli strumenti per sviluppatori basati sull'AI, in particolare quelli che gestiscono la complessità di codebase di grandi dimensioni.
Tutto pronto per la creazione? Esplora la documentazione dell'API Gemini e inizia a utilizzare Google AI Studio oggi stesso.