Condividi

9 APRILE 2025

Scalabilità della comprensione del codice: come Jolt AI sfrutta l'API Gemini

Yev Spektor

CEO

Vishal Dharmadhikari

Product Solutions Engineer

Hero di AgentOps

Gli sviluppatori che lavorano con codebase estese e di produzione lo sanno bene. Comprendere il contesto, trovare i file pertinenti e apportare modifiche può sembrare come navigare in un labirinto. Jolt AI sta affrontando questo problema con uno strumento di codegen e chat progettato specificamente per codebase reali con più di 100.000 righe. La sua arma segreta per offrire velocità e precisione? L'API Gemini, in particolare Gemini 2.0 Flash.

La missione di Jolt AI è consentire agli sviluppatori di comprendere e contribuire immediatamente a qualsiasi codebase. Molti degli strumenti attuali hanno difficoltà con codebase esistenti di grandi dimensioni e richiedono agli utenti di selezionare manualmente i file di contesto. È noioso e poco pratico. Jolt AI utilizza una nuova ricerca semantica che identifica in modo accurato e automatico i file di contesto pertinenti. È una svolta per lo sviluppo di funzionalità, la correzione di bug, l'onboarding e altro ancora.

Diagramma di flusso dello stato generato che mostra la logica dell'applicazione.

La sfida per Jolt AI era trovare un modello che potesse potenziare la pipeline di ricerca con la giusta combinazione di velocità, coerenza e comprensione del codice. "Volevamo velocizzare tre passaggi basati sull'IA nella nostra pipeline di ricerca del codice", spiega Yev Spektor, CEO di Jolt AI. "Ogni passaggio richiede la conoscenza di vari linguaggi di programmazione, framework, codice utente e intent dell'utente."

Gemini 2.0 Flash: velocità e comprensione avanzata del codice

Inserisci Gemini 2.0 Flash. Per Jolt AI, questo modello ha consentito il salto di rendimento che cercava. "Dopo un po' di ottimizzazione, siamo riusciti a ottenere con Gemini 2.0 Flash un output più coerente e di qualità superiore rispetto a quello di un modello più lento e grande di un altro fornitore", osserva Spektor.

In che modo Jolt AI utilizza Gemini 2.0 Flash? Supporta diversi passaggi cruciali nella pipeline di ricerca del codice, fornendo la velocità e la precisione necessarie per navigare e comprendere repository di grandi dimensioni. Anche se i dettagli esatti sono la "salsa segreta", l'impatto è chiaro: Gemini 2.0 Flash consente a Jolt AI di mostrare rapidamente le informazioni giuste all'interno di codebase complesse.

Il passaggio all'API Gemini è stato estremamente efficiente. "Un paio d'ore per implementare l'SDK e 2 giorni per la messa a punto e i test tempestivi", riferisce Spektor. Il team ha utilizzato anche Google AI Studio per l'ideazione e l'ottimizzazione dei prompt, semplificando il processo di sviluppo.

Risultati: più rapidità, qualità superiore ed efficienza dei costi

Il passaggio a Gemini 2.0 Flash ha prodotto risultati impressionanti per Jolt AI:

  • Riduzione del 70-80% dei tempi di risposta:i passaggi basati sull'IA nella pipeline di ricerca sono notevolmente più rapidi.
  • Risposte di qualità superiore e più coerenti: gli utenti ricevono risultati migliori più del doppio del tempo.
  • Riduzione dei costi dell'80%: i carichi di lavoro di IA sottoposti a migrazione ora sono molto più convenienti.


"Stiamo ottenendo risposte di qualità superiore per i nostri utenti con una velocità più che doppia", sottolinea Spektor. Questa combinazione di velocità, qualità e risparmio sui costi sottolinea la potenza di Gemini 2.0 Flash per le applicazioni con prestazioni critiche.

Future Focus e Approfondimenti per sviluppatori

Jolt AI sta espandendo attivamente il proprio supporto IDE con un plug-in JetBrains imminente ed esplorando l'accessibilità delle API. Spektor è entusiasta del potenziale più ampio di Jolt AI nelle aziende, dall'aiutare sviluppatori e responsabili dell'ingegneria a supportare i team di assistenza clienti e abilitare pipeline di codice AI automatiche.

Ripensando al suo percorso con l'API Gemini, Spektor offre questo consiglio ai colleghi sviluppatori:

"Gemini 2.0 Flash è più potente di quanto pensi, non perderti questa opportunità. È molto bravo a ricordare, molto meglio di alcuni modelli lenti e più costosi." Inoltre, incoraggia gli sviluppatori a esplorare gli ultimi modelli della famiglia Gemini: "La nuova generazione, Gemini 2.0 Flash e Gemini 2.5 Pro, deve essere esaminata. Gemini 2.0 Flash ha reso il nostro prodotto più del doppio più veloce, migliorando al contempo la qualità delle risposte. I nuovi modelli sono una funzione di primo livello importante."

La storia di successo di Jolt AI mette in evidenza come la velocità e le funzionalità di Gemini 2.0 Flash possano migliorare in modo significativo gli strumenti per sviluppatori basati sull'IA, in particolare quelli che si occupano delle complessità di basi di codice di grandi dimensioni.

Vuoi iniziare a creare? Consulta la documentazione dell'API Gemini e inizia a utilizzare Google AI Studio oggi stesso.