Google ha introdotto un importante aggiornamento per la funzione Search Live, integrando un modello audio nativo avanzato che rende le conversazioni con l’intelligenza artificiale più naturali e dinamiche. Questa novità migliora significativamente l’esperienza utente durante le interazioni vocali con il motore di ricerca.
search live e il modello audio gemini: evoluzione della conversazione AI
Search Live, inizialmente disponibile come esperimento su Google Labs, è diventato parte integrante della modalità AI di Google a partire da settembre 2025 negli Stati Uniti. Questo strumento consente una comunicazione bidirezionale fluida con l’intelligenza artificiale durante l’utilizzo di Google Search, collegando gli utenti direttamente a link e contenuti web.
L’ultimo aggiornamento sfrutta il modello Gemini 2.5 Flash Native Audio 12-25, che permette di ottenere risposte vocali più espressive e scorrevoli. La voce dell’assistente può modificare in tempo reale velocità, tono e stile comunicativo in base alle preferenze dell’utente, assicurando così un’interazione personalizzata e naturale.
personalizzazione vocale in tempo reale per una migliore esperienza utente
L’aggiornamento consente di adattare immediatamente la voce dell’assistente durante la conversazione senza alcun ritardo. Ad esempio, si può passare da uno stile veloce ed entusiasta a uno più lento e autorevole per facilitare la comprensione anche ai bambini, con una pronuncia più chiara ed enfatica.
Queste variazioni sono specifiche per ogni sessione attiva di Search Live, offrendo così la possibilità di richiedere uno stile vocale diverso ogni volta che si utilizza la modalità AI.
disponibilità dell’aggiornamento search live negli stati uniti
L’implementazione del nuovo modello audio è iniziata il 12 dicembre 2025 ed è in fase di distribuzione progressiva tra tutti gli utenti statunitensi. L’aggiornamento è accessibile tramite l’app Google sia su dispositivi iOS sia Android.
- Modello Gemini migliorato: Gemini 2.5 Flash Native Audio
- Aggiustamenti vocali dinamici: velocità, tono e stile modificabili in tempo reale
- Lancio iniziale: settembre 2025 come parte della modalità AI negli USA
- Disponibilità attuale: rollout dal 12 dicembre per app Google su iOS e Android negli USA
- Esperienza utente ottimizzata: conversazioni più fluide ed espressive senza ritardi nelle modifiche vocali
- Casi d’uso dimostrativi: capacità di adattarsi a esigenze diverse come facilitare la comprensione ai bambini
- Sviluppo continuo: integrazione disponibile anche per sviluppatori tramite Google AI Studio e Vertex AI













Lascia un commento