Google sta sviluppando nuove funzionalità sperimentali per Gemini, l’assistente AI integrato nei dispositivi Android, con l’obiettivo di offrire strumenti avanzati e personalizzati. Le recenti scoperte nel codice dell’app Google anticipano interessanti novità che potrebbero migliorare significativamente l’esperienza utente, introducendo modalità di interazione più profonde e capacità di ricerca potenziate.
nuove funzionalità sperimentali gemini labs
All’interno della versione 17.2.51.sa.arm64 dell’app Google per Android sono emerse diverse stringhe che fanno riferimento a una sezione denominata Gemini Labs. Questa area sarà dedicata all’attivazione di esperimenti innovativi riguardanti Gemini, consentendo agli utenti di testare funzioni all’avanguardia in modo selettivo.
I principali esperimenti individuati includono:
- Live Experimental Features: introduce miglioramenti come la memoria multimodale, una gestione del rumore più efficace, la capacità di rispondere a contenuti visualizzati sullo schermo e risultati personalizzati basati sulle app Google;
- Live Thinking Mode: permette a Gemini Live di impiegare tempi maggiori per fornire risposte più approfondite e dettagliate;
- Deep Research: consente di delegare compiti complessi di ricerca grazie a un potenziamento della modalità già esistente Deep Research;
- UI Control: abilita un’interazione agentica con le applicazioni del telefono per completare attività in autonomia.
modalità live thinking e deep research per analisi avanzate
L’introduzione della modalità Live Thinking rappresenta un’evoluzione significativa rispetto alla distinzione tra modelli veloci e approfonditi già vista nelle versioni precedenti di Gemini. Questa funzione promette risposte più elaborate anche durante l’uso in tempo reale. Parallelamente, la modalità Deep Research viene ulteriormente affinata per gestire ricerche complesse con maggiore efficacia.
controllo agente tramite ui control per automazione delle attività
L’opzione UI Control si configura come uno strumento capace di assumere il controllo delle applicazioni presenti sul dispositivo mobile, facilitando così lo svolgimento automatico di varie operazioni. Questo approccio amplia le possibilità offerte dal precedente Gemini Agent, rendendo il sistema più versatile e integrato nell’ecosistema smartphone.
sperimentazione selettiva e accesso futuro alle nuove funzioni
Anche se al momento queste caratteristiche non sono ancora disponibili pubblicamente né completamente operative, il codice sorgente mostra che Google intende permettere agli utenti di scegliere quali esperimenti attivare singolarmente. Un’anteprima dell’interfaccia utente suggerisce inoltre che l’attivazione delle funzioni sperimentali sarà facilmente gestibile attraverso un’apposita icona dedicata.
- Miglioramento nella gestione del rumore ambientale durante le interazioni vocali;
- Capacità del sistema di riconoscere ed elaborare informazioni visive presenti sul display;
- Aumento della personalizzazione dei risultati basata sulle app utilizzate dall’utente;
- Sviluppo continuo della modalità Deep Research per ricerche approfondite;
- Evoluzione delle funzionalità agentiche con controllo diretto delle interfacce utente.
Nota importante: L’individuazione delle funzionalità deriva da un’analisi interna (APK teardown) del codice software in fase di sviluppo; ciò implica che alcune opzioni potrebbero non essere incluse nella versione finale destinata al pubblico.













Lascia un commento