Recenti segnalazioni da parte di utenti di Google Home hanno evidenziato un fenomeno curioso relativo al riconoscimento facciale dei dispositivi. Alcuni utenti hanno riferito che le loro telecamere hanno descritto persone inesistenti, creando situazioni potenzialmente inquietanti.
descrizioni errate delle telecamere
In particolare, un post sul subreddit r/googlehome ha mostrato come una telecamera Nest abbia generato un riepilogo delle attività, affermando che “Michael è stato visto mentre portava fuori la spazzatura”, nonostante nessuna persona con quel nome risiedesse nella casa. Quando l’utente ha chiesto chiarimenti, l’assistente Google ha spiegato che il dispositivo può identificare i volti anche senza nomi specificati e che aveva registrato “Michael” nei giorni 26 e 27 ottobre. L’utente ha trovato la risposta piuttosto inquietante.
altri casi simili
Altri commentatori hanno condiviso esperienze analoghe. Un utente ha ricevuto promemoria casuali per portare fuori la spazzatura, negando di aver mai fatto tale azione. Un altro ha riportato che il suo dispositivo aveva informato erroneamente di una visita del suo amico David, nonostante quest’ultimo non fosse mai venuto a trovarlo.
la confusione dell’intelligenza artificiale
Anche un secondo utente ha raccontato che il proprio dispositivo lo identificava come una donna di nome Sarah, descrivendo azioni quotidiane come portare fuori i bidoni e passeggiare con due cani. L’utente, uomo single e proprietario di un solo cane, si è trovato confuso dalle informazioni fornite dal sistema.
risposta ufficiale di google
In seguito alle segnalazioni degli utenti, Google ha rilasciato una dichiarazione in cui afferma di essere attivamente impegnata nel miglioramento della precisione del riconoscimento facciale attraverso il progetto Gemini per Home. Il colosso tecnologico sta investendo notevolmente per perfezionare queste funzionalità e accoglie i feedback degli utenti per affinare l’esperienza.
- Michael – Nome inventato in un riepilogo delle attività
- Sarò – Identificazione errata da parte dell’intelligenza artificiale
- David – Amico menzionato erroneamente nelle comunicazioni del dispositivo
- Sarò – Descrizione confusa riguardo ad azioni quotidiane
- Kenneth – Altra identità attribuita erroneamente a un utente
Tali episodi sollevano interrogativi sulla capacità dell’intelligenza artificiale di distinguere tra realtà e invenzione, suggerendo che il sistema potrebbe generare nomi basati su previsioni contestuali piuttosto che su dati reali.










Lascia un commento