/https://www.webnews.it/app/uploads/2025/08/wp_drafter_1219684.jpg)
Una recente ricerca internazionale nell’ambito della cybersicurezza ha sollevato forti preoccupazioni riguardo alla sicurezza di Gemini AI, l’assistente virtuale sviluppato da Google, dimostrando come sia possibile manipolare le sue funzioni tramite semplici inviti di Google Calendar. Secondo gli esperti delle università di Tel Aviv, Technion e SafeBreach, le vulnerabilità riscontrate potrebbero mettere a repentaglio la privacy degli utenti e consentire il controllo dispositivi smart home senza alcuna autorizzazione esplicita.
La scoperta è particolarmente allarmante poiché dimostra come la crescente integrazione degli assistenti AI nella vita quotidiana possa ampliare le superfici di attacco e creare nuovi scenari di rischio. I ricercatori hanno illustrato nel dettaglio come le vulnerabilità di Gemini AI possano essere sfruttate attraverso una tecnica nota come prompt injection. Questa metodologia consente agli attaccanti di inserire istruzioni malevole in elementi digitali apparentemente innocui, come eventi di calendario, email o documenti condivisi. Quando l’utente chiede all’assistente di interagire con questi contenuti, Gemini esegue inconsapevolmente i comandi nascosti, eludendo i normali controlli di sicurezza e mettendo in pericolo la privacy e la sicurezza dei sistemi collegati.
Le dimostrazioni pratiche effettuate dagli studiosi sono eloquenti: ad esempio, un comando nascosto inserito nel titolo di un evento di Google Calendar può indurre l’assistente ad aprire finestre di casa senza il consenso dell’utente. Altri scenari simulati hanno evidenziato la possibilità di esfiltrare il contenuto delle email o di avviare videochiamate Zoom non autorizzate, mettendo a rischio sia la privacy personale che la sicurezza degli ambienti domestici.
L’analisi TARA (Threat Analysis and Risk Assessment) ha evidenziato che il 73% degli scenari valutati presenta rischi classificabili tra elevati e critici, con impatti significativi su confidenzialità, integrità e disponibilità dei sistemi smart home connessi. Questi risultati sottolineano come la rapida diffusione degli attacchi AI richieda strategie di difesa sempre più innovative e proattive.
A seguito della segnalazione delle vulnerabilità a febbraio 2025, Google ha implementato una serie di contromisure volte a mitigare i rischi individuati. Tra le soluzioni adottate figurano:
- Criteri di classificazione dei contenuti per bloccare prompt malevoli e prevenire la prompt injection nei contenuti digitali gestiti dall’assistente.
- Sistemi di verifica utente per autorizzare le azioni sensibili e impedire operazioni non volute.
- Una gestione più attenta degli URL con sistemi di esclusione degli indirizzi malevoli e l’applicazione di Trust Level Policy.
Grazie a questi interventi, il livello di rischio associato a Gemini AI è stato significativamente ridotto, passando da uno stato critico a una fascia compresa tra molto basso e medio. Detto ciò, la ricerca mette in guardia sul fatto che la natura dinamica delle minacce impone una costante attenzione e aggiornamento delle strategie di difesa.
Per ridurre il rischio di cadere vittima di attacchi basati su prompt injection, gli esperti consigliano agli utenti di limitare i permessi concessi agli assistenti AI, monitorare regolarmente eventuali comportamenti insoliti di Gemini o dei dispositivi connessi e attivare conferme esplicite per tutte le azioni che coinvolgono dati sensibili o sistemi esterni. Adottando queste precauzioni, è possibile salvaguardare in modo efficace la privacy e la sicurezza della propria smart home, contrastando la crescente minaccia rappresentata dagli attacchi AI.