OpenAI sta testando su Android un nuovo modo per permettere a ChatGPT di leggere ciò che appare sullo schermo, con un sistema più leggero ma anche più delicato per la privacy.
La funzione non è stata ancora annunciata ufficialmente e non è disponibile per tutti, ma alcune tracce trovate nella versione 1.2026.118 dell’app indicano una direzione chiara: rendere ChatGPT più capace di aiutare l’utente dentro le app, senza passare dalla registrazione continua dello schermo.
Oggi, quando ChatGPT deve analizzare lo schermo su Android, può appoggiarsi alle API MediaProjection, le stesse usate per registrare o trasmettere il display. È un metodo efficace, ma non sempre comodo: richiede permessi evidenti, può mostrare avvisi e finestre di conferma, e soprattutto può consumare più risorse perché tratta la schermata come un flusso continuo da acquisire.
Il nuovo sistema con Accessibilità e Bubbles
La novità in test sembra muoversi in modo diverso. OpenAI starebbe sperimentando una funzione chiamata ChatGPT screen help, da attivare nelle impostazioni di Accessibilità di Android. A questa si affiancherebbero i permessi per notifiche e bolle di conversazione, così da mantenere una piccola bolla flottante sempre disponibile sopra le altre app.
Il funzionamento sarebbe simile a quello delle classiche Bubbles di Android: l’utente vede un’icona sullo schermo, la tocca quando ha bisogno di aiuto e può chiedere a ChatGPT informazioni su ciò che sta guardando in quel momento. La differenza rispetto alla condivisione schermo tradizionale è che l’assistente non dovrebbe registrare tutto in modo continuo, ma intervenire in maniera più mirata sul contenuto visibile.
Perché potrebbe essere più fluido
Il vantaggio principale riguarda le prestazioni. Un sistema basato su Accessibilità può leggere elementi dell’interfaccia, testi, pulsanti e dettagli dello schermo senza dover gestire una vera acquisizione video costante. In teoria, questo potrebbe ridurre il carico su processore, memoria e batteria, rendendo ChatGPT più rapido da usare mentre si passa da un’app all’altra.
In pratica, l’esperienza potrebbe diventare più naturale: si apre un’app, compare la bolla, si chiede qualcosa sul contenuto visibile e ChatGPT risponde concentrandosi su quella schermata. Secondo quanto emerso, il sistema ignorerebbe il contesto della conversazione già aperta e lavorerebbe solo su ciò che vede in quel momento. È una scelta interessante, perché separa l’aiuto sullo schermo dalla normale chat testuale.
Il nodo privacy resta centrale
Il punto delicato è l’uso delle funzioni di Accessibilità. Su Android questi permessi sono molto potenti, perché possono consentire a un’app di leggere testi, pulsanti e dettagli presenti in altre applicazioni. Sono strumenti nati per aiutare persone con difficoltà visive o motorie, ma proprio per la loro profondità richiedono grande attenzione quando vengono usati da app basate sull’intelligenza artificiale.
OpenAI dovrà quindi spiegare con molta chiarezza quali dati vengono letti, quando avviene l’analisi, cosa viene inviato ai server e quali controlli restano nelle mani dell’utente. Senza questa trasparenza, una funzione pensata per rendere ChatGPT più utile rischia di generare diffidenza. La comodità di un assistente capace di capire il contenuto dello smartphone deve andare di pari passo con limiti comprensibili e permessi facili da revocare.
Per ora non ci sono date di rilascio né garanzie che la funzione arrivi davvero nella forma vista nei test. Il segnale, però, è chiaro: ChatGPT e gli altri assistenti AI stanno andando oltre la semplice conversazione e puntano a diventare strumenti contestuali, capaci di aiutare dentro le app e non solo dentro una finestra di chat. Su Android, la vera sfida sarà farlo senza appesantire il telefono e senza chiedere più fiducia di quanta gli utenti siano disposti a concedere.