© 2000-2023 - Enkey Magazine - Tutti i diritti riservati
ENKEY SNC - P.IVA IT03202450924 / Cod. REA CA253701 - Tel. 078162719
A molti sarà capitato di dialogare con gli assistenti virtuali attraverso il proprio smartphone. L’intelligenza artificiale ha sempre più un ruolo predominante nella nostra vita, tutto diventa più facile: dall’invio di un messaggio alla riproduzione di una playlist. Un esempio tra tutti è Siri, sempre più utilizzata, ma Apple blocca l’ascolto delle registrazioni degli utenti, vediamo perché.
La rivelazione al Guardian
Il Guardian, noto quotidiano inglese, ha pubblicato un articolo il 26 luglio con il racconto anonimo di un operatore del programma qualità di Siri. Molte persone non si saranno mai poste il problema di quello che viene fatto con le registrazioni delle conversazioni con gli assistenti virtuali. Ma questa nuova scoperta di certo farà aprire gli occhi su un mondo sconosciuto.
Infatti milioni di conversazioni con Siri e altri assistenti virtuali sono costantemente ascoltate da imprese appaltatrici per il controllo della qualità. I dipendenti di queste ditte hanno così accesso alle conversazioni, che spesso riguardano anche situazioni private e intime. Il dipendente che ha deciso di parlare in forma anonima al Guardian racconta, infatti, di come spesso ci si imbattesse in conversazioni a sfondo sessuale, medico o talvolta anche a fini criminali.
Pare che la registrazione di queste conversazioni fosse casuale. Siri infatti si accenderebbe accidentalmente mettendo anche in funzione la geo-localizzazione, dando l’accesso ai contatti e altri dati personali. Il dispositivo che più di tutti è a rischio di questo inconveniente è sicuramente l’Apple Watch. Infatti lo smartwatch attiva la registrazione di Siri ogniqualvolta che il proprietario muove il polso in direzione del viso. Per questo spesso le conversazioni registrate erano così private, l’utente in realtà stava parlando con altre persone e non sapeva che Siri fosse in ascolto.
La risposta di Apple
Dopo tali rivelazioni la Apple ha subito ribadito che soltanto l’1% delle conversazioni giornaliere, realizzate con l’assistente vocale, viene analizzato. Queste conversazioni poi sono utilizzate unicamente al fine di migliorare le prestazioni del software di dettatura. Inoltre ogni conversazione estrapolata e analizzata non può essere in alcun modo ricollegata all’Apple ID e al suo proprietario.
Apple conclude dicendo che le conversazioni sono analizzate in strutture riservate e i dipendenti devono seguire severe regole di sicurezza. Ma il dipendente che ha rilasciato l’intervista al Guardian sostiene di essere egualmente preoccupato. Questo perché il ricambio di personale all’interno di queste imprese appaltatrici è molto alto e non tutti rispettano le regole imposte, sopratutto una volta che hanno cambiato lavoro.
Le impostazioni sulla privacy di Apple poi sono molto severe, nel caso non si voglia condividere queste informazioni non si potrà neanche utilizzare Siri. Mentre gli assistenti virtuali di Amazon e Google permettono di limitare la modalità di condivisione delle informazioni.
Apple blocca le registrazioni
Ma ad una sola settimana dall’articolo con le rivelazioni sulle registrazioni, Apple decide di interrompere tutte le operazioni di ascolto sulle conversazioni. L’azienda sospende quindi temporaneamente il programma di valutazione di Siri. Questo per poter introdurre un aggiornamento del software e la possibilità per gli utenti di partecipare o meno al programma di valutazione.
Di sicuro questo repentino cambiamento in nome della privacy fa risaltare l’affidabilità dell’azienda di Cupertino. Questa ha infatti trovato immediatamente una soluzione concreta e decisa al problema, al contrario di Amazon e Google, anche loro finiti nel mirino della tutela della privacy senza porre attualmente rimedio a queste mancanze.
Per gli utenti non cambierà molto, al momento ci sarà solo la sicurezza che nessuno ascolterà più le conversazioni registrate. In futuro invece sarà inserito un disclaimer che chiederà agli utenti se partecipare al programma o meno.
This post is also available in: English