29/07/2019 di Redazione

Nemmeno Siri è un scrigno: conversazioni ascoltate da umani

Un collaboratore di Apple ha svelato che una percentuale di registrazioni audio (incluse quelle accidentali) viene regolarmente ascoltata da addetti al controllo qualità. L’azienda non smentisce, ma minimizza.

immagine.jpg

Dopo i casi di Amazon Alexa e di Google Assistant, ora si scopre che anche Siri permette di “origliare” la voce e le conversazioni degli utenti, più di quanto non sia specificato nei termini d’uso dell’applicazione. Apple è al centro di un nuovo caso di presunta violazione di privacy e di trasparenza: a detta di una fonte confidenziale del Guardian, la società di Cupertino invierebbe “regolarmente” le registrazioni di Siri a suoi collaboratori esterni. Persone incaricate di supervisionare il funzionamento dell’app di assistenza vocale, ma che si ritroverebbero, scrive il Guardian, ad ascoltare registrazioni contenenti informazioni sensibili e momenti intimi delle persone.

 

Si tratta di “una “piccola percentuale” delle registrazioni fatte da Siri da centinaia di milioni di iPhone, iPad, Apple Watch e HomePod che regolarmente usano l’applicazione vocale. Il materiale viene passato ai collaboratori esterni che, in giro per il mondo, usano questo materiale per capire se l’assistente funzioni bene o no, se il microfono si sia attivato accidentalmente, se le richieste siano state comprese, eccetera. Insomma, si tratta di un’operazione finalizzata al controllo qualità e non a qualcosa di losco. Il problema è che Apple nei documenti sui termini d’uso di Siri non spiega esplicitamente che le registrazioni audio vengono condivise con collaboratori esterni, ma si limita a dire che i dati vengono migliorare Siri e le funzioni di dettatura. Da nessuna parte si spiega che il lavoro sia svolto da esseri umani.

 

Contattata dai giornalisti, Apple ha ammesso che “una piccola frazione delle richieste di Siri viene analizzata per migliorare Siri e la dettatura”, specificando però che questi materiali non vengono associati agli Apple ID e che vengono “analizzati in luoghi sicuri” da revisori che operano “sotto l’obbligo di aderire a stretti requisiti di confidenzialità”. Sul totale delle registrazioni quotidiane di Siri, inoltre, una quota di circa l’1% viene analizzata per valutare la qualità del servizio, ma si tratta solitamente di pochi secondi di audio.

 

 

 

La talpa del Guardian, che è anch’esso o anch’essa è un collaboratore addetto al controllo qualità, ha però calcato la mano su elementi preoccupanti, spiegando che “ci sono stati innumerevoli casi di registrazioni contenenti dialoghi privati tra medici e pazienti, affari di business, presunti accordi tra criminali, rapporti sessuali e via dicendo”. In moltissimi casi le registrazioni vengono avviate per sbaglio, perché l’app interpreta erroneamente una parola come se fosse stato pronunciato il comando “Hey, Siri”.  In particolare, molto spesso capita che le registrazioni accidentali (lunghe fino a mezzo minuto) provengano dall’Apple Watch o dall’HomePod.

 

I collaboratori in questi casi devono segnalare il fatto a  Apple come “problema tecnico”.  L’elevato turnover dei terzisti che prestano servizi per Cupertino e l’assenza di particolari attenzioni alla privacy sono un rischio aggiuntivo, segnala la fonte. E quel che è più grave è che si tratta, sì, di conversazioni anonimizzate, ma accompagnate da informazioni su “localizzazione, dettagli di contatto e dati delle applicazioni”, ha spiegato la fonte. Se qualcuno avesse cattive intenzioni, non sarebbe difficile identificare le persone a cui tali registrazioni appartengono.

 

ARTICOLI CORRELATI