I file scambiati su WeTransfer non finiranno in pasto a un algoritmo di intelligenza artificiale. Almeno per ora. Il timore che il popolare servizio di trasferimento file su Web potesse usare i contenuti degli utenti per addestrare un Large Language Model o un altro sistema di machine learning è serpeggiato nei giorni scorsi, in seguito a una modifica introdotta nei termini del servizio.
Nella documentazione era stata inserita una clausola (la 6.3) in cui si diceva che l’azienda avrebbe potuto usare i contenuti trasferiti dagli utenti per vari scopi e “anche per migliorare le prestazioni di modelli di machine learning che potenziano il processo di moderazione”. Niente di rivoluzionario, perché l’AI viene impiegata da molto tempo nelle piattaforme digitali per attività di riconoscimento dei contenuti, filtro e moderazione. Per servizi come YouTube e Facebook, per esempio, l'automazione consentita dall'AI è essenziale per rimuovere su larga scala e tempestivamente tutto ciò che non dovrebbe stare online, come contenuti violenti, discriminatori e di incitamento all’odio.
Si tratta però, in quei casi, di un'AI applicata a testi, immagini e video che le persone decidono di pubblicare, con visibilità piena o ristretta ma comunque senza la pretesa di una privacy totale. Diverso è un servizio come WeTransfer, che aiuta a inviare file tra due o più destinatari e che, in tal senso, richiama le logiche di funzionamento della posta elettronica o di una chat. Inoltre, tornando alla nuova clausola contrattuale di WeTransfer, il passaggio più problematico è quello in cui l’azienda si è attribuiva il diritto di “riprodurre, distribuire, modificare” e anche di “mostrare pubblicamente” i file caricati dagli utenti.
Il cambiamento dei termini di servizio sarebbe dovuto entrare in vigore dall’8 di agosto prossimo. Nel frattempo, però, c'è stata una retromarcia in seguito alle critiche pubblicate sui social media da molti utenti, preoccupati per la riservatezza dei propri dati personali e lavorativi. “Non usiamo il machine learning né alcuna forma di AI per elaborare i contenuti condivisi su WeTransfer, né vendiamo contenuti e dati a terze parti”, ha dichiarato l’azienda alla Bbc. A ulteriori spiegazioni è stato dedicato un intero blogpost dove si ammette che il riferimento al machine learning nel nuovo contratto "può aver causato un po' di apprensione" e quindi è stato rimosso, anche perché WeTransfer non usa l'apprendimento automatico sui contenuti dei clienti.
La clausola 6.3 riveduta e corretta recita così (traduzione nostra): “Per permetterci di operare, fornire e migliorare il servizio e le nostre tecnologie, dobbiamo ottenere da voi determinati diritti su contenuti coperti da diritti di proprietà intellettuale. Ci concedete quindi una licenza di utilizzo gratuita per usare i vostri contenuti a scopi di operatività, sviluppo e miglioramento del servizio, tutto in accordo con la nostra policy di privacy e cookie”.
Il dato è merce di scambio
Da decenni, ormai, come consumatori abbiamo ceduto porzioni della nostra privacy per utilizzare servizi digitali gratuiti attraverso siti e servizi Web, social media e applicazioni per smartphone. Oggi questo percorso prosegue con l’intelligenza artificiale, nella inconsapevolezza o noncuranza di molti. Non è necessariamente un male, o meglio dipende da quanto delle nostre vite professionali e private siamo disposti a concedere alle società tecnologiche, attraverso dati (lavorativi e personali) che verranno in qualche modo monetizzati.
La monetizzazione può essere più rapida e immediata quando i dati servono per attività di personalizzazione dei contenuti, dal marketing via email agli annunci pubblicitari mirati; è invece meno immediata o evidente, ma c’è, quando i dati aiutano i fornitori di un prodotto o servizio a migliorare l’offerta. Ed è il caso dei Large Language Model, che di dati (pubblici, aziendali, personali) si nutrono.
L'episodio di WeTransfer non fa che evidenziare un fatto in qualche modo implicito nel percorso che il mercato del digitale ha intrapreso, ovvero l’inserimento dell’AI in molti prodotti e servizi esistenti. Possiamo scegliere di non usare gli strumenti di AI che i fornitori propongono, ma in alcuni casi dobbiamo comunque tenerceli, ovvero non è prevista la possibilità di eliminarli dai nostri account o dispositivi (nel caso di sistemi operativi o app installate). Meta, per esempio, ha aggiunto l’assistente di AI in Whatsapp senza permettere all’utente di rimuoverlo, e lo stesso ha fatto Google portando Gemini su Android. La libertà che ci resta, e che dovremmo esercitare ma non sempre lo facciamo, è quella di scegliere di usare o non usare un servizio. E leggere bene i contratti dovrebbe essere il primo passo.