WhatsApp ha aggiornato martedì le sue condizioni di utilizzo. Con un mese di anticipo rispetto alle scadenze, il popolare software di messaggistica istantanea si è adeguato al nuovo regolamento dell’Unione europea sulla privacy, in vigore il 25 maggio. In buona sostanza, per utilizzare l’app occorrono 16 anni e non più 13. In altre parole, chi vuole usare WhatsApp deve dichiarare al momento dell’iscrizione la sua età, accettando i nuovi termini di servizio. Chi non ha l’età prevista deve chiedere l’autorizzazione di un genitore o di un tutore, anche se non è chiaro come WhatsApp possa verificare l’età reale degli utenti, attualmente un miliardo e mezzo attivi al mese.
Il dubbio è proprio questo: può bastare l’autocertificazione o verranno incrociati all’origine, come ufficialmente mai fatto finora, i dati degli utenti con quelli che si ricavano da Facebook e da Instagram? Da notare che il regolamento dell’Unione europea autorizza i singoli Paesi ad abbassare il limite d’età fino a 13 anni. L’Italia dovrebbe adeguare la soglia a 16. Il messaggio spedito da WhatsApp – la cui società è stata fondata nel 2009, rilevata da Facebook nel 2014 per 16 miliardi di dollari – è chiaro: “Se vive in un Paese della Regione Europea, devi avere almeno 16 anni per utilizzare i nostri servizi, oppure la maggiore età richiesta dal tuo Paese per registrarti o usare i nostri servizi”.
Il precedente di Facebook
Di recente anche il social di Mark Zuckerberg ha introdotto limitazioni per gli under 15. Ma Facebook ha stabilito una modalità di controllo: i giovani devono indicare il contatto sul social o l’indirizzo di posta elettronica del genitore che darà il consenso. Del resto, il regolamento dell’Unione europea può comportare per i provider multe fino al 4% del fatturato o fino a 20 milioni di euro. Non è la sola novità. WhatsApp permette di scaricare una copia dei propri dati, contenente la lista dei contatti, i gruppi di cui si fa parte e i numeri bloccati.
In questo contesto, negli ultimi tre mesi dello scorso anno, YouTube ha rimosso 8 milioni di video contrari agli standard della piattaforma, la maggior parte dei quali classificati come spam o filmati a luci rosse. Lo ha reso noto la società nel primo rapporto trimestrale sull’applicazione delle linee guida. Dei video eliminati, 6,7 milioni sono stati individuati in prima battuta dai sistemi informatici di machine learning (apprendimento automatico), e tre su quattro sono stati rimossi prima che una singola persona potesse vederli.