Torna al menu principale
Blog di Google Italy

Public Policy

Le quattro "R" della responsabilità. Parte 1: Rimuovere i contenuti dannosi



Nel corso degli ultimi anni, abbiamo raddoppiato gli sforzi messi in atto per far fronte alle nostre responsabilità, senza compromettere gli aspetti positivi di una piattaforma aperta. Il nostro lavoro è stato organizzato intorno a quattro principi:

Nei prossimi mesi, forniremo maggiori dettagli sulle attività compiute a supporto di ciascuno di questi principi. Questa prima parte è dedicata al principio del Rimuovere. Abbiamo rimosso i contenuti dannosi da YouTube sin dagli esordi della piattaforma, ma negli ultimi anni le energie e il tempo dedicati a questo compito sono andati via via crescendo. Di seguito viene fornita un'istantanea dei miglioramenti più importanti messi a punto dal 2016 a questa parte. Grazie a questo continuo lavoro, negli ultimi 18 mesi abbiamo ridotto dell'80% le visualizzazioni dei video rimossi in un secondo momento per violazioni delle nostre norme e ci impegniamo costantemente per ridurne ulteriormente il numero (gennaio 2018 - giugno 2019).

Sviluppo di norme per una piattaforma globale

Prima di metterci al lavoro per rimuovere i contenuti che violano le nostre norme, dobbiamo assicurarci di trovare il giusto equilibrio tra ciò che è ammesso e ciò che è soggetto a rimozione. Il nostro obiettivo, infatti, è preservare la libertà di espressione, tutelando e promuovendo al contempo una community vivace. A tal fine, disponiamo di un team appositamente incaricato di sviluppare le norme, che provvede a esaminare sistematicamente tutte le norme in vigore per garantirne l'attualità e mantenere al sicuro la community senza però minare l'apertura che contraddistingue YouTube.

Dopo aver esaminato specifiche norme, non di rado ci accorgiamo che non sono necessarie modifiche fondamentali, ma l'esame consente comunque di mettere in luce singole aree poco chiare o fonte di confusione per la community. Di conseguenza, molti aggiornamenti si limitano a puntualizzare le linee guida esistenti. Ad esempio, all'inizio di quest'anno abbiamo fornito più dettagli sui casi in cui riteniamo una "sfida" troppo pericolosa per YouTube. Dal 2018 a oggi l'applicazione delle norme è stata soggetta a decine di aggiornamenti, alcuni riguardanti chiarimenti minimi altri più sostanziali.

Per questioni di elevata complessità, può capitare che dedichiamo svariati mesi allo sviluppo di nuove norme. In questo arco di tempo consultiamo esperti esterni e creator di YouTube per comprendere quali sono le lacune delle norme in vigore e teniamo conto delle differenze regionali per far sì che le modifiche proposte possano essere applicate in modo equo in tutto il mondo.

Una di queste svolte fondamentali è stata segnata ad esempio dall'aggiornamento delle norme sull’incitamento all’odio. Lo sviluppo delle norme ha richiesto mesi di lavoro meticoloso con i nostri team per sviluppare i training e gli strumenti richiesti per la loro applicazione. Le norme sono state introdotte all'inizio di giugno e, a mano a mano che i nostri team esamineranno a rimuoveranno più contenuti in linea con i nuovi principi, anche il rilevamento effettuato dai sistemi automatici migliorerà di pari passo. Benché possano essere necessari mesi per consolidare l'applicazione di nuove norme, l'impatto profondo esercitato dall'aggiornamento delle norme sull'incitamento all'odio è già evidente nei dati diffusi nel rapporto sull’applicazione delle Norme della community di YouTube di questo trimestre.

I picchi nel numero di rimozioni sono dovuti in parte alla rimozione di commenti, video e canali preesistenti e precedentemente ammessi. Ad aprile 2019 abbiamo annunciato che sono in corso di aggiornamento anche le nostre norme sulle molestie, incluse quelle tra creator. Vi metteremo al corrente dei progressi compiuti nei mesi che verranno.

Utilizzo dei sistemi automatici per segnalare i contenuti illeciti

Una volta definite nuove norme, facciamo affidamento su una combinazione di persone e tecnologia per segnalare i contenuti all'attenzione dei nostri team di revisione. Talvolta ci serviamo di hash (o "fingerprint digitali") per intercettare copie di contenuti vietati noti ancora prima che siano visibili al pubblico. Per alcuni contenuti, come ad esempio le immagini pedopornografiche e i video di reclutamento dei terroristi, contribuiamo a database di hash condivisi del settore, così da accrescere il volume di contenuti rilevabili dai nostri sistemi automatici al momento del caricamento.

Nel 2017 abbiamo ampliato l'utilizzo della tecnologia di machine learning per rilevare i contenuti potenzialmente in violazione e farli sottoporre a revisione da parte di persone fisiche. Il machine learning si presta in maniera particolare per rilevare i modelli, consentendoci di individuare contenuti simili (ma non identici) ad altri contenuti che abbiamo già rimosso, il tutto addirittura prima che qualcuno li guardi. Questi sistemi sono particolarmente efficaci nel segnalare i contenuti che si presentano spesso in forma molto simile, ad esempio lo spam o i contenuti per adulti. I sistemi automatici sono utili anche per segnalare i contenuti che incitano all'odio o violano in altro modo le nostre norme. Queste categorie, tuttavia, dipendono fortemente dal contesto e rendono evidente l'importanza della revisione da parte di persone fisiche per prendere decisioni che tengano conto di tutte le sfumature del caso. A ogni modo, oltre l'87% dei 9 milioni di video rimossi nel secondo trimestre del 2019 è stato segnalato in prima battuta dai nostri sistemi automatici.

Stiamo effettuando investimenti significativi in questi sistemi di rilevamento automatico, che i nostri team continuano ad aggiornare e migliorare di mese in mese. Per fare un esempio, un aggiornamento apportato nel secondo trimestre del 2019 ai nostri sistemi di rilevamento dello spam ha fatto crescere di oltre il 50% il numero di canali chiusi per violazione delle norme in materia.

Rimozione dei contenuti prima che siano visualizzati da un ampio pubblico

Ci impegniamo al massimo per far sì che i contenuti illeciti non siano visualizzati da un ampio pubblico oppure non vengano visualizzati affatto prima di essere rimossi. Come già detto, i miglioramenti apportati ai nostri sistemi di segnalazione automatica ci hanno permesso di rilevare ed esaminare i contenuti ancora prima di ricevere le segnalazioni della community, tanto che più dell'80% dei video segnalati automaticamente è stato rimosso senza ottenere una singola visualizzazione nel secondo trimestre del 2019.

Siamo consapevoli, inoltre, che il modo migliore per rimuovere in tutta rapidità i contenuti è anticipare i problemi prima che si manifestino. A gennaio 2018 abbiamo introdotto il nostro Intelligence Desk, un team che si occupa di monitorare in via preventiva le notizie, i social media e le segnalazioni degli utenti per individuare le tendenze riguardanti i contenuti inappropriati e preparare così i nostri team a reagire adeguatamente prima che possano porre problemi importanti.

Siamo determinati a continuare a ridurre l'esposizione ai video che violano le nostre norme. È questa la ragione per cui Google conta in tutto più di 10.000 persone incaricate di rilevare, esaminare e rimuovere i contenuti che non rispettano le nostre linee guida. Grazie alla rapidità con cui siamo in grado di rimuovere tali contenuti, i video non conformi alle nostre norme generano una frazione di percentuale delle visualizzazioni su YouTube.

La scorsa settimana abbiamo aggiornato il nostro rapporto sull’applicazione delle Norme della community di YouTube, un rapporto trimestrale che fornisce analisi approfondite sul volume di contenuti rimossi da YouTube, le ragioni all'origine della rimozione e le modalità con cui è avvenuto il primo rilevamento. Dal rapporto emerge con chiarezza come la tecnologia impiegata negli ultimi anni ci abbia aiutato a rimuovere da YouTube i contenuti dannosi con una rapidità senza precedenti. Allo stesso tempo, il rapporto mette in evidenza il ruolo tuttora fondamentale rivestito dalle competenze umane negli sforzi tesi all'applicazione delle norme, che ci vedono al lavoro per sviluppare norme ponderate, esaminare meticolosamente i contenuti e sfruttare in maniera responsabile la nostra tecnologia di machine learning.