Torna al menu principale
Blog di Google Italy

Maggiori informazioni, rimozioni più rapide, più persone: un aggiornamento su quello che stiamo facendo per far applicare le Norme della community di YouTube



Lo scorso dicembre vi abbiamo illustrato come abbiamo ampliato le nostre attività volte a rimuovere i contenuti che violano le nostre norme. Oggi vogliamo aggiornarvi e darvi maggiore visibilità sulle diverse attività, incluso il primo Rapporto sull’applicazione delle Norme della community di YouTube.

Condividere maggiori informazioni

La pubblicazione di un rapporto trimestrale su come stiamo facendo applicare le Norme della community è il primo importante passo. Questo aggiornamento periodico mostrerà i progressi nella rimozione dalla piattaforma dei contenuti che ne violano le norme. Entro la fine dell'anno prevediamo di migliorare questo report e di aggiungere ulteriori informazioni, tra cui dati sui commenti, la velocità di rimozione e le motivazioni alla base delle rimozioni per violazione delle norme.

Inoltre, mettiamo a disposizione di ogni utente di YouTube una Dashboard delle segnalazioni effettuate, che permetterà di controllare lo status dei video che l'utente ci ha segnalato perché vengano rivisti in base alle Norme della community.

Individuare i contenuti inappropriati con l'aiuto del machine learning

Le macchine ci permettono di effettuare segnalazioni su larga scala dei contenuti da rivedere, aiutandoci a rimuovere milioni di video inappropriati ancora prima che qualcuno li visualizzi. Il nostro investimento nel machine learning per velocizzare le rimozioni sta dando buoni risultati tanto in ambiti ad alto rischio e basso volume (come l'estremismo violento) quanto in quelli ad alto volume (come lo spam).

Le principali evidenze del report, che prende in considerazione il periodo ottobre-dicembre 2017, mostrano quanto segue:
Per fare un esempio, all'inizio del 2017 l'8% dei video segnalati e rimossi per estremismo violento aveva meno di 10 visualizzazioni al momento della rimozione***; nel giugno del 2017 abbiamo introdotto le segnalazioni effettuate con il machine learning e ora più della metà dei video che rimuoviamo per estremismo violento ha meno di 10 visualizzazioni.

  • Abbiamo rimosso oltre 8 milioni di video da YouTube in questi mesi*. La maggior parte di questi 8 milioni di video erano spam o persone che cercavano di caricare contenuti per adulti e rappresentano una frazione di un punto percentuale delle visualizzazioni totali di YouTube durante lo stesso periodo**. 
  • 6,7 milioni di video sono stati segnalati per la prima volta dalle macchine e non dalle persone.
  • Di questi 6,7 milioni di video, il 76% è stato rimosso prima di aver ricevuto una sola visualizzazione
Infografica che riassume i video rimossi da YouTube.

Il valore della collaborazione Uomo + Macchina

L'utilizzo del machine learning comporta che ci siano più persone addette a rivedere i contenuti, non meno: i nostri sistemi si affidano alla valutazione umana per determinare se un contenuto viola le nostre norme. Potete trovare ulteriori informazioni sul nostro processo di segnalazione e valutazione da parte delle persone in questo video:

WK8qRNSmhEU
10:25

Lo scorso anno abbiamo preso l’impegno di portare, entro la fine del 2018, a 10.000 il numero delle persone che in Google si occupano di indirizzare il problema dei contenuti che violano le norme. In YouTube abbiamo già ricoperto la maggior parte dei ruoli aggiuntivi necessari per fornire il nostro contributo al raggiungimento di quell’obiettivo. Abbiamo anche assunto degli specialisti a tempo pieno con esperienza nel campo dei fenomeni di estremismo violento, dell'antiterrorismo e dei diritti umani, oltre ad aver ampliato i nostri team di esperti locali.

Continuiamo a investire nel network di oltre 150 partner accademici, governativi e ONG, che contribuiscono con importanti competenze ai nostri sistemi di applicazione delle norme, rete che annovera il Center for the Study of Radicalization del King’s College di Londra, la Anti-Defamation League e il Family Online Safety Institute. E a cui abbiamo aggiunto ulteriori partner impegnati sul fronte della sicurezza dei bambini in tutto il mondo, come Childline South Africa, ECPAT Indonesia e Parents’ Union on Net in Corea del Sud.

Vogliamo che YouTube rimanga una community vivace, con sistemi efficaci per la rimozione dei contenuti che ne violano le norme, e ci impegniamo a darvi ulteriori informazioni sui risultati ottenuti da questi sistemi, oltre che di continuare a migliorarli con il tempo.

Scritto da: Il team di YouTube

* Questo numero non include i video rimossi legati all’eliminazione di un intero canale. La maggior parte delle rimozioni a livello di canale è dovuta a violazioni delle norme antispam e crediamo che la percentuale di contenuti inappropriati per lo spam sia ancora più alta. 
** Non solo questi 8 milioni di video rappresentano una frazione di un punto percentuale delle visualizzazioni totali di YouTube, ma questa frazione è costantemente diminuita negli ultimi cinque trimestri. 
*** Questa cifra esclude i video automaticamente riconosciuti come contenuti di estremismo violento in fase di caricamento. Tali video hanno sempre zero visualizzazioni.