Torna al menu principale
Blog di Google Italy

Il nostro Ads Safety Report 2023

Scudo con G di Google

Miliardi di persone in tutto il mondo si affidano ai prodotti Google per trovare informazioni pertinenti e affidabili, inclusi gli annunci. Ecco perché abbiamo migliaia di persone che lavorano 24 ore su 24 per salvaguardare l'ecosistema della pubblicità digitale. Oggi pubblichiamo il nostro rapporto annuale sulla sicurezza degli annunci, il Google Ads Safety Report, con l’obiettivo di condividere i progressi raggiunti nell'applicazione delle nostre policy per inserzionisti e publisher, e per continuare a portare avanti il nostro impegno nel mantenere un Internet sano e supportato dalla pubblicità.

La tendenza chiave del 2023 è stata l’impatto dell’intelligenza artificiale generativa. Questa nuova tecnologia ha introdotto cambiamenti significativi ed entusiasmanti nel settore della pubblicità digitale, dall'ottimizzazione delle prestazioni all'editing delle immagini. Naturalmente, l’intelligenza artificiale generativa presenta anche nuove sfide, che prendiamo in seria considerazione, e illustreremo il lavoro che stiamo svolgendo per affrontarle direttamente.

Cosa altrettanto importante, l’intelligenza artificiale generativa rappresenta un’opportunità unica per migliorare in modo significativo il nostro impegno circa l’applicazione delle policy. I nostri team stanno adottando questa tecnologia trasformativa, in particolare i Large Language Model (LLM), in modo da poter garantire al meglio la sicurezza delle persone online.

IA GENERATIVA PER RAFFORZARE L'APPLICAZIONE DELLE POLICY

I nostri team di sicurezza utilizzano da tempo sistemi di machine learning basati sull’intelligenza artificiale per applicare le nostre policy su larga scala. È così che, per anni, siamo riusciti a rilevare e bloccare miliardi di annunci dannosi prima ancora che una persona potesse vederli. Tuttavia, sebbene siano ancora altamente sofisticati, questi modelli di machine learning hanno storicamente bisogno di essere addestrati in modo estensivo: spesso si basano su centinaia di migliaia, se non milioni, di esempi di contenuti in violazione.

I Large Language Model (LLM) invece sono in grado di revisionare e interpretare rapidamente grandi quantità di contenuti, cogliendo allo stesso tempo anche importanti sfumature all'interno dei contenuti stessi. Queste capacità di ragionamento avanzate hanno già portato a decisioni relative all’applicazione di alcune delle nostre policy più complesse su scala più ampia e in modo più preciso. Prendiamo, ad esempio, la nostra policy per contrastare le affermazioni non attendibili relative ai prodotti finanziari che include annunci che promuovono programmi per arricchirsi rapidamente. I malintenzionati dietro questo tipo di pubblicità sono diventati sempre più sofisticati: modificano le loro tattiche e personalizzano gli annunci su nuovi servizi o prodotti finanziari, come consigli sugli investimenti o valute digitali, per truffare le persone.

Sebbene i modelli tradizionali di machine learning siano addestrati per rilevare queste violazioni delle policy, la natura veloce e in continua evoluzione delle tendenze finanziarie rende, a volte, più difficile distinguere tra servizi legittimi e quelli falsi, e adattare rapidamente i nostri sistemi automatizzati di controllo per combattere le truffe. I LLM hanno maggiore capacità di riconoscere rapidamente le nuove tendenze nei servizi finanziari, identificare i comportamenti ricorrenti utilizzati dai malintenzionati che si approfittano di questi trend e distinguere un'attività legittima da una fraudolenta. Ciò ha aiutato i nostri team a diventare ancora più agili nell’affrontare minacce emergenti di ogni tipo.

Abbiamo appena iniziato a utilizzare la potenza dei LLM per la sicurezza degli annunci. Gemini, lanciato pubblicamente lo scorso anno, è il modello IA di Google più grande e capace, e siamo entusiasti di aver iniziato a integrare le sue sofisticate capacità di ragionamento nelle nostre iniziative legate alla sicurezza degli annunci e applicazione delle policy.

IL NOSTRO LAVORO PER PREVENIRE FRODI E TRUFFE

Nel 2023, le truffe e le frodi su tutte le piattaforme online si sono rivelate in aumento. I malintenzionati aggiornano costantemente le loro tattiche per manipolare la pubblicità digitale al fine di truffare persone e aziende. Per contrastare queste minacce in continua evoluzione, abbiamo aggiornato rapidamente le policy, istituito team di controllo a risposta rapida e affinato le nostre tecniche di rilevamento.

  • A novembre abbiamo lanciato le nostre policy sulla pubblicazione degli annunci con limitazioni, ideate per proteggere le persone limitando la portata degli inserzionisti con cui abbiamo meno familiarità. In base a questa norma, abbiamo implementato un periodo di "conoscenza" per gli inserzionisti che non hanno ancora una comprovata esperienza di comportamento corretto, durante il quale le impressioni per i loro annunci potrebbero essere limitate in determinate circostanze, ad esempio quando esiste una relazione poco chiara tra l'inserzionista e il brand a cui fa riferimento. In definitiva, la pubblicazione di annunci limitati, che è ancora nelle sue fasi iniziali, aiuterà a garantire che gli inserzionisti onesti siano in grado di creare una relazione di fiducia con le persone, limitando allo stesso tempo la portata dei malintenzionati e riducendo il rischio di truffe e annunci fuorvianti.
  • Una parte fondamentale della protezione delle persone dai rischi online dipende dalla nostra capacità di rispondere rapidamente alle nuove tendenze di abuso. Verso la fine del 2023 e fino al 2024, abbiamo dovuto contrastare una campagna mirata di annunci realizzati con protagonisti che avevano le sembianze di personaggi pubblici, spesso ottenuti attraverso l'uso di deepfake, per truffare le persone. Quando abbiamo rilevato questa minaccia, abbiamo creato un team dedicato per rispondere immediatamente. Abbiamo individuato gli schemi di comportamento dei malintenzionati, addestrato i nostri modelli automatizzati di applicazione delle norme a rilevare annunci simili e abbiamo iniziato a rimuoverli su larga scala. Abbiamo inoltre aggiornato la nostra politica sulla rappresentazione ingannevole per consentirci di sospendere rapidamente gli account dei soggetti malintenzionati.

Nel complesso, abbiamo bloccato o rimosso 206,5 milioni di annunci pubblicitari per violazione della nostra policy sulla rappresentazione ingannevole, che include molte tattiche di truffa, e 273,4 milioni di annunci pubblicitari per violazione della nostra policy sui servizi finanziari. Abbiamo inoltre bloccato o rimosso oltre 1 miliardo di annunci pubblicitari per aver violato la nostra policy contro l'abuso della rete pubblicitaria, che include la promozione di malware.

La lotta contro le pubblicità fraudolente è un impegno continuo, poiché vediamo i malintenzionati operare con maggiore sofisticatezza, su scala più ampia, utilizzando nuove tattiche come i deepfake per ingannare le persone. Continueremo a dedicare ampie risorse, facendo investimenti significativi nella tecnologia di rilevamento e collaborando con organizzazioni come Global Anti-Scam Alliance e Stop Scams UK per facilitare la condivisione delle informazioni e proteggere i consumatori in tutto il mondo.

INVESTIRE NELL'INTEGRITÀ DELLE ELEZIONI

Gli annunci politici sono una parte importante delle elezioni democratiche. Candidati e partiti utilizzano gli annunci pubblicitari per aumentare la consapevolezza, condividere informazioni e coinvolgere potenziali elettori. Ogni anno, con diverse elezioni importanti previste in tutto il mondo, vogliamo assicurarci che le persone continuino a fidarsi degli annunci elettorali che potrebbero vedere sulle nostre piattaforme. Ecco perché da tempo imponiamo requisiti di verifica dell'identità e trasparenza per gli inserzionisti elettorali, nonché restrizioni su come questi possono indirizzare i propri annunci. Tutti gli annunci elettorali devono includere anche l’informazione "pagato da" e sono disponibili nel nostro rapporto sulla trasparenza disponibile al pubblico. Nel 2023, abbiamo verificato più di 5.000 nuovi inserzionisti elettorali e rimosso più di 7,3 milioni di annunci elettorali provenienti da inserzionisti che non avevano completato il processo di verifica.

L'anno scorso siamo stati la prima azienda tecnologica a lanciare un nuovo requisito per segnalare gli annunci elettorali contenenti contenuti sintetici. Poiché sempre più inserzionisti colgono le opportunità portate dall’intelligenza artificiale, vogliamo assicurarci di continuare a fornire alle persone la maggiore trasparenza e le informazioni di cui hanno bisogno per prendere decisioni informate.

Inoltre, abbiamo continuato ad applicare le nostre policy contro gli annunci che promuovono affermazioni elettorali palesemente false che potrebbero minare la fiducia o la partecipazione ai processi democratici.

I NUMERI COMPLESSIVI DEL 2023

Il nostro obiettivo è individuare annunci malevoli e sospendere gli account fraudolenti prima che arrivino sulle nostre piattaforme, o rimuoverli immediatamente una volta rilevati. L’intelligenza artificiale sta migliorando la nostra applicazione delle norme su tutti questi fronti. Nel 2023, abbiamo bloccato o rimosso oltre 5,5 miliardi di annunci, in leggero aumento rispetto all’anno precedente, e 12,7 milioni di account di inserzionisti, quasi il doppio rispetto all’anno precedente. Allo stesso modo, lavoriamo per proteggere gli inserzionisti e le persone rimuovendo i nostri annunci dalle pagine e dai siti dei publisher che violano le nostre norme, come contenuti sessualmente espliciti o prodotti pericolosi. Nel 2023, abbiamo bloccato o limitato la pubblicazione degli annunci su oltre 2,1 miliardi di pagine di publisher, in leggero aumento rispetto al 2022. Stiamo anche migliorando nel contrastare le violazioni pervasive o gravi. Abbiamo adottato misure più ampie a livello di sito su oltre 395.000 siti di publisher, in netto aumento rispetto al 2022.

Per mettere in prospettiva l'impatto dell'intelligenza artificiale su questo lavoro: l'anno scorso oltre il 90% delle applicazioni di policy a livello di pagina dei publisher è iniziata con l'uso di modelli di apprendimento automatico, inclusi i nostri ultimi LLM. Naturalmente, qualsiasi inserzionista o publisher può comunque presentare ricorso contro un'azione coercitiva se ritiene che abbiamo sbagliato. I nostri team lo esamineranno e, nel caso in cui venisse trovato un errore, verrà utilizzato per migliorare i nostri sistemi.

RIMANERE AGILI E GUARDARE AL FUTURO

Quando si parla di sicurezza degli annunci, molto può cambiare nel corso di un anno: dall’introduzione di nuove tecnologie come l’intelligenza artificiale generativa alle nuove tendenze di abuso, ai conflitti globali. Lo spazio pubblicitario digitale deve essere agile e pronto a reagire. Ecco perché sviluppiamo continuamente nuove norme, rafforziamo i nostri sistemi di applicazione, approfondiamo la collaborazione tra settori e offriamo maggiore controllo a persone, publisher e inserzionisti.

Nel 2023, ad esempio, abbiamo lanciato il Centro per la trasparenza degli annunci, un hub dove è possibile cercare tutti gli annunci degli inserzionisti verificati, che aiuta le persone a saperne di più in modo rapido e semplice sugli annunci che vedono sulla Ricerca Google, su YouTube e Display. Abbiamo inoltre aggiornato i nostri controlli di idoneità per rendere più semplice e veloce per gli inserzionisti l'esclusione degli argomenti che desiderano evitare su YouTube e nell'inventario Display. Nel complesso, abbiamo apportato 31 aggiornamenti alle nostre norme sugli annunci e sui publisher.

Anche se non sappiamo ancora cosa ci riserva il resto del 2024, siamo fiduciosi che i nostri investimenti in nuove policy, rilevamento e applicazione delle norme ci prepareranno per le sfide future.