Acceder al contenido
Blog España

Google Ads

Informe sobre la seguridad de la publicidad en 2023



En todo el mundo, miles de millones de personas confían en los productos de Google para obtener información relevante y fiable. Y esa confianza se extiende también a la publicidad. Por eso tenemos un equipo humano formado por miles de personas, activo las 24 horas del día, con la misión de proteger el ecosistema de la publicidad digital. Hoy publicamos nuestro Informe anual sobre seguridad de la publicidad, en el que repasamos los avances en el cumplimiento de nuestras políticas por parte de los anunciantes y los editores de contenidos, así como nuestra responsabilidad de mantener una web sana capaz de financiarse a través de la publicidad.

La tendencia más importante a lo largo de 2023 ha sido el impacto de la IA generativa. Esta nueva tecnología ha introducido cambios significativos y fascinantes en el sector de la publicidad digital, desde la optimización del rendimiento hasta la edición de imágenes. Pero, por supuesto, la IA generativa también plantea nuevos desafíos, que abordamos de forma exhaustiva. Más adelante hablaré de lo que estamos haciendo para afrontarlos.

Del mismo modo, la IA generativa representa una oportunidad única para hacer cumplir las normas de una forma mejorada. Nuestros equipos están adoptando esta tecnología transformadora, más específicamente los grandes modelos lingüísticos (LLM), con el objetivo de que las personas que utilizan internet estén más seguras en internet.

LA IA GENERATIVA AYUDA A HACER CUMPLIR LAS NORMAS

Nuestros equipos de seguridad llevan mucho tiempo utilizando sistemas de aprendizaje automático asistidos por IA para hacer cumplir nuestras políticas a gran escala. Eso es lo que, durante años, nos ha permitido detectar y bloquear miles de millones de anuncios contrarios a nuestras normas, antes incluso de que nadie llegue a verlos. El inconveniente histórico de estos modelos de aprendizaje automático, que son altamente sofisticados, es que requieren un entrenamiento exhaustivo. Con frecuencia necesitan cientos de miles, incluso millones, de ejemplos de infracciones.

En cambio, los LLM son capaces de revisar e interpretar con rapidez grandes volúmenes de contenidos, captando incluso matices importantes. Esta capacidad de razonamiento avanzada ya nos permite tomar decisiones de suspensión en relación con algunas de nuestras políticas más complejas, a mayor escala y de manera más precisa. Un buen ejemplo de ello es nuestra política sobre afirmaciones financieras de escasa fiabilidad, que apunta directamente a los anuncios de planes para hacerse rico rápidamente. Los actores maliciosos que están detrás de este tipo de anuncios se han vuelto más sofisticados. Han refinado sus tácticas y ahora adaptan su publicidad a nuevos servicios o productos financieros, tales como asesoramiento sobre inversiones o monedas digitales, siempre con el fin último de estafar a los usuarios.

Sin lugar a dudas, los modelos de aprendizaje automático tradicionales están entrenados para detectar este tipo de incumplimientos de nuestras políticas. Sin embargo, las tendencias financieras cambian a una velocidad pasmosa que, en ocasiones, hace difícil diferenciar entre servicios legítimos y fraudulentos, y dar a nuestros sistemas automatizados la escala necesaria para combatir eficazmente el fraude. Los LLM tienen una mayor capacidad para reconocer con rapidez nuevas tendencias en los servicios financieros, para identificar los patrones de los actores maliciosos que se suben a la ola y, en definitiva, para distinguir entre una actividad legítima de un timo que promete ganancias rápidas. Estos modelos han ayudado a nuestros equipos a combatir todo tipo de amenazas emergentes con mayor agilidad.

Con todo, apenas hemos empezado a capitalizar las posibilidades de los LLM en beneficio de la seguridad de la publicidad. En este sentido, hemos empezado a aplicar el modelo de IA más potente de Google, Gemini y sus sofisticadas capacidades de razonamiento a nuestra labor de garantizar la seguridad de la publicidad, y estamos muy satisfechos con los resultados.

imagen que indicia que se han borrado 5500 millones de anuncios dañinos

QUÉ HACEMOS PARA PREVENIR FRAUDES Y ESTAFAS

En 2023 aumentaron los timos y fraudes en todas las plataformas online. Las tácticas que emplean los agentes maliciosos para manipular la publicidad digital evolucionan constantemente, con el fin de estafar tanto a particulares, como a empresas legítimas. Para combatir estas amenazas en continuo proceso de cambio, hemos actualizado nuestras políticas con celeridad, hemos creado equipos de respuesta rápida y hemos afinado nuestras técnicas de detección.

  • El pasado mes de noviembre entró en vigor nuestra política de limitación de la publicidad, concebida para proteger a las personas que utilizan internet limitando el alcance de los anunciantes con los que estamos poco familiarizados. Esta política nos ha llevado a instaurar un periodo de “prueba” para los anunciantes que aún no tienen un historial consolidado de buena conducta. Durante ese periodo, las apariciones de sus anuncios pueden limitarse en determinadas circunstancias; por ejemplo, si no está clara la relación entre el anunciante y la marca a la que hace referencia. Esperamos que esta limitación de publicidad, que aún está en sus primeras fases, ayude a las empresas legítimas a generar confianza entre las personas que utilizan internet y que, al mismo tiempo, limite la difusión de los agentes maliciosos y reduzca el riesgo de estafas y anuncios engañosos.
  • Para proteger a las personas que utilizan internet frente a los potenciales peligros de la web, es esencial que seamos capaces de reaccionar con rapidez a nuevas tendencias en usos abusivos. Entre finales de 2023 y principios de 2024, nos enfrentamos a una campaña selectiva de anuncios que utilizaba la imagen de personajes públicos, en muchos casos con uso de deepfakes, para tratar de estafar al público. En cuanto detectamos esta amenaza, formamos un equipo especializado para responder de manera inmediata. Así, identificamos patrones en el comportamiento de los agentes maliciosos, entrenamos nuestros modelos automatizados para detectar anuncios similares y los eliminamos a gran escala. En paralelo, pusimos al día nuestra política de presentación engañosa para suspender rápidamente las cuentas de los infractores.

En total, en 2023 bloqueamos o retiramos 206,5 millones de anuncios por incumplir nuestra política de presentación engañosa (con tácticas de estafa muy variadas) y 273,4 millones de anuncios por incumplir nuestra política de servicios financieros. También bloqueamos o eliminamos más de mil millones de anuncios por incumplir nuestra política sobre abuso de la red de publicidad, que prohíbe entre otras cosas la difusión de software malicioso.

La lucha contra los anuncios fraudulentos es un esfuerzo continuado, contra unos agentes maliciosos que operan con niveles de sofisticación cada vez más altos, a mayor escala y empleando nuevas tácticas —como los deepfakes— para engañar al público. Nos comprometemos a seguir dedicando recursos intensivos y a hacer inversiones sustanciales en tecnologías de detección. Igualmente, continuaremos asociándonos con organizaciones como la Global Anti-Scam Alliance y Stop Scams UK para facilitar el intercambio de información y proteger a todo el mundo.

INVERTIMOS EN INTEGRIDAD ELECTORAL

La publicidad de contenido político es un elemento importante de las elecciones democráticas. Los candidatos y los partidos se publicitan para dar a conocer sus propuestas, compartir información y atraer a posibles votantes. En este año en el que se celebrarán varios procesos electorales de primera magnitud en todo el mundo, queremos asegurarnos de que los votantes puedan seguir confiando en la publicidad electoral que ven en nuestras plataformas. Por este motivo, hace tiempo que hemos impuesto a los anunciantes electorales requisitos de verificación de identidad y transparencia, así como restricciones sobre la forma en que pueden dirigir sus anuncios electorales. Además, toda la publicidad electoral debe incluir una declaración de quién la costea, así se recoge en nuestro informe de transparencia, públicamente disponible. En 2023, verificamos más de 5.000 nuevos anunciantes electorales y retiramos más de 7,3 millones de anuncios de contenido electoral procedentes de anunciantes que no completaron nuestro proceso de verificación.

El año pasado, fuimos la primera gran empresa tecnológica en lanzar un nuevo requisito de declaración, aplicable a la publicidad electoral con contenidos sintéticos. Cada vez son más los anunciantes que explotan las posibilidades de la IA, y queremos seguir ofreciendo al público la máxima transparencia y la información que necesita para tomar decisiones informadas.

En paralelo, hemos reforzado la aplicación de nuestras políticas contra los anuncios que contienen afirmaciones electorales objetivamente falsas, susceptibles de socavar la confianza o la participación en los procesos democráticos.

imagen ads safety report 2023

CIFRAS GLOBALES EN 2023

Nuestro objetivo es detener la publicidad ilegítima y suspender las cuentas fraudulentas antes de que lleguen a nuestras plataformas o, al menos, eliminar ambas cosas inmediatamente en cuanto las detectemos. La IA está mejorando nuestra capacidad para actuar en esos frentes. En 2023, bloqueamos o eliminamos más de 5.500 millones de anuncios, —lo que supone un ligero aumento con respecto al año anterior— y 12,7 millones de cuentas de anunciantes, casi el doble que el año anterior. Igualmente, trabajamos para proteger a nuestros anunciantes y al público, retirando nuestra publicidad de páginas y sitios web de editores que incumplen nuestras políticas. Por ejemplo, los de contenido sexual explícito o productos peligrosos. En 2023, bloqueamos o restringimos la aparición de anuncios en más de 2.100 millones de páginas de editores de contenidos, de nuevo un poco más que en 2022. También hemos mejorado la respuesta ante las infracciones graves o generalizadas. El año pasado aplicamos medidas de suspensión a nivel de sitio web en más de 395.000 sitios de editores, con un notable aumento con respecto a 2022.

Para poner en perspectiva el efecto de la IA en esta labor: el año pasado, más del 90% de las acciones de suspensión a nivel de página en sitios web de editores tuvieron su origen en el uso de modelos de aprendizaje automático, incluidos nuestros LLM más recientes. Por supuesto, cualquier anunciante o editor puede seguir presentando una apelación ante una acción de suspensión, si considera que nos hemos equivocado. Nuestros equipos la revisarán y, en los casos en que encontremos errores, servirá para mejorar nuestros sistemas.

ÁGILES Y CON LA VISTA PUESTA EN EL FUTURO

En el campo de la seguridad de la publicidad, pueden cambiar muchas cosas en el transcurso de un año. Desde la irrupción de nuevas tecnologías, como la IA, hasta nuevos patrones de abuso o nuevos conflictos globales. El entorno de la publicidad digital tiene que ser capaz de reaccionar con agilidad. Por eso desarrollamos continuamente nuevas políticas, reforzamos nuestros sistemas de suspensión, fomentamos la colaboración dentro del sector y proporcionamos más herramientas de control a las personas, los editores y las empresas que anuncian.

Un ejemplo: en 2023 lanzamos el Centro de Transparencia Publicitaria, un archivo global de búsqueda de todos los anuncios procedentes de anunciantes verificados, que proporciona a las personas que utilizan internet información rápida y sencilla sobre los anuncios que ven en el Buscador, en YouTube y en la red de display de Google. Asimismo, hemos actualizado nuestros controles de idoneidad, para que a las empresas anunciantes les resulte más fácil excluir las temáticas que desean evitar dentro del inventario de YouTube y de la red de display de Google. En conjunto, el año pasado hicimos 31 actualizaciones de nuestras políticas sobre publicidad y editores.

No sabemos lo que nos deparará el resto del año. Pero confiamos en estar preparados para cualquier desafío gracias a nuestras inversiones en políticas y herramientas de detección y suspensión de mala publicidad.