Google suspende 39.2 millones de cuentas de anunciantes fraudulentos

El Informe anual sobre seguridad de la publicidad de 2024 recoge los avances durante este año en el cumplimiento de nuestras políticas sobre anuncios y editores de contenidos. Al mismo tiempo, se pone de relieve nuestra responsabilidad a la hora de mantener una web sana, que, a su vez, es capaz de financiarse a través de la publicidad.
En 2023, ya hablábamos del modo en que la inteligencia artificial generativa mejoraba nuestra capacidad para hacer cumplir nuestras políticas, agilizando tanto la revisión de contenidos como las acciones contra los infractores. En 2024, la novedad principal se halla en que la IA no solo nos ayuda a eliminar la publicidad ilegítima, sino que también amplifica nuestra capacidad para evitar la entrada de estafadores en nuestro ecosistema.
Modelos más avanzados con los que cumplir nuestras políticas
Los agentes maliciosos adaptan constantemente sus tácticas para evitar ser detectados. Por ello, hacer cumplir nuestras políticas es una tarea continua. Afortunadamente, nuestros grandes modelos de lenguaje (LLM) más recientes son mucho más eficientes que los modelos anteriores de aprendizaje automático, que había que entrenar con un gran volumen de datos. Los LLM más avanzados solo necesitan una fracción de la información que requerían los modelos más antiguos para reconocer con rapidez amenazas emergentes, identificar patrones de uso indebido y diferenciar entre negocios legítimos y estafas. Esa agilidad es fundamental si queremos combatir a gran escala unas amenazas muy diversas que mutan rápidamente.
El año pasado dedicamos grandes esfuerzos a los avances en nuestros LLM. De hecho, les incorporamos más de cincuenta mejoras con el objetivo de que hagan cumplir nuestras políticas de manera más eficiente y precisa a gran escala. Gracias a esos avances técnicos, ahora nuestros equipos pueden prestar más atención a problemas más complejos y ambiguos, lo que a su vez nos permite entrenar nuestros LLM con datos más específicos, con vistas a que respondan mejor a esos casos en el futuro.
Tomemos, por ejemplo, la aplicación de nuestra política para editores, que está pensada para que los editores puedan monetizar sus contenidos de forma segura a través de la publicidad. Nuestros modelos asistidos por IA contribuyeron a detectar el 97% de las páginas sobre las que emprendimos acciones el año pasado. El uso de estos modelos nos permitió agilizar notablemente las revisiones de sitios web. Como resultado, la monetización resultó más rápida y se evitó que apareciera publicidad en páginas infractoras.

Anuncios nocivos que no llegan ni siquiera a aparecer
Los LLM no solo nos ayudan a hacer cumplir nuestras políticas: también nos permiten ser más proactivos que nunca a la hora de evitar abusos. Nuestras herramientas de IA aceleran las investigaciones más complejas y nos hacen más eficaces a la hora de identificar y bloquear redes de estafadores e infractores reincidentes. Gracias a esta labor preventiva, bloqueamos miles de millones de anuncios que incumplen nuestras políticas, de modo que no lleguen nunca a los consumidores. Al mismo tiempo, garantizamos que los anunciantes legítimos puedan mostrar rápidamente publicidad a sus clientes potenciales.
Una de nuestras líneas de actuación es la lucha contra la publicidad fraudulenta a gran escala. Para ello, prestamos atención a señales tales como la suplantación de empresas o los datos de pago ilegítimos, como indicadores precoces de un peligro potencial para los consumidores. Durante el año pasado, nos centramos en cortar este tipo de fraudes en la fase más temprana: durante el proceso de configuración de cuentas. De este modo, bloqueamos un número enorme de anuncios perjudiciales antes de que llegaran a publicarse. Para ponerlo en perspectiva: en total, suspendimos más de 39,2 millones de cuentas, la gran mayoría de ellas antes de que llegaran a publicar un solo anuncio.
La verificación de la identidad de los anunciantes es otra herramienta importante que nos ayuda a evitar que los agentes maliciosos que hemos suspendido reaparezcan. Simultáneamente, aporta transparencia sobre quién está detrás de cada anuncio. En la actualidad, este programa se ha extendido a más de 200 países y territorios. A día de hoy, por término medio, más del 90% de los anuncios que ve el público en Google procede de anunciantes verificados. Para que esta cifra siga creciendo, cada día verificamos las cuentas de los nuevos anunciantes que se unen a nuestra plataforma.
Nos adaptamos, para combatir estafas en constante evolución
Desde que existe internet, Google ha tenido que combatir a todo tipo de estafas, que tratan de engañar a nuestros sistemas mediante técnicas en permanente proceso de mutación. 2024 no fue una excepción. Para que nuestras defensas frente a esos agentes sean más sólidas, hemos reforzado y ampliado nuestras políticas. En consecuencia, hemos puesto a punto equipos de respuesta rápida y hemos afinado nuestros métodos de detección para limitar el alcance de las estafas. Somos conscientes de que este desafío afecta a todo el sector. Por ello, también promovemos el intercambio de información entre distintos sectores económicos; por ejemplo, Google es cofundador de la nueva plataforma Global Signal Exchange creada por Global Anti-Scam Alliance.
Una de las tendencias emergentes han sido los anuncios que suplantan la identidad de personajes públicos; en ellos, un agente malicioso utiliza imágenes o audio sintetizados mediante IA para simular que una persona famosa presta su apoyo a algo que resulta ser una estafa. Nuestra reacción consistió en reunir rápidamente un equipo específico formado por más de cien expertos, para analizar estas estafas y desarrollar contramedidas efectivas. La primera de ellas fue una puesta al día de nuestra política de información engañosa, que nos ayudara a suspender a los anunciantes que promueven estas estafas. Como resultado, suspendimos permanentemente más de 700.000 cuentas de anunciantes infractores. Con ello, las denuncias de este tipo de estafas descendieron un 90% el año pasado. Y, aunque son unas cifras positivas, seguimos trabajando para evitar este tipo de fraudes.
Este es solo un ejemplo de nuestra labor continua de lucha contra todo tipo de estafas publicitarias, en todo el mundo. En 2024, bloqueamos o eliminamos 415 millones de anuncios y suspendimos más de 5 millones de cuentas por infringir nuestras políticas publicitarias más estrechamente relacionadas con los fraudes.
Protegemos la integridad de los procesos electorales en todo el mundo
En 2024 se desarrollaron grandes procesos electorales por todo el mundo. Los países que llamaron a las urnas a sus ciudadanos suponen la mitad de la población mundial. Precisamente por eso, la labor de Google en apoyo de la integridad de las elecciones fue más importante que nunca. Entre las cosas que hicimos, ampliamos a nuevos países, nuestros requisitos de verificación de identidad y transparencia para los anunciantes de contenidos electorales. Entre esas medidas, exigimos que se revelara quién paga cada anuncio y elaboramos un informe público de transparencia sobre toda la publicidad electoral. Con ello, los usuarios de los distintos países pudieron identificar la publicidad electoral y saber quién estaba detrás de los anuncios electorales que veían. Además, también fuimos la primera empresa en exigir que se declaren los contenidos generados por IA que aparecen en la publicidad electoral, en el contexto de nuestra labor actual de transparencia en los procesos electorales.
Solo el año pasado, verificamos más de 8.900 nuevos anunciantes electorales y retiramos 10,7 millones de anuncios electorales procedentes de cuentas no verificadas. Del mismo modo, seguimos haciendo cumplir en todo el mundo nuestras políticas sobre mensajes electorales manifiestamente falsos.
Cómo hacemos cumplir nuestras políticas, en cifras: la prueba del impacto de la IA
En 2024:
- Eliminamos más de 5200 millones de anuncios, restringimos más de 9100 millones y suspendimos más de 39,2 millones de cuentas de anunciantes.
- Bloqueamos o restringimos la aparición de anuncios en más de 1300 millones de páginas de editores de contenidos, y aplicamos medidas de ejecución más amplias —a nivel de sitio web— en más de 220.000 sitios de editores.
- No hemos dejado de poner al día nuestras políticas, con más de 30 actualizaciones de nuestras políticas sobre anuncios y editores de contenidos en el último año
El panorama de la seguridad de los contenidos publicitarios se encuentra en constante proceso de cambio, debido a factores tales como los avances tecnológicos —entre ellos, la IA—, nuevas tácticas de agresión y la propia geopolítica mundial. Todo ello exige a nuestro sector una respuesta ágil. En un entorno tan volátil, estamos enfrentando estos desafíos con decisión, aplicando tecnologías de vanguardia y buscando la colaboración con distintos socios, con el objetivo de que la experiencia en internet resulte más segura para todos.