Acceder al contenido
Blog LatAm
Google Maps

Cómo funcionan las opiniones y comentarios en Google Maps



Al explorar nuevos lugares, las opiniones en Google son un tesoro oculto de conocimiento local que pueden indicarte los lugares y negocios que más disfrutarás, ya sea una panadería con la mejor magdalena sin gluten o un restaurante cercano con música en vivo.

Con millones de opiniones publicadas todos los días por personas de todo el mundo, contamos con asistencia las 24 horas para mantener la información en Google relevante y precisa. Gran parte de nuestro trabajo para evitar contenido inapropiado se realiza detrás de escena, por lo que queríamos mostrarte lo que sucede después de presionar "publicar" en una opinión.

Cómo creamos y hacemos cumplir nuestras políticas


Hemos creado políticas de contenido estrictas para asegurarnos de que las opiniones se basen en experiencias del mundo real y para mantener los comentarios irrelevantes y ofensivos fuera de los perfiles de negocios en Google.

A medida que el mundo evoluciona, también lo hacen nuestras políticas y protecciones. Esto nos ayuda a proteger a los lugares y negocios del contenido infractor y fuera de lugar cuando existe la posibilidad de que sean objeto de abuso. Por ejemplo, cuando los gobiernos y las empresas comenzaron a solicitar una prueba de vacunación contra COVID-19 antes de ingresar a ciertos lugares, implementamos protecciones adicionales para eliminar las opiniones de Google que critican a una empresa por sus políticas de salud y seguridad o por cumplir con un mandato de vacunación.

Una vez que se escribe una política, se convierte en material de capacitación, tanto para nuestros operadores como para los algoritmos de aprendizaje automático, para ayudar a nuestros equipos a detectar el contenido que infringe las políticas y, en última instancia, mantener las opiniones en Google útiles y auténticas.

Moderando opiniones con la ayuda del aprendizaje automático


Tan pronto como alguien publica una opinión, la enviamos a nuestro sistema de moderación para asegurarnos de que la opinión no infrinja ninguna de nuestras políticas. Puedes pensar en nuestro sistema de moderación como un guardia de seguridad que evita que personas no autorizadas ingresen a un edificio, pero en cambio, nuestro equipo impide que se publique contenido inadecuado en Google.

Dado el volumen de opiniones que recibimos regularmente, descubrimos que necesitamos tanto la comprensión matizada que ofrecen los humanos como la escala que brindan las máquinas para ayudarnos a moderar el contenido contribuido. Tienen diferentes puntos fuertes, por lo que seguimos invirtiendo enormemente en ambos.

Las máquinas son nuestra primera línea de defensa porque son buenas para identificar patrones. Estos patrones a menudo ayudan de inmediato a nuestras máquinas a determinar si el contenido es legítimo, y la gran mayoría del contenido falso y fraudulento se elimina antes de que alguien lo vea.

Nuestras máquinas analizan las opiniones desde múltiples ángulos, como por ejemplo:

  1. El contenido de la opinión: ¿Tiene contenido ofensivo o fuera de tema?
  2. La cuenta que dejó la opinión: ¿La cuenta de Google tiene algún historial de comportamiento sospechoso?
  3. El lugar en sí: ¿Ha habido actividad inusual, como una gran cantidad de opiniones en un período corto de tiempo? ¿Ha recibido recientemente atención en las noticias o en las redes sociales que pudiera motivar a las personas a dejar opiniones fraudulentas?

Entrenar a una máquina sobre la diferencia entre contenido aceptable y que infringe las políticas es un equilibrio delicado. Por ejemplo, a veces la palabra "gay" se usa como un término despectivo y eso no es algo que toleramos en las opiniones en Google. Pero si le enseñamos a nuestros modelos de aprendizaje automático que sólo se usa en discursos de odio, es posible que eliminemos erróneamente las reseñas que promueven a un propietario de un negocio gay o un espacio seguro LGBTQ+. Nuestros operadores humanos ejecutan regularmente pruebas de calidad y completan capacitaciones adicionales para eliminar el sesgo de los modelos de aprendizaje automático. Al entrenar minuciosamente a nuestros modelos en todas las formas en que se usan ciertas palabras o frases, mejoramos nuestra capacidad para detectar contenido que infringe las políticas y reducimos la posibilidad de bloquear inadvertidamente la publicación de las opiniones legítimas.

Si nuestros sistemas no detectan infracciones de las políticas, la opinión puede publicarse en cuestión de segundos. Pero nuestro trabajo no termina una vez que se publica una opinión. Nuestros sistemas continúan analizando el contenido aportado y observando patrones cuestionables. Estos patrones pueden ser cualquier cosa, desde un grupo de personas que dejan opiniones en el mismo grupo de perfiles de negocio hasta una empresa o lugar que recibe una cantidad inusualmente alta de opiniones de 1 o 5 estrellas en un período corto de tiempo.

Manteniendo las opiniones auténticas y confiables


Como cualquier plataforma que agradece las contribuciones de los usuarios, también debemos estar atentos en nuestros esfuerzos para evitar que aparezcan fraudes y abusos en Google Maps. Parte de eso es facilitar que las personas que usan Google Maps puedan marcar cualquier opinión que infrinja las políticas. Si crees haber visto una opinión que infringe las políticas en Google, te invitamos a reportarla a nuestro equipo. Las empresas pueden reportar opiniones en sus perfiles aquí, y los consumidores pueden reportarlas aquí.

Nuestro equipo de operadores humanos trabaja las 24 horas para revisar el contenido reportado. Cuando encontramos opiniones que infringen nuestras políticas, las eliminamos de Google y, en algunos casos, suspendemos la cuenta del usuario o incluso iniciamos un litigio.

Además de revisar el contenido reportado, nuestro equipo trabaja de manera proactiva para identificar posibles riesgos de abuso, lo que reduce la probabilidad de ataques de abuso exitosos. Por ejemplo, cuando se acerca un evento con mucha participación, como una elección, implementamos protecciones elevadas en los lugares asociados con el evento y otras empresas cercanas que las personas pudieran buscar en Google Maps. Continuamos monitoreando estos lugares y negocios hasta que el riesgo de abuso haya disminuido para respaldar nuestra misión de publicar sólo opiniones auténticas y confiables. Nuestra inversión en analizar y comprender cómo se puede abusar del contenido aportado ha sido fundamental para mantenernos un paso por delante de las personas malintencionadas.


Con más de mil millones de personas que recurren a Google Maps cada mes para navegar y explorar, queremos asegurarnos de que la información que ven, especialmente las opiniones, sea confiable para todos. Nuestro trabajo nunca termina; estamos constantemente mejorando nuestro sistema y trabajando arduamente para mantener el abuso, incluidas las opiniones falsas, fuera del mapa. ntent Publicado por Ian Leader Product Lead, User Generated Content