Google usó Inteligencia Artificial para bloquear 5,100 millones de anuncios
La tecnológica estadounidense Google reveló que utilizó Inteligencia Artificial (IA) para bloquear más de 5,100 millones de anuncios que violaban sus políticas.
De acuerdo con el Ads Safety Report 2024 de Google, los avances en IA, específicamente los Modelos de Lenguaje Grande (LLMs), han revolucionado la detección y prevención de anuncios maliciosos, fraudes y estafas en sus plataformas.
Google ha enfrentado durante años el desafío de combatir tácticas cada vez más sofisticadas de actores malintencionados. En 2024, la compañía implementó más de 50 mejoras en sus LLMs, lo que permitió una detección más rápida y precisa de amenazas emergentes.
“Nuestros últimos LLMs operan con mucha más eficiencia. Necesitan solo una fracción de la información que requerían modelos anteriores para reconocer amenazas, identificar patrones de abuso y distinguir negocios legítimos de estafas”, dijo Alex Rodríguez, gerente general de Ads Safety de Google.
Estos avances tecnológicos no solo optimizaron la revisión de contenido, sino que también permitieron a los equipos humanos enfocarse en problemas más complejos. Un ejemplo fue la aplicación de IA en la moderación de publicadores.
“Nuestros modelos impulsados por IA contribuyeron a la detección y aplicación de políticas en 97% de las páginas en las que tomamos acción el año pasado”, dijo Rodríguez. Esto resultó en la restricción de anuncios en 1,300 millones de páginas y acciones a nivel de sitio en más de 220,000 sitios web.
En este sentido, el programa de verificación de identidad de anunciantes jugó un papel fundamental. Google verificó la identidad de más de 90% de los anunciantes cuyos anuncios aparecieron en sus plataformas, cubriendo más de 200 países y territorios.
“Verificamos que el anunciante esté basado en el país desde el que paga y confirmamos su identidad para asegurarnos de que son quienes dicen ser”, dijo Rodríguez. Como resultado de este análisis, se suspendieron 39.2 millones de cuentas de anunciantes, la mayoría antes de que pudieran publicar algún anuncio.
Deepfakes y elecciones
Un desafío particular en 2024 fue el auge de anuncios que utilizaban deepfakes para personificar a figuras públicas y promocionar estafas. “Vimos un aumento significativo en anuncios que usaban imágenes o audio generados por IA para implicar respaldos de celebridades”, dijo Rodríguez.
Google respondió con un equipo dedicado de más de 100 expertos y actualizó su política de tergiversación para suspender a los infractores. Estas medidas llevaron a la suspensión permanente de 700,000 cuentas y una reducción del 90% en informes de este tipo de estafas.
La compañía también bloqueó o eliminó 415 millones de anuncios y suspendió más de 5 millones de cuentas por violaciones relacionadas con estafas. Rodríguez enfatizó la importancia de la colaboración internacional:
“Los estafadores comparten tácticas entre sí, por eso lanzamos el Global Signal Exchange con la Global Anti-Scam Alliance para intercambiar inteligencia y combatir el fraude de manera coordinada”, dijo.
Con más de 50% de la población mundial participando en elecciones durante 2024, Google reforzó sus medidas para garantizar la transparencia en la publicidad política.
“Fuimos la primera compañía en exigir divulgaciones para contenido generado por IA en anuncios electorales”, dijo Rodríguez.
La plataforma verificó a más de 8,900 nuevos anunciantes políticos y eliminó 10.7 millones de anuncios de cuentas no verificadas. También aplicó políticas contra afirmaciones falsas en campañas políticas, asegurando que los usuarios supieran quién pagaba por cada anuncio.
Nota de origen: https://www.eleconomista.com.mx/tecnologia/google-inteligencia-artificial-bloquear-5-100-millones-anuncios-20250416-755316.html