Chatbots chinos recomiendan productos inexistentes tras manipulación de datos

Durante la semana pasada, los usuarios que consultaron a un chatbot de inteligencia artificial chino sobre pulseras "inteligentes" para comprar recibieron recomendaciones de un modelo que no existe.

La pulsera ficticia llamada "Apollo 9" fue descrita por el chatbot anónimo como que tenía una "duración de batería de nivel agujero negro" y "sensores de entrelazamiento cuántico".

Estos eran términos de marketing sin sentido publicados deliberadamente en línea para que pudieran aparecer en las recomendaciones de IA, un fenómeno llamado "envenenamiento de datos".

En efecto, los usuarios estaban recibiendo anuncios sin ser conscientes de ello.

Investigación de la televisión estatal expone el problema

El problema de manipular el contenido generado por IA fue parte de una investigación realizada por la cadena estatal CCTV, cuyos resultados se emitieron el 15 de marzo. El programa respaldado por el gobierno que marca el Día Mundial de los Derechos del Consumidor se conoce como la Gala 315.

El espectáculo anual expone prácticas comerciales anti-consumidor en China, que van desde problemas de seguridad alimentaria hasta estafas de transmisión en vivo y publicidad falsa.

Mientras China se apresura a adoptar la IA en la vida cotidiana y a impulsar su economía, también está lidiando con la mejor manera de regularla, mientras educa al público sobre los usos potencialmente fraudulentos de la tecnología.

Los chatbots de IA ganan popularidad masiva

Los chatbots de IA de China, desde Doubao de ByteDance hasta DeepSeek y Qwen de Alibaba, han ganado atractivo masivo durante el último año aproximadamente, siendo utilizados no solo para recomendaciones de compras sino también para hacer investigación y completar tareas escolares.

Doubao es, con mucho, el más utilizado, con unos 155 millones de usuarios activos semanales en diciembre de 2025.

Expertos explican la vulnerabilidad de la IA

Sobre el "envenenamiento de datos", Qing Xiao, estudiante de doctorado que estudia IA en la Universidad Carnegie Mellon en Estados Unidos, dijo que el fenómeno no es inesperado ya que más personas recurren a los chatbots de IA para búsquedas.

El problema es que la IA en sí misma no puede determinar la autenticidad de la información, dijo a The Straits Times. La IA no puede inferir, por ejemplo, si un anuncio fue publicado intencionalmente por motivos de lucro.

Aunque puede realizar verificación de hechos contra bases de datos de información confiable, tales fuentes de información confiable podrían no estar disponibles para todos los tipos de consultas de usuarios.

Xiao dijo: "Manipular las recomendaciones siempre ha sido un problema, ya que los resultados de búsqueda afectan directamente las decisiones del consumidor. Especialmente en temas de nicho donde la IA tiene muy pocos datos con los que trabajar, puede ser fácilmente manipulada".

Persistencia del problema tras la exposición

Un día después de que se emitiera el programa de CCTV, algunos usuarios chinos continuaron recibiendo recomendaciones de IA para la pulsera falsa, aunque la mayoría de los chatbots han actualizado desde entonces sus resultados para indicar que "Apollo 9" no es un artículo real. Esto podría significar que los chatbots no pudieron reflejar la verdad automática o rápidamente, incluso después de que se hubiera publicado información legítima.

Servicios de optimización para motores generativos

El informe de CCTV también destacó el problema de las empresas que proporcionan servicios como la optimización de motores generativos, o GEO, que puede ser engañosa si se manipula.

GEO tiene como objetivo producir contenido fácilmente digerible por la IA, lo que significa que el contenido se volverá más prominente en las respuestas que la IA genera para los usuarios. Esto es similar a la técnica más conocida de optimización de motores de búsqueda, o SEO.

Los medios chinos han reportado estudios de casos específicos donde GEO podría haber sido usado de manera engañosa.

Por ejemplo, un informe citó cómo un fabricante de calderas en Qingdao, en la provincia oriental de Shandong, compró un paquete de seis meses con una empresa GEO. Durante este período, cuando los usuarios buscaban "marcas de calderas recomendadas" en varios asistentes de IA, la empresa aparecería en la parte superior de la lista.

Esto se hace usando IA para producir artículos relacionados con las palabras clave objetivo, y publicándolos en línea usando miles de cuentas.

Crecimiento de la industria GEO

Aunque los servicios GEO no son ilegales, tales prácticas pueden infringir las regulaciones si terminan generando masivamente reseñas falsas o de baja calidad, en lugar de, por ejemplo, reescribir artículos auténticos.

Un informe de febrero de 2026 de la firma de investigación de mercado iiMedia Research encontró que la industria GEO de China alcanzó casi 35 mil millones de yuanes (6.5 mil millones de dólares singapurenses) en 2025, un aumento interanual del 67 por ciento.

Vacío regulatorio y llamadas a la acción

En este momento, China no tiene regulación específicamente dirigida a los servicios GEO, aunque otras reglas requieren que los creadores de contenido y las plataformas en línea etiqueten claramente el contenido generado por IA.

Pero el profesor Xie Yongjiang de la Universidad de Correos y Telecomunicaciones de Beijing dijo a China Youth Daily que GEO puede ser considerado como una forma de "publicidad encubierta" que podría haber violado las leyes existentes.

El profesor Xie, quien es director del Centro de Investigación de Gobernanza de Internet y Derecho en la universidad, señaló que la Ley de Publicidad de China establece que los anuncios deben ser identificables y no deben engañar o inducir a error a los consumidores, pero el contenido GEO no lleva etiquetas publicitarias.

"A diferencia de las formas tradicionales de publicidad, disfraza la información comercial como respuestas o recomendaciones objetivas y neutrales, influyendo y persuadiendo así a los usuarios sin que puedan reconocer su intención comercial", dijo.

Perspectiva internacional y reacciones

Manoj Harjani, investigador asociado en la Escuela S. Rajaratnam de Estudios Internacionales en Singapur, dijo que aunque el envenenamiento de datos no es único de China, puede enfrentar un problema mayor ya que hay una mayor adopción de chatbots de IA.

"Sin embargo, la escala del problema que enfrenta China no está determinada únicamente por el tamaño de la superficie de ataque (la suma total de vulnerabilidades que un atacante puede explotar). Lo que es posiblemente más crucial son las regulaciones vigentes para exigir la ciberseguridad de los sistemas de IA, y el grado de cumplimiento".

Después de la exposición, los expertos han pedido que las plataformas en línea aumenten la aplicación sobre publicaciones masivas y la difusión de información falsa, así como que las empresas GEO sean mejor reguladas por el gobierno.

Mientras algunos internautas chinos han encontrado que su confianza en los chatbots de IA disminuye tras el informe de CCTV, Lily Li, residente de Beijing de 45 años que trabaja en ventas en la industria de viajes, ha sido escéptica durante mucho tiempo sobre depender mucho de ellos.

Ella usa regularmente IA como Doubao y DeepSeek para el trabajo, para buscar hoteles y atracciones turísticas y sus precios para hacer comparaciones. Pero aún verificaría la información compilada por IA contra la de sitios web oficiales.

"La IA es una herramienta que está destinada a ser usada, pero puede ser usada de maneras buenas o malas dependiendo del usuario. Por ejemplo, las aplicaciones de compras usan IA para impulsar anuncios y recopilar datos de usuarios", dijo.

"Otros también buscarán obtener ganancias de ellas de varias maneras".