El caso de TikTok que ilustra los dilemas éticos del uso de la IA al convertir tragedias como las de Gaza en oportunidades comerciales
Por Redacción - 24 Septiembre 2025
La constante búsqueda de monetización en las plataformas digitales ha alcanzado un nuevo y controvertido punto, poniendo de manifiesto los dilemas éticos que surgen al integrar la inteligencia artificial en el comercio electrónico. En la actualidad, TikTok, una de las redes sociales más influyentes a nivel global, se encuentra en el centro de una seria controversia. La plataforma, conocida por su vasto contenido audiovisual y su reciente incursión en el comercio a través de TikTok Shop, ha sido señalada por utilizar un sistema de inteligencia artificial que detecta objetos susceptibles de ser comprados en videos de carácter informativo, incluyendo aquellos que documentan la trágica situación en la Franja de Gaza. Esta revelación ha generado un profundo debate sobre la sensibilidad y el propósito de la tecnología en un mundo cada vez más mercantilizado.
El problema salió a la luz gracias al trabajo de la periodista Mia Sato, quien notó un comportamiento alarmante en la aplicación. Al visualizar un video de gran impacto emocional, que mostraba a una mujer de Gaza lamentando la destrucción de su hogar, un botón con la leyenda "Buscar similares" apareció en la pantalla. Al activarlo, el sistema de IA analizó la imagen y, de manera automática, redirigió a la periodista a la tienda de la plataforma, ofreciendo prendas similares al vestido que la mujer llevaba puesto. Este incidente, que por un momento pareció un error aislado, es en realidad el reflejo de una prueba de concepto que la compañía está llevando a cabo, integrando una función de búsqueda visual similar a las propuestas por Google Lens o Apple Visual Intelligence. La meta de estas herramientas es sencilla: convertir cada pieza de contenido en una oportunidad de venta, sin importar su contexto o naturaleza.

La capacidad de esta tecnología para reconocer y sugerir productos en videos de cualquier tipo resalta una falla crítica
La falta de distinción entre contenido de entretenimiento y aquel que documenta eventos de gran relevancia humana. Una portavoz de TikTok admitió que la función, en su fase experimental, no debería haber operado en ese tipo de metraje, lo que evidencia la ausencia de filtros éticos en su diseño. Un sistema de inteligencia artificial, por muy avanzado que sea, carece de la capacidad de discernir el dolor, la tragedia o la dignidad humana. Jon Hernández, un experto en inteligencia artificial, ha advertido sobre los peligros de estas herramientas cuando operan sin las debidas consideraciones. En este caso particular, el algoritmo trató a una persona que sufre como si fuera un modelo en un catálogo de moda, deshumanizando por completo la situación.
El incidente con TikTok también pone en relieve un objetivo mayor de las grandes plataformas digitales, que es transformarse en lo que se conoce como "superapps". La visión es crear un ecosistema digital en el que los usuarios no solo consuman contenido, sino que también realicen compras, gestionen servicios y, en esencia, lleven a cabo la mayoría de sus actividades digitales dentro de un único espacio. Cada interacción, cada pieza de contenido, se convierte en un punto de contacto para capitalizar. El sistema de búsqueda visual de TikTok es un ejemplo claro de esta estrategia. Al integrar la tienda directamente en el consumo de videos, la compañía busca acortar el camino entre la visualización y la compra. Sin embargo, esta ambición, llevada al extremo, puede llevar a la pérdida del respeto por el contenido y, más importante, por las personas que aparecen en él.
El caso de la IA de TikTok operando en videos del conflicto en Gaza no es un incidente aislado, sino un síntoma de una tendencia más amplia en la industria tecnológica.
La urgencia por monetizar cada clic y cada visualización ha llevado a una desconsideración del contexto humano, ético y social. La tecnología, que debería ser una herramienta para conectar y enriquecer, está siendo utilizada para explotar la vulnerabilidad y la tragedia. El caso revela que, a pesar de los avances técnicos, la capacidad de las máquinas para comprender la complejidad humana y las implicaciones de sus acciones sigue siendo un desafío fundamental, y los desarrolladores tienen una responsabilidad crítica en la creación de salvaguardas que impidan que la tecnología cruce líneas morales básicas. La urgencia por innovar y capitalizar no puede eclipsar la obligación de diseñar sistemas que respeten la dignidad de las personas y el valor de la información.











