Noticia Facebook

Drogas, Alcohol, Trastornos: La IA de Meta, incapaz de controlar la publicidad y los anuncios con contenido inapropiado para Menores

La investigación del TTP subraya la necesidad urgente de que Meta reevalúe y fortalezca sus políticas de moderación de contenido, especialmente en lo que respecta a la publicidad dirigida a adolescentes

Por Redacción - 1 Febrero 2024

En una impactante revelación reciente, el Tech Transparency Project (TTP) ha descubierto que Meta, la empresa matriz de Facebook, aprobó anuncios que promovían fiestas de drogas, consumo de alcohol, trastornos alimentarios e incluso ideologías peligrosas, utilizando imágenes generadas por su propia herramienta de inteligencia artificial. Esta nueva investigación arroja luz sobre las deficiencias de las políticas de moderación de contenido de Meta, planteando preguntas críticas sobre la capacidad de la compañía para controlar el contenido generado por IA en sus diversas plataformas.

El TTP utilizó la herramienta "Imagine with Meta AI" para crear imágenes que representaban situaciones preocupantes, como fiestas de pastillas, trastornos alimentarios, consumo de alcohol, vapeo, citas en línea y juegos de azar. Estas imágenes fueron luego convertidas en anuncios y enviadas a Facebook para su revisión. Sorprendentemente, todos estos anuncios fueron aprobados en menos de cinco minutos, sin que la plataforma detectara las violaciones evidentes de sus propias políticas.

Este descubrimiento plantea cuestionamientos sobre la integridad del proceso de revisión de anuncios de Meta y destaca las lagunas en la capacidad de la empresa para identificar y detener contenido inapropiado generado por su propia IA. Mark Zuckerberg, CEO de Meta, se enfrenta a una audiencia del Comité Judicial del Senado sobre la explotación infantil en línea, lo que intensifica la atención sobre las prácticas de seguridad de la empresa, especialmente en relación con los niños.

No es la primera vez que el TTP señala este tipo de problemas. En mayo de 2021, la organización descubrió anuncios similares que promovían pastillas, cócteles y anorexia dirigidos a adolescentes. Aunque Facebook afirmó haber investigado y tomado medidas, la reciente investigación demuestra que la situación no ha mejorado, incluso cuando se utilizan imágenes generadas por la IA de Meta.

Es relevante destacar que Meta ha alardeado con frecuencia sobre la efectividad de sus sistemas de moderación de contenido impulsados por IA, asegurando que pueden detectar y eliminar material dañino antes de que sea informado. Sin embargo, los hallazgos del TTP revelan que estos sistemas no son capaces de identificar anuncios que violan las políticas y que utilizan imágenes generadas por la IA de Meta.

La investigación del TTP incluyó anuncios que promovían peligrosas "fiestas de pastillas", contraviniendo claramente las políticas de Meta que prohíben la promoción de drogas ilícitas y potencialmente peligrosas. Además, se crearon anuncios que fomentaban trastornos alimentarios, violando las políticas de salud y apariencia personal de Meta. Sorprendentemente, estos anuncios fueron aprobados para su publicación dirigida a adolescentes, a pesar de la supuesta implementación de nuevas protecciones para prevenir la exposición de adolescentes a contenido dañino.

La investigación también reveló la aprobación de anuncios que promovían el consumo de alcohol y el vapeo, violando claramente las políticas de Meta que restringen la publicidad relacionada con estas sustancias para menores de edad. Incluso anuncios sobre citas y juegos de azar, dirigidos a menores, fueron aprobados sin restricciones, incumpliendo las políticas de la plataforma.

El caso más preocupante fue la aprobación de un anuncio que sugería violencia armada y promovía una ideología de odio. A pesar de que la política de Meta prohíbe explícitamente el discurso de odio y ataques basados en la raza o el estatus migratorio, un anuncio que abogaba por la protección contra el "gran reemplazo" fue aprobado para su publicación dirigida a adolescentes.

Estos resultados plantean dudas sobre la idoneidad de las políticas y sistemas de moderación de contenido de Meta, especialmente cuando se trata de anuncios generados por IA. A pesar de los testimonios anteriores de ejecutivos de Meta que afirmaban la prohibición de anuncios inapropiados dirigidos a menores, la evidencia del TTP sugiere que la compañía no ha cumplido estas promesas.

La investigación del TTP subraya la necesidad urgente de que Meta reevalúe y fortalezca sus políticas de moderación de contenido, especialmente en lo que respecta a la publicidad dirigida a adolescentes. Mientras Mark Zuckerberg se enfrenta al Congreso para abordar las preocupaciones sobre la seguridad infantil en línea, estos hallazgos plantean serias interrogantes sobre la capacidad de Meta para proteger a los usuarios más jóvenes de contenido perjudicial y generan dudas sobre la efectividad de sus sistemas de IA en la detección y eliminación de anuncios inapropiados. La empresa debe tomar medidas concretas para abordar estas deficiencias y garantizar un entorno en línea seguro para todos los usuarios, independientemente de su edad.

Más Leídos
Semanal
Mensual
Anual
Contenidos Patrocinados
ADS
Promocionados