PuroMarketing

Las campañas de bots y de desinformación ya las están empleando, pero también se han convertido en un quebradero de cabeza para las empresas
La nueva amenaza para la credibilidad y la reputación online: las imágenes de gente falsa creadas por inteligencia artificial

Cuando hace no tantos años empezaron a aparecer las simulaciones creadas vía inteligencia artificial, los resultados no eran 'tan' realistas. Aunque ya eran capaces de crear rostros humanos y de trabajar generando imágenes, para el ojo humano todavía resultaba más o menos fácil separar la realidad de la mentira.

"Cuando la tecnología apareció por primera vez en 2014, era mala, parecía como de los Sims", apunta a The New York Times Camille François, una investigadora especializada en desinformación. Ahora, sin embargo, nada más lejos de la realidad.

Las imágenes creadas por la inteligencia artificial son cada vez más realistas y separar lo que es mentira de lo que es verdad es más y más complicado. "La detección (de esas imágenes falsas) será cada vez más difícil", apunta François al diario estadounidense. Solo hay que entrar en un bucle de hacer clic en ThisPersonDoesNotExist.com, una web que publica fotos de personas falsas generadas por IA para comprenderlo. Todos son abrumadoramente creíbles.

Pero ¿de dónde vienen estas personas falsas y cómo se crean? Y, sobre todo, ¿es posible separar la verdad de la mentira de alguna manera? Esta última pregunta no es baladí, ya que las imágenes de personas falsas se usan ya como base para los trolls online o para dar veracidad a la desinformación, pero también en elementos que afectan más directamente a las empresas como para la creación de perfiles de personas en redes sociales o en páginas de comentarios sobre productos y compañías.

A mediados de octubre, y al hilo de lo que estaba ocurriendo con la campaña electoral en Estados Unidos, el Financial Times ya alertaba: tras los deep fakes, las fake faces se habían convertido en la nueva gran amenaza en desinformación y manipulación. Las caras falsas no lograban tanta atención como los vídeos deep fakes, pero lograban buenos resultados. Por ejemplo, un medio pro-Trump creaba perfiles en Facebook con fotos falsas para apuntalar su tráfico hacia su web. Las campañas de bots, en general, ya las están empleando. La maquinaria de intoxicación rusa, por ejemplo, emplea imágenes generadas por IA para crear las fotos de perfil de los editores de medios divisivos, señala el diario económico.

Las empresas pueden convertirse en víctimas de las caras falsas creadas por inteligencia artificial, aunque también son unas de sus usuarias en ciertas ocasiones para reforzar ciertos mensajes o tapar ciertos problemas. Generated Photos, por ejemplo, ofrecía a las empresas una avalancha de imágenes, creadas con IA y llenas de personas que nunca habían existido, para completar el fondo de las fotos de stock con imágenes más diversas. Ahora mismo, es posible comprar en diferentes servicios fotos de una persona falsa o lotes con miles de fotos de gente falsa a usar para lo que más interese.

Volviendo al cómo nacen y cómo se hacen los perfiles de estas personas falsas generadas por inteligencia artificial, hay que volver a The New York Times. El diario acaba de hacer su propio experimento en su departamento de tecnología, creando sus propias imágenes de gente falsa. Los resultados y lo que han aprendido sirven para comprender cómo se crean esas fotos fake, pero también los retos que crearán de cara al futuro.

Cómo se crean las imágenes

La inteligencia artificial se nutre de imágenes múltiples de personas reales, igual que hace cuando genera contenidos en otras áreas (por ejemplo, cuando pinta cuadros o cuando escribe sus propios textos).

Dado que la tecnología de reconocimiento facial se ha hecho mucho más sofisticada en los últimos años y se ha ido ajustando mucho más, para lograr mejores datos y ser capaz de reconocer a personas de un modo mucho más acertado, es capaz de procesar toda esa avalancha de información de una manera mucho más eficiente.

Como la información que tiene ha sido procesada de un modo mucho mejor, los resultados que logra son también mucho más ajustados y mucho más "creíbles". Diferenciar entre la gente 'de verdad' y la gente de mentira que ha creado la inteligencia artificial se ha vuelto más complicado.

Las pistas que marcan la diferencia

Aun así, y por muy bien que haga las cosas la inteligencia artificial, todavía quedan algunos puntos que no ofrecen resultados perfectos. Como señalan en el Times, si se analizan algunos detalles se pueden encontrar pistas que pueden llevar a separar la realidad de la mentira.

Por ejemplo, los ojos suelen ser siempre simétricos, a una distancia igual. Esto ocurre porque la IA suele alimentarse de fotografías recortadas y centradas de las personas (la clásica foto a lo DNI) y por tanto repite ese patrón. Pero no solo eso: las gafas son un complemento habitual en estas imágenes y uno en el que se ve un cierto fallo de forma recurrente. La IA tiende a favorecer las monturas finas, pero no trabaja muy bien el hacer que las dos patillas sean iguales. En general, tiene problemas para gestionar los complementos. Los pendientes no suelen ser iguales.

Y, finalmente, las fotos que crea la IA suelen estar sobre fondos borrosos y poco concluyentes. Son fondos que no son nada.