Artículo Tecnología

¿Podría convertirse la etiqueta "made by a human" en un criterio de valor positivo?

El 76% de los usuarios exige saber si un contenido es artificial o humano

Por Redacción - 20 Enero 2026

"Si quieres, también puedo crear una versión aún más llamativa, al estilo de la portada, con estadísticas impactantes (...) ¿Quieres que lo haga a continuación?". Este texto, generado por una IA, se coló por error en una noticia del periódico Dawn. El desliz desató una oleada de críticas y reabrió el debate sobre el uso de la IA en la redacción de noticias. "Ya es muy difícil diferenciar el contenido generado por IA del elaborado por seres humanos, y cada vez lo será más", advierte Ferran Lalueza, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC). "Acabaremos asumiendo que, por defecto, todos los contenidos que consumimos pueden haber sido elaborados utilizando herramientas de IA, salvo aquellos provenientes de fuentes que hagan bandera de la autoría humana", añade.

La paradoja de la confianza

A pesar de la adopción masiva de estas herramientas, existe lo que los expertos denominan la brecha de confianza. Según un informe elaborado en 47 países por la Melbourne Business School en colaboración con KPMG, aunque el 66% de la población utiliza la IA habitualmente, ni siquiera la mitad (46%) confía realmente en ella. Las personas confían en la capacidad técnica de la IA para procesar datos, pero son mucho más escépticas en lo que respecta a la seguridad y al impacto social. En esta línea, un estudio del Pew Research Center (septiembre de 2025) indica que el 50% de los entrevistados se muestra más preocupado que emocionado por el avance de la IA, y el 53% teme especialmente la pérdida de la capacidad de pensamiento creativo humano.

Y es que la IA tiene grandes ventajas, pero también carencias: "Falta de autenticidad, de responsabilidad firme, de compromiso ético, de confiabilidad, de trazabilidad y de empatía real (no impostada)", enumera Lalueza. Por su parte, Alexandre López Borrull, también profesor de los Estudios de Ciencias de la Información y de la Comunicación de la UOC, destaca que la creación humana permite, a diferencia de la generación por IA, ofrecer diferentes capas de contexto y valores al relato de un mismo dato, además de tener la capacidad de personalizar y adaptar el conocimiento a cada pregunta.

El factor humano, ¿un nuevo criterio de valor?

Ante estas deficiencias, los buscadores y las plataformas de IA están ajustando sus algoritmos para responder a criterios como el EEAT (experiencia, conocimiento, autoridad y confianza, por sus siglas en inglés) que valora, sitúa y premia en mejores posiciones aquel contenido escrito o firmado por humanos.

En un mundo impregnado por contenidos sintéticos, ¿podría convertirse la etiqueta "made by a human" en un criterio de valor positivo? La demanda social ya existe: para el 76% de los adultos es extremadamente importante o muy importante poder distinguir si un texto, imagen o vídeo ha sido creado por una IA o una persona, según el mencionado estudio del Pew Research Center.

Ya existen iniciativas en este sentido para certificar la autoría humana en diferentes campos: en el sector editorial, destacan sellos como "Organic Literature" (Literatura escrita por humanos), de Books by People, y "Human Authored" (Escrito por humanos), de The Authors Guild; en el campo gráfico, existen insignias como "Not By AI" (No hecho por IA) o la certificación "AI Free" (Libre de IA), y en el ámbito de los videojuegos, está el sello "No Gen AI" (Sin IA generativa).

El blindaje de la ciencia: sin responsabilidad no hay autoría

¿Cómo se protege el conocimiento científico ante la irrupción de la IA? Según López Borrull, el ámbito académico está levantando muros desde dos vertientes. La primera es la transparencia. "Se exige detallar en qué fases exactas del proceso de investigación se ha utilizado la IA (traducción, revisión de estilo, etc.)", comenta el experto. La segunda es la confidencialidad. "Las editoriales científicas están prohibiendo que se alimente a las IA generativas con manuscritos no definitivos o que se utilicen estas herramientas para redactar informes de revisión por pares (peer review), con el fin de proteger la propiedad intelectual de datos aún no publicados", detalla el también investigador del Grupo de Investigación en Aprendizajes, Medios y Entretenimiento (GAME).

Además, se ha zanjado el debate sobre si una IA puede firmar un paper. "El consenso académico es que no se puede ser autor si no se puede asumir la responsabilidad ética y jurídica de la investigación; por ejemplo, responder ante resultados falsos o errores en los experimentos. Si no se le puede exigir responsabilidad, no es un autor; es una herramienta", advierte López Borrull.

Lo humano como servicio prémium

Así pues, ¿serán estos sellos un distintivo de calidad, ética y conexión emocional? "Pienso que habrá dos grandes tendencias: una de plena aceptación de la IA como recurso válido para generar contenidos de forma rápida y económica, y otra que potenciará el contenido elaborado sin ningún tipo de apoyo de la IA como distintivo de calidad prémium", afirma Lalueza. López Borrull apuesta por una etiqueta como "supervisado por un experto", que ofrecería una capa de valor adicional. "El éxito vendrá de aquellos que tengan los mejores expertos y hayan sabido adaptar adecuadamente la IA generativa para mejorar la calidad, y no la cantidad", matiza.

Sin embargo, que esta etiqueta se convierta en un elemento de prestigio dependerá, según los expertos, de las preferencias de los usuarios. "No creo que sea determinante a la hora de consumir contenidos, sino una acción que dependerá más de gustos personales que de las herramientas usadas. Sobre todo, porque habrá mucha hibridación, desde contenidos generados casi solo por IA hasta contenidos donde el uso de la IA está presente, pero de forma residual", comenta Lalueza, también investigador del grupo GAME.

Existen escenarios en los que descubrir una IA detrás genera rechazo inmediato por el factor del engaño, como el arte, las opiniones personales o la información firmada. En cambio, para resúmenes, consultas técnicas rápidas o datos utilitarios (el tiempo, resultados deportivos), el pragmatismo gana.

El problema de la transparencia

Aquí surge el problema: aunque hay interés en la transparencia de los contenidos, la capacidad real de los usuarios para detectar si el origen es humano o sintético es deficiente. El 53% de las personas encuestadas no está muy seguro o nada seguro de poder distinguir si algo ha sido creado por IA o por una persona, según el estudio del Pew Research Center. "Nos pasamos mucho tiempo intentando ver si el resultado final tiene indicios de IA (en el formato, en el texto), pero quizás deberíamos valorar más el proceso, si ha aportado valor cómo lo hubiera hecho en el caso humano o si en cambio, le ha quitadooriginalidad, espontaneidad y ética", puntualiza López Borrull.

Estudios recientes indican que identificar los contenidos como creados por una IA no reduce la aversión de los lectores a la IA. Saber que el autor es una máquina mantiene intacta la preferencia del público por las noticias escritas por humanos, especialmente cuando se trata de temas complejos o sensibles que requieren matices más allá del simple dato. Existe una buena disposición a leer a la máquina por novedad y utilidad, pero se sigue reservando la credibilidad para lo humano.

Esta aversión provoca que, hoy, la transparencia no siempre esté bien vista; a veces parece un engaño o una falta de profesionalidad. "Se emite un mensaje como si todo fuera humano, pero en el backoffice hay IA generativa, porque su uso declarado parece penalizado, ya que todavía no se percibe su valor", comenta López Borrull.

Quizás, con el tiempo, etiquetas como "made by a human", "asistido por una IA" o "creado por una IA" modifiquen el valor que tienen en el imaginario social. "Decir que no se ha empleado la IA puede tener un valor a corto plazo, pero en el péndulo del tiempo no se entenderá como artesanal, sino como poco eficiente", concluye López Borrull.

Más Leídos
Continua Leyendo...
Contenidos Patrocinados
ADS
Promocionados