En nuestra era digital, estamos viendo cómo la inteligencia artificial (IA) no solo actúa como una herramienta auxiliar, sino que asume un rol activo en la creación de contenido multimedia. Desde imágenes y videos hasta audio y narraciones, los modelos generativos han alcanzado niveles de sofisticación que antes parecían propios de la ciencia ficción. Pero detrás de esa capacidad técnica emergen desafíos éticos, sociales y tecnológicos que merecen atención cuidadosa. Modelos como los de difusión y transformadores han permitido crear, a partir de datos de entrenamiento, nuevos contenidos visuales y sonoros con un realismo sorprendente, redefiniendo lo que consideramos producción artística o mediática convencional (Jin et al., 2025). Esta evolución se inscribe en la categoría más amplia de contenido generado por IA (contenido generado por inteligencia artificial [AIGC]), que busca sustituir o asistir la creación manual de contenido textual, visual o auditivo (Wu et al., 2023). El cambio no es tratable como mera automatización de tareas simples, ya que estos modelos aprenden patrones complejos en enormes cantidades de datos y los recombinan para producir resultados creativos, ajustándose a estilos o géneros específicos.
El potencial es enorme: una empresa de marketing puede generar decenas de variaciones visuales o de video para una campaña específica en minutos, un creador de podcasts puede obtener versiones generadas de voz para boletines o segmentos musicales, y un medio de comunicación con recursos limitados puede recurrir a la IA para producir piezas visuales o infografías complementarias rápidamente. Estas posibilidades ya están siendo exploradas en la industria mediática, aunque también generan fricción entre lo humano y lo mecánico. Algunos estudios sugieren que, en ciertos ámbitos, por ejemplo en el marketing visual, las imágenes generadas por IA pueden competir con las realizadas por artistas humanos, aunque con diferencias en emoción o profundidad simbólica (Hartmann et al., 2025). Otros trabajos advierten que el papel de la IA no debe ser el de reemplazar la creatividad humana, sino el de amplificarla, trabajando en un modelo de cocreación entre humanos y máquinas (Bender, 2025).
Sin embargo, la generación automática de contenido también abre una caja de Pandora de implicaciones. En primer lugar está el tema de la veracidad y la manipulación: los llamados deepfakes, es decir, contenido sintético donde rostros, voces o escenas se alteran para simular situaciones que no ocurrieron, son un ejemplo extremo de cómo el realismo puede servir al engaño (Lamprou et al., 2025). En ámbitos políticos, sociales o mediáticos, la difusión de contenido falso pero convincente alimenta la desinformación y socava la confianza pública. En segundo lugar, aparece el desafío de la autoría y los derechos de autor: cuando una IA produce una imagen derivada de miles de ejemplos, ¿a quién pertenece esa obra? Además, los modelos pueden reproducir sesgos o distorsiones presentes en sus datos de entrenamiento, perpetuando estereotipos o exclusiones (Lamprou et al., 2025). En tercer lugar, se plantea la cuestión del valor cultural y humano: algunos críticos argumentan que el contenido generado por IA puede carecer de “alma”, de intencionalidad profunda o de innovación genuina, limitándose a recombinar elementos aprendidos sin originalidad auténtica (Aleessawi y Alzubi, 2024).
Otro aspecto esencial es cómo evaluamos esas producciones generadas. La evaluación automática de texto, imagen y audio aún es un campo emergente. Aunque existan métricas sintácticas o estructurales, como la similitud con datos de referencia, muchas veces no capturan lo que un receptor considera “bueno” o significativo en términos artísticos o emocionales (Lan et al., 2025). Esa brecha entre lo medible y lo percibido pone límites a la confianza plena en sistemas automáticos de selección o curaduría de contenido.
Las implicaciones institucionales y laborales también son profundas. En los medios de comunicación, el uso de IA podría reducir la demanda de ciertos puestos técnicos o creativos, transformando las estructuras tradicionales de producción (Guzmán y Lewis, 2024). Pero al mismo tiempo podría hacer accesible la creación a nuevos agentes con menos recursos. En contextos de innovación y emprendimiento cultural, estas tecnologías pueden nivelar el terreno, aunque su adopción requiere competencias nuevas en programación, ética digital y comprensión de modelos generativos.
En conjunto, la generación automática de contenido multimedia mediante IA representa una frontera crítica para los medios, el arte y la comunicación. No es un signo del final de la creatividad humana, sino una invitación a repensarla y a adaptar nuestras normas éticas, legales y estéticas. La pregunta no es si las máquinas podrán generar arte o contenido por sí mismas, sino cómo nosotros, como sociedad y creadores, decidimos cuándo y para qué las utilizamos. Si no definimos esos criterios ahora, corremos el riesgo de que la máquina condicione el sentido cultural antes de que podamos orientarlo con deliberación.
Referencias
Aleessawi, N. A. K., & Alzubi, S. F. (2024). The implications of Artificial Intelligence (AI) on the quality of media content. Studies in Media and Communication, 12(4), 41-51. https://www.researchgate.net/profile/Najm-Aleessawi/publication/383422012_The_Implications_of_Artificial_Intelligence_AI_on_the_Quality_of_Media_Content/links/66cc7caf97265406eaad29af/The-Implications-of-Artificial-Intelligence-AI-on-the-Quality-of-Media-Content.pdf
Bender, S. (2025). Generative-AI, the media industries, and the disappearance of human creative labour. Media Practice and Education, 26(2), 200-217. https://doi.org/10.1080/25741136.2024.2355597
Guzman, A. L., & Lewis, S. C. (2024). What generative AI means for the media industries, and why it matters to study the collective consequences for advertising, journalism, and public relations. Emerging Media, 2(3), 347-355. https://doi.org/10.1177/27523543241289239
Hartmann, J., Exner, Y., & Domdey, S. (2025). The power of generative marketing: Can generative AI create superhuman visual marketing content?. International Journal of Research in Marketing, 42(1), 13-31. https://doi.org/10.1016/j.ijresmar.2024.09.002
Jin, Y., Liu, X., & Liu, J. (2025). Generative AI for Multimedia Communication: Recent Advances, An Information-Theoretic Framework, and Future Opportunities. arXiv preprint arXiv:2508.17163.
https://doi.org/10.48550/arXiv.2508.17163
Lamprou, S., Dekoulou, P., & Kalliris, G. (2025). The Critical Impact and Socio-Ethical Implications of AI on Content Generation Practices in Media Organizations. Societies, 15(8), 214. https://doi.org/10.3390/soc15080214
Lan, T., Zhou, Y. H., Ma, Z. A., Sun, F., Sun, R. Q., Luo, J., … & Mao, X. L. (2025). A Survey of Automatic Evaluation Methods on Text, Visual and Speech Generations. arXiv preprint arXiv:2506.10019.
https://doi.org/10.48550/arXiv.2506.10019
Wu, J., Gan, W., Chen, Z., Wan, S., & Lin, H. (2023). Ai-generated content (aigc): A survey. arXiv preprint arXiv:2304.06632. https://doi.org/10.48550/arXiv.2304.06632

