La Plataforma de Reguladores del Audiovisual Iberoamericanos (PRAI) realizó la jornada abierta “Usos de la IA para la regulación de plataformas digitales: estado actual y retos futuros”, un espacio de diálogo técnico y académico orientado a analizar el impacto de la inteligencia artificial en el ecosistema digital y los desafíos que implica para la protección de las audiencias en Iberoamérica.
El encuentro, realizado el miércoles 19 de noviembre de 2025 y abierto al público, reunió a especialistas internacionales y contó con las palabras de bienvenida del presidente de la PRAI, Mauricio Muñoz. La instancia buscó fortalecer la reflexión conjunta entre reguladores, academia e industria frente al acelerado avance de la IA y su creciente influencia en la producción, distribución y moderación de contenidos en línea.
La jornada contó con la participación de Claudia Flores S., Oficial de Datos e Implementación en la Junta de Supervisión de Meta, y Ricard Martínez M., director de la Cátedra Microsoft–UV de Privacidad y Transformación Digital.
Durante la apertura, el presidente de la PRAI, Mauricio Muñoz, destacó que la inteligencia artificial representa simultáneamente una oportunidad y un desafío para los organismos reguladores audiovisuales. Subrayó que su potencial permite fortalecer las capacidades fiscalizadoras, aunque también abre nuevos riesgos que deben ser abordados con rigurosidad.
“La inteligencia artificial es una enorme potencialidad desde el punto de vista de fortalecer nuestras capacidades fiscalizadoras, pero al mismo tiempo ciertamente constituye un desafío en términos de la emergencia de nuevas eventuales vulneraciones a los derechos de las audiencias que estamos llamados a proteger”, afirmó.
Además, enfatizó la necesidad de profundizar en la gobernanza de Internet y en los desafíos que plantea para los marcos tradicionales de la libertad de expresión, subrayando la importancia de incorporar miradas expertas y multidisciplinarias para enfrentar dichos cambios.
“Es sumamente importante poder contar con esta mirada experta para ir profundizando el conocimiento de un ámbito extraordinariamente complejo, no solo por lo nuevo y por las vinculaciones entre cuestiones técnicas, sino también por las complejidades que tiene desde el punto de vista del desarrollo de la libertad de expresión”, señaló.
En su presentación, el académico Ricard Martínez destacó el rol estratégico de la academia como espacio para anticipar escenarios futuros y transferir conocimiento hacia los sectores público y privado. Relevó que la libertad creativa propia de las universidades permite explorar fenómenos emergentes con una flexibilidad que no siempre existe en instituciones reguladoras o corporativas.
“La academia, la universidad, interactúe con la industria, con los reguladores, transfiera conocimientos, porque el enfoque que te permite la academia es un enfoque altamente caracterizado por la libertad creativa. Y eso siempre permite explorar escenarios que a veces no es tan fácil de explorar desde un entorno corporativo o desde un entorno de la administración”, afirmó.
Ricard Martínez también advirtió sobre la rápida transformación del ecosistema comunicativo, donde creadores individuales alcanzan niveles de influencia comparables a los medios tradicionales, lo que exige marcos regulatorios adaptados a la segmentación y dinámica propia del entorno digital.
“Han aparecido operadores que tienen una influencia, una capacidad en la generación de contenidos propia de un medio de comunicación convencional… No todos los usuarios operan como un bloguero: muchos están operando casi como una emisora convencional, solo que a través de plataformas de streaming y modos de segmentación propios de Internet”, señaló.
Asimismo, explicó que la regulación europea se fundamenta en la protección de los derechos humanos y en estándares de seguridad aplicados al diseño de tecnologías, advirtiendo que la IA puede generar riesgos sistémicos para la democracia si no se establecen mecanismos de prevención y monitoreo permanente.
“Los productos basados en tecnología, y la Inteligencia Artificial es uno de ellos, no pueden bajo ningún concepto poner en riesgo los derechos humanos… y pueden generar riesgos sistémicos para un sistema democrático. Esto exige algún tipo de alerta, algún tipo de seguimiento sistémico de los riesgos, porque los riesgos se van a producir”, concluyó.
Por su parte, Claudia Flores abordó los desafíos técnicos asociados a la implementación de regulaciones en plataformas que procesan volúmenes masivos de contenido. Subrayó que las normas deben ser no solo conceptualmente adecuadas, sino también aplicables y medibles a escala.
“Una cosa es hacer una regulación y otra cosa es que la regulación sea aplicable… Parte de mi trabajo es hacer recomendaciones que tengan sentido y que técnicamente sean implementables a escala cuando es una plataforma que toca a millones de personas en el mundo”, comentó.
Flores también alertó sobre los riesgos de la IA generativa, que hoy permite producir imágenes y videos altamente realistas con impactos que trascienden el entorno digital, especialmente en contextos electorales o sensibles.
“Ya no estamos hablando solo de imágenes, sino de videos muy realistas, y lo más peligroso es que nos dimos cuenta de que esto no solo se estaba quedando en plataformas digitales, sino que estaba ya saltando a otros medios de distribución masiva”, afirmó.
Finalmente, destacó la importancia de que los reguladores cuenten con datos verificables, metodologías sólidas y criterios de evaluación claros, debido a que muchas plataformas aún no disponen de información histórica suficiente para auditorías profundas.
“Es importante definir expectativas claras y medibles, porque si no, las plataformas pueden contestar algo muy bonito a nivel público, pero que a ti como regulador no te va a servir de nada si no hay evidencia clara de que el cambio se está llevando a cabo”, señaló.



