En el marco de la Semana Mundial de la Alfabetización Mediática e Informacional (AMI), un evento anual que se celebra a nivel global del 24 al 31 de octubre desde el 2011, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) junto al Consejo Consultivo de Radio y Televisión (Concortv) desarrollaron en nuestro país el conversatorio internacional llamado “Diseñados para engañar: alfabetización mediática frente a la desinformación”.
El objetivo del evento fue aumentar la visibilidad de la alfabetización mediática, promover la adopción de políticas, iniciativas y acciones relacionadas con la AMI y celebrar también los avances de la alfabetización mediática alrededor del mundo y especialmente la región de Latinoamérica.
Se partió por reflexionar sobre el rol de los medios de comunicación, especialmente los digitales, que constituyen las principales plataformas por donde circula información y son los escenarios de debate sobre lo que se considera verdadero, falso, legítimo, ilegítimo, real o manipulado. En esta dinámica de desinformación va ganando cada vez más presencia la inteligencia artificial generativa (GenAI). Las nuevas tecnologías potencian tanto oportunidades como riesgos: mientras algunas facilitan la verificación de datos, otros generan desafíos inéditos con los deep fakes. Además, los llamados populismos digitales instrumentalizan las emociones colectivas y el descontento ciudadano para debilitar el debate racional e insertar sus narrativas distorsionadas.



Diego Avendaño, comunicador experto en dirección editorial, remarcó que hay muchos casos de videos que llegan por las redes sociales que no son reales, son producidos por GenAI, pero antes se hacían con el fin de mostrar que son artificiales. El problema es que no todos los usan así y genera recelo. «Yo creo que la inteligencia artificial también entraña riesgos. El primero es un uso indiscriminado, ¿no? Cuando piensan que todo se soluciona con IA y reducen recursos o costos. Ese pensamiento es peligroso en manos de aquellos que toman decisiones como gerentes, CEOs. Pero no es infalible. Es como la adoración al becerro de oro. La burbuja en algún momento reventará, pero ya se habrá llevado consigo algunos puestos de trabajo», comentó.
No se trata de excesiva regulación, pero tampoco de dejar pasar todo, dijo. «Ver para creer ya no resulta tan confiable cuando se crea una persona a imagen y semejanza de otra por IA”, añadió al citar el otro gran riesgo: la falta de capacidad de respuesta del ciudadanos. En muchos casos, los usuarios no entienden que se requiere un monitoreo humano capacitado para prevenir fallos o alucinaciones.
La brecha entre lo real o lo imaginario se va acortando cada vez más y eso nos genera un reto a los consumidores, que se exponen a una manipulación de la realidad con ayuda de la IA. “¿Podrán las fuerzas políticas manipular la realidad en un mundo con inteligencia artificial?, ¿Qué podemos hacer? Conocer es poder. Hay que transformar la forma en que consumimos contenido, surfear la ola, aprender a identificar lo falaz», remarcó.
«Cuando piensan que todo se soluciona con IA y reducen recursos o costos. Ese pensamiento es peligroso en manos de aquellos que toman decisiones como gerentes, CEOs».
Diego Avendaño, comunicador experto en dirección editorial
Conocer cómo funcionan
Hernán Chaparro, psicólogo y profesor investigador de la Facultad de Comunicación de la Universidad de Lima, destacó que es necesario primero ver de dónde partimos, cual es la relación entre uso de redes sociales, en particular TikTok, y el comportamiento político, para poder diseñar el cambio que se requiere.
En el Perú ya el 80% de la ciudadanía accede de una u otra manera a internet, muchas veces a través de un celular y el 70% ya accede a una red social, acotó. Facebook, sobre todo en regiones del que no son Lima, sigue siendo un espacio con mucha actividad. Pero TikTok es el que más influye: las marchas y protestas que se han estado organizando han estado circulando por ahí, añadió.
¿Las noticas llegan solas? No. La IA tiene un rol importante en el cambio del rol de los grandes medios de comunicación, explicó Chaparro. Hoy, el usuario no solo consume sino también producen contenido, otorgando significado al entorno digital y cambiando la dinámica. El consumidor no solo busca informarse, sino vigilar, actuar en el debate, compartir, su interacción es diferente.
En el Perú ya el 80% de la ciudadanía accede de una u otra manera a internet, muchas veces a través de un celular y el 70% ya accede a una red social.
Las investigaciones que se vienen haciendo sobre el tema van permitiendo ver que las redes no funcionan bajo las mismas lógicas algorítmicas, ni están diseñadas de la misma manera y los usos no son iguales. La desinformación, especialmente aquella que surge de la exposición incidental a noticias, es un fenómeno alimentado por el diseño mismo de cada red social y el uso del celular, comentó Chaparro.
Cuando una persona navega se encuentra con contenidos que le es compartidos a través de distintas plataformas, sin haberlos buscado de manera intencionada. En este proceso, los pares o los algoritmos de recomendación presentan información de manera espontánea y constante. Esta exposición incidental tiene dos rutas principales. Si la noticia no está alineada con sus intereses, lee solo el titular o ve la imagen, sin profundizar en el contenido. La segunda ruta se da cuando el contenido sí despierta el interés, pero el tiempo que dedica suele ser cada vez más breve, lo que genera una información superficial y poco elaborada.
Las investigaciones señalan que esta tendencia de «mirar por encima» produce conocimiento precario, a diferencia de una búsqueda activa que permitiría acceder a información más clara y objetiva. Se consolida la creencia de que la información relevante llegará sola, lo que fomenta una actitud pasiva y refuerza la confianza en lo que comparten las redes o los algoritmos, explicó.
La alfabetización digital puede contrarrestar esta idea de que no es necesario buscar más información si sigue el lenguaje y las estrategias propias de las redes sociales para crear contenidos virales.
Este fenómeno contribuye al autoengaño y al consumo de «snack news» o noticias en formato breve y superficial, donde la información apenas se roza y se refuerzan las ideas preexistentes. «Creo que estoy informado, pero en realidad no», advirtió Chaparro. Como consecuencia, disminuye el interés en los asuntos públicos, ya que la vigilancia se limita a lo que circula en la red, la cual termina por convertirse en una realidad paralela. En los casos más extremos, esto puede derivar en mayor cinismo político, alejando a la ciudadanía de la participación y fomentando el desencanto con respecto a la posibilidad de cambio.
La alfabetización digital puede contrarrestar esta idea de que no es necesario buscar más información si sigue el lenguaje y las estrategias propias de las redes sociales para crear contenidos virales. Intervenciones breves, adaptadas al formato digital, pueden ayudar a evitar la desinformación y fomentan el análisis y la verificación entre información falsa y verdadera, remarcó. Se requiere análisis, verificación y monitoreo, enfatizó.
Realidad cubana
Marlady Muñoz, periodista cubana y realizadora audiovisual con máster en estudios históricos antropológicos, comentó que el Estado o el poder político puede usar los medios y las redes para mentir, como sucede en su país, donde está prohibida la libertad de prensa. «Un meme te puede llevar a la cárcel», remarcó.



Tras años de revisión del discurso público han concluido que se ha reescrito la historia de Cuba, se manipula a la opinión pública y se distorsiona información clave para comprender la realidad. El Partido Comunista, que controla todos los medios de comunicación, propaga desinformación en la prensa oficial y en foros internacionales mediante países aliados y extienden la desinformación. Pero contactando a la población y buscando sus testimonios se puede verificar esa falsedad y difundirla.
Como ejemplo citó que, ante la crisis sanitaria, el Estado brindó a sus aliados datos oficiales que no son reales, pero fueron difundidas por redes sociales. Pero eso se puede verificar: el sistema hospitalario es precario, hay escasez de personal médico especializado, falta de medicinas y suministros, deficiencias en la recogida de residuos sólidos y ausencia de agua potable. Con ayuda de la IA se está tratando de verificar y denunciar, acotó.
Alertas ante las alucinaciones
Eric Iriarte, abogado experto en la materia y CEO de eBIZ, recalcó a su turno que la discusión sobre la inteligencia artificial no es reciente; lleva casi un siglo, cuando Isaac Asimov formuló sus tres leyes, y luego añadió una ley general o cero, la cual establece que un robot, o una IA, no puede causar daño a la humanidad o, por inacción, permitir que la humanidad sufra daño. Sin embargo, anotó, ahora estamos volviendo a discusiones que aparentemente habían quedado durante muchos años relegadas o que se pensaban superadas, como la ética al elegir el bien mayor o el bien social frente al bien individual.
Para controlar estos efectos adversos del mal uso de la IA o la difusión de alucinaciones, según Iriarte, no se debe caer en la censura previa. Hay que evaluar la forma de control que se dará a contenidos que hacen apología del odio, pero evaluando responsabilidades sin afectar la libertad de expresión.
En el uso de la IA debe primar el criterio y la verificación de la información, tanto en los medios de comunicación como en otros ámbitos, comentó. Como ejemplo citó el caso de Parker versus Forsyth (2020), cuando una de las partes citó una jurisprudencia inexistente (nombres, citas, hechos y decisiones ficticios) que le había proporcionado una herramienta de IA.
El juzgado determinó que las acciones de los abogados fueron resultado de una negligencia, más que de un intento deliberado de engañar. Otro caso es una demanda impuesta a ChatGTP por una información falsa que difamaba a una persona. Esas son las alucinaciones, aclaró Iriarte, cuando el sistema genera contenido falso. Las herramientas de IA generan entre 3% y 12% de alucinaciones, y en un caso llegan al 27%, un porcentaje muy alto, remarcó.
El problema puede ser no solamente en su uso y aplicación discriminado de la inteligencia artificial para hacer una nota de prensa, un artículo, dijo, sino que también puede haber tratamientos en los datos personales que pueden afectar a las personas. Tiene que haber una transparencia algorítmica o puede haber una evolución en base a los datos, que es un perfilamiento mejorado o un completamiento de información. Y evitar trasladar los sesgos algorítmicos en la información para no afectar libertades o derechos.
Como ejemplo citó el caso penal del Estado versus Loomis, quien fue considerado de alto riesgo para darle libertad condicional tras cometer unos delitos menores, gracias al uso de un sistema automatizado, mientras que una persona con antecedentes de asesinato recibió un riesgo bajo y salió libre. Se observó que estas diferencias estaban relacionadas con el color de piel, no solo con el tipo de delito: el sistema había tomado el sesgo de su autor y perjudicado al ciudadano.
Para controlar estos efectos adversos del mal uso de la IA o la difusión de alucinaciones, según Iriarte, no se debe caer en la censura previa. Hay que evaluar la forma de control que se dará a contenidos que hacen apología del odio, pero evaluando responsabilidades sin afectar la libertad de expresión. No debería haber tampoco una responsabilidad de los intermediarios si no han participado en el proceso de producción porque le creyó de buena fe, advirtió.
Los actores estatales deben asegurarse de difundir información confiable, añadió Iriarte, y a nivel Estado se debe empezar con la formación de la población sobre los riesgos a los que se enfrentan. Un 44% de las personas identifica una noticia falsa. Eso debe revertirse con formación en reglas éticas adecuadas desde las escuelas. «Es muy difícil cuando ya las personas son mayores que cambien su tendencia», anotó.


