El papa León XIV dirigió este 24 de enero de 2026 su mensaje para la LX Jornada Mundial de las Comunicaciones Sociales, centrado en un aviso claro: en la era digital, “custodiar” la comunicación significa proteger la voz y el rostro humanos frente a una tecnología capaz de simularlos, manipularlos y vaciarlos de verdad. El Pontífice enmarca el asunto como un desafío no solo técnico, sino antropológico, porque lo que está en juego es la dignidad de la persona y la posibilidad misma de un encuentro auténtico.
En su mensaje, León XIV advierte sobre la dinámica de redes y algoritmos que premian la emoción rápida y empujan a la polarización; sobre una confianza acrítica en la IA como “oráculo”; y sobre los riesgos de bots, deepfakes y “realidades paralelas” que erosionan la confianza pública. Frente a ello, propone una alianza posible, pero exigente, basada en responsabilidad, cooperación y educación, reclamando transparencia a plataformas y desarrolladores, regulaciones que protejan la dignidad humana y un periodismo que no renuncie a la verificación y a la búsqueda de la verdad.
Dejamos a continuación el mensaje completo de León XIV:
Queridos hermanos y hermanas.
El rostro y la voz son rasgos únicos y distintivos de cada persona; manifiestan su identidad irrepetible y son el elemento constitutivo de todo encuentro. Los antiguos lo sabían bien. Así, para definir a la persona humana los antiguos griegos utilizaron la palabra “rostro” (prósōpon), que etimológicamente indica aquello que está frente a la mirada, el lugar de la presencia y de la relación. El término latino persona (de per-sonare), en cambio, incluye el sonido: no un sonido cualquiera, sino la voz inconfundible de alguien.
El rostro y la voz son sagrados. Nos han sido donados por Dios, que nos creó a su imagen y semejanza, llamándonos a la vida con la Palabra que Él mismo nos dirigió; Palabra que primero resonó a través de los siglos en las voces de los profetas y que después se hizo carne en la plenitud de los tiempos. Esta Palabra —esta comunicación que Dios hace de sí mismo— también la hemos podido escuchar y ver directamente (cf. 1 Jn 1,1-3), porque se ha dado a conocer en la voz y en el Rostro de Jesús, Hijo de Dios.
Desde el momento de su creación, Dios ha querido al hombre como su propio interlocutor y, como dice san Gregorio de Nisa,[1] ha impreso en su rostro un reflejo del amor divino, para que pueda vivir plenamente su humanidad mediante el amor. Custodiar rostros y voces humanas significa, por tanto, custodiar este sello, este reflejo indeleble del amor de Dios. No somos una especie hecha de algoritmos bioquímicos, definidos de antemano. Cada uno de nosotros tiene una vocación insustituible e inimitable que emerge de la vida y que se manifiesta precisamente en la comunicación con los demás.
La tecnología digital, si fallamos en esta custodia, corre el riesgo de modificar radicalmente algunos de los pilares fundamentales de la civilización humana, que a veces damos por sentados. Al simular voces y rostros humanos, sabiduría y conocimiento, conciencia y responsabilidad, empatía y amistad, los sistemas conocidos como inteligencia artificial no solo interfieren en los ecosistemas informativos, sino que invaden también el nivel más profundo de la comunicación: el de la relación entre personas humanas.
El desafío, por tanto, no es tecnológico, sino antropológico. Custodiar los rostros y las voces significa, en última instancia, custodiar-nos a nosotros mismos. Acoger con valentía, determinación y discernimiento las oportunidades que ofrecen la tecnología digital y la inteligencia artificial no significa ocultarnos los puntos críticos, las opacidades, los riesgos.
No renunciar al propio pensamiento
Desde hace tiempo existen múltiples evidencias de que los algoritmos diseñados para maximizar la interacción en las redes sociales —rentable para las plataformas— premian las emociones rápidas y penalizan, en cambio, expresiones humanas que requieren más tiempo, como el esfuerzo por comprender y la reflexión. Al encerrar a grupos de personas en burbujas de fácil consenso y fácil indignación, estos algoritmos debilitan la capacidad de escucha y de pensamiento crítico y aumentan la polarización social.
A esto se ha añadido luego una confianza ingenuamente acrítica en la inteligencia artificial como “amiga” omnisciente, dispensadora de toda información, archivo de toda memoria, “oráculo” de todo consejo. Todo ello puede desgastar aún más nuestra capacidad de pensar de manera analítica y creativa, de comprender los significados, de distinguir entre sintaxis y semántica.
Aunque la IA pueda brindar apoyo y asistencia en la gestión de tareas comunicativas, sustraernos al esfuerzo del propio pensamiento, conformándonos con una compilación estadística artificial, corre el riesgo a largo plazo de erosionar nuestras capacidades cognitivas, emocionales y comunicativas.
En los últimos años, los sistemas de inteligencia artificial están asumiendo cada vez más también el control de la producción de textos, música y vídeos. Gran parte de la industria creativa humana corre así el riesgo de ser desmantelada y sustituida bajo la etiqueta “Powered by AI”, transformando a las personas en meros consumidores pasivos de pensamientos no pensados, de productos anónimos, sin autoría, sin amor. Mientras que las obras maestras del genio humano en el ámbito de la música, el arte y la literatura quedan reducidas a un mero campo de entrenamiento de las máquinas.
La cuestión que nos preocupa, sin embargo, no es lo que la máquina logra o logrará hacer, sino lo que podemos y podremos hacer nosotros, creciendo en humanidad y conocimiento, con un uso sabio de instrumentos tan poderosos a nuestro servicio. Desde siempre el hombre es tentado de apropiarse del fruto del conocimiento sin la fatiga de la implicación, de la búsqueda y de la responsabilidad personal. Renunciar al proceso creativo y ceder a las máquinas las propias funciones mentales y la propia imaginación significa, sin embargo, enterrar los talentos que hemos recibido a fin de crecer como personas en relación con Dios y con los demás. Significa ocultar nuestro rostro y silenciar nuestra voz.
Ser o fingir: simulación de las relaciones y de la realidad
Mientras recorremos nuestros flujos de información (feed), se vuelve cada vez más difícil entender si estamos interactuando con otros seres humanos o con “bots” o “influencers virtuales”. Las intervenciones no transparentes de estos agentes automatizados influyen en los debates públicos y en las elecciones de las personas. Sobre todo los chatbots basados en grandes modelos lingüísticos (LLM) se están revelando sorprendentemente eficaces en la persuasión oculta, mediante una continua optimización de la interacción personalizada. La estructura dialógica y adaptativa, mimética, de estos modelos lingüísticos es capaz de imitar los sentimientos humanos y simular así una relación. Esta antropomorfización, que puede resultar incluso divertida, es al mismo tiempo engañosa, sobre todo para las personas más vulnerables. Porque los chatbots convertidos en excesivamente “afectuosos”, además de estar siempre presentes y disponibles, pueden convertirse en arquitectos ocultos de nuestros estados emocionales y, de este modo, invadir y ocupar la esfera de la intimidad de las personas.
La tecnología que explota nuestra necesidad de relación puede no solo tener consecuencias dolorosas en el destino de las personas, sino también lesionar el tejido social, cultural y político de las sociedades. Esto ocurre cuando sustituimos las relaciones con los demás por las que mantenemos con IA entrenadas para catalogar nuestros pensamientos y, por lo tanto, construir a nuestro alrededor un mundo de espejos, donde todo está hecho “a nuestra imagen y semejanza”. De este modo nos dejamos arrebatar la posibilidad de encontrarnos con el otro, que siempre es distinto de nosotros, y con el cual podemos y debemos aprender a confrontarnos. Sin la acogida de la alteridad no puede haber ni relación ni amistad.
Otro gran desafío que plantean estos sistemas emergentes es el de la distorsión (en inglés, bias), que conduce a adquirir y transmitir una percepción alterada de la realidad. Los modelos de IA están moldeados por la visión del mundo de quienes los construyen y pueden, a su vez, imponer maneras de pensar replicando los estereotipos y prejuicios presentes en los datos de los que se alimentan. La falta de transparencia en el diseño de los algoritmos, junto con la inadecuada representatividad social de los datos, tienden a mantenernos atrapados en redes que manipulan nuestros pensamientos y perpetúan y profundizan las desigualdades y las injusticias sociales existentes.
El riesgo es grande. El poder de la simulación es tal que la IA puede incluso engañarnos con la fabricación de “realidades” paralelas, apropiándose de nuestros rostros y de nuestras voces. Estamos inmersos en una multidimensionalidad, donde se está volviendo cada vez más difícil distinguir la realidad de la ficción.
A esto se añade el problema de la falta de exactitud. Sistemas que hacen pasar una probabilidad estadística por conocimiento están en realidad ofreciéndonos, a lo sumo, aproximaciones a la verdad, que a veces son verdaderas “alucinaciones”. La falta de verificación de las fuentes, junto con la crisis del periodismo sobre el terreno que implica un trabajo continuo de recogida y verificación de información en los lugares donde ocurren los hechos, puede favorecer un terreno aún más fértil para la desinformación, provocando un creciente sentimiento de desconfianza, desconcierto e inseguridad.
Una posible alianza
Detrás de esta enorme fuerza invisible que nos involucra a todos, hay solo un puñado de empresas, aquellas cuyos fundadores han sido presentados recientemente como creadores de la “persona del año 2025”, es decir, los arquitectos de la inteligencia artificial. Esto suscita una preocupación importante respecto al control oligopolístico de los sistemas algorítmicos y de inteligencia artificial capaces de orientar sutilmente los comportamientos, e incluso reescribir la historia humana —incluida la historia de la Iglesia—, a menudo sin que podamos darnos realmente cuenta.
El desafío que nos espera no consiste en detener la innovación digital, sino en guiarla, siendo conscientes de su carácter ambivalente. Depende de cada uno de nosotros alzar la voz en defensa de las personas humanas, para que estos instrumentos puedan verdaderamente ser integrados por nosotros como aliados.
Esta alianza es posible, pero necesita basarse en tres pilares: responsabilidad, cooperación y educación.
Ante todo, la responsabilidad. Esta puede expresarse, según los roles, como honestidad, transparencia, valentía, capacidad de visión, deber de compartir el conocimiento, derecho a estar informados. Pero, en general, nadie puede sustraerse a su propia responsabilidad frente al futuro que estamos construyendo.
Para quienes están en la cima de las plataformas en línea, esto significa asegurarse de que sus estrategias empresariales no estén guiadas por el único criterio de la maximización del beneficio, sino también por una visión previsora que tenga en cuenta el bien común, del mismo modo en que cada uno de ellos tiene en el corazón el bien de sus propios hijos.
A los creadores y desarrolladores de modelos de IA se les pide transparencia y responsabilidad social respecto a los principios de diseño y a los sistemas de moderación que están en la base de sus algoritmos y de los modelos desarrollados, a fin de favorecer un consentimiento informado por parte de los usuarios.
La misma responsabilidad se pide también a los legisladores nacionales y a los reguladores supranacionales, a quienes corresponde vigilar el respeto de la dignidad humana. Una regulación adecuada puede proteger a las personas de un vínculo emocional con los chatbots y contener la difusión de contenidos falsos, manipulativos o engañosos, preservando la integridad de la información frente a una simulación engañosa.
Las empresas de los medios y de la comunicación, a su vez, no pueden permitir que algoritmos orientados a ganar a cualquier costo la batalla por unos segundos más de atención prevalezcan sobre la fidelidad a sus valores profesionales, orientados a la búsqueda de la verdad. La confianza del público se conquista con la exactitud, con la transparencia, no con la carrera por cualquier tipo de interacción. Los contenidos generados o manipulados por la IA deben señalarse y distinguirse claramente de los contenidos creados por las personas. Debe protegerse la autoría y la propiedad soberana del trabajo de los periodistas y de los demás creadores de contenido. La información es un bien público. Un servicio público constructivo y significativo no se basa en la opacidad, sino en la transparencia de las fuentes, en la inclusión de los sujetos involucrados y en un estándar elevado de calidad.
Todos estamos llamados a cooperar. Ningún sector puede afrontar por sí solo el desafío de guiar la innovación digital y la gobernanza de la IA. Por ello es necesario crear mecanismos de salvaguarda. Todas las partes interesadas —desde la industria tecnológica hasta los legisladores, desde las empresas creativas hasta el mundo académico, desde los artistas hasta los periodistas, los educadores— deben ser involucradas en construir y hacer efectiva una ciudadanía digital consciente y responsable.
A esto apunta la educación: a aumentar nuestras capacidades personales de reflexionar críticamente, a evaluar la fiabilidad de las fuentes y los posibles intereses que están detrás de la selección de la información que nos llega, a comprender los mecanismos psicológicos que activan, a permitir que nuestras familias, comunidades y asociaciones elaboren criterios prácticos para una cultura de la comunicación más sana y responsable.
Precisamente por esto es cada vez más urgente introducir en los sistemas educativos de todo nivel también la alfabetización en medios, en información y en IA, que algunas instituciones civiles ya están promoviendo. Como católicos podemos y debemos aportar nuestra contribución, para que las personas —sobre todo los jóvenes— adquieran la capacidad de pensamiento crítico y crezcan en la libertad del espíritu. Esta alfabetización debería integrarse además en iniciativas más amplias de educación permanente, alcanzando también a los ancianos y a los miembros marginados de la sociedad, que a menudo se sienten excluidos e impotentes ante los rápidos cambios tecnológicos.
La alfabetización en medios, en información y en IA ayudará a todos a no adaptarse a la deriva antropomorfizante de estos sistemas, sino a tratarlos como instrumentos, a utilizar siempre una validación externa de las fuentes —que podrían ser imprecisas o erróneas— proporcionadas por los sistemas de IA, a proteger la propia privacidad y los propios datos conociendo los parámetros de seguridad y las opciones de impugnación. Es importante educar y educarse a usar la IA de modo intencional, y en este contexto proteger la propia imagen (foto y audio), el propio rostro y la propia voz, para evitar que sean utilizados en la creación de contenidos y conductas dañinas como fraudes digitales, ciberacoso, deepfakes que violan la privacidad y la intimidad de las personas sin su consentimiento. Así como la revolución industrial requería la alfabetización básica para permitir a las personas reaccionar ante la novedad, del mismo modo la revolución digital requiere una alfabetización digital (junto con una formación humanística y cultural) para comprender cómo los algoritmos modelan nuestra percepción de la realidad, cómo funcionan los prejuicios de la IA, cuáles son los mecanismos que determinan la aparición de determinados contenidos en nuestros flujos de información (feed), cuáles son y cómo pueden cambiar los presupuestos y los modelos económicos de la economía de la IA.
Necesitamos que el rostro y la voz vuelvan a decir a la persona. Necesitamos custodiar el don de la comunicación como la verdad más profunda del hombre, hacia la cual orientar también toda innovación tecnológica.
Al proponer estas reflexiones, agradezco a cuantos están trabajando por los fines aquí planteados y bendigo de corazón a todos los que trabajan por el bien común con los medios de comunicación.