Le pape Léon XIV a adressé, ce 24 janvier 2026, son message pour la LXe Journée mondiale des communications sociales, centré sur un avertissement clair : à l’ère numérique, « custodier » la communication signifie protéger la voix et le visage humains face à une technologie capable de les simuler, de les manipuler et de les vider de vérité. Le Pontife cadre la question comme un défi non seulement technique, mais anthropologique, car ce qui est en jeu est la dignité de la personne et la possibilité même d’une rencontre authentique.
Dans son message, Léon XIV met en garde contre la dynamique des réseaux et des algorithmes qui récompensent l’émotion rapide et poussent à la polarisation ; contre une confiance acritique en l’IA comme « oracle » ; et contre les risques des bots, deepfakes et « réalités parallèles » qui érodent la confiance publique. Face à cela, il propose une alliance possible, mais exigeante, basée sur la responsabilité, la coopération et l’éducation, réclamant la transparence aux plateformes et aux développeurs, des réglementations qui protègent la dignité humaine et un journalisme qui ne renonce pas à la vérification et à la recherche de la vérité.
Nous laissons ci-dessous le message complet de Léon XIV :
Chers frères et sœurs.
Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité irremplaçable et sont l’élément constitutif de toute rencontre. Les anciens le savaient bien. Ainsi, pour définir la personne humaine, les anciens Grecs ont utilisé le mot « visage » (prósōpon), qui étymologiquement indique ce qui est face au regard, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare), en revanche, inclut le son : non un son quelconque, mais la voix inimitable de quelqu’un.
Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu, qui nous a créés à son image et à sa ressemblance, nous appelant à la vie par la Parole qu’il nous a adressée lui-même ; Parole qui a d’abord résonné à travers les siècles dans les voix des prophètes et qui s’est ensuite faite chair dans la plénitude des temps. Cette Parole — cette communication que Dieu fait de lui-même — nous avons pu l’écouter et la voir directement (cf. 1 Jn 1,1-3), car elle s’est révélée dans la voix et dans le Visage de Jésus, Fils de Dieu.
Dès le moment de sa création, Dieu a voulu l’homme comme son propre interlocuteur et, comme le dit saint Grégoire de Nysse,[1] il a imprimé sur son visage un reflet de l’amour divin, pour qu’il puisse vivre pleinement son humanité par l’amour. Custodier les visages et les voix humaines signifie donc custodier ce sceau, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce faite d’algorithmes biochimiques, définie à l’avance. Chacun de nous a une vocation irremplaçable et inimitable qui émerge de la vie et qui se manifeste précisément dans la communication avec les autres.
La technologie numérique, si nous manquons à cette custodie, risque de modifier radicalement certains des piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. En simulant des voix et des visages humains, la sagesse et la connaissance, la conscience et la responsabilité, l’empathie et l’amitié, les systèmes connus sous le nom d’intelligence artificielle n’interfèrent pas seulement dans les écosystèmes informationnels, mais envahissent aussi le niveau le plus profond de la communication : celui de la relation entre personnes humaines.
Le défi, par conséquent, n’est pas technologique, mais anthropologique. Custodier les visages et les voix signifie, en dernière analyse, nous custodier nous-mêmes. Accueillir avec courage, détermination et discernement les opportunités offertes par la technologie numérique et l’intelligence artificielle ne signifie pas nous cacher les points critiques, les opacités, les risques.
Ne pas renoncer à sa propre pensée
Il existe depuis longtemps de multiples preuves que les algorithmes conçus pour maximiser l’interaction sur les réseaux sociaux — rentable pour les plateformes — récompensent les émotions rapides et pénalisent, en revanche, les expressions humaines qui requièrent plus de temps, comme l’effort pour comprendre et la réflexion. En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et augmentent la polarisation sociale.
À cela s’est ajoutée ensuite une confiance naïvement acritique en l’intelligence artificielle comme « amie » omnisciente, dispensatrice de toute information, archive de toute mémoire, « oracle » de tout conseil. Tout cela peut user encore plus notre capacité à penser de manière analytique et créative, à comprendre les significations, à distinguer entre syntaxe et sémantique.
Bien que l’IA puisse offrir un soutien et une assistance dans la gestion de tâches communicatives, nous soustraire à l’effort de notre propre pensée, en nous contentant d’une compilation statistique artificielle, risque à long terme d’éroder nos capacités cognitives, émotionnelles et communicatives.
Ces dernières années, les systèmes d’intelligence artificielle assument de plus en plus aussi le contrôle de la production de textes, de musique et de vidéos. Grande partie de l’industrie créative humaine risque ainsi d’être démantelée et remplacée sous l’étiquette « Powered by AI », transformant les personnes en simples consommateurs passifs de pensées non pensées, de produits anonymes, sans authorship, sans amour. Tandis que les chefs-d’œuvre du génie humain dans le domaine de la musique, de l’art et de la littérature sont réduits à un simple champ d’entraînement des machines.
La question qui nous préoccupe, cependant, n’est pas ce que la machine parvient ou parviendra à faire, mais ce que nous pouvons et pourrons faire, en grandissant en humanité et en connaissance, avec un usage sage d’instruments si puissants à notre service. Depuis toujours, l’homme est tenté de s’approprier le fruit de la connaissance sans la fatigue de l’implication, de la recherche et de la responsabilité personnelle. Renoncer au processus créatif et céder aux machines nos propres fonctions mentales et notre imagination signifie cependant enterrer les talents que nous avons reçus afin de grandir comme personnes en relation avec Dieu et avec les autres. Cela signifie cacher notre visage et faire taire notre voix.
Être ou feindre : simulation des relations et de la réalité
Tandis que nous parcourons nos flux d’information (feed), il devient de plus en plus difficile de comprendre si nous interagissons avec d’autres êtres humains ou avec des « bots » ou des « influenceurs virtuels ». Les interventions non transparentes de ces agents automatisés influencent les débats publics et les choix des personnes. Surtout les chatbots basés sur de grands modèles linguistiques (LLM) se révèlent étonnamment efficaces dans la persuasion cachée, par une optimisation continue de l’interaction personnalisée. La structure dialogique et adaptative, mimétique, de ces modèles linguistiques est capable d’imiter les sentiments humains et de simuler ainsi une relation. Cette anthropomorphisation, qui peut même être amusante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables. Car les chatbots devenus excessivement « affectueux », en plus d’être toujours présents et disponibles, peuvent devenir des architectes cachés de nos états émotionnels et, de ce fait, envahir et occuper la sphère de l’intimité des personnes.
La technologie qui exploite notre besoin de relation peut non seulement avoir des conséquences douloureuses dans le destin des personnes, mais aussi léser le tissu social, culturel et politique des sociétés. Cela se produit lorsque nous substituons les relations avec les autres par celles que nous entretenons avec des IA entraînées pour cataloguer nos pensées et, par conséquent, construire autour de nous un monde de miroirs, où tout est fait « à notre image et à notre ressemblance ». Ainsi, nous nous laissons ravir la possibilité de rencontrer l’autre, qui est toujours différent de nous, et avec lequel nous pouvons et devons apprendre à nous confronter. Sans l’accueil de l’altérité, il ne peut y avoir ni relation ni amitié.
Un autre grand défi posé par ces systèmes émergents est celui de la distorsion (en anglais, bias), qui conduit à acquérir et à transmettre une perception altérée de la réalité. Les modèles d’IA sont modelés par la vision du monde de ceux qui les construisent et peuvent, à leur tour, imposer des manières de penser en répliquant les stéréotypes et les préjugés présents dans les données dont ils se nourrissent. Le manque de transparence dans la conception des algorithmes, conjugué à une représentativité sociale inadéquate des données, tend à nous maintenir piégés dans des réseaux qui manipulent nos pensées et perpétuent et approfondissent les inégalités et les injustices sociales existantes.
Le risque est grand. Le pouvoir de la simulation est tel que l’IA peut même nous tromper avec la fabrication de « réalités » parallèles, en s’appropriant nos visages et nos voix. Nous sommes immergés dans une multidimensionalité, où il devient de plus en plus difficile de distinguer la réalité de la fiction.
À cela s’ajoute le problème du manque de précision. Des systèmes qui font passer une probabilité statistique pour de la connaissance offrent en réalité, au mieux, des approximations de la vérité, qui sont parfois de véritables « hallucinations ». Le manque de vérification des sources, conjugué à la crise du journalisme de terrain qui implique un travail continu de collecte et de vérification d’informations sur les lieux où se produisent les faits, peut favoriser un terrain encore plus fertile pour la désinformation, provoquant un sentiment croissant de méfiance, de désarroi et d’insécurité.
Une alliance possible
Derrière cette énorme force invisible qui nous implique tous, il n’y a qu’une poignée d’entreprises, celles dont les fondateurs ont été présentés récemment comme créateurs de la « personne de l’année 2025 », c’est-à-dire les architectes de l’intelligence artificielle. Cela suscite une préoccupation importante quant au contrôle oligopolistique des systèmes algorithmiques et d’intelligence artificielle capables d’orienter subtilement les comportements, et même de réécrire l’histoire humaine — y compris l’histoire de l’Église —, souvent sans que nous puissions vraiment nous en rendre compte.
Le défi qui nous attend ne consiste pas à arrêter l’innovation numérique, mais à la guider, en étant conscients de son caractère ambivalent. Il dépend de chacun de nous de lever la voix en défense des personnes humaines, pour que ces instruments puissent véritablement être intégrés par nous comme des alliés.
Cette alliance est possible, mais elle doit se baser sur trois piliers : responsabilité, coopération et éducation.
Tout d’abord, la responsabilité. Celle-ci peut s’exprimer, selon les rôles, comme honnêteté, transparence, courage, capacité de vision, devoir de partager la connaissance, droit à l’information. Mais, en général, personne ne peut se soustraire à sa propre responsabilité face à l’avenir que nous construisons.
Pour ceux qui sont au sommet des plateformes en ligne, cela signifie s’assurer que leurs stratégies d’entreprise ne soient pas guidées par le seul critère de la maximisation du profit, mais aussi par une vision prévoyante qui tienne compte du bien commun, de la même manière que chacun d’eux a à cœur le bien de ses propres enfants.
Aux créateurs et développeurs de modèles d’IA, on demande transparence et responsabilité sociale quant aux principes de conception et aux systèmes de modération qui sont à la base de leurs algorithmes et des modèles développés, afin de favoriser un consentement informé de la part des utilisateurs.
La même responsabilité est aussi demandée aux législateurs nationaux et aux régulateurs supranationaux, à qui incombe la surveillance du respect de la dignité humaine. Une réglementation adéquate peut protéger les personnes d’un lien émotionnel avec les chatbots et contenir la diffusion de contenus faux, manipulateurs ou trompeurs, en préservant l’intégrité de l’information face à une simulation trompeuse.
Les entreprises des médias et de la communication, à leur tour, ne peuvent pas permettre que des algorithmes orientés vers la victoire à tout prix de la bataille pour quelques secondes d’attention supplémentaires prévalent sur la fidélité à leurs valeurs professionnelles, orientées vers la recherche de la vérité. La confiance du public se conquiert par l’exactitude, par la transparence, non par la course à n’importe quel type d’interaction. Les contenus générés ou manipulés par l’IA doivent être signalés et clairement distingués des contenus créés par les personnes. L’authorship et la propriété souveraine du travail des journalistes et des autres créateurs de contenu doivent être protégés. L’information est un bien public. Un service public constructif et significatif ne se base pas sur l’opacité, mais sur la transparence des sources, sur l’inclusion des sujets impliqués et sur un standard élevé de qualité.
Nous sommes tous appelés à coopérer. Aucun secteur ne peut affronter seul le défi de guider l’innovation numérique et la gouvernance de l’IA. Il est donc nécessaire de créer des mécanismes de sauvegarde. Toutes les parties intéressées — de l’industrie technologique aux législateurs, des entreprises créatives au monde académique, des artistes aux journalistes, aux éducateurs — doivent être impliquées dans la construction et la mise en œuvre d’une citoyenneté numérique consciente et responsable.
C’est à cela que vise l’éducation : à augmenter nos capacités personnelles de réflexion critique, à évaluer la fiabilité des sources et les possibles intérêts qui se cachent derrière la sélection de l’information qui nous parvient, à comprendre les mécanismes psychologiques qui s’activent, à permettre à nos familles, communautés et associations d’élaborer des critères pratiques pour une culture de la communication plus saine et responsable.
C’est précisément pour cela qu’il est de plus en plus urgent d’introduire dans les systèmes éducatifs de tous niveaux aussi l’alphabétisation aux médias, à l’information et à l’IA, que certaines institutions civiles promeuvent déjà. En tant que catholiques, nous pouvons et devons apporter notre contribution, pour que les personnes — surtout les jeunes — acquièrent la capacité de pensée critique et grandissent dans la liberté de l’esprit. Cette alphabétisation devrait en outre s’intégrer dans des initiatives plus larges d’éducation permanente, atteignant aussi les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face aux rapides changements technologiques.
L’alphabétisation aux médias, à l’information et à l’IA aidera tous à ne pas se conformer à la dérive anthropomorphisante de ces systèmes, mais à les traiter comme des instruments, à utiliser toujours une validation externe des sources — qui pourraient être imprécises ou erronées — fournies par les systèmes d’IA, à protéger sa propre vie privée et ses propres données en connaissant les paramètres de sécurité et les options de contestation. Il est important d’éduquer et de s’éduquer à utiliser l’IA de manière intentionnelle, et dans ce contexte de protéger sa propre image (photo et audio), son propre visage et sa propre voix, pour éviter qu’ils soient utilisés dans la création de contenus et de comportements nuisibles comme les fraudes numériques, le cyberharcèlement, les deepfakes qui violent la vie privée et l’intimité des personnes sans leur consentement. De même que la révolution industrielle requérait l’alphabétisation de base pour permettre aux personnes de réagir face à la nouveauté, de même la révolution numérique requiert une alphabétisation numérique (accompagnée d’une formation humanistique et culturelle) pour comprendre comment les algorithmes modèlent notre perception de la réalité, comment fonctionnent les préjugés de l’IA, quels sont les mécanismes qui déterminent l’apparition de certains contenus dans nos flux d’information (feed), quels sont et comment peuvent changer les budgets et les modèles économiques de l’économie de l’IA.
Nous avons besoin que le visage et la voix redisent la personne. Nous avons besoin de custodier le don de la communication comme la vérité la plus profonde de l’homme, vers laquelle orienter aussi toute innovation technologique.
En proposant ces réflexions, je remercie tous ceux qui travaillent pour les fins ici exposées et je bénis de tout cœur tous ceux qui travaillent pour le bien commun avec les moyens de communication.