Il papa Leone XIV ha rivolto questo 24 gennaio 2026 il suo messaggio per la LX Giornata Mondiale delle Comunicazioni Sociali, centrato su un avviso chiaro: nell’era digitale, “custodire” la comunicazione significa proteggere la voce e il volto umani di fronte a una tecnologia capace di simularli, manipolarli e svuotarli di verità. Il Pontefice inquadra la questione come una sfida non solo tecnica, ma antropologica, perché in gioco c’è la dignità della persona e la possibilità stessa di un incontro autentico.
Nel suo messaggio, Leone XIV avverte sulla dinamica di reti e algoritmi che premiano l’emozione rapida e spingono alla polarizzazione; su una fiducia acritica nell’IA come “oracolo”; e sui rischi di bot, deepfake e “realtà parallele” che erodono la fiducia pubblica. Di fronte a ciò, propone un’alleanza possibile, ma esigente, basata su responsabilità, cooperazione ed educazione, reclamando trasparenza alle piattaforme e agli sviluppatori, regolamentazioni che proteggano la dignità umana e un giornalismo che non rinunci alla verifica e alla ricerca della verità.
Lasciamo qui di seguito il messaggio completo di Leone XIV:
Cari fratelli e sorelle.
Il volto e la voce sono tratti unici e distintivi di ogni persona; manifestano la sua identità irripetibile e sono l’elemento costitutivo di ogni incontro. Gli antichi lo sapevano bene. Così, per definire la persona umana gli antichi greci utilizzarono la parola “volto” (prósōpon), che etimologicamente indica ciò che sta di fronte allo sguardo, il luogo della presenza e della relazione. Il termine latino persona (da per-sonare), invece, include il suono: non un suono qualunque, ma la voce inconfondibile di qualcuno.
Il volto e la voce sono sacri. Ci sono stati donati da Dio, che ci ha creato a sua immagine e somiglianza, chiamandoci alla vita con la Parola che Egli stesso ci ha rivolto; Parola che prima ha risuonato attraverso i secoli nelle voci dei profeti e che poi si è fatta carne nella pienezza dei tempi. Questa Parola —questa comunicazione che Dio fa di se stesso— anche noi l’abbiamo potuta ascoltare e vedere direttamente (cf. 1 Gv 1,1-3), perché si è data a conoscere nella voce e nel Volto di Gesù, Figlio di Dio.
Fin dal momento della sua creazione, Dio ha voluto l’uomo come suo proprio interlocutore e, come dice san Gregorio di Nisa,[1] ha impresso sul suo volto un riflesso dell’amore divino, affinché possa vivere pienamente la sua umanità mediante l’amore. Custodire volti e voci umane significa, quindi, custodire questo sigillo, questo riflesso indelebile dell’amore di Dio. Non siamo una specie fatta di algoritmi biochimici, definiti in anticipo. Ognuno di noi ha una vocazione insostituibile e inimitabile che emerge dalla vita e che si manifesta precisamente nella comunicazione con gli altri.
La tecnologia digitale, se falliamo in questa custodia, rischia di modificare radicalmente alcuni dei pilastri fondamentali della civiltà umana, che a volte diamo per scontati. Simulando voci e volti umani, saggezza e conoscenza, coscienza e responsabilità, empatia e amicizia, i sistemi noti come intelligenza artificiale non solo interferiscono negli ecosistemi informativi, ma invadono anche il livello più profondo della comunicazione: quello della relazione tra persone umane.
La sfida, quindi, non è tecnologica, ma antropologica. Custodire i volti e le voci significa, in ultima analisi, custodire noi stessi. Accogliere con coraggio, determinazione e discernimento le opportunità offerte dalla tecnologia digitale e dall’intelligenza artificiale non significa nasconderci i punti critici, le opacità, i rischi.
Non rinunciare al proprio pensiero
Da tempo esistono molteplici evidenze che gli algoritmi progettati per massimizzare l’interazione sui social network —redditizio per le piattaforme— premiano le emozioni rapide e penalizzano, invece, espressioni umane che richiedono più tempo, come lo sforzo di comprendere e la riflessione. Rinchiudendo gruppi di persone in bolle di facile consenso e facile indignazione, questi algoritmi indeboliscono la capacità di ascolto e di pensiero critico e aumentano la polarizzazione sociale.
A questo si è poi aggiunta una fiducia ingenuamente acritica nell’intelligenza artificiale come “amica” onnisciente, dispensatrice di ogni informazione, archivio di ogni memoria, “oracolo” di ogni consiglio. Tutto ciò può logorare ancor di più la nostra capacità di pensare in modo analitico e creativo, di comprendere i significati, di distinguere tra sintassi e semantica.
Sebbene l’IA possa offrire supporto e assistenza nella gestione di compiti comunicativi, sottrarci allo sforzo del proprio pensiero, accontentandoci di una compilazione statistica artificiale, rischia a lungo termine di erodere le nostre capacità cognitive, emotive e comunicative.
Negli ultimi anni, i sistemi di intelligenza artificiale stanno assumendo sempre di più anche il controllo della produzione di testi, musica e video. Gran parte dell’industria creativa umana rischia così di essere smantellata e sostituita sotto l’etichetta “Powered by AI”, trasformando le persone in meri consumatori passivi di pensieri non pensati, di prodotti anonimi, senza autore, senza amore. Mentre le opere maestre del genio umano nel campo della musica, dell’arte e della letteratura vengono ridotte a un mero campo di addestramento delle macchine.
La questione che ci preoccupa, tuttavia, non è ciò che la macchina riesce o riuscirà a fare, ma ciò che possiamo e potremo fare noi, crescendo in umanità e conoscenza, con un uso saggio di strumenti così potenti al nostro servizio. Da sempre l’uomo è tentato di appropriarsi del frutto della conoscenza senza la fatica dell’implicazione, della ricerca e della responsabilità personale. Rinunciare al processo creativo e cedere alle macchine le proprie funzioni mentali e la propria immaginazione significa, tuttavia, seppellire i talenti che abbiamo ricevuto al fine di crescere come persone in relazione con Dio e con gli altri. Significa nascondere il nostro volto e silenziare la nostra voce.
Essere o fingere: simulazione delle relazioni e della realtà
Mentre scorriamo i nostri flussi di informazione (feed), diventa sempre più difficile capire se stiamo interagendo con altri esseri umani o con “bot” o “influencer virtuali”. Le interventi non trasparenti di questi agenti automatizzati influenzano i dibattiti pubblici e le scelte delle persone. Soprattutto i chatbot basati su grandi modelli linguistici (LLM) si stanno rivelando sorprendentemente efficaci nella persuasione occulta, mediante un continuo ottimizzazione dell’interazione personalizzata. La struttura dialogica e adattiva, mimetica, di questi modelli linguistici è capace di imitare i sentimenti umani e simulare così una relazione. Questa antropomorfizzazione, che può risultare persino divertente, è allo stesso tempo ingannevole, soprattutto per le persone più vulnerabili. Perché i chatbot resi eccessivamente “affettuosi”, oltre a essere sempre presenti e disponibili, possono diventare architetti occulti dei nostri stati emotivi e, in questo modo, invadere e occupare la sfera dell’intimità delle persone.
La tecnologia che sfrutta il nostro bisogno di relazione può non solo avere conseguenze dolorose nel destino delle persone, ma anche lesionare il tessuto sociale, culturale e politico delle società. Questo avviene quando sostituiamo le relazioni con gli altri con quelle che manteniamo con IA addestrate a catalogare i nostri pensieri e, quindi, a costruire intorno a noi un mondo di specchi, dove tutto è fatto “a nostra immagine e somiglianza”. In questo modo ci lasciamo strappare la possibilità di incontrarci con l’altro, che è sempre diverso da noi, e con il quale possiamo e dobbiamo imparare a confrontarci. Senza l’accoglienza dell’alterità non può esserci né relazione né amicizia.
Un’altra grande sfida posta da questi sistemi emergenti è quella della distorsione (in inglese, bias), che conduce ad acquisire e trasmettere una percezione alterata della realtà. I modelli di IA sono modellati dalla visione del mondo di chi li costruisce e possono, a loro volta, imporre modi di pensare replicando gli stereotipi e i pregiudizi presenti nei dati di cui si nutrono. La mancanza di trasparenza nel design degli algoritmi, insieme con l’inadeguata rappresentatività sociale dei dati, tendono a mantenerci intrappolati in reti che manipolano i nostri pensieri e perpetuano e approfondiscono le disuguaglianze e le ingiustizie sociali esistenti.
Il rischio è grande. Il potere della simulazione è tale che l’IA può persino ingannarci con la fabbricazione di “realtà” parallele, appropriandosi dei nostri volti e delle nostre voci. Siamo immersi in una multidimensionalità, dove sta diventando sempre più difficile distinguere la realtà dalla finzione.
A questo si aggiunge il problema della mancanza di esattezza. Sistemi che fanno passare una probabilità statistica per conoscenza stanno in realtà offrendoci, al massimo, approssimazioni alla verità, che a volte sono vere “allucinazioni”. La mancanza di verifica delle fonti, insieme con la crisi del giornalismo sul campo che implica un lavoro continuo di raccolta e verifica delle informazioni nei luoghi dove avvengono i fatti, può favorire un terreno ancora più fertile per la disinformazione, provocando un crescente sentimento di diffidenza, smarrimento e insicurezza.
Un’alleanza possibile
Dietro questa enorme forza invisibile che ci coinvolge tutti, c’è solo un pugno di aziende, quelle i cui fondatori sono stati presentati recentemente come creatori della “persona dell’anno 2025”, cioè gli architetti dell’intelligenza artificiale. Questo suscita una preoccupazione importante riguardo al controllo oligopolistico dei sistemi algoritmici e di intelligenza artificiale capaci di orientare sottilmente i comportamenti, e persino di riscrivere la storia umana —inclusa la storia della Chiesa—, spesso senza che possiamo accorgercene davvero.
La sfida che ci attende non consiste nel fermare l’innovazione digitale, ma nel guidarla, essendo consapevoli del suo carattere ambivalente. Dipende da ognuno di noi alzare la voce in difesa delle persone umane, affinché questi strumenti possano veramente essere integrati da noi come alleati.
Questa alleanza è possibile, ma deve basarsi su tre pilastri: responsabilità, cooperazione ed educazione.
Innanzitutto, la responsabilità. Questa può esprimersi, secondo i ruoli, come onestà, trasparenza, coraggio, capacità di visione, dovere di condividere la conoscenza, diritto di essere informati. Ma, in generale, nessuno può sottrarsi alla propria responsabilità di fronte al futuro che stiamo costruendo.
Per coloro che sono al vertice delle piattaforme online, questo significa assicurarsi che le loro strategie aziendali non siano guidate dal solo criterio della massimizzazione del profitto, ma anche da una visione previdente che tenga conto del bene comune, nello stesso modo in cui ognuno di loro ha a cuore il bene dei propri figli.
Ai creatori e sviluppatori di modelli di IA si chiede trasparenza e responsabilità sociale riguardo ai principi di design e ai sistemi di moderazione che sono alla base dei loro algoritmi e dei modelli sviluppati, al fine di favorire un consenso informato da parte degli utenti.
La stessa responsabilità si chiede anche ai legislatori nazionali e ai regolatori sovranazionali, a cui spetta vigilare sul rispetto della dignità umana. Una regolamentazione adeguata può proteggere le persone da un legame emotivo con i chatbot e contenere la diffusione di contenuti falsi, manipolativi o ingannevoli, preservando l’integrità dell’informazione di fronte a una simulazione ingannevole.
Le aziende dei media e della comunicazione, a loro volta, non possono permettere che algoritmi orientati a vincere a ogni costo la battaglia per qualche secondo in più di attenzione prevalgano sulla fedeltà ai loro valori professionali, orientati alla ricerca della verità. La fiducia del pubblico si conquista con l’esattezza, con la trasparenza, non con la corsa a qualsiasi tipo di interazione. I contenuti generati o manipolati dall’IA devono essere segnalati e distinti chiaramente dai contenuti creati dalle persone. Deve essere protetta l’autorevolezza e la proprietà sovrana del lavoro dei giornalisti e degli altri creatori di contenuti. L’informazione è un bene pubblico. Un servizio pubblico costruttivo e significativo non si basa sull’opacità, ma sulla trasparenza delle fonti, sull’inclusione dei soggetti coinvolti e su un elevato standard di qualità.
Tutti siamo chiamati a cooperare. Nessun settore può affrontare da solo la sfida di guidare l’innovazione digitale e la governance dell’IA. Per questo è necessario creare meccanismi di salvaguardia. Tutte le parti interessate —dall’industria tecnologica ai legislatori, dalle aziende creative al mondo accademico, dagli artisti ai giornalisti, agli educatori— devono essere coinvolte nella costruzione e nell’attuazione di una cittadinanza digitale consapevole e responsabile.
A questo mira l’educazione: ad aumentare le nostre capacità personali di riflettere criticamente, di valutare l’affidabilità delle fonti e i possibili interessi che stanno dietro alla selezione delle informazioni che ci arrivano, di comprendere i meccanismi psicologici che attivano, di permettere alle nostre famiglie, comunità e associazioni di elaborare criteri pratici per una cultura della comunicazione più sana e responsabile.
Proprio per questo è sempre più urgente introdurre nei sistemi educativi di ogni livello anche l’alfabetizzazione ai media, all’informazione e all’IA, che alcune istituzioni civili stanno già promuovendo. Come cattolici possiamo e dobbiamo apportare il nostro contributo, affinché le persone —soprattutto i giovani— acquisiscano la capacità di pensiero critico e crescano nella libertà dello spirito. Questa alfabetizzazione dovrebbe integrarsi inoltre in iniziative più ampie di educazione permanente, raggiungendo anche gli anziani e i membri emarginati della società, che spesso si sentono esclusi e impotenti di fronte ai rapidi cambiamenti tecnologici.
L’alfabetizzazione ai media, all’informazione e all’IA aiuterà tutti a non adattarsi alla deriva antropomorfizzante di questi sistemi, ma a trattarli come strumenti, a utilizzare sempre una validazione esterna delle fonti —che potrebbero essere imprecise o errate— fornite dai sistemi di IA, a proteggere la propria privacy e i propri dati conoscendo i parametri di sicurezza e le opzioni di impugnazione. È importante educare e educarsi a usare l’IA in modo intenzionale, e in questo contesto proteggere la propria immagine (foto e audio), il proprio volto e la propria voce, per evitare che siano utilizzati nella creazione di contenuti e comportamenti dannosi come frodi digitali, cyberbullismo, deepfake che violano la privacy e l’intimità delle persone senza il loro consenso. Così come la rivoluzione industriale richiedeva l’alfabetizzazione di base per permettere alle persone di reagire alla novità, allo stesso modo la rivoluzione digitale richiede un’alfabetizzazione digitale (insieme con una formazione umanistica e culturale) per comprendere come gli algoritmi modellano la nostra percezione della realtà, come funzionano i pregiudizi dell’IA, quali sono i meccanismi che determinano l’apparizione di determinati contenuti nei nostri flussi di informazione (feed), quali sono e come possono cambiare i presupposti e i modelli economici dell’economia dell’IA.
Abbiamo bisogno che il volto e la voce tornino a dire la persona. Abbiamo bisogno di custodire il dono della comunicazione come la verità più profonda dell’uomo, verso la quale orientare anche ogni innovazione tecnologica.
Proponendo queste riflessioni, ringrazio quanti stanno lavorando per i fini qui esposti e benedico di cuore tutti coloro che lavorano per il bene comune con i mezzi di comunicazione.