O papa Leão XIV dirigiu neste 24 de janeiro de 2026 sua mensagem para a LX Jornada Mundial das Comunicações Sociais, centrada em um aviso claro: na era digital, “custodiar” a comunicação significa proteger a voz e o rosto humanos frente a uma tecnologia capaz de simulá-los, manipulá-los e esvaziá-los de verdade. O Pontífice enquadra o assunto como um desafio não só técnico, mas antropológico, porque o que está em jogo é a dignidade da pessoa e a possibilidade mesma de um encontro autêntico.
Em sua mensagem, Leão XIV adverte sobre a dinâmica de redes e algoritmos que premiam a emoção rápida e empurram para a polarização; sobre uma confiança acrítica na IA como “oráculo”; e sobre os riscos de bots, deepfakes e “realidades paralelas” que erodem a confiança pública. Diante disso, propõe uma aliança possível, mas exigente, baseada em responsabilidade, cooperação e educação, reclamando transparência às plataformas e desenvolvedores, regulações que protejam a dignidade humana e um jornalismo que não renuncie à verificação e à busca da verdade.
Deixamos a seguir a mensagem completa de Leão XIV:
Queridos irmãos e irmãs.
O rosto e a voz são traços únicos e distintivos de cada pessoa; manifestam sua identidade irrepetível e são o elemento constitutivo de todo encontro. Os antigos o sabiam bem. Assim, para definir a pessoa humana, os antigos gregos usaram a palavra “rostro” (prósōpon), que etimologicamente indica aquilo que está frente ao olhar, o lugar da presença e da relação. O termo latino persona (de per-sonare), por outro lado, inclui o som: não um som qualquer, mas a voz inconfundível de alguém.
O rosto e a voz são sagrados. Foram-nos doados por Deus, que nos criou à sua imagem e semelhança, chamando-nos à vida com a Palavra que Ele mesmo nos dirigiu; Palavra que primeiro ressoou ao longo dos séculos nas vozes dos profetas e que depois se fez carne na plenitude dos tempos. Esta Palavra —esta comunicação que Deus faz de si mesmo— também pudemos escutar e ver diretamente (cf. 1 Jn 1,1-3), porque se deu a conhecer na voz e no Rosto de Jesus, Filho de Deus.
Desde o momento de sua criação, Deus quis o homem como seu próprio interlocutor e, como diz são Gregório de Nissa,[1] imprimiu em seu rosto um reflexo do amor divino, para que possa viver plenamente sua humanidade mediante o amor. Custodiar rostos e vozes humanas significa, portanto, custodiar este selo, este reflexo indelével do amor de Deus. Não somos uma espécie feita de algoritmos bioquímicos, definidos de antemano. Cada um de nós tem uma vocação insubstituível e inimitável que emerge da vida e que se manifesta precisamente na comunicação com os outros.
A tecnologia digital, se falharmos nesta custódia, corre o risco de modificar radicalmente alguns dos pilares fundamentais da civilização humana, que às vezes damos por sentados. Ao simular vozes e rostos humanos, sabedoria e conhecimento, consciência e responsabilidade, empatia e amizade, os sistemas conhecidos como inteligência artificial não só interferem nos ecossistemas informativos, mas invadem também o nível mais profundo da comunicação: o da relação entre pessoas humanas.
O desafio, portanto, não é tecnológico, mas antropológico. Custodiar os rostos e as vozes significa, em última instância, custodiar-nos a nós mesmos. Acolher com valentia, determinação e discernimento as oportunidades que oferecem a tecnologia digital e a inteligência artificial não significa ocultar os pontos críticos, as opacidades, os riscos.
Não renunciar ao próprio pensamento
Há muito tempo existem múltiplas evidências de que os algoritmos projetados para maximizar a interação nas redes sociais —rentável para as plataformas— premiam as emoções rápidas e penalizam, em vez disso, expressões humanas que requerem mais tempo, como o esforço por compreender e a reflexão. Ao encerrar grupos de pessoas em bolhas de fácil consenso e fácil indignação, esses algoritmos enfraquecem a capacidade de escuta e de pensamento crítico e aumentam a polarização social.
A isso se acrescentou depois uma confiança ingenuamente acrítica na inteligência artificial como “amiga” onisciente, dispensadora de toda informação, arquivo de toda memória, “oráculo” de todo conselho. Tudo isso pode desgastar ainda mais nossa capacidade de pensar de maneira analítica e criativa, de compreender os significados, de distinguir entre sintaxe e semântica.
Embora a IA possa oferecer apoio e assistência na gestão de tarefas comunicativas, subtrair-nos do esforço do próprio pensamento, conformando-nos com uma compilação estatística artificial, corre o risco a longo prazo de erodir nossas capacidades cognitivas, emocionais e comunicativas.
Nos últimos anos, os sistemas de inteligência artificial estão assumindo cada vez mais também o controle da produção de textos, música e vídeos. Grande parte da indústria criativa humana corre assim o risco de ser desmantelada e substituída sob a etiqueta “Powered by AI”, transformando as pessoas em meros consumidores passivos de pensamentos não pensados, de produtos anônimos, sem autoria, sem amor. Enquanto que as obras-primas do gênio humano no âmbito da música, da arte e da literatura ficam reduzidas a um mero campo de treinamento das máquinas.
A questão que nos preocupa, no entanto, não é o que a máquina consegue ou conseguirá fazer, mas o que podemos e poderemos fazer nós, crescendo em humanidade e conhecimento, com um uso sábio de instrumentos tão poderosos a nosso serviço. Desde sempre o homem é tentado a se apropriar do fruto do conhecimento sem a fadiga do envolvimento, da busca e da responsabilidade pessoal. Renunciar ao processo criativo e ceder às máquinas as próprias funções mentais e a própria imaginação significa, no entanto, enterrar os talentos que recebemos a fim de crescer como pessoas em relação com Deus e com os outros. Significa ocultar nosso rosto e silenciar nossa voz.
Ser ou fingir: simulação das relações e da realidade
Enquanto percorremos nossos fluxos de informação (feed), torna-se cada vez mais difícil entender se estamos interagindo com outros seres humanos ou com “bots” ou “influencers virtuais”. As intervenções não transparentes desses agentes automatizados influenciam os debates públicos e as escolhas das pessoas. Sobre tudo os chatbots baseados em grandes modelos linguísticos (LLM) estão se revelando surpreendentemente eficazes na persuasão oculta, mediante uma contínua otimização da interação personalizada. A estrutura dialógica e adaptativa, mimética, desses modelos linguísticos é capaz de imitar os sentimentos humanos e simular assim uma relação. Esta antropomorfização, que pode resultar até divertida, é ao mesmo tempo enganosa, sobretudo para as pessoas mais vulneráveis. Porque os chatbots convertidos em excessivamente “afetivos”, além de estarem sempre presentes e disponíveis, podem se tornar arquitetos ocultos de nossos estados emocionais e, desse modo, invadir e ocupar a esfera da intimidade das pessoas.
A tecnologia que explora nossa necessidade de relação pode não só ter consequências dolorosas no destino das pessoas, mas também lesionar o tecido social, cultural e político das sociedades. Isso ocorre quando substituímos as relações com os outros pelas que mantemos com IA treinadas para catalogar nossos pensamentos e, portanto, construir ao nosso redor um mundo de espelhos, onde tudo está feito “à nossa imagem e semelhança”. Desse modo nos deixamos arrebatar a possibilidade de nos encontrarmos com o outro, que sempre é diferente de nós, e com o qual podemos e devemos aprender a confrontar-nos. Sem a acolhida da alteridade não pode haver nem relação nem amizade.
Outro grande desafio que esses sistemas emergentes planteiam é o da distorção (em inglês, bias), que leva a adquirir e transmitir uma percepção alterada da realidade. Os modelos de IA são moldados pela visão de mundo de quem os constrói e podem, por sua vez, impor maneiras de pensar replicando os estereótipos e preconceitos presentes nos dados de que se alimentam. A falta de transparência no design dos algoritmos, junto com a inadequada representatividade social dos dados, tendem a nos manter presos em redes que manipulam nossos pensamentos e perpetuam e aprofundam as desigualdades e as injustiças sociais existentes.
O risco é grande. O poder da simulação é tal que a IA pode até nos enganar com a fabricação de “realidades” paralelas, apropriando-se de nossos rostos e de nossas vozes. Estamos imersos em uma multidimensionalidade, onde se está tornando cada vez mais difícil distinguir a realidade da ficção.
A isso se acrescenta o problema da falta de exatidão. Sistemas que fazem passar uma probabilidade estatística por conhecimento estão na realidade oferecendo-nos, no máximo, aproximações à verdade, que às vezes são verdadeiras “alucinações”. A falta de verificação das fontes, junto com a crise do jornalismo de terreno que implica um trabalho contínuo de coleta e verificação de informações nos lugares onde ocorrem os fatos, pode favorecer um terreno ainda mais fértil para a desinformação, provocando um crescente sentimento de desconfiança, desorientação e insegurança.
Uma possível aliança
Por trás dessa enorme força invisível que nos envolve a todos, há apenas um punhado de empresas, aquelas cujos fundadores foram apresentados recentemente como criadores da “pessoa do ano 2025”, ou seja, os arquitetos da inteligência artificial. Isso suscita uma preocupação importante em relação ao controle oligopolístico dos sistemas algorítmicos e de inteligência artificial capazes de orientar sutilmente os comportamentos, e até reescrever a história humana —incluída a história da Igreja—, muitas vezes sem que possamos nos dar conta realmente.
O desafio que nos espera não consiste em deter a inovação digital, mas em guiá-la, sendo conscientes de seu caráter ambivalente. Depende de cada um de nós erguer a voz em defesa das pessoas humanas, para que esses instrumentos possam verdadeiramente ser integrados por nós como aliados.
Esta aliança é possível, mas precisa se basear em três pilares: responsabilidade, cooperação e educação.
Antes de tudo, a responsabilidade. Esta pode se expressar, segundo os papéis, como honestidade, transparência, valentia, capacidade de visão, dever de compartilhar o conhecimento, direito de estar informado. Mas, em geral, ninguém pode se subtrair à sua própria responsabilidade frente ao futuro que estamos construindo.
Para quem está no topo das plataformas online, isso significa assegurar-se de que suas estratégias empresariais não sejam guiadas pelo único critério da maximização do benefício, mas também por uma visão previdente que leve em conta o bem comum, do mesmo modo como cada um deles tem no coração o bem de seus próprios filhos.
Aos criadores e desenvolvedores de modelos de IA pede-se transparência e responsabilidade social em relação aos princípios de design e aos sistemas de moderação que estão na base de seus algoritmos e dos modelos desenvolvidos, a fim de favorecer um consentimento informado por parte dos usuários.
A mesma responsabilidade pede-se também aos legisladores nacionais e aos reguladores supranacionais, a quem compete vigiar o respeito à dignidade humana. Uma regulação adequada pode proteger as pessoas de um vínculo emocional com os chatbots e conter a difusão de conteúdos falsos, manipulativos ou enganosos, preservando a integridade da informação frente a uma simulação enganosa.
As empresas dos meios e da comunicação, por sua vez, não podem permitir que algoritmos orientados a ganhar a qualquer custo a batalha por alguns segundos mais de atenção prevaleçam sobre a fidelidade aos seus valores profissionais, orientados à busca da verdade. A confiança do público se conquista com a exatidão, com a transparência, não com a corrida por qualquer tipo de interação. Os conteúdos gerados ou manipulados pela IA devem ser sinalizados e distinguidos claramente dos conteúdos criados pelas pessoas. Deve-se proteger a autoria e a propriedade soberana do trabalho dos jornalistas e dos demais criadores de conteúdo. A informação é um bem público. Um serviço público construtivo e significativo não se baseia na opacidade, mas na transparência das fontes, na inclusão dos sujeitos envolvidos e em um padrão elevado de qualidade.
Todos estamos chamados a cooperar. Nenhum setor pode enfrentar sozinho o desafio de guiar a inovação digital e a governança da IA. Por isso é necessário criar mecanismos de salvaguarda. Todas as partes interessadas —desde a indústria tecnológica até os legisladores, desde as empresas criativas até o mundo acadêmico, desde os artistas até os jornalistas, os educadores— devem ser envolvidas em construir e tornar efetiva uma cidadania digital consciente e responsável.
A isso aponta a educação: a aumentar nossas capacidades pessoais de refletir criticamente, a avaliar a confiabilidade das fontes e os possíveis interesses que estão por trás da seleção da informação que nos chega, a compreender os mecanismos psicológicos que ativam, a permitir que nossas famílias, comunidades e associações elaborem critérios práticos para uma cultura da comunicação mais saudável e responsável.
Precisamente por isso é cada vez mais urgente introduzir nos sistemas educacionais de todo nível também a alfabetização em meios, em informação e em IA, que algumas instituições civis já estão promovendo. Como católicos podemos e devemos aportar nossa contribuição, para que as pessoas —sobretudo os jovens— adquiram a capacidade de pensamento crítico e cresçam na liberdade do espírito. Esta alfabetização deveria se integrar além disso em iniciativas mais amplas de educação permanente, alcançando também os idosos e os membros marginalizados da sociedade, que muitas vezes se sentem excluídos e impotentes frente às rápidas mudanças tecnológicas.
A alfabetização em meios, em informação e em IA ajudará a todos a não se adaptarem à deriva antropomorfizante desses sistemas, mas a tratá-los como instrumentos, a utilizar sempre uma validação externa das fontes —que poderiam ser imprecisas ou errôneas— fornecidas pelos sistemas de IA, a proteger a própria privacidade e os próprios dados conhecendo os parâmetros de segurança e as opções de impugnação. É importante educar e se educar a usar a IA de modo intencional, e neste contexto proteger a própria imagem (foto e áudio), o próprio rosto e a própria voz, para evitar que sejam utilizados na criação de conteúdos e condutas danosas como fraudes digitais, ciberacoso, deepfakes que violam a privacidade e a intimidade das pessoas sem seu consentimento. Assim como a revolução industrial requeria a alfabetização básica para permitir às pessoas reagir ante a novidade, do mesmo modo a revolução digital requer uma alfabetização digital (junto com uma formação humanística e cultural) para compreender como os algoritmos modelam nossa percepção da realidade, como funcionam os preconceitos da IA, quais são os mecanismos que determinam a aparição de determinados conteúdos em nossos fluxos de informação (feed), quais são e como podem mudar os pressupostos e os modelos econômicos da economia da IA.
Precisamos que o rosto e a voz voltem a dizer à pessoa. Precisamos custodiar o dom da comunicação como a verdade mais profunda do homem, para a qual orientar também toda inovação tecnológica.
Ao propor estas reflexões, agradeço a quantos estão trabalhando pelos fins aqui propostos e abençoo de coração a todos os que trabalham pelo bem comum com os meios de comunicação.