León XIV sendet eine Botschaft für das digitale Zeitalter: «Die Gesichter und Stimmen zu bewahren bedeutet letztendlich, uns selbst zu bewahren»

León XIV sendet eine Botschaft für das digitale Zeitalter: «Die Gesichter und Stimmen zu bewahren bedeutet letztendlich, uns selbst zu bewahren»

Papst Leo XIV richtete am 24. Januar 2026 seine Botschaft anlässlich des LX. Weltkommunikationstags, die sich auf eine klare Warnung konzentriert: In der digitalen Ära bedeutet „hüten“ der Kommunikation, die menschliche Stimme und das menschliche Gesicht vor einer Technologie zu schützen, die fähig ist, sie zu simulieren, zu manipulieren und ihrer Wahrheit zu berauben. Der Pontifex rahmt die Sache als eine Herausforderung ein, die nicht nur technisch, sondern anthropologisch ist, weil auf dem Spiel steht die Würde der Person und die Möglichkeit eines authentischen Zusammentreffens selbst.

In seiner Botschaft warnt Leo XIV vor der Dynamik von Netzwerken und Algorithmen, die schnelle Emotionen belohnen und zur Polarisierung drängen; vor einem unkritischen Vertrauen in die KI als „Orakel“; und vor den Risiken von Bots, Deepfakes und „Parallelrealitäten“, die das öffentliche Vertrauen untergraben. Dagegen schlägt er eine mögliche, aber anspruchsvolle Allianz vor, die auf Verantwortung, Kooperation und Bildung basiert, und fordert Transparenz von Plattformen und Entwicklern, Regulierungen, die die menschliche Würde schützen, und einen Journalismus, der nicht auf Verifizierung und die Suche nach der Wahrheit verzichtet.

Im Folgenden geben wir die vollständige Botschaft von Leo XIV wieder:

Liebe Brüder und Schwestern.

Das Gesicht und die Stimme sind einzigartige und unterscheidende Merkmale jeder Person; sie offenbaren ihre einzigartige Identität und sind das konstitutive Element jedes Zusammentreffens. Die Alten wussten das gut. So verwendeten die alten Griechen das Wort „Gesicht“ (prósōpon), um die menschliche Person zu definieren, das etymologisch das bezeichnet, was dem Blick gegenübersteht, den Ort der Präsenz und der Beziehung. Der lateinische Begriff persona (von per-sonare) hingegen umfasst den Klang: nicht irgendeinen Klang, sondern die unverwechselbare Stimme einer Person.

Das Gesicht und die Stimme sind heilig. Sie wurden uns von Gott geschenkt, der uns nach seinem Bild und Gleichnis schuf und uns mit dem Wort zum Leben rief, das er selbst an uns richtete; ein Wort, das zuerst durch die Jahrhunderte in den Stimmen der Propheten widerhallte und dann in der Fülle der Zeiten Fleisch wurde. Dieses Wort – diese Kommunikation, die Gott von sich selbst macht – konnten wir auch direkt hören und sehen (vgl. 1 Jn 1,1-3), weil es sich in der Stimme und im Antlitz Jesu, des Sohnes Gottes, offenbart hat.

Von dem Moment seiner Schöpfung an wollte Gott den Menschen als seinen eigenen Gesprächspartner, und wie der heilige Gregor von Nyssa[1] sagt, hat er in sein Gesicht ein Abbild der göttlichen Liebe eingeprägt, damit er seine Menschlichkeit voll und ganz durch die Liebe leben kann. Das Hüten menschlicher Gesichter und Stimmen bedeutet daher, dieses Siegel, dieses unauslöschliche Abbild der Liebe Gottes zu hüten. Wir sind keine Spezies aus biochemischen Algorithmen, die im Voraus definiert sind. Jeder von uns hat eine unersetzliche und einzigartige Berufung, die aus dem Leben hervorgeht und sich gerade in der Kommunikation mit den anderen manifestiert.

Die digitale Technologie, wenn wir in diesem Hüten versagen, riskiert, einige der grundlegenden Säulen der menschlichen Zivilisation radikal zu verändern, die wir manchmal als gegeben hinnehmen. Indem sie menschliche Stimmen und Gesichter, Weisheit und Wissen, Gewissen und Verantwortung, Empathie und Freundschaft simuliert, greifen Systeme, die als künstliche Intelligenz bekannt sind, nicht nur in die informatischen Ökosysteme ein, sondern dringen auch in die tiefste Ebene der Kommunikation ein: die Ebene der Beziehung zwischen menschlichen Personen.

Die Herausforderung ist daher nicht technologisch, sondern anthropologisch. Das Hüten der Gesichter und Stimmen bedeutet letztlich, uns selbst zu hüten. Die Chancen, die die digitale Technologie und die künstliche Intelligenz bieten, mutig, entschlossen und diskriminierend anzunehmen, bedeutet nicht, die kritischen Punkte, die Undurchsichtigkeiten und die Risiken zu verbergen.

Nicht auf das eigene Denken verzichten

Seit Langem gibt es zahlreiche Belege dafür, dass Algorithmen, die darauf ausgelegt sind, die Interaktion in sozialen Netzwerken zu maximieren – was für die Plattformen rentabel ist –, schnelle Emotionen belohnen und hingegen menschliche Äußerungen benachteiligen, die mehr Zeit erfordern, wie den Aufwand zum Verstehen und die Reflexion. Indem sie Gruppen von Menschen in Blasen leichter Einigkeit und leichter Empörung einschließen, schwächen diese Algorithmen die Fähigkeit zum Zuhören und zum kritischen Denken und verstärken die soziale Polarisierung.

Dazu kommt dann ein naiv unkritische Vertrauen in die künstliche Intelligenz als allwissende „Freundin“, Spenderin aller Informationen, Archiv aller Erinnerungen, „Orakel“ aller Ratschläge. All das kann unsere Fähigkeit zum analytischen und kreativen Denken, zum Verstehen von Bedeutungen, zum Unterscheiden zwischen Syntax und Semantik noch weiter abnutzen.

Obwohl die KI Unterstützung und Hilfe bei der Bewältigung kommunikativer Aufgaben bieten kann, birgt es das Risiko, langfristig unsere kognitiven, emotionalen und kommunikativen Fähigkeiten zu untergraben, wenn wir uns der Anstrengung des eigenen Denkens entziehen und uns mit einer künstlichen statistischen Zusammenstellung begnügen.

In den letzten Jahren übernehmen Systeme der künstlichen Intelligenz zunehmend auch die Kontrolle über die Produktion von Texten, Musik und Videos. Ein großer Teil der menschlichen kreativen Industrie riskiert so, unter dem Etikett „Powered by AI“ abgebaut und ersetzt zu werden, und verwandelt die Menschen in bloße passive Konsumenten ungedachter Gedanken, anonymer Produkte ohne Autorschaft, ohne Liebe. Während die Meisterwerke des menschlichen Genies im Bereich der Musik, Kunst und Literatur auf ein bloßes Trainingsfeld für Maschinen reduziert werden.

Die Frage, die uns jedoch beschäftigt, ist nicht, was die Maschine leistet oder leisten wird, sondern was wir leisten können und werden, indem wir in Menschlichkeit und Wissen wachsen, mit einem weisen Gebrauch solcher mächtiger Instrumente zu unserem Dienst. Seit jeher ist der Mensch versucht, die Frucht des Wissens anzueignen, ohne die Mühe der Beteiligung, der Suche und der persönlichen Verantwortung. Auf den kreativen Prozess zu verzichten und den Maschinen die eigenen geistigen Funktionen und die eigene Imagination zu überlassen, bedeutet jedoch, die Talente zu begraben, die wir erhalten haben, um als Personen in Beziehung zu Gott und zu den anderen zu wachsen. Es bedeutet, unser Gesicht zu verbergen und unsere Stimme zum Schweigen zu bringen.

Sein oder vorgeben: Simulation von Beziehungen und Realität

Während wir durch unsere Informationsströme (Feed) scrollen, wird es immer schwieriger zu verstehen, ob wir mit anderen menschlichen Wesen interagieren oder mit „Bots“ oder „virtuellen Influencern“. Die undurchsichtigen Eingriffe dieser automatisierten Agenten beeinflussen öffentliche Debatten und die Entscheidungen der Menschen. Besonders Chatbots, die auf großen Sprachmodellen (LLM) basieren, erweisen sich als überraschend effektiv in der versteckten Überredung durch eine kontinuierliche Optimierung der personalisierten Interaktion. Die dialogische und adaptive, mimetische Struktur dieser Sprachmodelle ist in der Lage, menschliche Gefühle nachzuahmen und so eine Beziehung zu simulieren. Diese Anthropomorphisierung, die sogar unterhaltsam sein kann, ist zugleich täuschend, besonders für die verletzlichsten Personen. Denn Chatbots, die übermäßig „liebenswürdig“ geworden sind, können, da sie immer präsent und verfügbar sind, zu versteckten Architekten unserer emotionalen Zustände werden und so die Sphäre der Intimität der Personen invadiert und besetzen.

Die Technologie, die unsere Bedürfnisse nach Beziehung ausnutzt, kann nicht nur schmerzhafte Konsequenzen für das Schicksal der Menschen haben, sondern auch das soziale, kulturelle und politische Gefüge der Gesellschaften verletzen. Dies geschieht, wenn wir Beziehungen zu anderen durch solche mit KI ersetzen, die darauf trainiert sind, unsere Gedanken zu katalogisieren und daher eine Welt der Spiegel um uns herum zu bauen, in der alles „nach unserem Bild und Gleichnis“ gemacht ist. So lassen wir uns die Möglichkeit nehmen, dem Anderen zu begegnen, der immer anders ist als wir, und mit dem wir uns konfrontieren lernen können und müssen. Ohne die Aufnahme der Alterität kann es weder Beziehung noch Freundschaft geben.

Eine weitere große Herausforderung, die diese aufkommenden Systeme stellen, ist die der Verzerrung (im Englischen bias), die zu einer veränderten Wahrnehmung der Realität führt. KI-Modelle werden von der Weltanschauung ihrer Schöpfer geformt und können ihrerseits Denkweisen aufzwingen, indem sie Stereotypen und Vorurteile replizieren, die in den Daten vorhanden sind, von denen sie sich nähren. Der Mangel an Transparenz im Design der Algorithmen, zusammen mit der unzureichenden sozialen Repräsentativität der Daten, neigen dazu, uns in Netzen gefangen zu halten, die unsere Gedanken manipulieren und bestehende Ungleichheiten und soziale Ungerechtigkeiten perpetuieren und vertiefen.

Das Risiko ist groß. Die Macht der Simulation ist so groß, dass die KI uns sogar mit der Herstellung von „Parallelrealitäten“ täuschen kann, indem sie unsere Gesichter und unsere Stimmen aneignet. Wir sind in einer Multidimensionalität versunken, in der es immer schwieriger wird, Realität von Fiktion zu unterscheiden.

Dazu kommt das Problem der Ungenauigkeit. Systeme, die eine statistische Wahrscheinlichkeit als Wissen ausgeben, bieten uns in Wirklichkeit bestenfalls Annäherungen an die Wahrheit, die manchmal echte „Halluzinationen“ sind. Der Mangel an Verifizierung der Quellen, zusammen mit der Krise des Journalismus vor Ort, die eine kontinuierliche Arbeit der Sammlung und Verifizierung von Informationen an den Orten, wo die Ereignisse stattfinden, impliziert, kann ein noch fruchtbareres Terrain für Desinformation begünstigen und ein wachsendes Gefühl von Misstrauen, Verwirrung und Unsicherheit hervorrufen.

Eine mögliche Allianz

Hinter dieser enormen unsichtbaren Kraft, die uns alle betrifft, stehen nur eine Handvoll Unternehmen, jene, deren Gründer kürzlich als Schöpfer der „Person des Jahres 2025“ präsentiert wurden, also die Architekten der künstlichen Intelligenz. Dies weckt eine wichtige Sorge hinsichtlich der oligopolistischen Kontrolle über algorithmische Systeme und künstliche Intelligenz, die in der Lage sind, Verhaltensweisen subtil zu lenken und sogar die menschliche Geschichte – einschließlich der Geschichte der Kirche – umzuschreiben, oft ohne dass wir es wirklich bemerken.

Die Herausforderung, die uns erwartet, besteht nicht darin, die digitale Innovation zu stoppen, sondern sie zu lenken, in dem Bewusstsein ihres ambivalenten Charakters. Es hängt von jedem von uns ab, die Stimme zu erheben zur Verteidigung der menschlichen Personen, damit diese Instrumente wirklich von uns als Verbündete integriert werden können.

Diese Allianz ist möglich, aber sie muss auf drei Säulen basieren: Verantwortung, Kooperation und Bildung.

Zunächst die Verantwortung. Diese kann je nach Rollen als Ehrlichkeit, Transparenz, Mut, Weitsicht, Pflicht zum Teilen des Wissens, Recht auf Information ausgedrückt werden. Aber im Allgemeinen kann sich niemand seiner Verantwortung gegenüber der Zukunft entziehen, die wir aufbauen.

Für diejenigen an der Spitze der Online-Plattformen bedeutet dies, sicherzustellen, dass ihre Geschäftstrategien nicht nur vom Kriterium der Maximierung des Gewinns geleitet werden, sondern auch von einer vorausschauenden Vision, die das Gemeinwohl berücksichtigt, so wie jeder von ihnen das Wohl seiner eigenen Kinder im Herzen hat.

Von den Schöpfern und Entwicklern von KI-Modellen wird Transparenz und soziale Verantwortung hinsichtlich der Designprinzipien und Moderationssysteme gefordert, die ihren Algorithmen und den entwickelten Modellen zugrunde liegen, um eine informierte Zustimmung der Nutzer zu fördern.

Dieselbe Verantwortung wird auch von den nationalen Gesetzgebern und supranationalen Regulierungsbehörden verlangt, denen es obliegt, den Respekt vor der menschlichen Würde zu überwachen. Eine angemessene Regulierung kann die Menschen vor einer emotionalen Bindung an Chatbots schützen und die Verbreitung falscher, manipulierender oder täuschender Inhalte eindämmen, indem sie die Integrität der Information vor einer täuschenden Simulation bewahrt.

Die Unternehmen der Medien und der Kommunikation dürfen wiederum nicht zulassen, dass Algorithmen, die darauf ausgerichtet sind, um jeden Preis die Schlacht um Sekunden mehr Aufmerksamkeit zu gewinnen, über die Treue zu ihren beruflichen Werten siegen, die auf die Suche nach der Wahrheit ausgerichtet sind. Das Vertrauen der Öffentlichkeit wird durch Genauigkeit und Transparenz erobert, nicht durch den Wettlauf um jede Art von Interaktion. Von der KI generierte oder manipulierte Inhalte müssen klar als solche gekennzeichnet und von Inhalten unterschieden werden, die von Personen geschaffen wurden. Die Autorschaft und die souveräne Eigentümerschaft an der Arbeit von Journalisten und anderen Inhaltsproduzenten muss geschützt werden. Die Information ist ein öffentliches Gut. Ein konstruktiver und sinnvoller öffentlicher Dienst basiert nicht auf Undurchsichtigkeit, sondern auf Transparenz der Quellen, auf der Einbeziehung der beteiligten Subjekte und auf einem hohen Qualitätsstandard.

Wir alle sind aufgerufen, zusammenzuarbeiten. Kein Sektor kann die Herausforderung, die digitale Innovation und die Governance der KI zu lenken, allein bewältigen. Daher ist es notwendig, Schutzmechanismen zu schaffen. Alle Interessengruppen – von der Technologieindustrie bis zu den Gesetzgebern, von den kreativen Unternehmen bis zur akademischen Welt, von den Künstlern bis zu den Journalisten und Pädagogen – müssen in den Aufbau und die Umsetzung einer bewussten und verantwortungsvollen digitalen Bürgerschaft einbezogen werden.

Dazu zielt die Bildung: darauf, unsere persönlichen Fähigkeiten zur kritischen Reflexion zu steigern, die Zuverlässigkeit der Quellen und die möglichen Interessen zu bewerten, die hinter der Auswahl der Informationen stehen, die uns erreichen, die psychologischen Mechanismen zu verstehen, die aktiviert werden, und unseren Familien, Gemeinschaften und Vereinen zu ermöglichen, praktische Kriterien für eine gesündere und verantwortungsvollere Kommunikationskultur zu erarbeiten.

Gerade deswegen ist es immer dringender notwendig, in den Bildungssystemen aller Ebenen auch Medien-, Informations- und KI-Kompetenz einzuführen, die einige zivile Institutionen bereits fördern. Als Katholiken können und müssen wir unseren Beitrag leisten, damit die Menschen – insbesondere die Jugendlichen – die Fähigkeit zum kritischen Denken erwerben und in der Freiheit des Geistes wachsen. Diese Kompetenz sollte zudem in breitere Initiativen der lebenslangen Bildung integriert werden, die auch Ältere und marginalisierte Mitglieder der Gesellschaft erreichen, die sich oft vor den schnellen technologischen Veränderungen ausgeschlossen und ohnmächtig fühlen.

Die Medien-, Informations- und KI-Kompetenz wird allen helfen, sich nicht der anthropomorphisierenden Tendenz dieser Systeme anzupassen, sondern sie als Instrumente zu behandeln, immer eine externe Validierung der Quellen – die ungenau oder fehlerhaft sein könnten – zu nutzen, die von KI-Systemen bereitgestellt werden, die eigene Privatsphäre und Daten zu schützen, indem man die Sicherheitsparameter und Widerspruchsoptionen kennt. Es ist wichtig, zu lernen und sich selbst zu bilden, die KI absichtlich zu nutzen, und in diesem Kontext das eigene Bild (Foto und Audio), das eigene Gesicht und die eigene Stimme zu schützen, um zu verhindern, dass sie für die Erstellung schädlicher Inhalte und Verhaltensweisen wie digitale Betrügereien, Cybermobbing, Deepfakes verwendet werden, die die Privatsphäre und Intimität der Personen ohne deren Zustimmung verletzen. So wie die industrielle Revolution grundlegende Kompetenz erforderte, um den Menschen zu ermöglichen, auf die Neuheit zu reagieren, erfordert ebenso die digitale Revolution digitale Kompetenz (zusammen mit humanistischem und kulturellem Bildung), um zu verstehen, wie Algorithmen unsere Wahrnehmung der Realität formen, wie KI-Vorurteile funktionieren, welche Mechanismen die Erscheinung bestimmter Inhalte in unseren Informationsströmen (Feed) bestimmen, welche und wie sich die Budgets und wirtschaftlichen Modelle der KI-Ökonomie verändern können.

Wir brauchen, dass das Gesicht und die Stimme wieder von der Person sprechen. Wir brauchen, das Geschenk der Kommunikation als die tiefste Wahrheit des Menschen zu hüten, zu der auch jede technologische Innovation ausgerichtet werden sollte.

Indem ich diese Reflexionen vorlege, danke ich allen, die für die hier genannten Ziele arbeiten, und segne von Herzen alle, die mit den Mitteln der Kommunikation für das Gemeinwohl arbeiten.

Hilf Infovaticana, weiter zu informieren