Bisdom Haarlem-Amsterdam









Pausboodschap voor Wereldcommunicatiedag

Zondag 17 mei

gepubliceerd: zondag, 3 mei 2026
foto: Grok
Deze afbeelding is gemaakt met behulp van AI
Deze afbeelding is gemaakt met behulp van AI

In zijn bood­schap voor de 60ste Wereld­dag van Sociale Com­mu­ni­ca­tie roept paus Leo XIV op tot het behoud van men­se­lijke stemmen en gezichten in een tijd van toe­ne­mende digitalise­ring en kunst­ma­tige intel­li­gentie (AI). Wereld­com­muni­ca­tie­dag wordt in 2026 gevierd op zon­dag 17 mei.

Stemmen, gezichten en emoties

Volgens de paus zijn stemmen en gezichten essentieel voor men­se­lijke ont­moe­ting en com­mu­ni­ca­tie. Hij waar­schuwt dat digitale techno­lo­gie, wanneer die zon­der onder­schei­dings­ver­mo­gen wordt ingezet, kan lei­den tot verlies van kri­tisch denken, empathie en echte relaties. Met name algoritmes die gericht zijn op maximale aan­dacht en snelle emoties dragen volgens hem bij aan polari­sa­tie en sociale verar­ming.

De paus wijst ook op de risico’s van AI-systemen die men­se­lijke relaties en emoties simuleren. Deze kunnen mislei­dend zijn en vooral kwets­ba­re mensen beïn­vloe­den. Daar­naast bena­drukt hij het gevaar van desin­for­ma­tie en verva­ging van de grens tussen wer­ke­lijk­heid en fictie.

“We hebben gezichten en stemmen nodig om weer voor mensen te spreken. We moeten het geschenk van com­mu­ni­ca­tie koes­te­ren als de diepste waar­heid van de mens­heid, waarop ook alle techno­lo­gische innovatie gericht zou moeten zijn”, schrijft paus Leo.

Ge­za­men­lijke inzet en verant­woor­de­lijk­heid

De Heilige Vader onder­streept dat de uit­daging rond AI niet alleen techno­lo­gisch, maar vooral men­se­lijk en maat­schap­pe­lijk is. Hij pleit voor een ge­za­men­lijke inzet van over­he­den, techno­lo­giebe­drij­ven, media en onder­wijsin­stel­lingen, gebaseerd op verant­woor­de­lijk­heid, samen­wer­king en edu­ca­tie. Media‑ en digitale geletterd­heid zijn daarbij volgens hem onmis­baar.

“Voor degenen aan het roer van online platforms betekent dit ervoor zorgen dat hun bedrijfsstrategieën niet uit­slui­tend wor­den geleid door het criterium van winstmaximali­sa­tie, maar ook door een voor­uit­ziende visie die reke­ning houdt met het alge­meen belang”, aldus de paus.

Zijn bood­schap besluit met een oproep om com­mu­ni­ca­tie te blijven zien als een wezen­lijk men­se­lijke gave, waarbij techno­lo­gie dienend moet zijn aan ont­moe­ting en waar­heid. De paus zegent ter afslui­ting van harte ieder­een die zich inzet voor het alge­meen belang via de media.

Wapen van paus Leo XIV

BOODSCHAP VAN ZIJNE HEILIGHEID PAUS LEO XIV
VOOR DE 60ste WERELDDAG VAN SOCIALE COMMUNICATIE

Het Behou­den van Men­se­lijke Stemmen en Gezichten

 

Beste broe­ders en zusters,

Onze gezichten en stemmen zijn unieke, on­der­schei­dende kenmerken van ieder persoon; ze onthullen iemands eigen onherhaal­ba­re iden­ti­teit en zijn de bepalende kenmerken bij elke ont­moe­ting met anderen. De ouden begrepen dit goed. Om de mens te definiëren, gebruikten de oude Grieken het woord "gezicht" (prósōpon), omdat het etymo­lo­gisch uitdrukt wat er in iemands blik­veld ligt, de plaats van aanwe­zig­heid en relatie. De Latijnse term "persoon" (van per-sonare) roept daar­en­te­gen het idee van geluid op: niet zomaar elk geluid, maar het onmisken­ba­re geluid van iemands stem.

Gezichten en stemmen zijn heilig. God, die ons naar zijn beeld en gelijkenis heeft geschapen, gaf ze ons toen Hij ons tot leven riep door het Woord dat Hij tot ons richtte. Dit Woord weerklonk door de eeuwen heen door de stemmen van de profeten, en werd toen vlees in de loop der tijd. Ook wij hebben dit Woord gehoord en gezien (vgl. 1 Joh 1:1-3) - waarin God Zijn Zelf aan ons communi­ceert - omdat het ons bekend is gemaakt in de stem en het gezicht van Jezus, de Zoon van God.

Vanaf het moment van de schep­ping wilde God dat man en vrouw zijn gespreks­part­ners zou­den zijn, en zoals Sint Gregorius van Nyssa1 heeft uit­ge­legd, prentte hij een re­flec­tie van god­de­lijke liefde op ons gezicht, zodat we onze men­se­lijk­heid volle­dig kunnen beleven door liefde. Het behou­den van men­se­lijke gezichten en stemmen betekent dus het behou­den van dit merkteken, deze onuitwis­ba­re weer­spie­geling van Gods liefde. Wij zijn geen soort die bestaat uit vooraf gede­fi­ni­eerde bioche­mische formules. Ieder van ons bezit een onver­vang­ba­re en onna­volg­ba­re roe­ping, die voort­komt uit onze eigen geleefde erva­ring en zich mani­fes­teert door interactie met anderen.

Als wij falen in deze taak van behoud, dreigt de digitale techno­lo­gie enkele fun­da­men­tele pijlers van de men­se­lijke bescha­ving, die soms als van­zelf­spre­kend wor­den beschouwd, radicaal te ver­an­de­ren. Door men­se­lijke stemmen en gezichten, wijs­heid en kennis, bewust­zijn en verant­woor­de­lijk­heid, empathie en vriend­schap te simuleren, mengen de systemen die bekend staan als kunst­ma­tige intel­li­gentie zich niet alleen in in­for­ma­tie-eco­sys­te­men, maar dringen ze ook het diepste niveau van com­mu­ni­ca­tie binnen, name­lijk in men­se­lijke relaties.

De uit­daging is dus niet techno­lo­gisch, maar antropo­lo­gisch. Gezichten en stemmen be­scher­men betekent uit­ein­delijk ons­zelf be­scher­men. De kansen omarmen die digitale techno­lo­gie en kunst­ma­tige intel­li­gentie bie­den met moed, vastbera­den­heid en onder­schei­dings­ver­mo­gen betekent niet dat je de ogen moet sluiten voor kri­tieke kwesties, com­ple­xi­teiten en risico's.

Verwerp je vermogen om te denken niet

Er is al lang over­vloe­dig bewijs dat algoritmes die ont­wor­pen zijn om de be­trok­ken­heid op sociale media te maximaliseren - wat winst­ge­vend is voor platforms - snelle emoties belonen en tijdrovende men­se­lijke reacties, zoals de in­span­ning die nodig is om te begrijpen en te reflec­te­ren, afstraffen. Door mensen te groeperen in bubbels van ge­mak­ke­lijke consensus en ge­mak­ke­lijke veront­waar­diging, vermin­de­ren deze algoritmen ons vermogen om te luis­te­ren en kri­tisch te denken, en ver­gro­ten ze sociale polari­sa­tie.

Dit wordt ver­der ver­sterkt door een naïeve en onvoor­waar­de­lijke af­han­ke­lijk­heid van kunst­ma­tige intel­li­gentie als alwetende "vriend", een bron van alle kennis, een archief van elke her­in­ne­ring, een "orakel" van alle adviezen. Dit alles kan ons vermogen om analy­tisch en crea­tief te denken, bete­ke­nis te begrijpen en on­der­scheid te maken tussen grammatica en de bete­ke­nis van taal (syntaxis en seman­tiek) ver­der ondermijnen.

Hoewel AI support en onder­steu­ning kan bie­den bij het beheren van com­mu­ni­ca­tietaken, dreigt het op de lange termijn onze cognitieve, emo­tio­nele en com­mu­ni­ca­tieve vaar­dig­he­den te vermin­de­ren als je kiest voor kunst­ma­tige statis­tische compilaties.

In de afgelopen jaren hebben kunst­ma­tige intel­li­gentie­sys­te­men steeds meer de controle over­ge­no­men over de productie van teksten, muziek en video's. Dit brengt een groot deel van de men­se­lijke creatieve industrie in gevaar om te wor­den ont­man­teld en ver­vangen door het label "Powered by AI", waardoor mensen passieve consu­menten wor­den van ondoor­dachte bedenksels en anonieme producten zon­der eige­naar­schap of liefde. Onder­tus­sen wor­den meester­werken van men­se­lijke geniali­teit op het gebied van muziek, kunst en literatuur geredu­ceerd tot louter oefen­ter­reinen voor machines.

De kern­vraag is echter niet wat machines kunnen of gaan kunnen, maar wat we kunnen en gaan kunnen bereiken door te groeien in men­se­lijk­heid en kennis door het ver­stan­dig gebruik van de krach­tige hulp­mid­de­len die tot onze dienst staan. In­di­vi­duen hebben altijd gestreefd naar het ver­krij­gen van de vruchten van kennis zon­der de in­span­ning die nodig is voor toe­wij­ding, onder­zoek en per­soon­lijke verant­woor­de­lijk­heid. Maar het opgeven van creativi­teit en het over­ge­ven van onze mentale capaci­teiten en ver­beel­ding aan machines zou betekenen dat we de talenten, die we hebben gekregen om als in­di­vi­duen te groeien in relatie tot God en anderen, moeten begraven. Het zou betekenen dat we ons gezicht ver­bergen en onze stemmen het zwijgen opleggen.

Zijn of doen alsof: relaties en reali­teit simuleren

Terwijl we door onze feeds scrollen, wordt het steeds moei­lijker om te bepalen of we met andere mensen omgaan of met "bots" of "virtuele in­flu­en­cers." De min­der transparante interventies van deze geautomatiseerde tussen­personen beïn­vloe­den publieke debatten en de keuzes van mensen. Chatbots gebaseerd op grote taal­mo­dellen (LLM's) blijken verrassend ef­fec­tief te zijn in ongemerkt overtuigen door continue optimali­sa­tie van gepersonaliseerde interactie. De dia­lo­gische, adaptieve, mime­tische structuur van deze taal­mo­dellen is in staat men­se­lijke gevoelens na te bootsen en zo een relatie te simuleren. Hoewel deze antropomorfise­ring vermake­lijk kan zijn, is het ook mislei­dend, vooral voor de meest kwets­ba­ren. Omdat chatbots over­dre­ven "lief­heb­bend" zijn, en bovendien altijd aanwe­zig en toe­gan­ke­lijk, kunnen ze verborgen architecten van onze emo­tio­nele toestand wor­den en zo onze sfeer van intimi­teit binnen­drin­gen en bezetten.

Techno­lo­gie die onze behoefte aan relaties uitbuit, kan niet alleen pijn­lijke gevolgen hebben in het leven van in­di­vi­duen, maar ook schade veroor­zaken in het sociale, culturele en poli­tieke weefsel van de samen­le­ving. Dit gebeurt wanneer we relaties met anderen ver­vangen door AI-systemen die onze gedachten catalogiseren, waardoor een wereld van spiegels om ons heen ont­staat, waarin alles wordt gemaakt "naar ons beeld en gelijkenis." We wor­den zo beroofd van de kans om anderen te ont­moe­ten, die altijd anders zijn dan wij­zelf, en met wie we kunnen en moeten leren om te gaan. Zonder anderen te omarmen, kunnen er geen relaties of vriend­schappen zijn.

Een andere grote uit­daging die deze opko­men­de systemen met zich mee­bren­gen, is bevooroor­deeld zijn s, wat leidt tot het ver­krij­gen en door­ge­ven van een ver­an­der­de waarne­ming van de reali­teit. AI-modellen wor­den gevormd door het wereld­beeld van degenen die ze bouwen en kunnen op hun beurt deze denk­wij­zen opleggen door de ste­reo­ty­pen en vooroor­de­len te reproduceren die aanwe­zig zijn in de data waaruit ze putten. Een gebrek aan tran­spa­ran­tie in algorit­misch programmeren, samen met on­vol­doen­de sociale repre­sen­ta­tie van data, zorgt ervoor dat we gevangen zitten in net­werken die onze gedachten manipuleren en bestaande sociale onge­lijk­he­den en onrecht­vaar­dig­he­den ver­gro­ten en ver­ster­ken.

De inzet is hoog. De kracht van simulatie is zo groot dat AI ons zelfs kan mislei­den door pa­ral­lel­le "wer­ke­lijk­he­den" te fabriceren, waarbij het onze gezichten en stemmen overneemt. We zijn ondergedom­peld in een wereld van multidimen­sio­nali­teit waarin het steeds moei­lijker wordt om wer­ke­lijk­heid van fictie te on­der­schei­den.

Onnauw­keurig­heid verer­gert dit probleem alleen maar. Systemen die statis­tische waar­schijn­lijk­heid als kennis presen­te­ren, bie­den ons hooguit bena­deringen van de waar­heid, wat soms regel­rechte illusies zijn. Het niet verifiëren van bronnen, gecom­bi­neerd met de crisis in veld­rap­portage, waarbij voort­du­rend in­for­ma­tie wordt verza­meld en geverifieerd op de plaatsen waar gebeur­te­nissen plaats­vin­den, kan desin­for­ma­tie ver­der aan­wak­ke­ren en een groeiend gevoel van wan­trouwen, ver­war­ring en onzeker­heid veroor­zaken.

Een moge­lijke alliantie

Achter deze enorme onzicht­ba­re kracht die ons allemaal raakt, zijn er slechts een hand­vol bedrijven, waar­van de oprichters onlangs wer­den ge­pre­sen­teerd als de makers van de "Persoon van het Jaar 2025", te weten de architecten van kunst­ma­tige intel­li­gentie. Dit roept aanzien­lijke zorgen op over de eenzij­dige, oligopolis­tische controle van algorit­mische systemen en kunst­ma­tige intel­li­gentie, die in staat zijn om gedrag subtiel te beïn­vloe­den en zelfs de men­se­lijke ge­schie­de­nis - inclusief de ge­schie­de­nis van de Kerk - te her­schrij­ven, vaak zon­der dat we het echt door­heb­ben.

De taak die voor ons ligt is niet om digitale innovatie te stoppen, maar om deze te sturen en ons bewust te zijn van de ambivalente aard ervan. Het is aan ieder van ons om onze stem te verheffen ter ver­de­di­ging van de men­se­lijk­heid, zodat we deze AI-instru­menten echt kunnen integreren als bond­ge­no­ten.

Deze alliantie is moge­lijk, maar moet gebaseerd zijn op drie pijlers: verant­woor­de­lijk­heid, samen­wer­king en onder­wijs.

1) Verant­woor­de­lijk­heid

Aller­eerst verant­woor­de­lijk­heid. Af­han­ke­lijk van de rol die we spelen, kan verant­woor­de­lijk­heid wor­den begrepen als eer­lijk­heid, tran­spa­ran­tie, moed, voor­uit­ziend­heid, de plicht om kennis te delen of het recht om geïn­for­meerd te wor­den. Als alge­meen principe kan echter niemand per­soon­lijke verant­woor­de­lijk­heid voor de toe­komst die we bouwen ontlopen.

Voor degenen aan het roer van online platforms betekent dit ervoor zorgen dat hun bedrijfsstrategieën niet uit­slui­tend wor­den geleid door het criterium van winstmaximali­sa­tie, maar ook door een voor­uit­ziende visie die reke­ning houdt met het alge­meen belang, net zoals ieder van hen geeft om het wel­zijn van hun eigen kin­de­ren.

De makers en ontwikke­laars van AI-modellen wor­den uit­ge­no­digd tran­spa­ran­tie en maat­schap­pe­lijke verant­woor­de­lijk­heid te beoefenen met betrek­king tot de ontwerp­prin­ci­pes en moderatie­sys­te­men die ten grond­slag liggen aan hun algoritmes en de modellen die zij ont­wik­ke­len, om zo geïn­for­meerde toestem­ming van gebruikers te bevor­de­ren.

Dezelfde verant­woor­de­lijk­heid wordt ook geëist van natio­nale wetgevers en supra­na­tio­nale toe­zichthou­ders, wier taak het is om respect voor men­se­lijke waar­dig­heid te waar­bor­gen. Passende regule­ring kan in­di­vi­duen be­scher­men tegen het aan­gaan van emo­tio­nele ban­den met chatbots en de versprei­ding van valse, manipulatieve of mislei­dende inhoud beperken, waardoor de in­te­gri­teit van in­for­ma­tie wordt beschermd in plaats van de mislei­dende naboot­sing daar­van.

Media- en com­mu­ni­ca­tiebe­drij­ven kunnen op hun beurt niet toestaan dat algoritmes die ont­wor­pen zijn om koste wat het kost een paar extra secon­den aan­dacht te trekken, hun pro­fes­sio­nele waar­den, gericht op het zoeken naar waar­heid, over­heer­sen. Het publieke ver­trouwen wordt ver­diend door nauw­keurig­heid en tran­spa­ran­tie, niet door het najagen van een moge­lijke be­trok­ken­heid. Inhoud die door AI wordt gegenereerd of gemanipuleerd, moet dui­de­lijk wor­den gemar­keerd en on­der­schei­den van inhoud die door mensen is gemaakt. Het auteur­schap en het soevereine eigendom van het werk van jour­na­listen en andere con­tentmakers moeten wor­den beschermd. In­for­ma­tie is een publiek goed. Een con­struc­tieve en bete­ke­nis­volle publieke dienst is niet gebaseerd op ondoorzich­tig­heid, maar op tran­spa­ran­tie van bronnen, de par­ti­ci­pa­tie van betrok­ke­nen en hoge kwali­teitsnormen.

2) Samen­wer­king

We wor­den allemaal opge­roe­pen om samen te werken. Geen enkele sector kan de uit­daging van het sturen van digitale innovatie en AI-bestuur alleen aan­gaan. Er moeten daarom waar­bor­gen wor­den inge­steld. Alle belang­heb­ben­den - van de tech-industrie tot wetgevers, van creatieve bedrijven tot acade­mische wereld, van kunste­naars tot jour­na­listen en docenten - moeten betrokken zijn bij het opbouwen en implemen­te­ren van geïn­for­meerd en verant­woor­de­lijk digi­taal bur­ger­schap.

3) Onder­wijs

Onder­wijs streeft precies naar het volgende: ons per­soon­lijke vermogen om kri­tisch te denken te ver­gro­ten; te evalueren of onze bronnen betrouw­baar zijn en de moge­lijke belangen achter het selec­te­ren van de in­for­ma­tie waartoe we toegang hebben; het begrijpen van de psycho­lo­gische mechanismen die erbij betrokken zijn; en onze families, ge­meen­schappen en vereni­gingen in staat stellen prak­tische criteria te ont­wik­ke­len voor een gezon­dere en verant­woor­de­lijkere com­mu­ni­ca­tie­cul­tuur.

Om deze reden is het steeds dringen­der om media-, in­for­ma­tie- en AI-geletterd­heid te introduceren in onder­wijs­sys­te­men op alle niveaus, zoals al wordt gepromoot door som­mi­ge civiele in­stel­lingen. Als katho­lieken kunnen en moeten we bijdragen aan deze in­span­ning, zodat in­di­vi­duen - vooral jon­ge­ren - kri­tisch denken kunnen ont­wik­ke­len en kunnen groeien in gees­te­lij­ke vrij­heid. Deze geletterd­heid moet ook wor­den geïntegreerd in bre­dere ini­tia­tie­ven voor levenslang leren, waarbij oudere vol­was­se­nen en ge­mar­gi­na­li­seerde leden van de samen­le­ving wor­den bereikt, die zich vaak buiten­ge­slo­ten en mach­te­loos voelen tegen­over snelle techno­lo­gische ver­an­de­ringen.

Media-, in­for­ma­tie- en AI-geletterd­heid zal mensen helpen om te voor­ko­men dat ze zich aanpassen aan de nei­gingen tot vermen­se­lij­king van AI-systemen, en stellen hen in staat deze systemen als hulp­mid­de­len te behan­de­len en altijd externe validatie toe te passen van de bronnen die door AI-systemen wor­den geleverd - die onjuist of incorrect kunnen zijn. Geletterd­heid zorgt ook voor betere privacy en gege­vens­be­scher­ming door meer bewust­zijn over beveili­gingspara­me­ters en klachten­moge­lijk­heden. Het is be­lang­rijk om ons­zelf en anderen te in­for­meren over hoe we AI doelbewust kunnen gebruiken, en in deze context om ons beeld­ma­te­riaal (foto's en audio), ons gezicht en onze stem te be­scher­men, om te voor­ko­men dat ze wor­den gebruikt bij het creëren van scha­de­lijke inhoud en mis­bruik door digitale fraude, cyberpesten en deepfakes, die de privacy en intimi­teit van mensen schen­den zon­der hun toestem­ming. Net zoals de industriële revolutie basisge­let­terd­heid vereiste om mensen in staat te stellen te rea­geren op nieuwe ont­wik­ke­lingen, vereist de digitale revolutie ook digitale geletterd­heid (samen met humanis­tische en culturele edu­ca­tie) om te begrijpen hoe algoritmen onze waarne­ming van de reali­teit vormen, hoe AI-vooroor­de­len werken en welke mechanismen bepalen hoe bepaalde inhoud in onze tijdlijnen of feeds aanwe­zig is. En ook wat de econo­mische principes en modellen van de AI-economie zijn en hoe deze kunnen ver­an­de­ren.

We hebben gezichten en stemmen nodig om weer voor mensen te spreken. We moeten het geschenk van com­mu­ni­ca­tie koes­te­ren als de diepste waar­heid van de mens­heid, waarop ook alle techno­lo­gische innovatie gericht zou moeten zijn.

Bij het uiteen­zet­ten van deze re­flec­ties dank ik ieder­een die werkt aan de hierboven be­schre­ven doelen en ik zegen van harte ieder­een die zich inzet voor het alge­meen belang via de media.

Uit het Vati­caan, 24 januari 2026, ge­dach­te­nis van Sint-Fran­cis­cus van Sales

+ LEO PP. XIV

 

_____________________

Voetnoten

  1. "Het feit dat hij naar het beeld van God is geschapen, betekent dat de mens, vanaf het moment van zijn schep­ping, is ingeprent met een ko­nin­klijk karakter [...]. God is liefde en de bron van liefde: de Schepper van onze natuur heeft dit ook tot ons kenmerk gemaakt, zodat door liefde - een weer­spie­geling van god­de­lijke liefde - mensen de waar­dig­heid van hun natuur en hun gelijkenis met hun Schepper kunnen herkennen en manifes­te­ren" (vgl. Sint Gregorius van Nyssa, Over het Maken van de Mens: PG 44, 137).

 

Systeem­ver­ta­ling uit de Engelse tekst.
Eindredactie: A. Kruse, MA
Copyright: Libreria Editrice Vaticana/SRKK




Bisdom Haarlem - Amsterdam • Postbus 1053 • 2001 BB  Haarlem • (023) 511 26 00 • info@bisdomhaarlem-amsterdam.nlDisclaimerDeze website is gerealiseerd door iMoose