dissabte, 16 de maig del 2026

Missatge per a la Jornada Mundial de les Comunicacions Socials (Lleó XVI, 2026)


MISSATGE DEL SANT PARE LLEÓ XIV

PER A LA LX JORNADA MUNDIAL DE LES COMUNICACIONS SOCIALS


Custodiar veus i rostres humans




Benvolguts germans i germanes,

El rostre i la veu són trets únics, distintius, de cada persona; manifesten la seua identitat irrepetible i són l’element constitutiu de qualsevol encontre. Els antics ho sabien bé. Així, per a definir la persona humana, els antics grecs empraren la paraula «rostre» (prósōpon), que etimològicament indica ‘allò que és a la vista, el lloc de la presència i de la relació’. El terme llatí persona (de per-sonare), en canvi, inclou el so; no qualsevol so, sinó la veu inconfusible d’algú.

El rostre i la veu són sagrats. Ens han estat donats per Déu, que ens ha creat a la seua imatge i semblança, i ens ha cridat a la vida amb la Paraula que Ell mateix ens ha adreçat. La Paraula va ressonar primer al llarg dels segles en les veus dels profetes, i després es va fer carn en la plenitud dels temps. Esta Paraula —esta comunicació que Déu fa d’ell mateix— l’hem poguda escoltar i vore directament (cf. 1Jo 1,1-3), perquè es va fer conéixer en la veu i en el rostre de Jesús, Fill de Déu.

Des del moment de la seua creació, Déu ha volgut el ser humà com a interlocutor seu i, com diu sant Gregori de Nissa [1], ha imprés en el seu rostre un reflex de l’amor diví, per tal que puga viure plenament la humanitat per mitjà de l’amor. Per tant, custodiar rostres i veus humanes significa conservar este segell, este reflex indeleble de l’amor de Déu. No som una espècie feta d’algoritmes bioquímics definits per anticipat. Cada u de nosaltres té una vocació insubstituïble i inimitable que sorgix de la vida i que es manifesta precisament en la comunicació amb els altres.

La tecnologia digital, quan no complim esta custòdia, corre el risc de modificar radicalment alguns dels pilars fonamentals de la civilització humana, que a vegades donem per descomptats. Simulant veus i rostres humans, saviesa i coneiximent, consciència i responsabilitat, empatia i amistat, els sistemes coneguts com intel·ligència artificial no només interferixen en els ecosistemes informatius, sinó que també assalten l’àmbit més profund de la comunicació: el de la relació entre les persones.

El repte, per tant, no és tecnològic sinó antropològic. Custodiar els rostres i les veus significa, en última instància, cuidar-nos nosaltres mateixos. Acollir amb valentia, determinació i discerniment les oportunitats que oferixen la tecnologia digital i la intel·ligència artificial no significa ocultar-nos els punts crítics, les opacitats, els riscos.

No renunciar al pensament propi

Des de fa temps hi ha múltiples proves del fet que algoritmes dissenyats per a maximitzar la implicació en les xarxes socials —rendible per a les plataformes— premien emocions ràpides i, en canvi, penalitzen expressions humanes que necessiten temps, com l’esforç per comprendre i la reflexió. En tancar grups de persones en bombolles de consens fàcil i d’indignació fàcil, estos algoritmes debiliten la capacitat d’escolta i de pensament crític i augmenten la polarització social.

A això cal sumar una confiança ingènuament acrítica en la intel·ligència artificial com a «amiga» omniscient, dispensadora de qualsevol informació, arxiu de qualsevol memòria, «oracle» de qualsevol consell. Tot això pot desgastar encara més la nostra capacitat de pensar de manera analítica i creativa, de comprendre els significats, de distingir entre sintaxi i semàntica.

Encara que la IA pot proporcionar suport i assistència en la gestió de tasques comunicatives, eludir l’esforç de pensar per nosaltres mateixos i conformar-nos amb una recopilació estadística artificial, a la llarga, corre el risc d’erosionar les nostres capacitats cognitives, emocionals i comunicatives.

En els darrers anys, els sistemes d’intel·ligència artificial estan assumint cada vegada més el control de la producció de textos, música i vídeos. Gran part de la indústria creativa humana corre així el risc de ser desmantellada i substituïda per l’etiqueta «Powered by AI», i convertirà les persones en simples consumidors passius de pensaments no pensats, de productes anònims, sense autoria, sense amor. Mentrestant les obres mestres del geni humà en el camp de la música, l’art i la literatura es reduïxen a un simple camp d’entrenament per a les màquines.

Però la qüestió que ens importa no és el que la màquina arriba o arribarà a fer, sinó què podem o podrem fer nosaltres, creixent en humanitat i coneiximent, amb un ús savi d’instruments tan poderosos al nostre servici. Des de sempre, el ser humà s’ha vist temptat d’apropiar-se del fruit del coneiximent sense l’esforç que comporten el compromís, la investigació i la responsabilitat personal. No obstant això, renunciar al procés creatiu i cedir a les màquines les nostres funcions mentals i la nostra imaginació significa enterrar els talents que hem rebut per a créixer com a persones en relació amb Déu i amb els altres. Significa ocultar el nostre rostre i silenciar la nostra veu.

Ser o fingir: simulació de les relacions i de la realitat

A mesura que ens desplacem pels nostres fluxos d’informacions (feeds), cada vegada és més difícil saber si estem interactuant amb altres sers humans o amb bots o virtual influencers. Les intervencions opaques d’estos agents automatitzats influïxen en els debats públics i en les decisions de les persones. En particular, els chatbots basats en grans models lingüístics (LLM) es mostren sorprenentment eficaços en la persuasió oculta, per mitjà una optimització contínua de la interacció personalitzada. L’estructura dialògica i adaptativa, mimètica, d’estos models lingüístics és capaç d’imitar els sentiments humans i de simular així una relació. Esta antropomorfització, que fins i tot pot resultar divertida, és alhora enganyosa, sobretot per a les persones més vulnerables. Perquè els chatbots excessivament «afectuosos», a més d’estar sempre presents i disponibles, es poden convertir en arquitectes ocults dels nostres estats emocionals i, d’esta manera, assaltar i ocupar l’esfera de la intimitat de les persones.

La tecnologia que s’aprofita de la nostra necessitat de relacionar-nos no només pot tindre conseqüències doloroses per al destí de les persones, sinó que també pot danyar el teixit social, cultural i polític de les societats. Això passa quan substituïm les relacions amb els altres per relacions amb IA entrenades per a catalogar els nostres pensaments i, per tant, per a construir al nostre voltant un món d’espills, on tot està fet «a la nostra imatge i semblança». D’esta manera, ens privem de la possibilitat de trobar l’altre, que sempre és diferent de nosaltres i amb qui podem i hem d’aprendre a relacionar-nos. Sense l’acceptació de l’alteritat no pot haver-hi ni relació ni amistat.

Un altre gran repte que plantegen estos sistemes emergents és el de la parcialitat (en anglés bias), que porta a adquirir i transmetre una percepció distorsionada de la realitat. Els models de la IA estan modelats per la visió del món dels qui els construïxen i, alhora, poden imposar formes de pensar que repliquen els estereotips i els prejudicis presents en les dades de les quals s’alimenten. La falta de transparència en el disseny dels algoritmes, juntament amb una representació social inadequada de les dades, tendixen a mantindre’ns atrapats en xarxes que manipulen els nostres pensaments i perpetuen i aprofundixen les desigualtats i les injustícies socials existents.

El risc és gran. El poder de la simulació és tan gran que la intel·ligència artificial també pot enganyar-nos amb la fabricació de «realitats» paral·leles, apropiant-se dels nostres rostres i de les nostres veus. Estem immersos en una multidimensionalitat en què cada vegada és més difícil distingir la realitat de la ficció.

A això cal afegir el problema de la falta de precisió. Els sistemes que fan passar una probabilitat estadística per coneiximent ens oferixen, en realitat, com a molt, aproximacions a la veritat, que a vegades són autèntiques «al·lucinacions». La falta de verificació de les fonts, juntament amb la crisi del periodisme de camp —que implica un treball continu de recopilació i verificació d’informació en els llocs on passen els esdeveniments—, pot afavorir un terreny encara més fèrtil per a la desinformació, i provocar una sensació creixent de desconfiança, desconcert i inseguretat.

Una possible aliança

Darrere d’esta enorme força invisible que ens involucra a tots, hi ha només un grapat d’empreses, aquelles els fundadors de les quals han estat recentment presentats com els creadors de la «persona de l’any 2025», és a dir, els arquitectes de la intel·ligència artificial. Això suscita una preocupació important pel control de l’oligopoli dels sistemes algorítmics i de la intel·ligència artificial capaços d’orientar subtilment els comportaments i fins i tot de reescriure la història de la humanitat —inclosa la història de l’Església— sovint sense que ens n’adonem realment.

El repte que ens espera no és frenar la innovació digital, sinó guiar-la, i ser conscients del seu caràcter ambivalent. Correspon a cada u de nosaltres alçar la veu en defensa de les persones humanes a fi que estos instruments puguen ser realment integrats per nosaltres com a aliats.

Esta aliança és possible, però ha de fonamentar-se en tres pilars: responsabilitat, cooperació i educació.

En primer lloc, la responsabilitat. Segons les funcions, esta es pot traduir en honestedat, transparència, valentia, capacitat de visió, deure de compartir coneiximents, dret a estar informat. Però, en general, no pot eludir ningú la seua responsabilitat davant del futur que estem construint.

Per a aquells que es troben en la cúspide de les plataformes online, això significa assegurar-se que les estratègies empresarials no estiguen guiades només pel criteri del màxim benefici, sinó també per una visió de futur que tinga en compte el bé comú, de la mateixa manera que cada u d’ells es preocupa pel benestar dels seus fills.

Als creadors i programadors de models d’IA se’ls demana transparència i responsabilitat social respecte als principis de planificació i als sistemes de moderació que hi ha a la base dels seus algoritmes i dels models dissenyats, amb la finalitat d’afavorir un consens informat per part dels usuaris.

La mateixa responsabilitat s’exigix també als legisladors nacionals i a les entitats reguladores supranacionals, a les quals correspon vetlar pel respecte de la dignitat humana. Una reglamentació adequada pot protegir les persones de crear vincles emocionals amb els chatbots i contindre la difusió de continguts falsos, manipuladors o confusos, preservant la integritat de la informació davant d’una simulació enganyosa d’ella mateixa.

Les agències de notícies i els mitjans de comunicació no poden permetre, al seu torn, que els algoritmes orientats a guanyar coste el que coste la batalla per uns segons més d’atenció, prevalguen sobre la fidelitat als seus valors professionals, orientats a la recerca de la veritat. La confiança del públic es guanya amb la precisió i la transparència, no amb la recerca de qualsevol classe d’implicació. Els continguts generats o manipulats per la IA s’han d’indicar i de distingir clarament dels continguts creats per persones. Cal protegir l’autoria i la propietat sobirana del treball dels periodistes i dels altres creadors de continguts. La informació és un bé públic. Un servici públic constructiu i significatiu no es fonamenta en l’opacitat, sinó en la transparència de les fonts, la inclusió de les parts implicades i un alt nivell de qualitat.

Tots estem cridats a cooperar. Cap sector no pot afrontar tot sol el repte de guiar la innovació digital ni la manera de governar la IA. Cal, per tant, crear mecanismes de protecció. Totes les parts interessades —des de la indústria tecnològica fins als legisladors, des de les empreses creatives fins al món acadèmic, des dels artistes fins als periodistes i els educadors— han d’implicar-se en la construcció i la implementació d’una ciutadania digital conscient i responsable.

A això mira l’educació: a augmentar les nostres capacitats personals de reflexió crítica; a avaluar la credibilitat de les fonts i els possibles interessos que hi ha darrere de la selecció d’informació que ens arriba; a comprendre els mecanismes psicològics que activen; i a permetre a les nostres famílies, comunitats i associacions elaborar criteris pràctics per a una cultura de la comunicació més sana i responsable.

Precisament per això és cada vegada més urgent introduir en tots els nivells del sistema educatiu també l’alfabetització en els mitjans de comunicació, en la informació i en la IA, que algunes institucions civils ja estan promovent. Com a catòlics, podem i hem de fer la nostra contribució per a que les persones, especialment jóvens, adquirixquen la capacitat de pensar críticament i cresquen en la llibertat de l’esperit. Esta alfabetització també s’hauria d’integrar en iniciatives més àmplies d’educació permanent, i arribar també a les persones grans i als membres marginats de la societat, que sovint se senten exclosos i impotents davant dels ràpids canvis tecnològics.

L’alfabetització en els mitjans de comunicació, en la informació i en la IA ajudarà a tots a no adaptar-se a la deriva antropomorfitzant d’estos sistemes, sinó a tractar-los com a eines; a utilitzar sempre una validació externa de les fonts —que podrien ser imprecises o errònies— proporcionades pels sistemes d’IA; a protegir la seua privacitat i les seues dades coneixent els paràmetres de seguretat i les opcions d’impugnació. És important educar i educar-se per a fer servir la IA de manera intencional i, en este context, cuidar la pròpia imatge (foto i àudio), el propi rostre i la pròpia veu, per a evitar que siguen utilitzats en la creació de continguts i comportaments nocius com estafes digitals, ciberassetjaments o deepfakes que violen la privacitat i la intimitat de les persones sense el seu consentiment. Igual que la revolució industrial exigia una alfabetització bàsica per tal que les persones pogueren reaccionar davant de les novetats, la revolució digital també requerix una alfabetització digital (al costat d’una formació humanística i cultural) per a comprendre com els algoritmes modelen la nostra percepció de la realitat, com funcionen els prejudicis de la IA, quins són els mecanismes que determinen l’aparició de determinats continguts en els nostres fluxos d’informació (feeds), quins són i com poden canviar els supòsits i models econòmics de l’economia de la IA.

Necessitem que el rostre i la veu tornen a expressar la persona. Necessitem custodiar el do de la comunicació com la veritat més profunda del ser humà, cap a la qual cal orientar també tota innovació tecnològica.

En proposar estes reflexions, done les gràcies a aquells que estan treballant pels objectius ací exposats i beneïxc de tot cor a tots els qui treballen pel bé comú amb els mitjans de comunicació.

Vaticà, 24 de gener de 2026, memòria de sant Francesc de Sales.

LLEÓ XIV PP.

[Versió valenciana de F. Xavier Martí]
_________________

[1] «El fet d’haver estat creats a imatge de Déu significa que, en l’home, des del moment de la seua creació, li ha estat imprés un caràcter reial. […] Déu és amor i font d’amor; el Creador diví també ha posat este tret en el nostre rostre, a fi que, per mitjà de l’amor —reflex de l’amor diví—, el ser humà reconega i manifeste la dignitat de la seua naturalesa i la semblança amb el seu Creador» (cf. sant Gregori de Nissa, La creació de l’home: PG 44, 137).

Cap comentari:

Publica un comentari a l'entrada

entrada destacada

Missatge per a la Jornada Mundial de les Comunicacions Socials (Lleó XVI, 2026)

MISSATGE DEL SANT PARE LLEÓ XIV PER A LA LX JORNADA MUNDIAL DE LES COMUNICACIONS SOCIALS Custodiar veus i rostres humans [ Versió en PDF ] B...