This article presents an overview of the “Note on the Relationship Between Artificial Intelligence and Human Intelligence,” released in Rome on January 28, 2025, at the offices of the Dicastery for the Doctrine of the Faith and the Dicastery for Culture and Education. The text explores the ethical and social implications of AI, highlighting both its potential benefits and risks.
In a Note on the relationship between artificial intelligence and human intelligence, the Dicasteries for the Doctrine of the Faith and for Culture and Education highlight the potential and the challenges of artificial intelligence in the areas of education, the economy, labour, health, human and international relations, and war.
By Salvatore Cernuzio
The Pope’s warnings about Artificial Intelligence in recent years provide the outline for “Antiqua et Nova,” the “Note on the relationship between artificial intelligence and human intelligence,” that offers the results of a mutual reflection between the Dicastery for the Doctrine of the Faith and the Dicastery for Culture and Education. The new document is addressed especially to “those entrusted with transmitting the faith,” but also to “those who share the conviction that scientific and technological advances should be directed toward serving the human person and the common good” [5].
In 117 paragraphs, “Antiqua et Nova” highlights challenges and opportunities of the development of Artificial Intelligence (AI) in the fields of education, economy, work, health, relationships, and warfare. In the latter sphere, for instance, the document warns of the AI’s potential to increase “the instruments of war well beyond the scope of human oversight and precipitating a destabilizing arms race, with catastrophic consequences for human rights” [99].
Dangers and progress
Specifically, the document lists not only the risks but also the progress associated with AI, which it encourages as “part of the collaboration of man and woman with God” [2]. However, it does not avoid the concerns that come with all innovations, whose effects are still unpredictable.
Distinguishing between AI and human intelligence
Several paragraphs of the Note are devoted to the distinction between AI and human intelligence. Quoting Pope Francis, the document affirms that “the very use of the word ‘intelligence’ in connection to AI ‘can prove misleading’… in light of this, AI should not be seen as an artificial form of human intelligence, but as a product of it” [35]. “Like any product of human ingenuity, AI can also be directed toward positive or negative ends” [40]. “AI ‘could introduce important innovations’” [48] but it also risks aggravating situations of discrimination, poverty, “digital divide,” and social inequalities [52]. “the concentration of the power over mainstream AI applications in the hands of a few powerful companies raises significant ethical concerns,” including “the risk that AI could be manipulated for personal or corporate gain or to direct public opinion for the benefit of a specific industry” [53].
War
With reference to war, “Antiqua et Nova” stresses that autonomous and lethal weapons systems capable of “identifying and striking targets without direct human intervention are a “cause for grave ethical concern” [100]. It notes that Pope Francis has called for their use to be banned since they pose “an ‘existential risk’ by having the potential to act in ways that could threaten the survival of entire regions or even of humanity itself” [101]. “This danger demands serious attention,” the document says, “reflecting the long-standing concern about technologies that grant war ‘an uncontrollable destructive power over great numbers of innocent civilians,’ without even sparing children” [101].
Human relations
On human relations, the document notes that AI can lead to “harmful isolation” [58], that “anthropomorphizing AI” poses problems for children’s growth [60] and that misrepresenting AI as a person is “a grave ethical violation” if this is done “for fraudulent purposes.” Similarly, “using AI to deceive in other contexts—such as education or in human relationships, including the sphere of sexuality—is also to be considered immoral and requires careful oversight” [62].
Economy and labour
The same vigilance is called for in the economic-financial sphere. “Antiqua et Nova” notes that, especially in the field of labour, “while AI promises to boost productivity… current approaches to the technology can paradoxically deskill workers, subject them to automated surveillance, and relegate them to rigid and repetitive tasks” [67].
Health
The Note also dedicates ample space to the issue of healthcare. Recalling the “immense potential” in various applications in the medical field, it warns that if AI were to replace the doctor-patient relationship, it would risk “worsening the loneliness that often accompanies illness” [73]. It also warns that “the integration of AI into healthcare also poses the risk of amplifying other existing disparities in access to medical care,” with the risk of “reinforcing a ‘medicine for the rich’ model, where those with financial means benefit from advanced preventative tools and personalized health information while others struggle to access even basic services” [76].
Education
In the field of education, “Antiqua et Nova” notes that “AI presents both opportunities and challenges.” If used prudently, AI can improve access to education and offer “immediate feedback” to students [80]. One problem is that many programmes “merely provide answers instead of prompting students to arrive at answers themselves or write text for themselves”; which can lead to a failure to develop critical thinking skills [82]. The note also warns of the “biased or fabricated information” and “fake news” some programmes can generate [84].
Fake News and Deepfakes
On the subject of fake news, the document warns of the serious risk of AI “generating manipulated content and false information” [85], which becomes worse when it is spread with the aim of deceiving or causing harm [87]. “Antiqua et Nova” insists that “Those who produce and share AI-generated content should always exercise diligence in verifying the truth of what they disseminate and, in all cases, should ‘avoid the sharing of words and images that are degrading of human beings, that promote hatred and intolerance, that debase the goodness and intimacy of human sexuality or that exploit the weak and vulnerable’” [89].
Privacy and control
On privacy and control, the Note points out that some types of data can go so far as to touch “upon the individual’s interiority, perhaps even their conscience” [90], with the danger of everything becoming “a kind of spectacle to be examined and inspected” [92]. Digital surveillance “can also be misused to exert control over the lives of believers and how they express their faith” [90].
Common home
On the topic of the care of creation, “Antiqua et Nova” says, “AI has many promising applications for improving our relationship with our ‘common home’” [95]. “At the same time, current AI models and the hardware required to support them consume vast amounts of energy and water, significantly contributing to CO2 emissions and straining resources” [96]
The relationship with God
Finally, the Note warns against the risk of humanity becoming “enslaved to its own work” [105]. Artificial intelligence, “Antiqua et Nova” insists, “should be used only as a tool to complement human intelligence rather than replace its richness” [112].
This article was published at the website of Vatican News:
New Vatican document examines potential and risks of AI – Vatican News
Este artículo presenta una visión general de la “Nota sobre la relación entre Inteligencia artificial e Inteligencia Humana”, publicada en Roma el 28 de enero de 2025 en las sedes del Dicasterio para la Doctrina de la Fe y del Dicasterio para la Cultura y la Educación. El texto explora las implicaciones éticas y sociales de la IA, destacando tanto sus posibles beneficios como sus riesgos.
Nota sobre la relación entre Inteligencia Artificial e Inteligencia Humana publicada por los Dicasterios para la Doctrina de la Fe y para la Cultura y la Educación: «La IA no es una forma artificial de inteligencia, sino uno de sus productos». Destaca el potencial y los retos en los ámbitos de la educación, la economía, el trabajo, la salud, las relaciones humanas e internacionales, los contextos bélicos.
Salvatore Cernuzio – Ciudad del Vaticano
Las advertencias del Papa sobre la Inteligencia Artificial en los últimos años forman el esquema de Antiqua et Nova, la nota sobre la relación entre inteligencia artificial e inteligencia humana fruto de la reflexión mutua entre el Dicasterio para la Doctrina de la Fe y el Dicasterio para la Cultura y la Educación. Un documento dirigido a quienes están llamados a educar y transmitir la fe, pero también a quienes comparten la necesidad de un desarrollo científico y tecnológico «al servicio de la persona y del bien común» [5].
En 117 parágrafos, Antiqua et Nova pone de relieve los retos y las oportunidades del desarrollo de la Inteligencia Artificial (IA) en los ámbitos de la educación, la economía, el trabajo, la salud, las relaciones y la guerra. En este último ámbito, por ejemplo, el potencial de la IA podría aumentar los recursos bélicos «mucho más allá del alcance del control humano», acelerando «una carrera armamentística desestabilizadora con consecuencias devastadoras para los derechos humanos» [99].
TEXTO COMPLETO DE ANTIQUA ET NOVA
Peligros y avances
Más detalladamente, el documento enumera los peligros de la IA, pero también los avances, que alienta como «parte de la colaboración» del hombre con Dios [2]. Sin embargo, no oculta la preocupación que conlleva toda innovación cuyos efectos son aún imprevisibles.
Distinción entre IA e inteligencia humana
Varios párrafos de la Nota están dedicados a la distinción entre IA e inteligencia humana. «Engañoso», se lee, es utilizar la propia palabra “inteligencia” para referirse a la IA: no es “una forma artificial de inteligencia”, sino “uno de sus productos” [35]. Y como cualquier producto del ingenio humano, la IA también puede orientarse hacia «fines positivos o negativos». En efecto, la inteligencia artificial puede introducir «innovaciones importantes» [48], pero también corre el riesgo de agravar situaciones de discriminación, pobreza, brecha digital, desigualdades sociales [52]. Plantea «preocupaciones éticas» el hecho de que «la mayor parte del poder sobre las principales aplicaciones de la IA se concentra en manos de unas pocas empresas poderosas» [53], de modo que esta tecnología acaba siendo manipulada para «beneficio personal o corporativo» [53].
Guerra
En referencia a la guerra, se subraya que los sistemas de armas autónomas y letales capaces de «identificar y atacar objetivos sin intervención humana directa» [100] son un «serio motivo de preocupación ética». De hecho, el Papa pidió que se prohibiera su uso, ya que suponen una amenaza real para «la supervivencia de la humanidad o de regiones enteras» [101]. Estas tecnologías «confieren a la guerra un poder destructivo incontrolable, que afecta a muchos civiles inocentes, sin perdonar ni siquiera a los niños», denunció Antiqua et Nova.
Relaciones humanas
En cuanto a las relaciones humanas, el documento señala que la IA puede conducir a un «aislamiento perjudicial» [58], que «la antropomorfización de la IA» plantea problemas para el crecimiento de los niños [60] y que representar a la IA como una persona es «una grave violación ética» si se utiliza con fines fraudulentos. Del mismo modo que utilizar la IA para engañar en contextos como la educación, las relaciones, la sexualidad, es «poco ético y requiere una cuidadosa vigilancia» [62].
Economía y trabajo
La misma vigilancia se impone en el ámbito económico-financiero. En particular, en el ámbito laboral se señala que, mientras que, por un lado, la IA tiene «potencial» para aumentar las competencias y la productividad, por otro, puede «desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a funciones rígidas y repetitivas» [67].
Salud
Se dedica un amplio espacio a la cuestión de la sanidad. Recordando el enorme potencial de diversas aplicaciones en el ámbito médico, se advierte de que si la IA llegara a sustituir la relación médico-paciente, se correría el riesgo de «empeorar» la soledad que suele acompañar a la enfermedad. También se advierte del peligro de reforzar una «medicina para ricos», en la que las personas con medios económicos se benefician de herramientas avanzadas, mientras que otras no tienen acceso ni siquiera a los servicios básicos.
Educación
También se destacan los riesgos en el ámbito de la educación. Si se utiliza con prudencia, la IA puede mejorar el acceso a la educación y ofrecer «información inmediata» a los estudiantes [80]. El problema es que muchos programas «se limitan a proporcionar respuestas en lugar de empujar a los estudiantes a encontrarlas por sí mismos, o a escribir textos por sí mismos»; lo que conduce a un fracaso en el desarrollo del pensamiento crítico [82]. Por no hablar de la cantidad de «información distorsionada o fabricada» y de «noticias falsas» que pueden generar algunos programas [84].
Fake News y Deepfake
Sobre las fake news, el documento advierte del grave riesgo de que la IA «genere contenidos manipulados e información falsa» [85], que luego se difunde para «engañar o hacer daño» [87]. El llamamiento es a «tener siempre cuidado de comprobar la veracidad» de lo que se divulga y evitar, en cualquier caso, «compartir palabras e imágenes que degraden al ser humano», excluyendo «lo que alimenta el odio y la intolerancia» o envilece «la intimidad de la sexualidad humana» [89].
Intimidad y control
Sobre la privacidad y el control, la Nota señala que ciertos tipos de datos pueden llegar a tocar «incluso la propia conciencia» [90], con el peligro de que todo se convierta en «una especie de espectáculo que puede ser espiado» [92]. «La vigilancia digital puede utilizarse para ejercer un control sobre la vida de los creyentes y la expresión de su fe» [90].
Hogar común
En cuanto al tema de la creación, las aplicaciones de la IA para mejorar la relación con la casa común se consideran «prometedoras». Al mismo tiempo, los modelos actuales de IA requieren «grandes cantidades de energía y agua y contribuyen significativamente a las emisiones de CO2, además de ser intensivos en recursos».
La relación con Dios
Por último, la Nota advierte del riesgo de que los seres humanos se conviertan en «esclavos de su propia creación». De ahí la recomendación: «La IA sólo debe utilizarse como herramienta complementaria de la inteligencia humana y no sustituir su riqueza» [112].
Este artículo fue publicado en la página web de Vatican News:
Cet article présente une synthèse de la « Note sur la relation entre intelligence artificielle et intelligence humaine », publiée à Rome le 28 janvier 2025 dans les bureaux du Dicastère pour la doctrine de la foi et du Dicastère pour la culture et l’éducation. Le texte explore les implications éthiques et sociales de l’IA, en soulignant à la fois ses avantages et ses risques potentiels.
Les dicastères pour la Doctrine de la foi et pour la Culture et l’Éducation publient un document sur la relation entre l’intelligence artificielle et l’intelligence humaine.
Salvatore Cernuzio – Cité du Vatican
L’intelligence artificielle ne doit pas être considérée comme une personne, elle ne doit pas être déifiée, elle ne doit pas remplacer les relations humaines, mais doit être utilisée «seulement comme un outil complémentaire à l’intelligence humaine». Les mises en garde du Pape sur l’intelligence artificielle au cours des dernières années constituent la trame d’Antiqua et Nova (en référence à la «sagesse», ancienne et nouvelle), une note sur les relations entre l’intelligence artificielle et l’intelligence humaine, fruit d’une réflexion commune entre le dicastère pour la Doctrine de la foi et le dicastère pour la Culture et l’Éducation. Un document qui s’adresse aux parents, aux enseignants, aux prêtres, aux évêques et à tous ceux qui sont appelés à éduquer et à transmettre la foi, mais aussi à ceux qui partagent la nécessité d’un développement scientifique et technologique «au service de la personne et du bien commun» [5]. Publiée mardi 28 janvier, la note a été approuvée par le Saint-Père. En 117 paragraphes, Antiqua et Nova met en évidence les défis et les opportunités du développement de l’intelligence artificielle (IA) dans les domaines de l’éducation, de l’économie, du travail, de la santé, des relations internationales et interpersonnelles, et des contextes de guerre. Dans ce dernier domaine, par exemple, le potentiel de l’IA -prévient la note- pourrait augmenter les ressources de la guerre «bien au-delà de la portée du contrôle humain», accélérant «une course aux armements déstabilisante avec des conséquences dévastatrices pour les droits de l’homme» [99].
Dangers et progrès
Plus en détail, le document énumère avec un équilibre raisonné les dangers de l’IA mais aussi les progrès, qu’elle encourage comme «faisant partie de la collaboration» de l’homme avec Dieu «pour amener la création visible à la perfection» [2]. L’inquiétude est cependant grande pour toutes les innovations dont les effets sont encore imprévisibles, même pour ce qui semble pour l’instant aussi anodin que la génération de textes et d’images.
Distinguer l’IA de l’intelligence humaine
Des considérations éthiques et anthropologiques sont par conséquent au cœur de la réflexion des deux dicastères qui consacrent plusieurs paragraphes à la distinction «décisive» entre l’intelligence artificielle et l’intelligence humaine. Celle qui «s’exerce dans la relation» [18], façonnée par Dieu et «modelée par une myriade d’expériences vécues dans la corporéité». L’IA «n’a pas la capacité d’évoluer dans ce sens» [31]. Il s’agit d’une «vision fonctionnaliste», où les personnes ne sont évaluées qu’en fonction de leur travail et de leurs réalisations, et où la dignité humaine est inaliénable et reste toujours intacte, même chez «un enfant à naître», «une personne inconsciente» ou «une personne âgée souffrante» [34]. Il est donc «trompeur» d’utiliser le mot «intelligence» en référence à l’IA: il ne s’agit pas d’une «forme artificielle d’intelligence», mais de «l’un de ses produits» [35].
Le pouvoir entre les mains de quelques-uns
Et comme tout produit de l’ingéniosité humaine, l’IA peut également être orientée vers des «fins positives ou négatives», souligne Antiqua et Nova. Sans nier que l’intelligence artificielle peut introduire des «innovations importantes» dans divers domaines [48], elle risque aussi d’aggraver les situations de marginalisation, de discrimination, de pauvreté, la «fracture numérique» et les inégalités sociales [52]. Le fait que «la majeure partie du pouvoir sur les principales applications de l’IA soit concentrée entre les mains de quelques entreprises puissantes» [53] soulève des «préoccupations éthiques», de sorte que cette technologie finit par être manipulée à des fins «personnelles ou commerciales» ou pour «orienter l’opinion publique dans le sens des intérêts d’un secteur» [53].
L’IA et la guerre
La note examine ensuite les différentes sphères de la vie en relation avec l’IA. La référence à la guerre est inévitable. Les «capacités analytiques» de l’IA pourraient être utilisées pour aider les nations à rechercher la paix et la sécurité, mais les systèmes d’armes autonomes létales capables «d’identifier et de frapper des cibles sans intervention humaine directe» constituent «une grave source de préoccupation éthique» [100]. Le Pape a lancé un appel urgent pour interdire leur utilisation, comme il l’a déclaré lors du sommet du G7 dans le sud de l’Italie le 14 juin 2024: «Aucune machine ne devrait jamais choisir d’ôter la vie à un être humain. Les machines capables de tuer avec une précision autonome et d’autres capables de destruction massive constituent une menace réelle pour la survie de l’humanité ou de régions entières» [101]. Ces technologies «donnent à la guerre un pouvoir destructeur incontrôlable, touchant de nombreux civils innocents, sans même épargner les enfants», dénonce Antiqua et Nova. Pour éviter que l’humanité ne tombe dans des «spirales d’autodestruction», il est donc nécessaire de «prendre clairement position contre toutes les applications de la technologie qui menacent intrinsèquement la vie et la dignité de la personne humaine».
Les relations humaines
En ce qui concerne les relations humaines, le document note que l’IA peut, certes, «favoriser les connexions» mais, en même temps, conduire à un «isolement préjudiciable» [58]. «L’anthropomorphisation de l’IA pose également des problèmes particuliers pour la croissance des enfants, qui sont encouragés à comprendre les relations humaines d’une manière utilitaire», comme c’est le cas avec les chatbots [60]. «Il est donc ‘erroné’ de représenter l’IA comme une personne et c’est ‘une grave violation éthique’ de le faire à des fins frauduleuses» [60]. De même que «l’utilisation de l’IA pour tromper dans d’autres contextes -tels que l’éducation ou les relations humaines, y compris la sphère de la sexualité- est profondément contraire à l’éthique et nécessite une vigilance particulière» [62].
Lire aussi
L’économie et le travail
La même vigilance est de mise dans la sphère économico-financière. Dans le domaine du travail notamment, il est noté que si, d’un côté, l’IA a un «potentiel» pour accroître les compétences et la productivité ou créer de nouveaux emplois, d’un autre côté, elle peut «déqualifier les travailleurs, les soumettre à une surveillance automatisée et les reléguer à des fonctions rigides et répétitives» [67], au point d’«étouffer» toute capacité d’innovation. «Nous ne devons pas chercher à remplacer de plus en plus le travail humain par le progrès technologique: cela nuirait à l’humanité elle-même», souligne la note [70].
La santé
Un large espace est consacré au domaine sanitaire. Bien qu’elle présente un potentiel énorme dans diverses applications du domaine médical (par exemple, l’aide au diagnostic), si l’IA devait remplacer la relation médecin-patient, laissant l’interaction aux seules machines, elle risquerait «d’aggraver la solitude qui accompagne souvent la maladie». L’optimisation des ressources ne doit pas non plus «pénaliser les plus fragiles» ou créer «des formes de préjugés et de discriminations» [75] qui conduiraient à renforcer une «médecine des riches», dans laquelle les personnes disposant de moyens financiers bénéficieraient d’outils de prévention avancés et d’informations médicales personnalisées, tandis que d’autres peineraient à accéder aux services les plus élémentaires.
L’éducation
Des risques sont également mis en évidence dans le domaine de l’éducation. Si elle est utilisée avec prudence, l’IA peut améliorer l’accès à l’éducation et offrir un «retour d’information immédiat» aux étudiants [80]. Le problème est que de nombreux programmes «se contentent de fournir des réponses au lieu d’inciter les étudiants à les trouver par eux-mêmes ou à rédiger eux-mêmes des textes», ce qui entraîne une perte de formation en matière d’accumulation d’informations ou de développement de l’esprit critique [82]. Sans parler de la quantité d’«informations déformées ou fabriquées» ou de «contenus inexacts» que certains programmes peuvent générer, légitimant ainsi les «fake news» (fausses nouvelles) [84].
Fake News et Deepfake
En ce qui concerne les «fake news», le document rappelle le risque sérieux que l’IA «génère des contenus manipulés et de fausses informations» [85] afin d’alimenter une «hallucination» de l’IA, avec des contenus faux qui semblent réels. Ce qui est encore plus inquiétant, c’est lorsque ce contenu fictif est utilisé intentionnellement à des fins de manipulation. Par exemple, lorsque de fausses images, des vidéos et des sons (représentations modifiées ou générées par des algorithmes) sont intentionnellement diffusés pour «tromper ou nuire» [87]. L’appel est donc de toujours «prendre soin de vérifier la véracité» de ce qui est divulgué et d’éviter, dans tous les cas, de «partager des mots et des images dégradants pour les êtres humains», excluant «ce qui alimente la haine et l’intolérance, avilisse la beauté et l’intimité de la sexualité humaine, et exploite les faibles et les sans-défense» [89].
Vie privée et contrôle
En ce qui concerne la vie privée et le contrôle, la note souligne que certains types de données peuvent toucher l’intimité d’une personne, «peut-être même sa conscience» [90]. Les données sont désormais acquises avec un minimum d’informations et le danger est que tout devienne «une sorte de spectacle qui peut être espionné, surveillé» [92]. Et «la surveillance numérique peut être utilisée pour exercer un contrôle sur la vie des croyants et l’expression de leur foi» [90].
La maison commune
Dans le domaine de la Création, les applications de l’IA pour améliorer le rapport à la maison commune sont jugées «prometteuses». Il suffit de penser aux modèles de prévision des événements climatiques extrêmes, à la gestion des secours ou au soutien à l’agriculture durable [95]. Dans le même temps, les modèles d’IA actuels et le matériel qui les supporte nécessitent «de grandes quantités d’énergie et d’eau et contribuent de manière significative aux émissions de CO2, tout en étant gourmands en ressources». Ils pèsent donc lourdement sur l’environnement: «Le développement de solutions durables est essentiel pour réduire leur impact sur la maison commune».
La relation avec Dieu
«La présomption de remplacer Dieu par une œuvre de ses propres mains est une idolâtrie»: la note cite les Saintes Écritures pour avertir que l’IA peut être «plus séduisante que les idoles traditionnelles» [105]. Elle rappelle donc qu’elle n’est qu’un «pâle reflet» de l’humanité: «Ce n’est pas l’IA qui est déifiée et adorée, mais l’être humain, pour devenir ainsi l’esclave de son propre travail». D’où une recommandation finale: «L’IA ne doit être utilisée que comme un outil complémentaire à l’intelligence humaine et ne doit pas en remplacer la richesse» [112].
Cet article a été publié sur la page Web du Vatican News :