L’intelligence artificielle est une opportunité mais peut rendre l’homme esclave des machines (29 Janvier 2025, Global)

© Reuters

Cet article présente une synthèse de la « Note sur la relation entre intelligence artificielle et intelligence humaine », publiée à Rome le 28 janvier 2025 dans les bureaux du Dicastère pour la doctrine de la foi et du Dicastère pour la culture et l’éducation. Le texte explore les implications éthiques et sociales de l’IA, en soulignant à la fois ses avantages et ses risques potentiels.

 

L’intelligence artificielle est une opportunité mais peut rendre l’homme esclave des machines

Les dicastères pour la Doctrine de la foi et pour la Culture et l’Éducation publient un document sur la relation entre l’intelligence artificielle et l’intelligence humaine.

 

Salvatore Cernuzio – Cité du Vatican

L’intelligence artificielle ne doit pas être considérée comme une personne, elle ne doit pas être déifiée, elle ne doit pas remplacer les relations humaines, mais doit être utilisée «seulement comme un outil complémentaire à l’intelligence humaine». Les mises en garde du Pape sur l’intelligence artificielle au cours des dernières années constituent la trame d’Antiqua et Nova (en référence à la «sagesse», ancienne et nouvelle), une note sur les relations entre l’intelligence artificielle et l’intelligence humaine, fruit d’une réflexion commune entre le dicastère pour la Doctrine de la foi et le dicastère pour la Culture et l’Éducation. Un document qui s’adresse aux parents, aux enseignants, aux prêtres, aux évêques et à tous ceux qui sont appelés à éduquer et à transmettre la foi, mais aussi à ceux qui partagent la nécessité d’un développement scientifique et technologique «au service de la personne et du bien commun» [5]. Publiée mardi 28 janvier, la note a été approuvée par le Saint-Père. En 117 paragraphes, Antiqua et Nova met en évidence les défis et les opportunités du développement de l’intelligence artificielle (IA) dans les domaines de l’éducation, de l’économie, du travail, de la santé, des relations internationales et interpersonnelles, et des contextes de guerre. Dans ce dernier domaine, par exemple, le potentiel de l’IA -prévient la note- pourrait augmenter les ressources de la guerre «bien au-delà de la portée du contrôle humain», accélérant «une course aux armements déstabilisante avec des conséquences dévastatrices pour les droits de l’homme» [99].

Dangers et progrès

Plus en détail, le document énumère avec un équilibre raisonné les dangers de l’IA mais aussi les progrès, qu’elle encourage comme «faisant partie de la collaboration» de l’homme avec Dieu «pour amener la création visible à la perfection» [2]. L’inquiétude est cependant grande pour toutes les innovations dont les effets sont encore imprévisibles, même pour ce qui semble pour l’instant aussi anodin que la génération de textes et d’images.

Distinguer l’IA de l’intelligence humaine

Des considérations éthiques et anthropologiques sont par conséquent au cœur de la réflexion des deux dicastères qui consacrent plusieurs paragraphes à la distinction «décisive» entre l’intelligence artificielle et l’intelligence humaine. Celle qui «s’exerce dans la relation» [18], façonnée par Dieu et «modelée par une myriade d’expériences vécues dans la corporéité». L’IA «n’a pas la capacité d’évoluer dans ce sens» [31]. Il s’agit d’une «vision fonctionnaliste», où les personnes ne sont évaluées qu’en fonction de leur travail et de leurs réalisations, et où la dignité humaine est inaliénable et reste toujours intacte, même chez «un enfant à naître», «une personne inconsciente» ou «une personne âgée souffrante» [34]. Il est donc «trompeur» d’utiliser le mot «intelligence» en référence à l’IA: il ne s’agit pas d’une «forme artificielle d’intelligence», mais de «l’un de ses produits» [35].

Le pouvoir entre les mains de quelques-uns

Et comme tout produit de l’ingéniosité humaine, l’IA peut également être orientée vers des «fins positives ou négatives», souligne Antiqua et Nova. Sans nier que l’intelligence artificielle peut introduire des «innovations importantes» dans divers domaines [48], elle risque aussi d’aggraver les situations de marginalisation, de discrimination, de pauvreté, la «fracture numérique» et les inégalités sociales [52]. Le fait que «la majeure partie du pouvoir sur les principales applications de l’IA soit concentrée entre les mains de quelques entreprises puissantes» [53] soulève des «préoccupations éthiques», de sorte que cette technologie finit par être manipulée à des fins «personnelles ou commerciales» ou pour «orienter l’opinion publique dans le sens des intérêts d’un secteur» [53].

L’IA et la guerre

La note examine ensuite les différentes sphères de la vie en relation avec l’IA. La référence à la guerre est inévitable. Les «capacités analytiques» de l’IA pourraient être utilisées pour aider les nations à rechercher la paix et la sécurité, mais les systèmes d’armes autonomes létales capables «d’identifier et de frapper des cibles sans intervention humaine directe» constituent «une grave source de préoccupation éthique» [100]. Le Pape a lancé un appel urgent pour interdire leur utilisation, comme il l’a déclaré lors du sommet du G7 dans le sud de l’Italie le 14 juin 2024: «Aucune machine ne devrait jamais choisir d’ôter la vie à un être humain. Les machines capables de tuer avec une précision autonome et d’autres capables de destruction massive constituent une menace réelle pour la survie de l’humanité ou de régions entières» [101]. Ces technologies «donnent à la guerre un pouvoir destructeur incontrôlable, touchant de nombreux civils innocents, sans même épargner les enfants», dénonce Antiqua et Nova. Pour éviter que l’humanité ne tombe dans des «spirales d’autodestruction», il est donc nécessaire de «prendre clairement position contre toutes les applications de la technologie qui menacent intrinsèquement la vie et la dignité de la personne humaine».

Les relations humaines

En ce qui concerne les relations humaines, le document note que l’IA peut, certes, «favoriser les connexions» mais, en même temps, conduire à un «isolement préjudiciable» [58]. «L’anthropomorphisation de l’IA pose également des problèmes particuliers pour la croissance des enfants, qui sont encouragés à comprendre les relations humaines d’une manière utilitaire», comme c’est le cas avec les chatbots [60]. «Il est donc ‘erroné’ de représenter l’IA comme une personne et c’est ‘une grave violation éthique’ de le faire à des fins frauduleuses» [60]. De même que «l’utilisation de l’IA pour tromper dans d’autres contextes -tels que l’éducation ou les relations humaines, y compris la sphère de la sexualité- est profondément contraire à l’éthique et nécessite une vigilance particulière» [62].

Lire aussi

L’économie et le travail

La même vigilance est de mise dans la sphère économico-financière. Dans le domaine du travail notamment, il est noté que si, d’un côté, l’IA a un «potentiel» pour accroître les compétences et la productivité ou créer de nouveaux emplois, d’un autre côté, elle peut «déqualifier les travailleurs, les soumettre à une surveillance automatisée et les reléguer à des fonctions rigides et répétitives» [67], au point d’«étouffer» toute capacité d’innovation. «Nous ne devons pas chercher à remplacer de plus en plus le travail humain par le progrès technologique: cela nuirait à l’humanité elle-même», souligne la note [70].

La santé

Un large espace est consacré au domaine sanitaire. Bien qu’elle présente un potentiel énorme dans diverses applications du domaine médical (par exemple, l’aide au diagnostic), si l’IA devait remplacer la relation médecin-patient, laissant l’interaction aux seules machines, elle risquerait «d’aggraver la solitude qui accompagne souvent la maladie». L’optimisation des ressources ne doit pas non plus «pénaliser les plus fragiles» ou créer «des formes de préjugés et de discriminations» [75] qui conduiraient à renforcer une «médecine des riches», dans laquelle les personnes disposant de moyens financiers bénéficieraient d’outils de prévention avancés et d’informations médicales personnalisées, tandis que d’autres peineraient à accéder aux services les plus élémentaires.

L’éducation

Des risques sont également mis en évidence dans le domaine de l’éducation. Si elle est utilisée avec prudence, l’IA peut améliorer l’accès à l’éducation et offrir un «retour d’information immédiat» aux étudiants [80]. Le problème est que de nombreux programmes «se contentent de fournir des réponses au lieu d’inciter les étudiants à les trouver par eux-mêmes ou à rédiger eux-mêmes des textes», ce qui entraîne une perte de formation en matière d’accumulation d’informations ou de développement de l’esprit critique [82]. Sans parler de la quantité d’«informations déformées ou fabriquées» ou de «contenus inexacts» que certains programmes peuvent générer, légitimant ainsi les «fake news» (fausses nouvelles) [84].

Fake News et Deepfake

En ce qui concerne les «fake news», le document rappelle le risque sérieux que l’IA «génère des contenus manipulés et de fausses informations» [85] afin d’alimenter une «hallucination» de l’IA, avec des contenus faux qui semblent réels. Ce qui est encore plus inquiétant, c’est lorsque ce contenu fictif est utilisé intentionnellement à des fins de manipulation. Par exemple, lorsque de fausses images, des vidéos et des sons (représentations modifiées ou générées par des algorithmes) sont intentionnellement diffusés pour «tromper ou nuire» [87]. L’appel est donc de toujours «prendre soin de vérifier la véracité» de ce qui est divulgué et d’éviter, dans tous les cas, de «partager des mots et des images dégradants pour les êtres humains», excluant «ce qui alimente la haine et l’intolérance, avilisse la beauté et l’intimité de la sexualité humaine, et exploite les faibles et les sans-défense» [89].

Vie privée et contrôle

En ce qui concerne la vie privée et le contrôle, la note souligne que certains types de données peuvent toucher l’intimité d’une personne, «peut-être même sa conscience» [90]. Les données sont désormais acquises avec un minimum d’informations et le danger est que tout devienne «une sorte de spectacle qui peut être espionné, surveillé» [92]. Et «la surveillance numérique peut être utilisée pour exercer un contrôle sur la vie des croyants et l’expression de leur foi» [90].

La maison commune

Dans le domaine de la Création, les applications de l’IA pour améliorer le rapport à la maison commune sont jugées «prometteuses». Il suffit de penser aux modèles de prévision des événements climatiques extrêmes, à la gestion des secours ou au soutien à l’agriculture durable [95]. Dans le même temps, les modèles d’IA actuels et le matériel qui les supporte nécessitent «de grandes quantités d’énergie et d’eau et contribuent de manière significative aux émissions de CO2, tout en étant gourmands en ressources». Ils pèsent donc lourdement sur l’environnement: «Le développement de solutions durables est essentiel pour réduire leur impact sur la maison commune».

La relation avec Dieu

«La présomption de remplacer Dieu par une œuvre de ses propres mains est une idolâtrie»: la note cite les Saintes Écritures pour avertir que l’IA peut être «plus séduisante que les idoles traditionnelles» [105]. Elle rappelle donc qu’elle n’est qu’un «pâle reflet» de l’humanité: «Ce n’est pas l’IA qui est déifiée et adorée, mais l’être humain, pour devenir ainsi l’esclave de son propre travail». D’où une recommandation finale: «L’IA ne doit être utilisée que comme un outil complémentaire à l’intelligence humaine et ne doit pas en remplacer la richesse» [112].

 

Cet article a été publié sur la page Web du Vatican News :

L’intelligence artificielle est une opportunité mais peut rendre l’homme esclave des machines – Vatican News