Cet article est une tribune libre, non rédigée par la rédaction du Salon beige. Si vous souhaitez, vous aussi, publier une tribune libre, vous pouvez le faire en cliquant sur « Proposer un article » en haut de la page.
(Dans cet article, j’abuserai volontairement de l’acronyme IA, pour intelligence artificielle, en soutenant ici, abus de langage se faisant, qu’il s’agirait d’une artificialité dite intelligente.)
Le 1er août dernier marque l’entrée en vigueur de l’IA Act, appelé aussi règlement européen sur l’IA. De façon assez grossière, il détermine et qualifie les IA selon leur degré d’utilisation et d’exploitation des données personnelles. Nous voyons qu’assez rapidement, lorsqu’il s’agit de données relatives à la personne humaine, le système de classification voit rouge : il est interdit d’établir des profils sociaux, que ce soit en exploitant des données sensibles telles que ses performances professionnelles, sa situation économique, sa santé, ses préférences, ses intérêts, sa fiabilité, son comportement, sa localisation ou ses déplacements (https://artificialintelligenceact.eu/fr/high-level-summary/).
Cet encadrement semble toutefois peu efficace pour le moment, étant donné que les géants du web sont plus affairés à obtenir le monopole de cette technologie que d’en respecter son usage. Cette course au chatbot et à l’exploitation des données n’en finit pas. Entre le 7 mai et le 1er août 2024, le réseau X a utilisé les données personnelles de ses utilisateurs sans consentement explicite de leur part, pour développer son chatbot xAI en concurrence avec les autres géants de la tech. X a ainsi été visé par 8 plaintes de pays européens. Rappelons que Meta (Facebook, Instagram) a reçu 11 plaintes ainsi qu’une amende de 1,5 milliard d’euros pour le même abus, comme si cette part de chiffre d’affaires était réservée pour outrepasser les lois européennes.
Dans le monde catholique, nous savons que l’Église (tout comme les États) est dépassée par les innovations, même si ces derniers temps, le Vatican a montré un intérêt plus prononcé pour l’IA. Le 1er janvier 2024, dans son message pour la Journée mondiale de la paix, le Pape François notait déjà les effets néfastes de cette technologie ou du moins les points d’attention qu’il faut absolument s’empresser d’avoir :
« La confidentialité, la propriété des données et la propriété intellectuelle sont d’autres domaines dans lesquels ces technologies présentent des risques graves, auxquels s’ajoutent d’autres conséquences négatives liées à leur mauvaise utilisation, telles que la discrimination […] l’exclusion numérique et l’exacerbation d’un individualisme de plus en plus déconnecté de la collectivité. Tous ces facteurs risquent d’alimenter les conflits et d’entraver la paix »
En juin 2024, BFM titrait : « “Fascinante et redoutable” : le pape François met en garde contre l’intelligence artificielle » (https://www.bfmtv.com/tech/intelligence-artificielle/fascinant-et-redoutable-le-pape-francois-met-en-garde-contre-l-intelligence-artificielle_AD-202406140716.html). On le sait et on le voit déjà : l’IA est utilisée à des fins électoralistes pour influencer le peuple. Il est facile de s’en apercevoir en naviguant sur le net et en voyant le nombre d’informations erronées diffusées (notamment sur X où la parole semble plus libérée que sur d’autres médias).
En juin 2024, des participants à la conférence internationale annuelle de la Fondation Centesimus Annus Pro Pontifice ont été reçus par le Pape, qui invitait chacun à se poser la question : « À quoi sert l’IA ? » et soulignait « la nécessité absolue d’un développement et d’une utilisation éthiques de l’IA, en invitant les politiques à prendre des mesures concrètes pour gouverner le processus technologique en cours dans le sens de la fraternité et de la paix universelles » (https://www.vaticannews.va/fr/pape/news/2024-06/pape-effets-ia-travail.html).
L’IA vue par Rome
Revenons sur l’appel émis par Rome le 28 février 2020. L’Académie pontificale veut former une éthique de l’IA étant donné l’importance qu’elle prend. Comme énoncé en introduction du document, il s’agit d’un texte signé par des entreprises du CAC 40, comme Microsoft, pour placer la responsabilité de l’homme dans cette nouvelle innovation, afin d’entreprendre un avenir tourné vers l’humain à travers la notion d’algoréthique.
Le consensus se base sur quatre piliers : l’éthique, les critères de développement, l’éducation, et les droits.
En parlant d’éthique :
Le document entend respecter la condition de la Déclaration des Droits de l’Homme et du Citoyen de 1789 où le premier article (Les hommes naissent et demeurent libres et égaux en droits) semble menacé par l’IA. Esquissons déjà le concept d’une technologie permettant la sélection des embryons s’appuyant sur un système de recommandation. Il sera alors possible de choisir l’enfant qui nous correspondrait le mieux et ainsi de discriminer littéralement les handicapés ou les malformés. Même si cela existait déjà sous une autre forme, le choix sera plus large et plus discriminant…
L’autre point soulevé par cette catégorie concerne l’environnement où évolue l’être humain. Il met l’accent sur la nécessité de permettre aux individus de s’exprimer pleinement et de ne pas être bridés par des technologies.
Puis sur les critères de développement :
– Inclure chaque être humain.
– Mettre le bien commun au centre. Derrière cette notion, il faut évidemment que tout le monde se rejoigne sur ce qu’est le bien commun, encore aujourd’hui trop ambigu. Interpellez quelqu’un dans la rue à ce propos, vous serez sûrement sceptique de sa réponse.
– Tenir compte de la complexité de la réalité.
– Chaque personne doit être consciente qu’elle interagit avec la machine pour éviter tout risque d’exploitation (via des IA jugées trop humaines sur lesquelles une personne aurait jeté son dévolu). À noter que le fondateur de DeepMind affirmait lui-même que le test de Turing, qui différenciait les machines des hommes, était dépassé et obsolète.
Après, l’éducation :
– Construire un avenir pour les jeunes générations : on pense notamment à la dérive des IA génératives dans le secteur éducatif.
– Améliorer la qualité de l’éducation, accessible à tous, avec l’égalité des chances.
– Accès aux personnes âgées avec services hors-lignes (très important puisque l’adaptation au changement est un sujet sociétal majeur et les anciennes générations ont plus de difficulté à utiliser les technologies).
– Aide aux personnes handicapées.
– Utiliser l’IA pour intégrer chacun (travail à distance pour mobilité réduite).
– Pas de limite aux développements des compétences numériques mais exprimer entièrement les capacités de la personne.
– Élever les consciences sur les enjeux d’une inclusion sociale et respect individuel.
Finalement, sur les droits :
– Maintenir la paix internationale avec la sécurité numérique. Il s’agit d’un enjeu majeur quand on voit que le nombre de cyberattaques enfle année après année (1000 actes par an en moyenne) et que l’enjeu des guerres est informatif et analytique (drones, médias).
– Protection des droits de l’homme :
– Le document aimerait établir un devoir d’explication (de la technologie) qui impliquerait une plus grande responsabilité à son créateur. Ce point me paraît primordial puisque les technologies sont de plus en plus opaques et de moins en moins compréhensibles. Il faut offrir des informations sur la logique des algorithmes et une traçabilité de leurs sources.
– Spécialement pour la reconnaissance faciale et éviter des systèmes de notation.
Il faut se tourner vers les cas concrets du quotidien où l’on remarque d’ores et déjà l’impact de l’IA sur la vie sociale, notamment le danger d’une génération abusive de texte sur les réseaux sociaux et dans le système éducatif (pour traiter des devoirs en confisquant le raisonnement qui aurait dû être suscité par l’étudiant).
On pense alors à quelques pistes pour gérer ses données, même si le droit à l’effacement n’est pas vraiment simplifié par les nouvelles méthodes d’authentification comme le SSO en deux clics qui vous créent un compte en utilisant les données de vos réseaux sociaux. L’autre piste, plus à mon goût, serait de mettre en place une signature numérique, car il semblerait que l’écriture générée soit pire que le plagiat : intraçable car générable à la volée. On va vers un déclassement des œuvres (comme les dissertations, les thèses, les devoirs étudiants et du rôle de la littérature et de l’art). L’ADN d’Internet étant l’anonymat, cette mesure serait toutefois difficile à mettre en place (il faudrait signer au moment de l’intégration du système).
L’écrivain de demain ne sera plus en position de force puisque l’IA le remplacera (lira-t-on un livre de ChatGPT ou de notre romancier préféré ?). On a connu récemment ce scandale aux États-Unis, où les scénaristes et les acteurs se sont mis en grève pour protester contre l’utilisation de l’IA générative pour créer des scénarios de films. S’agirait-il d’un grand remplacement ? Cela engendrerait-il un retour en force de l’oralité pour pallier la compétence écrite ?
Que faire ?
Je ne suis pas partisan de la thèse complotiste, même si je suis intimement convaincu que nos données, malgré toute notre bonne volonté, finiront par se retrouver dans une base de données perdue dans les fins fonds de l’Internet. Il suffit de voir le nombre de bots circulant qui copient le contenu : Internet n’a jamais autant servi à désinformer et à mésinformer. D’ailleurs, mieux vaut aller dans une bibliothèque si l’on cherche à travailler sa pensée. Il faut d’abord se former pour s’informer puisque c’est à nous, in fine, humains, que revient le pouvoir du discernement.
La CNIL malgré tout propose quelques conseils pour protéger nos données sur le net dont, le plus utile selon moi, serait de réfléchir à deux reprises avant de publier du contenu (surtout des photos trop intimes sur Instagram qui en disent long sur notre mode, nos lieux de vie). Cette tâche est d’autant plus difficile que le monde se dématérialise et que, pour le moindre achat, on nous somme de communiquer des informations personnelles comme notre adresse postale qui sont aussitôt entrées dans un logiciel et Dieu sait où elles vagabondent (https://www.cnil.fr/fr/10-conseils-pour-rester-net-sur-le-web).
Terminons avec le Pape qui conclut l’interview précédemment citée :
« Sommes-nous sûrs de vouloir continuer à appeler “intelligence” ce que l’intelligence n’est pas ? Réfléchissons et demandons-nous si l’usage abusif de ce mot si important, si humain, n’est pas déjà une capitulation devant le pouvoir technocratique »
(https://www.vaticannews.va/fr/pape/news/2024-06/pape-effets-ia-travail.html).
Heureusement, rassurons-nous, le catholicisme est une religion de la chair, le Fils de Dieu ayant été incarné. Les catholiques sont en avance sur leur génération : nous savons que la vie présente et éternelle passe par le corps et que l’intelligence, le savoir et in fine le savoir-faire se développent à travers lui, l’âme et non exclusivement par procuration à des machines.
Mickaël Ottmann
Ingénieur Cloud