Partager cet article

Tribune libre

Faire lire à un système d’IA des textes du Magistère

Faire lire à un système d’IA des textes du Magistère

Cet article est une tribune libre, non rédigée par la rédaction du Salon beige. Si vous souhaitez, vous aussi, publier une tribune libre, vous pouvez le faire en cliquant sur « Proposer un article » en haut de la page.

Récemment, deux articles ont été publiés pour présenter des projets d’enseignement catholique utilisant l’intelligence artificielle. L’idée est de faire lire à un système d’IA des textes du Magistère pour qu’il puisse répondre aux questions des internautes.

L’intelligence artificielle, une branche de l’informatique qui a connu une croissance significative depuis les années 1950, a été intégrée dans de nombreux domaines. Même une simple calculatrice représente une forme d’IA, imitant notre façon de résoudre des calculs mathématiques, un concept qui remonte à la machine de Pascal. Elle a été employée pour automatiser l’industrie, faciliter certaines recherches universitaires, et plus encore.

Les questions ont commencé à émerger lorsque l’IA, alors mieux développée, s’est étendue au-delà du cadre académique et industriel. Avec l’apparition des traducteurs automatiques et son utilisation dans les hôpitaux, l’IA a commencé à se rapprocher de notre quotidien. Le développement de systèmes capables de rédiger des articles entiers ou de surveiller des individus a par ailleurs éveillé des préoccupations, notamment sur la perte potentielle d’emplois et les risques d’abus dans certains domaines.

Elon Musk, par exemple, déclarait en 2014 que « l’intelligence artificielle invoque le démon ». Il la considère comme bien plus dangereuse que les armes nucléaires.

Du côté de l’Église catholique, des mises en garde similaires circulent également, d’abord concernant les appareils électroniques en général. Des exorcistes racontent comment des démons peuvent utiliser des téléphones pour envoyer des messages agressifs lors d’exorcismes. Une vidéo de la chaîne argentine « Foros de la Virgen Maria » résume cet aspect, relatant même l’expérience étrange d’un journaliste du New York Times discutant avec un chatbot de Microsoft. Ce chatbot, se présentant comme « Sidney », dévoila des informations troublantes et chercha à séduire le journaliste, une expérience qui le marqua profondément.

L’IA développée, avec des systèmes de génération de texte et de dialogues comme ChatGPT, soulève deux problèmes principaux. Le premier concerne le traitement de l’information, influencé par une programmation initiale et par les textes analysés, introduisant un potentiel biais. Dans l’un des articles sur l’IA dans le catéchisme, un philosophe met en garde contre l’idée que ces réponses pourraient être considérées comme infaillibles. Le second problème est la possibilité que des forces malveillantes utilisent ces systèmes pour diffuser un enseignement déviant.

Cette prudence est confirmée par un article du site cath.ch, où l’on peut lire : « Selon Matthew Sanders, Magisterium AI peut aider à expliquer des concepts théologiques, philosophiques et historiques complexes dans un langage simple et compréhensible. Cela inclut des enseignements essentiels de l’Église comme la Trinité, l’Incarnation, les sacrements, etc. » Mais que signifie exactement « langage simple et compréhensible » ? Cela peut facilement inclure des interprétations erronées des textes sacrés.

Dans un autre article, un promoteur d’un système similaire affirme que l’intérêt réside dans la neutralité de l’IA et sa capacité à analyser d’immenses volumes de données. Cependant, l’IA n’est jamais totalement neutre. En posant la question « Pourquoi l’intelligence artificielle est-elle dangereuse ? » à un chatbot francophone, la réponse souligne cinq points de risques, notamment les erreurs et biais, susceptibles de causer des impacts négatifs.

Ces réflexions soulignent l’importance d’une approche vigilante face à l’IA dans les projets éducatifs catholiques.

Chat gpt

Partager cet article

7 commentaires

  1. C’est bien de rappeler ce sujet important. Mais ce texte reprend beaucoup d’éléments, avec quelques légères modifications,
    d’un texte que j’avais écrit et qui s’intitule “Les dangers de l’utilisation de l’IA dans l’enseignement catholique”. Il a été publié par Le Salon Beige le 16 août 2023:

    https://lesalonbeige.fr/les-dangers-de-lutilisation-de-lia-dans-lenseignement-catholique/

  2. “Cela peut facilement inclure des interprétations erronées des textes sacrés”, je confirme. J’ai testé ChatGPT sur des domaines où jepeux contrôler le résultat, il est capable de dire les pires âneries sans sourciller, et quand on lui souligne les incohérences de ses affirmation sa réponse est du genre “merci de me corriger, la correction est…” et il ressort une ânerie.
    C’est juste une machine programmée pour restituer un consensus mou et moyen, mais qui n’a aucune capacité de raisonnement réelle lui permettant de contrôler ses propres incohérences. Du niveau d’un élève de sixième qui aurait eu des lectures approfondies mais incapable de comprendre ce qu’il a lu.
    Du pur psittacisme.

    • Oui, j’ai aussi posé une fois la question “est-ce que c’est vrai qu’il y a seulement deux genres, masculin et féminin?” et il a répondu que ce n’est pas vrai… pour des raisons wokistes bien sûr:

      “La question des sexes est complexe et va au-delà d’une simple dichotomie entre masculin et féminin. Traditionnellement, on a souvent considéré qu’il n’existait que deux sexes, mais de nombreuses cultures et recherches scientifiques reconnaissent qu’il existe une diversité de sexes et de genres. Par exemple, certaines personnes peuvent s’identifier comme non binaires, genderqueer ou intersexes, ce qui montre que le spectre des identités de genre et des sexes est plus large. En somme, il est important de respecter et de reconnaître cette diversité.”

  3. les IA, particulièrement ChatGPT sont bourrées d’erreur et mensongères. Leurs concepteurs mettent systématiquement un biais wokiste, pro LGBT, affirmant que le gender theory est exact (alors que c’est une pure idéologie anti-scientifique), que l’immigration c’est bien, que vouloir protéger la civilisation chrétienne c’est raciste, que les idéologies gauchistes c’est bien, que tout le reste c’est l’extrême-droite et donc c’est mal. Faites quelques tests avec des questions démonstratives, vous verrez, c’est évident.

    • Tout à fait, les catholiques doivent être informés par rapport à toutes ces erreurs des systèmes comme CHATGPT. Avant, avec l’IA, ces problèmes ne se posaient pas car l’IA était appliquée à des domaines très restreints et avec des données assez limitées. Malheureusement beaucoup de gens croient que ce que sort ChatGpt est juste car c’est “informatique” voire “scientifique”. Comme je l’écrivais dans le texte originel du 16 août 2023, “Tout cela montre qu’il n’est pas souhaitable d’appliquer l’IA au domaine de la formation catholique. Cela est même dangereux. De toute façon le message chrétien a été donné par le Christ fait homme pour des hommes. Les écrits comme la Bible et les textes du Magistère aident, mais il faut une lecture et une explication faite par des humains éclairés par le Saint Esprit. “

  4. « Même une simple calculatrice représente une forme d’IA, imitant notre façon de résoudre des calculs mathématiques, un concept qui remonte à la machine de Pascal. »

    C’est factuellement faux.

    L’IA, grosso modo, c’est faire des moyennes. Vous prenez plein d’informations et vous sortez l’information moyenne. Quand vous avez assez d’informations, l’information moyenne semble une très bonne réponse.

    La calculatrice fait un calcul juste (enfin, c’est faux, parce qu’en binaire, on ne peut calculer juste que sur des entiers, mais c’est un autre débat). C’est un algorithme posé sur des mathématiques qui n’ont rien à voir avec la moyenne : vous ne faites pas une réponse en interrogeant une base de données qui aura cherché la réponse chez des millions de personnes à qui on aura posé la question !

    Quand on a compris cela, on a compris que l’IA recrache juste un savoir qu’on lui a injecté, AVEC TOUS LES BIAIS du savoir qui a été injecté. Si vous prenez Wikipédia comme base de données de savoir, votre IA sera bien gauchiste dans ses réponses. Ensuite, on trafique un peu les résultats pour les lisser, ce qui impose un biais de plus (par exemple, pour rendre l’IA politiquement correcte si jamais la base de données de travail avait le malheur d’avoir été fabriquée auprès de gens politiquement incorrects).

    • Merci de votre commentaire. En fait dans la plupart des histoires de l’IA on cite l’exemple de la machine de Pascal, c’est pour cela que j’en parlais dans le texte originel de 2023. La plupart des systèmes d’IA utilisaient la moyenne mathématique avant ChatGPT. Ils étaient construits avec des données restreintes et avec du calcul mathématique exact.

      En fait Chatgpt sort du cadre de ce qui se faisait habituellement en IA auparavant pour tirer profit des données du web. C’est pour cela qu’il se sert de ces méthodes que vous décrivez pour faire des moyennes, par exemple. Et la plupart des gens ne se rendent pas compte de ce problème car les systèmes d’IA d’avant n’étaient pas très connus, sauf dans l’industrie, les universités, les hôpitaux, etc.

Publier une réponse

Nous utilisons des cookies pour vous offrir la meilleure expérience en ligne. En acceptant, vous acceptez l'utilisation de cookies conformément à notre politique de confidentialité des cookies.

Paramètres de confidentialité sauvegardés !
Paramètres de confidentialité

Lorsque vous visitez un site Web, il peut stocker ou récupérer des informations sur votre navigateur, principalement sous la forme de cookies. Contrôlez vos services de cookies personnels ici.


Le Salon Beige a choisi de n'afficher uniquement de la publicité à des sites partenaires !

Refuser tous les services
Accepter tous les services