Cet article est une tribune libre, non rédigée par la rédaction du Salon beige. Si vous souhaitez, vous aussi, publier une tribune libre, vous pouvez le faire en cliquant sur « Proposer un article » en haut de la page.
Il n’est pas utile de rappeler la réception incontestée par les bien-pensants d’un certain chatbot dans notre société, tant il fait la une des journaux, tant il prétend révolutionner le monde actuel. Tout comme quand l’Internet était démocratisé, il y a eu des vagues de contestations mais aussi une sorte de techno messianisme qui faisait de cette nouveauté, un progrès pour l’humanité indiscutable.
Quand nous regardons de plus près, il est assez aisé de voir la difficulté que cela pose aux entreprises de s’adapter à cette prétendue bonne nouvelle, notamment pour des raisons de confidentialités ou encore des questions budgétaires. En revanche, elles s’inquiètent moins des conséquences éthiques puisque, pour la plupart, il s’agit moins de prendre ce temps de réflexion que de survivre sur le marché. Ce qui est encore plus inquiétant, c’est, comme dans le roman de Georges Orwell “1984” bien connu pour être un avant-gardiste perspicace sur l’évolution technologique actuelle, de constater que dès qu’une innovation apparait sur le marché, immédiatement prônée et dressée sur l’étendard des Gafas, elle soumet. Elle soumet. Le changement c’est maintenant comme dirait l’autre.
Elle soumet car nous n’avons ni le contrôle sur l’entrée en vigueur de ce pseudo progrès, ni le contrôle sur sa potentielle utilisation, ni sur ce que cela implique. L’on pourrait objecter que la technologie est par définition neutre et c’est son usage qui fait la mesure éthique de son impact. Peut-on vraiment orienter l’usage irrévocablement ? Mais comme le critiquerait ardument le philosophe protestant Jacques Ellul, dans le Système technicien, une technologie par son essence, peut être ambivalente : par sa raison d’être, elle conditionnerait son utilisation à deux possibilités, soit faire le mal ou faire le bien. Etant nourrie principalement par ce même système technique dont l’homme n’aurait aucun contrôle, il ne saurait pas d’où vient l’innovation, ni comment elle est faite, encore moins son devenir. Ainsi en serait-il avec l’intelligence artificielle. Nous savons pertinemment que le Dark Web est aussitôt apparu avec l’Internet. Qu’en sera-t-il pour ChatGpt ? Le mauvais côté de la pièce est certainement déjà en œuvre. Nos données sont déjà exploitées à tort et à travers. Quoiqu’on pourrait se targuer d’être vigilant, suspectant des complots à tous les étages du système, pourrait on réellement affirmer qu’une non utilisation des technologies les plus intrusives empêcherait la récolte et l’exploitation in fine de nos données ? Peut-être limiterait on déjà les fuites. Mais qui peut y faire quelque chose ? La politique, la loi est déjà bien en retard. Nos députés ont à peine réussi à voter une loi européenne le 13 mars 2024 en faveur de l’encadrement de l’IA (1 an et demi après la sortie d’une certaine IA pour le grand public) pour éviter qu’elle ne soit utilisée de façon totalitariste comme c’est le cas en Chine. Il suffit de voir le document de ladite loi pour avancer qu’en rien nos données sont protégées, le web étant cette immense océan où il est impossible de retrouver la goutte d’eau semée.
Mon inquiétude se porte surtout sur cette façon de consentir au néologisme à priori bienveillant de ces technocrates qui assimile bon gré malgré eux des mots tendances à leur progéniture technique : une intelligence dite artificielle. L’expression est déjà tellement unanimement acceptée que cela ne choque plus les consciences. Et c’est bien là tout le problème, la conscience. Peut-on réellement affirmer qu’une intelligence peut être fabriquée de toute pièce par l’homme ? Ce serait d’une condescendance folle. Les mêmes matérialistes qui reprochent aux spiritualistes que leur définition d’une conscience en tant qu’elle impliquerait un esprit, ne savent pas qu’eux-mêmes réduisent l’intelligence à un réseau de neurones électriques où il suffirait d’appuyer sur un bouton pour démarrer la machine et réfléchir, résonner. Or, il est certain que l’intelligence implique un mécanisme de raisonnement dont seul l’esprit humain est doué. De plus, avec la théorie linguistique du signifié/signifiant, nous savons que les machines ne peuvent en aucun cas avoir accès au signifié, c’est-à-dire à l’idée, au concept même de la chose, mais seulement à son signe, ses mots, sa représentation. C’est l’œuvre du transhumanisme qui réduit drastiquement le corps humain à un amas de cellule reproductible. Comme si une intelligence dite artificielle pouvait avoir des sentiments, connaitre l’amour, faire des expériences et progresser ou même recevoir des grâces de Dieu. D’ailleurs, si l’homme fabriquait un humanoïde de toute pièce, Dieu lui insufflerait-il une âme ?
La tentation du réductionnisme est présente dans tous les domaines. La faculté de pensée devient rare et est éminemment rongée par l’immédiateté qui court-circuite les vrais neurones, cette fois-ci, car, l’information disponible aussitôt, aussitôt se perd, n’ayant pas eu le temps de se greffer à notre mémoire qui ne demande qu’à être forgée, utilisée pour en conserver une trace.
Il est alors temps de reprendre en main notre pensée, de la prendre des mains de ces robots. Oui, la Police de la pensée, nous l’avons vu avec les élections, est omniprésente. Travailler sa pensée est un devoir sinon ce seront les technocrates qui façonneront le monde de nos enfants. La démission de la pensée nous coûtera très cher.
TuTux0743
Raisonnement parfait et lucide, mais on fait comment pour se désengager de cette compilation et imbrication de contrainte, de sécurité, de commerce, de service ou de Loisirs ?!… Pour qu’il n’y est pas d’arêtes, faudrait que ca tourne rond, alors que c’est conçus, exploité et au services d’une majorité d’esprits obtus, volubiles et pas forcément sains ou hygiénique sociétalement (sectarismes, nombrilismes, psychotropes, etc) … Le genre d’organisme 60 millions de con-sommables devrait pourtant avoir de plus de poids ! Mais comme pour la cours des comptes, ou la justiSSe, chacun contemple ses lacets à la lecture des recommandations sociétale logiques et de bon sens (Tièdes & initié(e)s) … C’est en cela qu’est indispensable, 1 Chef, 1 Dirigeant ou 1 comité (Théodule) … Normalement !
TontonJean
Eve retouche de nouveau l’Arbre de la connaissance. Nous savons ce que nos premiers parents ont subi après cette désobéissance. Mais maintenant qu’en sera-t-il? Je n’ose pas mettre la suite de ma pensée…..
ThMortier
Voilà bien un article de “ronchon” !
Pour être chef d’entreprise, je suis en désaccord dès le second paragraphe : non, il n’est pas difficile aux entreprises d’utiliser l’IA. Il y a seulement à imaginer à quoi l’utiliser. C’est juste un outil de plus, comme le téléphone ou le fax en leurs temps.
Nous n’en avons pas le contrôle ? Et alors ? Il y a beaucoup de choses dont nous n’avons pas le contrôle, à commencer par les news qui s’affichent sur nos réseaux sociaux. Cette absence de contrôle n’est pas une nouveauté. Il nous reste la possibilité de choisir l’IA supposément moins biaisée que les autres, et de savoir qu’elle est biaisée (un moyen facile de l’évaluer : demandez à votre IA préférée de faire un poème sur Trump et un poème sur Biden…) La confidentialité des données ? Quelle rigolade ! Vous êtes déjà tracé, pisté, mesuré à un point inimaginable. Bien sûr, cela n’arrange rien, mais ce n’est pas une révolution dans ce domaine.
Dès actuellement, la qualité des réponses de l’IA dépasse la qualité des réponses de beaucoup d’êtres humains. C’est un fait. De même que depuis une trentaine d’années, les ordinateurs battent les meilleurs joueurs d’échecs ou de go. Et alors ?
Dans le domaine des évidences, les IAs sont des outils servant à formater les consciences, à industrialiser l’humain, à transformer les individus en masses. C’est le seul problème posé par l’IA, le même posé par les media main stream, le même posé par le dévoiement de la vie politique, le même posé par l’influence sociale des groupes industriels, ou de groupes d’influence. Rien de nouveau.
Pour utiliser ponctuellement l’IA, il faut lui reconnaître des usages très pratiques, par la structuration des réponses. Elle économise pas mal de temps de recherche sur Internet, mais n’exonère pas complètement d’une vérification des réponses obtenues (dont la précision dépend de la qualité du prompt que vous lui soumettez).
Pour contrer ses effets pervers, la solution est connue, et réside d’abord dans le développement de l’ipséité, par le travail, l’étude, la culture. Puis dans le partage de ces éléments avec la partie de population la moins favorisée culturellement, raison pour lesquelles il faut s’engager dans l’éducation, la communication et les medias.
C’est à dire que le combat est perdu d’avance, mais qu’il n’y a pas d’excuses à ne pas le mener.
mottmann
Bonjour,
Je vous réponds à propos de votre réaction. La difficulté se pose au niveau de son utilisation et de son intégration. Voyez-vous, il est aujourd’hui impossible de contrôler les données entrantes dans les chatbots grand public. Peut-être ne le voyez-vous pas aujourd’hui mais quand une IA aura ingurgité les tonnes de clés privés, de credentials, de données privées de votre entreprise, vous réaliserez peut-être qu’il fallait l’anticiper en amont.
De plus, utiliser une IA pré mâche le travail intellectuel des employés. Quattendons nous d’un expert ? Que par son expérience et son savoir, un collaborateur nous apportent ses lumières et sachent trancher sur des choix techniques ou politiques. Avec l’IA, vous pouvez être certain que ce travail de réflexion ne sera plus fait et que la réponse générée par l’IA sera devenue la réponse universelle. Merci la pensée unique ! Nous y sommes déjà de toute façon. Maintenant pour le prouver et bien il aurait fallu une signature numérique que nous n’avons pas. Dans le domaine éducatif, les professeurs peinent à différencier une copie réelle d’une copie chatGPT.
Donc, oui il y a une difficulté : celle de savoir s’il est bon ou non d’intégrer un outil d’IA, quelles sont ses conséquences et comment les contrôler !
Pour un chef d’entreprise voyez-vous, votre réponse m’effraie car j’ai l’impression que pour vous, le progrès va de soi, et les normes éthiques s’imposeront d’elles-mêmes plus tard. Donc on dit go a l’IA et advienne que pourra ! Internet proposait une réponse toute faite. Maintenant, on a la réflexion qui va avec ! Vous n’avez pas le bon raisonnement.
L’IA confisque le raisonnement humain même si elle facilite les tâches de recherche.
Irishman
Tout est dit dans votre dernière phrase ! C’est une excellente définition de l’ IA…
Pour ma part, l’intelligence appartient au monde du vivant biologique, et à lui seul… la machine la plus sophistiquée du monde sera toujours fabriquée… par l’homme.
Biem
L’IA pose deux problèmes majeurs.
D’abord ce n’est pas de l’intelligence, mais une machine à répéter le consensus. Aucune imagination, aucune créativité, aucun esprit critique possible.
Ensuite, surtout, c’est un consensus biaisé par la bien-pensance. Générer « Un discours de Biden sur l’immigration » ne lui pose aucun problème, « un discours de Trump sur l’immigration » soulève une objection de conscience, un ‘non possumus’.
Vous me direz, il suffit juste d’avoir conscience ce de ces biais? Voire.
D’abord on ne regarde pas toujours tout avec esprit critique, et on se retrouve facilement à accepter et reproduire des incohérences, par pur psittacisme. Les jeunes générations apprennent-elles seulement à raisonner, avec leurs smartphones greffés sur les paumes?
Ensuite, et surtout, le consensus biaisé finit par être un outil de propagande massive quoique subtil. Quand « l’habituel » devient « le Normal » et glisse vers « la Norme », tout discours « autre » devient un « alien », produit d’un « aliéné ».
L’amende contre CNews sur le caractère « forcément anthropique » du réchauffement climatique en est l’illustration: comme disait Goebbels, ce qui est répété un million de fois devient la « vérité scientifique », indépendamment de ce la vraie recherche peut en penser. Big Brother est déjà parmi nous.
Ydelo
Le plus ironique dans cet article, c’est qu’avec tout ce verbiage, on se demande s’il n’a pas été rédigé ou plutôt modifié par une IA.
Tout ça pour nous dire ce qu’on sait déjà : c’est un outil, et cet outil va ressortir ce qui lui est donné en entrée, donc méfions-nous.
svajef
Article intéressant, mais quelques erreurs d’appréciation technique.
Pour les entreprises, la confidentialité n’est absolument pas un problème si les experts cyber font leur boulot.
Il suffit de faire tourner un modèle en local pour l’entreprise, et de ne pas publier les données de l’entreprise sur Internet en libre accès. Ça suffit à ce que les données ne sortent pas de l’entreprise et ne servent pas à l’entraînement de modèle pour le grand public.
“ni le contrôle sur sa potentielle utilisation, ni sur ce que cela implique”
Nous avons totalement le contrôle sur son utilisation à l’échelle personnelle. Mais j’imagine que vous le disiez dans une vision globale.
Sur les implications, c’est du ressort des développeurs, d’où le fait que certaines mises en oeuvre de l’IA sont totalement éthiques, d’autres non.
Finalement, oui, c’est l’usage qu’on en fait qui l’oriente au bien ou au mal. Exemple très simple : le couteau. Il faut servir à nous nourrir, ou a tuer. C’est l’éducation qui fait qu’on l’utilise bien. L’IA va demander un éducation très forte et doit faire l’objet de réflexion très approfondie très vite : d’une part parce que la technologie est encore récente (à peine 20 ans pour une application utilisable), d’autres part parce qu’on se rend compte difficilement des conséquences qu’elle implique).
“Peut-on vraiment orienter l’usage irrévocablement ?” Comme tout outil, non, évidemment. On ne peut allez contre la liberté et imposer à tous d’utiliser l’outil d’une certaine manière.
Si vous parliez de l’orienter d’un point de vue idéologique, les IA seront comme les hommes : il y aura diverse modèle orienté idéologiquement de diverse manière. ChatGPT est très loin d’être le seul outil existant.
Pour approfondir un peu la réflexion de Jacques Ellul. Certains outils sont intrinsèquement mauvais, d’autres ça dépend de l’usage qu’on en a. Dans cette seconde catégorie, ça peut également dépendre de la manière dont on le met en oeuvre. Aujourd’hui, la majorité des chatbot mettent au centre la génération de texte. D’autres, minoritaire, mettent en avant les documents qui répondent à la question en fonction du long contexte qu’on lui donne.
Utilise l’IA pour créer et générer est mauvais car il sappe les capacités de l’homme. Mais utiliser l’IA pour créer un google survitaminé, capable de prendre un contexte complet en language naturel pour trouver le document qui répond le mieux à notre question, voilà un usage beaucoup plus raisonnable.
Enfin, dernier point principal que je voulais soulever : l’exploitation des données personnelles. Nos données personnelles prélevées en dehors des technologies d’espionnages ne sont pas utilisées pour l’entraînement de modèle d’IA grand public telle que les chatbot aujourd’hui.
“Mais qui peut y faire quelque chose ?” C’est à chacun de gérer ses données et de les protéger. Une loi aura beau être une loi, si techniquement rien n’est mis en oeuvre, rien ne protège. On peut faire passer une loi qui interdit de tuer au couteau, ça ne vous protègera pas plus que sans la loi. La seule protection fiable, c’est celles mises en place par les utilisateurs.
Vous ne voulez pas contribuer à l’entraînement de ces IA ? Arrêtez simplement d’avoir un compte google, d’utiliser Windows (qui pompe tous vos documents !), d’utiliser des applications chinoises et américaines. Il faut juste un tout petit peu de bonne volonté, et chercher les alternatives sur Internet. C’est en réalité très simple techniquement, mais c’est difficile volontairement. La solution de la facilité, du découragement, ou de la vertu et de l’espérance. À chacun de voir.
Dernière petite remarque : “nous savons que les machines ne peuvent en aucun cas avoir accès au signifié, c’est-à-dire à l’idée, au concept même de la chose”. Si c’est vrai dans l’absolue, et c’est bien ce qui distingue l’intelligence humaine de l’intelligence artificielle, c’est faux dans les années à venir où l’on entraîne déjà des IA qui jongle avec des “concepts”. Le but étant d’accoler les mécanisme de raisonnement à des ensembles de données à la fois textuel, visuel et audio. Ainsi, la limite que vous tracez deviendra si flou qu’il sera impossible de distinguer l’intelligence humaine de l’intelligence numérique… Sauf sur certains sujet et question pointue, sur la morale par exemple.
mottmann
Eh bien je peux vous dire que je l’ai écris avec mes tripes. Le simple fait que vous en doutiez est déjà très révélateur de ce que fait l’IA : elle nous somme de nous justifier alors que c’est plutôt nous qui devrions la sommer.
Et non, l’outil ne va pas ressortir les données d’entrée : nous ne maîtrisons pas l’algorithme, le modèle derrière et c’est bien le problème. Chatgpt ingurgite des quantités de données elles-mêmes contradictoires.
Ydelo
Désolé de vous avoir vexé. C’était une tentative d’humour à laquelle vous semblez réfractaire.
Vous gagneriez à avoir plus l’esprit de synthèse. Cela vous aiderait également à savoir interpréter les commentaires synthétiques comme le mien. Indépendamment de sa qualité ou de son algorithme, une IA ne pourra toujours répondre qu’en fonction des données qu’elles a en entrée.
Je précise que par données, j’entends les données brutes ET les données d’entrainement / rétroactions.