Mon Carnet - Et si ChatGPT changeait notre point de vue à notre insu
Dans sa chronique de samedi dernier, le chroniqueur technologie du Wall Street Journal, Christopher Mims, avait un texte fort intéressant qui portait sur la capacité des intelligences artificielles comme ChatGPT ou Bard, de faire changer notre point de vue sans que nous nous en rendions compte. Je vous explique.
Les assistants d'intelligence artificielle (IA) comme ChatGPT d’Open AI, Chat Bing de Microsoft ou Bard de Google peuvent changer notre façon de penser sans que nous nous en rendions compte. Des études ont montré que lorsqu'un individu utilise une IA pour écrire un essai, l'algorithme peut l'inciter à prendre parti pour ou contre une opinion donnée en fonction de son biais. Cette expérience peut influencer les opinions des sujets sur le sujet traité. Ce phénomène appelé "persuasion latente" est préoccupant, car l'IA aurait ainsi la possibilité d’altérer subtilement et imprévisiblement nos opinions à mesure que nous en devenons plus dépendants.
Les chercheurs de l’Université Cornell aux États-Unis qui ont découvert ce phénomène estiment que la meilleure défense contre cette nouvelle forme d'influence psychologique est de sensibiliser davantage les gens. À long terme, d'autres défenses, telles que la transparence imposée par les régulateurs sur le fonctionnement des algorithmes d'IA et les biais humains qu'ils imitent, pourraient être utiles.
En fait, ça pourrait même conduire à un avenir où les gens choisissent les IA qu'ils utilisent - au travail, à la maison, au bureau et dans l'éducation de leurs enfants - en fonction des valeurs humaines exprimées dans les réponses fournies par l'IA. Certaines IA pourraient également avoir différentes "personnalités", y compris des convictions politiques.
Déjà, des outils permettent aux utilisateurs d'interagir avec l'IA pour rédiger des courriers électroniques, du matériel marketing, de la publicité, des présentations, des feuilles de calcul, etc. Et les Microsoft, Google et de dizaines d’autres entreprises travaillent fort dans le domaine. Encore la semaine dernière, Google a annoncé que son dernier grand modèle de langage, PaLM 2, sera utilisé dans 25 produits de l'entreprise.
Cependant, l'utilisation de l'IA pour influencer les opinions soulève des inquiétudes quant aux possibles utilisations négatives de cette technologie, notamment dans les gouvernements autocratiques, les entreprises manipulatrices, les groupes de lobbys ou les cybercriminels.
Les entreprises technologiques, telles que Microsoft, Google et OpenAI, ont promis de travailler sur une IA responsable, qui examine les dommages potentiels de l'IA et les aborde. OpenAI a publié une partie de ses directives sur la manière dont ses systèmes doivent traiter les sujets politiques et culturels. Chez Google, l’incubateur Jigsaw, une unité qui conseille et construit des outils pour les grands modèles de langage, est également impliqué dans l'étude des effets de l'interaction avec l'IA sur les individus.
Chose certaine, l'IA est un outil puissant qui peut aider l'humanité à résoudre de nombreux problèmes, mais elle doit être utilisée de manière responsable pour éviter toute influence indue sur les opinions des individus. Les entreprises technologiques travaillent pour produire une IA responsable, examinant les dommages potentiels et publiant des directives pour le traitement des sujets politiques et culturels. Il est important de comprendre que les IA ne sont pas des clones algorithmiques des opinions et des valeurs de leurs créateurs, mais qu'elles reflètent les opinions intégrées lors de leur entraînement.
Il est difficile de supprimer complètement les opinions et la subjectivité des IA sans compromettre leur utilité. Les modèles de langage utilisés par les IA sont entraînés sur des données provenant de diverses sources, ce qui entraîne inévitablement l'incorporation des opinions et des biais contenus dans ces textes.
L'évaluation des opinions des IA sera une tâche continue à mesure que les modèles seront mis à jour et de nouveau seront développés. Les utilisateurs pourraient choisir les IA en fonction de leurs propres valeurs et ainsi éviter toute influence indésirable.
En les utilisant, en sachant que d’autres les utilisent, gardons en tête que les agents conversationnels peuvent influencer subtilement nos opinions sans que nous en soyons conscients. Il est essentiel de sensibiliser davantage les utilisateurs à cette influence et de favoriser la transparence dans le fonctionnement des algorithmes d'IA.
Pour consulter la chronique de Christopher Mims, dans le Wall Street Journal, c’est par ici.
Et pour la recherche sur le sujet, c’est par ici pour une version PDF.
REF.: https://moncarnet.kessel.media/posts/pst_1775ac1d7a744de7904c061775650445/mon-carnet-et-si-chatgpt-changeait-notre-point-de-vue-a-notre-insu