
Il y a quelques semaines, le 30 novembre 2022, la société OpenAI a présenté au monde une nouvelle intelligence artificielle, ChatGPT. Après DALL · E, qui crée des images à partir d’instructions écrites en langage clair, ChatGPT est capable d’imiter parfaitement toutes les conversations, ou de répondre à des questions complexes en produisant des textes visuels à partir du cerveau humain.
Cette nouvelle évolution ne manque pas d’inquiéter, pour des raisons économiques (notamment la possible destruction d’autres emplois), morales (par exemple le risque de voir des types de langage comme ChatGPT prendre une discussion raciste), ou “épistémiques”, de ce genre. de l’IA ne faisant pas, jusqu’à présent, de distinction entre connaissances fiables et mauvaises connaissances (le mot “épistémique” désigne la production ou l’acquisition de connaissances et de connaissances fiables).
Cependant, il y a des raisons de penser que la démocratisation de ChatGPT et de nos partenaires pourrait être une bonne nouvelle, du moins pour notre rapport à l’information.
Menace épistémique
“L’intelligence artificielle peut être dangereuse car elle peut produire des informations convaincantes mais fausses. Elle peut remettre en question notre compréhension du monde ou même mettre en danger la validité de nos connaissances. Cela a soulevé des inquiétudes quant à la possibilité d’utiliser l’IA pour répandre des mensonges ou déformer les croyances des gens. “
Je ne le dis pas, c’est… ChatGPT lui-même ! Le paragraphe précédent a été créé par cette IA en lui posant cette question : ” Pourquoi la fausse intelligence est-elle un risque épistémique ?” Comme on le voit avec cet exemple, les réponses peuvent être très convaincantes. Et pourtant vraiment stupides. Parfois, la stupidité est évidente, parfois il n’est pas facile de sortir.
Dans ce cas, bien qu’il n’y ait pas grand-chose à dire sur la première phrase, la seconde est un énoncé vide : que signifie réellement « remettre en question notre compréhension du monde » ou « saper la validité de nos connaissances » ? La troisième ligne est un non-sens total : ces IA ne diffusent rien et ne sont probablement pas les meilleures à “utiliser” (car nous ne contrôlons pas ce qu’elles créent).
Mais c’est bien là le problème : il faut penser à se procurer un pot de fleurs.
Générateur de conneries
Ce que vous devez comprendre, c’est que ChatGPT n’est pas conçu pour répondre aux questions, mais pour créer un contenu crédible.
Techniquement, ChatGPT est ce qu’on appelle le “modèle de langue”. Le modèle de langage est un sargorithme, basé sur des technologies développées ces dernières décennies (réseau de neurones, apprentissage profond, etc.), capable de calculer la probabilité d’une séquence de mots à partir de l’analyse d’un corpus pré-expost textuel. C’est le plus efficace car la quantité de texte qu’il a pu “lire” est énorme. Dans le cas de ChatGPT, c’est incroyable.
Ainsi, étant donné une certaine séquence de mots, ChatGPT est capable de déterminer la meilleure séquence de mots possible à compléter. ChatGPT peut “répondre” à une question, de manière fiable, car il calcule une réponse possible. Mais il n’y a ni sens ni logique dans cette réponse. Rien de plus qu’un calcul de possibilités. ChatGPT n’est pas responsable de l’exactitude de ses réponses. En d’autres termes, c’est un générateur de “conneries”.
La « connerie », depuis quelques années, n’est plus une intervention anglo-américaine, traduite en français par « foutaise » ou « fumisterie », mais aussi un concept philosophique, comme le philosophe Harry Frankfurt en a fait le sujet de l’article. puis réserver dans les années 2000.
Aujourd’hui, les meilleurs chercheurs en psychologie, philosophie, neurosciences ou sciences de gestion s’intéressent au taureau. Le concept s’est compliqué mais on peut garder ici sa définition d’origine : la connerie c’est le mépris de la vérité. Ce n’est pas un mensonge : un menteur est obsédé par la vérité, pour mieux la cacher. Le bullshiteur, quant à lui, s’ignore et ne cherche qu’à capter – ce qu’il dit peut parfois être bon, parfois non, peu importe.
C’est exactement à quel point ChatGPT est talentueux : s’il ne se passe pas bien, il n’apparaîtra pas – ou pas rapidement. Le super générateur de conneries, accessible à tous, simple d’utilisation ? Il y a de quoi s’inquiéter. On imagine aisément à quel point cet outil peut être utilisé très facilement par des éditeurs de contenus peu scrupuleux pour créer de l'”information”, d’autant plus que ChatGPT semble pouvoir tromper même les universitaires dans leurs études.
Vices épistémiques et personnalité
L’enjeu est une autre tradition intellectuelle. Contrairement à une idée reçue, la production ou l’acquisition de connaissances (scientifiques ou non) n’est pas qu’une question de méthode. C’est aussi une question morale. Les philosophes parlent d’un vice ou d’une qualité « intellectuelle » (ou « épistémique »), qui peut être définie comme une qualité qui entrave ou, au contraire, facilite l’acquisition et la production de connaissances fiables.
L’ouverture d’esprit est un exemple de vertu épistémique, le dogmatisme est un exemple de vice. Ces idées ont fait l’objet d’une littérature philosophique qui s’est étoffée depuis le début des années 1990, l’épistémologie morale. Au départ c’était plus technique, puisqu’il s’agissait de bien définir les connaissances, ces tâches aujourd’hui sont aussi liées aux problèmes de notre époque : désinformation, fake news, conneries notamment, ainsi que les dangers soulevés par l’intelligence artificielle.
Jusqu’à récemment, les épistémologues éthiques qui discutaient des effets épistémiques des IA se concentraient principalement sur les “deepfakes”, ces vidéos sont entièrement créées par des IA de type DALL E, et peuvent montrer de vraies personnes dans des situations complètement embarrassantes. Les enseignements tirés de ces émissions sur les deep fakes sont utiles pour réfléchir aux possibles effets du ChatGPT, et peut-être justifier sans doute un pessimisme extrême.
La production de détails pose clairement problème, mais il est possible que leurs multiples actions suscitent chez le public l’apparition d’une forme de scepticisme complet à l’égard des images, une forme de « cynisme intellectuel ». L’auteur qui a créé cette déclaration (en 2022) la considère comme une erreur fatale, car elle conduit à douter de la connaissance du jeu et des connaissances établies. Je ne suis pas sûr qu’une telle critique soit mauvaise : elle équivaudrait à remonter à une époque, pas si lointaine, où l’image n’occupait pas une si grande place dans la connaissance. Il ne me semble pas que cette période (avant les années 1930) aurait été si mauvaise.
En tout cas, cette critique peut favoriser la croissance d’une autre caractéristique : une “sensibilité numérique”, qui permettrait de voir clairement le bon grain de l’ivraie dans la multitude d’images et de vidéos circulant sur Internet. .
Une telle expérience numérique peut également être promue par ChatGPT. Les lecteurs des créations de cette IA, brûlés par le flot de “conneries” qu’elle risque de publier, peuvent répéter leurs pensées à la lecture d’un article en ligne de la même manière qu’ils peuvent replier leur attention face à une photo (de peur d’être trompés par un deepfake) – sans tomber dans un état de doute total.
De mauvaises choses, une bonne personne pourrait naître. Plus encore, la montée en puissance de ces IA peut entraîner la nécessité de cultiver des vertus épistémiques et de combattre les vices, comme les vertus de trop de ne pas remettre en cause les théories du complot circulant sur les réseaux sociaux. En fin de compte, ces technologies perturbatrices peuvent être une bonne nouvelle pour la propriété intellectuelle.