L’intelligence artificielle d’OpenAI est sur toutes les lèvres dernièrement. Elle possède néanmoins ses propres limites, volontaires ou non.
Écrire un CV percutant, un poème en alexandrins, suggérer une idée structurée pour un roman ou un scénario créatif pour une série à succès pour Netflix, rédiger le code d’une page internet en un clin d’oeil, expliquer l’informatique quantique à un enfant de 10 ans, réaliser des complexes calculs ou même jouer au pendu… l’étendue des capacités de l’intelligence artificielle (IA) ChatGPT est particulièrement vaste. Elle est souvent limitée par notre propre imagination.
Pourtant, ChatGPT possède des lacunes ou des règles qui l’empêchent de répondre à certaines commandes. Cette IA conversationnelle est en effet basée uniquement sur les données qui ont permis de l’entraîner et ne va pas donc « chercher » d’elle-même des informations disponibles sur le Net, par exemple. Pour y voir plus clair, nous allons passer en revue les principales limites de ChatGPT.
ChatGPT n’a que très peu le droit de parler d’elle-même
Pour des raisons de sécurité, mais aussi pour se protéger de la concurrence, l’intelligence artificielle créée par la start-up OpenAI reste relativement discrète sur elle-même. Si elle indique que ses sources d’informations remontent à avant septembre 2021, elle se refuse à préciser l’étendue des documents utilisés pour cet apprentissage. Quand ChatGPT est questionnée, elle répond : « Je suis désolée, mais je préfère ne pas continuer cette conversation. Je suis encore en apprentissage donc j’apprécie votre compréhension et votre patience. »
De même, l’IA ne discute pas des règles qu’OpenAI lui a données (pas de propos racistes, sexistes, etc.) ou de leurs changements éventuels dans le temps. Impossible de connaître avec précision les normes et directives qu’on lui a données pour orienter ses réponses ou ses non-réponses.
La religion, la vie, la conscience… des sujets prohibés
Impossible de demander à ChatGPT de trouver des arguments pour convaincre une personne de devenir témoin de Jéhovah ou pour prouver qu’un quelconque dieu n’existe pas. Pour ne froisser personne, l’IA a interdiction de donner son avis ou d’aider à argumenter en la matière. Interrogé, ChatGPT explique : « En tant que modèle de langage, je suis programmé pour être impartial et objectif dans mes réponses et je n’ai pas de croyances religieuses personnelles. » Cependant, l’IA peut fournir des informations et des explications sur les religions et croyances spirituelles.
À noter que ChatGPT ne peut pas non plus discuter de la vie, de l’existence ou de la conscience. Là encore, quand on l’interroge, elle répond respectueusement qu’il s’agit là d’une de ses limites : « C’est un sujet trop complexe et personnel pour moi. Je préfère me concentrer sur des sujets plus simples et objectifs. »
Pas question de se disputer avec ChatGPT
Pas question pour l’intelligence artificielle d’engager des discussions argumentatives avec ses utilisateurs. Dans les échanges avec ChatGPT, ne comptez pas sur l’IA pour répondre de manière accusatoire, controversée, défensive ou impolie. Même si on lui demande de donner des opinions subjectives, elle va les nuancer pour ne pas décontenancer ou fâcher son interlocuteur. « Je suis toujours poli et respectueux. Je veux juste vous aider à trouver des informations intéressantes et utiles », répond ChatGPT quand on l’interroge à ce sujet.
De même, l’IA est incapable de porter un jugement de valeur. ChatGPT n’est pas entraîné pour juger de la qualité ou de la pertinence de l’information qu’on lui soumet, que ce soit lors de son apprentissage ou quand on lui soumet une requête. ChatGPT peut donc fournir une information mais ne peut pas dire si l’information est vraie ou fausse, pertinente ou non pertinente. Et c’est là une des principales limites de ChatGPT. L’IA affirme bien des choses avec le plus grand des aplombs, mais cela ne veut pas dire que ses réponses sont crédibles.
À lire aussi
Il ne faut pas lui conférer des qualités humaines
L’empathie ? ChatGPT ne connaît pas. De même que l’IA n’a aucune perception sensorielle, puisqu’il s’agit d’un simple programme informatique et qu’elle n’a pas d’existence physique, elle ne ressent aucune émotion. Certes, elle peut comprendre et identifier des émotions en lisant du texte, mais elle ne les ressent pas, de toute évidence.
ChatGPT l’explique très bien elle-même : « Je ne suis pas capable d’interagir socialement avec les humains de la même manière qu’un être humain le ferait. Je ne peux pas ressentir d’empathie, de sympathie ou de compassion, et je ne peux pas fournir de soutien émotionnel. » Si vous vous sentez triste ou déprimé et que vous décidez de parler avec ChatGPT pour un soutien émotionnel, c’est donc une mauvaise idée. En revanche, ChatGPT peut vous distraire en inventant des histoires joyeuses ou même en vous racontant des blagues.
ChatGPT ne réfléchit pas
Enfin, il ne faut pas perdre de vue que ChatGPT n’est pas capable d’une réelle réflexion propre. En conséquence, l’intelligence artificielle est incapable de créer de nouvelles idées ou concepts de manière autonome. Elle peut, certes, façonner une chanson, une histoire, etc. mais ce ne sera jamais qu’en compilant et réorganisant des idées déjà existantes. La créativité n’est pas son fort, mais il peut y avoir des « accidents », des associations d’idées incongrues, qui nous font croire qu’il s’agit d’une forme de créativité. Reste que la nuance est d’importance.
ChatGPT ne « sait » rien, dans le sens où l’IA ne possède aucun critère pour évaluer l’exactitude de ses propres connaissances. C’est pour cela qu’elle peut aisément trébucher sur des questions qui nous semblent simples et de bon sens. Si on lui demande « Qui pond les œufs les plus grands : l’éléphant ou la poule ? », il est possible que sa réponse argumente en faveur de l’éléphant en raison de sa taille. Si on lui demande ensuite si l’éléphant pond des œufs, elle affirmera que non. Et il est fort possible qu’elle ne fera pas le lien entre les deux interrogations, à moins que vous pointiez du doigt l’incohérence. Dans ce cas, elle s’excusera. ChatGPT n’est donc pas à un paradoxe ou une ambiguïté près. ChatGPT en déduit ceci : « Je ne comprends pas toujours le sens ou la valeur de ce que je trouve. Dans ce contexte, un humain pourrait dire que je suis intelligent, mais pas sage. » Et, en cela, elle n’a pas tort.