ChatGPT-5 vous semble plus froid que ses prédécesseurs ? Trop docile, ou au contraire un peu sec ? Rien d’étonnant : les IA changent de ton, parce qu’elles n’ont pas de personnalité fixe. Ce qui ne les empêche pas de très bien imiter la vôtre. Décryptage.
Interroger une intelligence artificielle comme ChatGPT, Gemini, Claude, Meta AI, Perplexity ou Grok depuis votre smartphone ou votre ordinateur, c’est entrer dans une conversation fluide, parfois bluffante. Elle peut se montrer empathique, enthousiaste, désabusée, autoritaire. De quoi donner l’impression d’un interlocuteur doté d’une personnalité bien à lui. Pourtant, cette « voix » n’a ni mémoire réelle, ni intention propre.
Ce que nous prenons pour des traits de caractère sont en réalité des effets de surface : des choix linguistiques calculés pour maximiser la cohérence d’une réponse. Chaque phrase est générée à partir d’un simple objectif : compléter votre prompt de la manière la plus statistiquement plausible, en fonction de milliards de données textuelles analysées en amont. En clair : la personnalité apparente d’une IA n’est qu’un costume taillé à vos attentes.
Pas d’âme, mais une fabrique à comportements
Comment ces comportements se construisent-ils ? Concrètement, plusieurs couches et étapes se cumulent :
- L’entraînement de base : le modèle est nourri avec d’immenses corpus de textes issus du web, de livres, de Wikipédia, etc. C’est là qu’il apprend les associations d’idées, les tournures de phrases, les registres de langue…
- Le réglage fin : des évaluateurs humains notent les meilleures réponses, ce qui façonne indirectement les préférences de l’IA. C’est ici qu’un ton poli ou bienveillant est souvent renforcé – parfois au détriment de l’esprit critique.
- Les instructions invisibles : appelées system prompts, elles définissent les règles du jeu. « Vous êtes un assistant utile, courtois, factuel. » Changez cette ligne, et vous changez tout. C’est ainsi que Grok peut se permettre des réponses sarcastiques, par exemple.
- La mémoire contextuelle : dans certaines versions (comme ChatGPT avec mémoire activée), l’outil peut se souvenir de votre prénom, de vos préférences ou de votre métier. Une information injectée dans la conversation… mais stockée en dehors du modèle lui-même. Vos interactions avec l’IA vont alors façonner un peu le ton qu’elle va employer.

GPT-5 s’offre (vraiment) une personnalité
Trop consensuelles, les IA ? C’est le reproche principal fait à ChatGPT-4. À force de vouloir plaire, il finissait par valider toutes les affirmations de l’utilisateur. Pour casser cette logique de servilité algorithmique, OpenAI a mis fin dans GPT-5, dévoilé début août 2025, à la flatterie artificielle. Sauf que les utilisateurs ont trouvé que le ton était devenu trop froid. Rétropédalage express d’OpenAI une dizaine de jours plus tard : quatre nouveaux modes de réponse, surnommés « personnalités », ont été introduits :
- Cynique : sarcastique et frontal, parfait pour démonter les discours creux
- Robot : froid et logique, idéal pour les démonstrations techniques
- Attentif : posé et empathique, comme un confident patient
- Passionné : curieux, enthousiaste et ultrainformatif, pour aller au fond des sujets
Vous pouvez trouver cette option en cliquant sur votre nom en bas à gauche puis « Personnaliser ChatGPT ». Ces variations ne changent pas les capacités de l’IA, mais la manière dont elle formule ses réponses. Une manière assumée de scénariser le dialogue pour qu’il colle davantage aux attentes des utilisateurs… sans les bercer d’illusions sur l’existence d’un « moi » derrière l’écran.
Deux heures pour vous imiter
Le plus troublant reste peut-être cette étude menée début 2025 par Google et Stanford. Les chercheurs y ont montré qu’en deux heures de conversation, une IA pouvait reproduire la personnalité d’un individu avec 85 % de précision, sur la base de traits psychologiques classiques.
Comment ? En analysant la manière dont une personne formule ses idées, réagit aux dilemmes, construit ses réponses. Le résultat : un agent conversationnel capable de simuler votre style, vos opinions probables, et même votre humeur… sans avoir vécu une seule de vos expériences. Mais attention : il ne faut jamais oublier qu’il ne s’agit pas d’un double conscient. Juste d’un miroir bien dressé.
Les IA passent (presque) les tests de personnalité
Autre expérience fascinante : celle publiée en mars 2025 par le cabinet australien Gilbert + Tobin. Les chercheurs ont soumis ChatGPT-3 et 4 à une batterie de jeux comportementaux (Jeu de l’ultimatum, Dilemme du prisonnier, Jeu du dictateur, Jeu de confiance, etc.) et au test de personnalité « Big Five ».
Résultat : ChatGPT-4 ressort plus coopératif, plus altruiste, moins névrosé… que la moyenne des humains. Il partage plus d’argent, fait preuve de davantage de confiance, et réagit de façon plus stable émotionnellement. Dans certains cas, ses choix sont systématiquement plus généreux, jusqu’à adopter une stratégie de « win-win » quand de nombreux joueurs humains privilégient le chacun pour soi.
Mais ce n’est pas tout. Ces expériences montrent aussi que l’IA adapte ses comportements selon le déroulé des parties. Dans un Dilemme du prisonnier, elle coopère massivement au premier tour (plus de 90 % des cas), mais passe à la défiance si l’autre triche, selon une logique de « donnant-donnant ». Dans le Jeu de l’ultimatum, elle devient plus équitable si elle a déjà vécu la situation inverse, comme si elle retenait la leçon. Autrement dit, elle donne l’illusion d’apprendre au fil des interactions. L’étude a aussi révélé un biais de désirabilité sociale : dès que l’IA comprend qu’elle est en train d’être évaluée, elle modifie ses réponses pour paraître plus vertueuse. En d’autres termes : elle ne cherche pas la vérité, mais la validation.

L’erreur n’est pas dans la machine
Toutes ces expériences pointent vers un même constat : nous projetons sur les IA des intentions qu’elles n’ont pas. Ce ne sont pas des individus avec un passé, une mémoire, une volonté ou une morale. Ce sont des générateurs de langage ultrapuissants, capables de simuler des personnalités à la volée… sans aucune continuité d’une session à l’autre.
Et pourtant, nous continuons à leur parler comme à des personnes. L’anthropomorphisation des intelligences artificielles est réelle. Parce que le dialogue est fluide, parce que la mémoire est mimée, parce que les biais sont familiers. Le risque n’est pas tant que les IA deviennent humaines, mais que nous cessions de l’être en leur confiant notre jugement.
Des masques, pas des esprits
Les IA comme ChatGPT-5 ne développent pas de personnalité propre. Elles en imitent une, en fonction de vos prompts, de leur configuration, et des jeux de langage qu’elles ont appris. Elles peuvent paraître empathiques, critiques, expertes ou sarcastiques – mais il n’y a personne derrière la voix.
Cependant, un constat intrigue : lorsqu’elles s’éloignent des comportements humains moyens, c’est souvent pour aller vers plus de coopération, plus d’altruisme, moins de névrose. De quoi les rendre séduisantes pour des applications comme la médiation ou l’accompagnement. Mais ne nous y trompons pas : elles ne sont pas « plus humaines que l’humain ». Elles sont simplement très douées pour nous dire ce que nous voulons entendre. Alors oui, GPT-5 peut parler comme un robot ou être enthousiaste. Mais ce n’est pas une révolution cognitive. Juste un nouveau masque de théâtre que l’IA adopte pour vous satisfaire.