Actu

ChatGPT peut-il être un bon psychologue ?

17 janvier 2023
Par Marion Piasecki
ChatGPT peut-il être un bon psychologue ?
©ProStockStudio / Shutterstock

La plateforme d’aide psychologique Koko a essayé d’utiliser le célèbre chatbot, avec des résultats mitigés.

Après les applications et objets connectés liés au bien-être, le chatbot psychologue ? C’est ce qu’a essayé la startup à but non-lucratif Koko, qui offre du soutien psychologique en ligne. Le cofondateur, Rob Morris, a dévoilé les résultats de cette expérience sur Twitter.

Une utilisation avec un « co-pilote »

Rob Morris explique que cette expérience a porté sur 4000 personnes, c’est-à-dire environ 30 000 messages. L’intelligence artificielle était tout de même supervisée par un « co-pilote » humain si besoin. Étonnamment, ChatGPT était mieux noté que les humains répondant habituellement aux utilisateurs et le temps de réponse était plus rapide.

Cependant, quand les utilisateurs ont appris qu’ils s’adressaient en réalité à une IA, il n’ont plus fait confiance au service et les messages d’aide psychologique n’étaient plus efficaces. « Une fois que les gens ont appris que les messages étaient co-créés par une machine, ça ne marchait pas. L’empathie simulée paraît bizarre, vide, a conclu Rob Morris. Les machines n’ont pas d’expérience vécue, humaine, donc quand elles disent « ça a l’air difficile » ou « je comprends », ça ne semble pas authentique. Et elles ne font pas de réel effort (du moins aucun que les humains puissent apprécier !). Elles ne prennent pas de temps dans leur journée pour penser à vous. Une réponse de chatbot générée en trois secondes, peu importe son élégance, aura l’air cheap. » Koko a donc cessé d’utiliser ChatGPT.

Les IA peuvent-elles avoir de l’empathie ?

Cette expérience l’a fait réfléchir sur la capacité d’empathie chez les chatbots. Il estime que cela pourrait s’améliorer avec des IA qui établissent un rapport avec l’utilisateur au fur et à mesure du temps. D’après lui, ces progrès entraîneraient d’autres questions : arrivera-t-on à un point où les gens préféreront se confier à une IA plutôt qu’à leurs proches ? Comment pouvons-nous obtenir les avantages des machines empathiques sans sacrifier les relations humaines ? Enfin, il a admis la possibilité que l’empathie soit une qualité unique aux humains et impossible à répliquer avec une IA.

Cette expérience a causé beaucoup de réactions sur Twitter. Certains ont trouvé les résultats particulièrement intéressants pour avoir une meilleure idée des rapports entre humains et chatbots, tandis que d’autres ont dénoncé une démarche impersonnelle, voire cruelle, auprès de personnes vulnérables sans qu’il soit précisé qu’elles aient donné leur consentement éclairé.

À lire aussi

Article rédigé par
Marion Piasecki
Marion Piasecki
Journaliste