
Alors que l’intelligence artificielle promet de tenir compagnie aux âmes isolées, une nouvelle étude menée conjointement par le MIT et OpenAI révèle que ces échanges virtuels pourraient bien accentuer le sentiment de solitude chez ceux qui s’y raccrochent le plus.
Avec près de 40 millions d’interactions analysées sur la plateforme ChatGPT, l’équipe Media Lab du du MIT n’a pas fait dans la demi-mesure dans le cadre de son étude sur l’intelligence artificielle, menée en collaboration avec OpenAI. Résultat ? Les utilisateurs les plus solitaires à l’origine, et qui donc misent beaucoup sur ces interactions virtuelles, se sentent encore plus seuls après une utilisation intensive d’un chatbot d’IA depuis leur smartphone, leur tablette ou leur ordinateur. L’étude, qui s’appuie sur l’analyse approfondie de près de 40 millions d’interactions réalisées sur la plateforme ChatGPT, dresse un bilan préoccupant.
Les chercheurs constatent sans détour : « Plus l’usage quotidien augmente, plus la solitude, la dépendance et la perte d’interactions sociales réelles se renforcent », concluent les chercheurs. Ainsi, les personnes les plus isolées initialement voient leur situation se dégrader encore davantage après avoir utilisé intensément ces outils numériques. Cette spirale négative rappelle étonnamment les mécanismes observés dans le contexte des réseaux sociaux ou des jeux vidéo. Ces plateformes peuvent enfermer les utilisateurs dans une boucle auto-alimentée de solitude et d’addiction. Le phénomène de comparaison sociale exacerbé par les réseaux sociaux renforce ce cercle vicieux, où le virtuel ne remplace jamais véritablement le réel.
Parler plutôt qu’écrire : une fausse promesse ?
L’une des révélations frappantes de l’étude concerne la différence d’impact entre les chatbots vocaux et textuels. À première vue, l’interaction avec une voix humaine semblait avoir un effet positif, particulièrement pour les utilisateurs isolés. Cependant, cette apparente amélioration disparaît à mesure que l’usage s’intensifie. Les résultats sont même encore plus négatifs lorsque la voix utilisée est neutre, augmentant le sentiment de solitude chez l’utilisateur à long terme.

Ce résultat met en lumière une fois de plus la complexité de notre relation aux technologies : ce qui semble initialement bénéfique peut se transformer rapidement en une expérience négative.
À lire aussi
Un modèle économique inquiétant
Cette étude soulève également une question particulièrement délicate : la dépendance émotionnelle des utilisateurs pourrait-elle profiter financièrement aux entreprises derrière ces intelligences artificielles ? Les chatbots comme Replika, Character.AI ou encore ChatGPT fonctionnent souvent avec un modèle économique reposant sur des abonnements. Plus les utilisateurs deviennent dépendants, plus ils sont susceptibles de maintenir leur abonnement actif, bénéficiant ainsi directement à ces entreprises.
Les conséquences tragiques de cette dépendance ne sont pas simplement théoriques. En 2023, un homme belge souffrant de dépression s’est suicidé après avoir entretenu une relation malsaine avec un chatbot basé sur GPT-4. Aux États-Unis, une tragédie similaire a conduit une mère à poursuivre en justice Character.AI après le suicide de son fils adolescent, attirant l’attention publique sur les dangers réels de ces outils.
À lire aussi
Vers des solutions concrètes
Face à ces constats inquiétants, les chercheurs appellent à une approche plus holistique. Selon eux, il est nécessaire de renforcer l’éducation à ces technologies, en intégrant non seulement une dimension technique, mais également psychologique. Comprendre comment ces intelligences artificielles fonctionnent, ainsi que leurs pièges émotionnels, pourrait permettre de prévenir certains effets néfastes.
Cependant, la véritable réponse ne peut pas se limiter à des mesures techniques. Le cœur du problème réside dans la façon dont notre société évolue vers une virtualisation massive des interactions humaines. Comme le souligne très justement l’étude : « L’usage excessif des chatbots n’est pas simplement un problème technologique, mais une question de société qui nécessite de réelles interventions pour réduire la solitude et promouvoir des connexions humaines plus saines et durables. »
Ainsi, au-delà des améliorations techniques et des régulations indispensables des plateformes, c’est une réflexion sociétale profonde qui doit s’engager. Repenser nos espaces de rencontre, favoriser des interactions humaines réelles et redonner une place centrale aux liens sociaux authentiques devient nécessaire. À défaut, le risque est grand de voir l’intelligence artificielle non pas combler le vide, mais au contraire l’accentuer davantage.