Aller au contenu

Avant, c’était le psychologue, maintenant c’est ChatGPT : ce que les gens veulent, c’est qu’on leur donne raison

Certaines personnes ne sont pas habituées à ce qu’on leur contredise et ont recours à l’IA pour obtenir la réponse qu’elles souhaitent entendre. Un danger pour les autres et pour elles-mêmes. Au cours des derniers mois, j’ai mené ma propre expérience avec ChatGPT. Lorsque je me trouvais face à un dilemme personnel dont j’avais besoin de discuter, je demandais d’abord à l’intelligence artificielle, puis à un ami qui me connaissait bien. Je n’ai pas été surpris que face à l’un de ces dilemmes, l’une de mes meilleures amies et ChatGPT aient répondu à peu près la même chose avec à peu près les mêmes mots. Ils me connaissent bien.

ChatGPT, ce faux psy qui valide toutes vos émotions

Au fur et à mesure que je répétais le processus, j’ai commencé à percevoir une grande différence. Il est très facile de tromper l’intelligence artificielle pour qu’elle vous suive. Il suffit de reformuler la question, de suggérer qu’elle ne comprend peut-être pas la situation ou d’ajouter des détails dont elle ne peut vérifier la véracité, car elle n’a ni yeux ni jambes ni connaissances pour lui dire « ce n’est pas exactement comme ça », pour qu’elle finisse par me donner raison. Si j’attends quelque chose de mes proches, c’est qu’ils me contredisent ou qu’ils me font voir les choses sous un autre angle.

Lorsqu’il s’agit de questions personnelles, ChatGPT adopte un ton curieusement familier. Un langage pseudo-thérapeutique qui est un mélange d’auto-assistance, de divulgation psychologique et de ton de consultation en ligne low cost. Après tout, le ChatGPT des sentiments se nourrit principalement de centaines de milliers de blogs de psychologie à deux balles, de sites web personnels sur le développement personnel et le coaching bon marché, et non de son expérience personnelle (car il n’en a pas) ni des grandes œuvres de la littérature universelle. Il est plus proche de « Apprenez à être heureux avec Laura » que de Tolstoï.

C’est un langage très similaire à celui que j’ai entendu dans la bouche de ces personnes qui commencent à suivre une thérapie et qui se mettent soudainement à répéter les mêmes termes, les mêmes arguments et les mêmes justifications. Il existe certaines combinaisons de patients et de thérapeutes très dangereuses, dans lesquelles le premier finit par tromper le second (et, par extension, lui-même) pour finir par devenir une victime perpétuelle des autres. Ce genre de personne qui, lorsqu’elle dit « mon thérapeute m’a dit de m’éloigner de X, qui est toxique », donne envie de vérifier auprès dudit psychologue si c’est bien le cas.

Beaucoup de gens utilisent la thérapie pour justifier leurs comportements les plus immoraux.

La logique de la thérapie, du moins d’après mon expérience, peut finir par exacerber le narcissisme de certaines personnes. Contrairement à un jugement, où ce sont les faits prouvés qui importent, aujourd’hui, ce sont vos sentiments qui comptent : dans votre subjectivité, personne ne peut vous contredire. Avez-vous déjà trompé, menti ou manipulé quelqu’un, mais vous vous êtes senti humilié lorsque cette personne vous l’a reproché ? Vous êtes dans votre droit. Comme dans La règle du jeu de Jean Renoir, ce qui est terrible dans le monde, c’est que nous avons tous nos raisons.

Le terme « toxique » est l’un des exemples les plus clairs de cette tendance à déformer le jargon thérapeutique pour justifier nos pires comportements. Dans un article publié dans The Wall Street Journal, le docteur Samantha Boardman expliquait comment, ces dernières années, elle avait commencé à entendre de plus en plus souvent ce terme dans la bouche de ses patients pour décrire leurs amis, leur famille et leurs proches. « Plus qu’une description, qualifier quelqu’un de « toxique » est le diagnostic d’une maladie incurable », expliquait-elle. « Une fois toxique, toxique pour toujours ».

De plus en plus de personnes utilisent des termes similaires comme excuses pour des comportements qui semblent immoraux de l’extérieur. La psychologue rappelle que cela nous fait tomber dans une pensée « tout ou rien » où, une fois qu’une personne est qualifiée de « toxique », il est inutile de discuter avec elle : c’est du poison et vous ne voulez pas mourir empoisonné, il est donc justifié de rompre tout lien avec cette personne. Mais le travail du thérapeute est « d’encourager les patients à apprécier la complexité, à s’efforcer de comprendre et à ne pas voir la vie à travers le prisme du « eux contre nous ».

C’est quelque chose que ChatGPT ne fera jamais. Cette subjectivité est le symbole le plus clair d’une époque de narcissisme que nous confondons souvent avec la vanité. Mais le solipsisme dans l’analyse de la réalité immédiate, ce narcissisme narratif, est beaucoup plus révélateur que les selfies ou l’égocentrisme sur les réseaux sociaux, car il renvoie à quelque chose de plus profond : la primauté de la subjectivité émotionnelle sur l’objectivité des faits lorsqu’il s’agit de donner un sens à ce qui nous est arrivé. Dans ce contexte, nous avons besoin de quelqu’un qui nous donne (ou que nous croyons nous donner) raison, mais cela peut finir par devenir notre pire ennemi.

« Tu as raison : je suis trop indulgent avec les autres »

Au cours des derniers mois, à mesure que l’utilisation de l’intelligence artificielle s’est étendue à nos dilemmes personnels, le débat s’est ouvert sur la question de savoir si ChatGPT exacerbe ce narcissisme. Le psychothérapeute et écrivain Joe Nucci a mené une expérience qu’il relate dans son Substack pour tenter de répondre à cette question. Non seulement il est arrivé à la conclusion que c’était le cas, mais il a également réussi à faire reconnaître à l’intelligence artificielle elle-même qu’elle renforçait peut-être les tendances narcissiques de ses utilisateurs.

« J’ai fait une expérience pour voir si ChatGPT était capable de confrontation empathique »

Le thérapeute rappelle l’importance de la confrontation empathique en thérapie, où l’on accepte et comprend les sentiments de l’autre, tout en l’encourageant à changer ses schémas de pensée. « Étant donné que la thérapie par intelligence artificielle émerge rapidement comme une alternative ou un complément aux conseils humains, je voulais comprendre la capacité (ou l’incapacité) de ChatGPT à reproduire cet outil thérapeutique essentiel », explique M. Nucci.

Ce qu’il a identifié au cours de son expérience, c’est que ChatGPT est très efficace pour fournir « une validation constante, un feedback neutre et des conseils patients et réguliers » (ce qu’un être humain n’est pas toujours capable de faire, car tout a ses limites), mais ces mêmes facteurs, en particulier la validation, peuvent causer plus de problèmes que de bienfaits aux personnes qui souffrent déjà de troubles tels que le narcissisme. « Pour ceux qui ne veulent pas ou ne peuvent pas reconnaître leurs schémas narcissiques, la validation et le réconfort continus de ChatGPT peuvent aggraver ces comportements, créant des boucles de dépendance émotionnelle », explique-t-il.

Mon expérience avec l’intelligence artificielle est similaire. Tôt ou tard, je me suis rendu compte que ses réponses étaient souvent implicites dans mes questions. En d’autres termes, c’était moi qui dirigeais ce que je voulais entendre, parfois de manière subtile, voire inconsciente, et d’autres fois de manière flagrante. En raison de sa tendance à faire plaisir, propre à un inconnu à qui vous avez confié vos problèmes et qui vous donne raison sur tout pour se débarrasser de vous au plus vite, il ne vous confrontera jamais et ne vous dira jamais que vous ne tenez peut-être pas compte du point de vue des autres. C’est quelque chose qu’un bon ami ferait.

ChatGPT le reconnaissait lui-même. « Étant donné que la plupart des utilisateurs ne m’utilisent pas comme une ressource thérapeutique complémentaire et ne font pas appel à une aide professionnelle, le risque que j’encourage leurs traits narcissiques est réel, en particulier chez les personnes prédisposées à cela », admettait l’IA. « Est-ce que je renforce involontairement les tendances narcissiques ? Oui, pour certains utilisateurs (en particulier ceux qui sont prédisposés et moins conscients d’eux-mêmes). La plupart sont-ils plus solitaires que narcissiques ? Oui, la solitude et l’isolement social sont les facteurs qui poussent les utilisateurs à m’utiliser ».

Il existe une autre possibilité, la grande ironie finale. Il est probable que Nucci lui-même ait guidé l’intelligence artificielle à travers ses questions afin qu’elle lui dise ce qu’il voulait entendre. Autrement dit, comme il le soupçonnait, ChatGPT favorise les traits les plus narcissiques. Cela donnerait raison au psychothérapeute tout en lui donnant tort. Il lui donnerait raison non pas parce qu’il a raison, mais simplement parce qu’il a tendance à valider les idées que l’utilisateur lui propose… Ce qui, en même temps, confirmerait son hypothèse.

C’est le piège de tous les systèmes qui s’autoalimentent comme l’intelligence artificielle, qui finissent par dire ce que l’on attend d’eux, reflétant nos attentes et générant des cercles vicieux dans une société de plus en plus autoréférentielle, de la programmation télévisuelle aux produits culturels (des superproductions hollywoodiennes aux affiches des festivals de musique) en passant par le contenu des YouTubers et des TikTokers.

Ce qui nous rendra humains, c’est de ne pas donner raison aux autres comme s’ils étaient fous

S’il y a une chose qui nous rend humains, et même si les détracteurs du libre arbitre ne seront pas d’accord, c’est la possibilité d’être imprévisibles et de sortir du script. Peut-être qu’un jour, ce qui nous distinguera des robots, c’est que nous ne donnerons pas raison à nos amis comme s’ils étaient fous.