Peut-on vraiment devenir accro à ChatGPT ? La science nuance

Élodie Marchand
Rédigé par
Élodie Marchand
cropped elodie marchand.webp
Rédigé parÉlodie Marchand
Élodie Marchand est la chef d'orchestre qui harmonise les voix des marques avec celles des influenceurs pour créer des symphonies marketing mémorables. Avec sept ans d'expérience...
Main posée sur l’écran d’un smartphone affichant le logo vert de ChatGPT
L’utilisation fréquente de ChatGPT soulève des interrogations sur une éventuelle addiction, que les chercheurs jugent infondées.

Une étude internationale démonte la thèse d’une dépendance aux chatbots d’IA. Les chercheurs mettent en garde contre une panique morale infondée, alimentée par des critères cliniques mal adaptés.

Faut-il s’inquiéter de l’enthousiasme massif autour de ChatGPT ? Alors que l’outil alimente cours, conversations et curiosité quotidienne, certains n’hésitent pas à parler d’addiction. Mais une nouvelle étude scientifique invite à la prudence, voire à un net réajustement. Contrairement à l’alcool, aux drogues ou aux jeux de hasard, utiliser intensément une intelligence artificielle ne suffit pas à justifier un diagnostic de dépendance.

Une étude internationale bat en brèche le mythe de l’addiction

L’enquête, signée par trois chercheurs européens et publiée en juin 2025, part d’un constat simple : aucune preuve solide ne permet aujourd’hui de classer l’usage de ChatGPT comme une addiction clinique. Selon les critères reconnus par la psychiatrie, pour parler d’addiction, il faut retrouver des signes tangibles comme une perte de contrôle, une souffrance psychologique ou encore un impact fonctionnel mesurable sur la vie quotidienne.

Or, dans les usages réels de ChatGPT, ces symptômes sont absents. L’étude insiste également sur une faille méthodologique répandue : nombre de travaux alarmistes sur le sujet s’appuient encore sur des questionnaires conçus à l’origine pour détecter la dépendance à des substances comme la cocaïne ou l’alcool. Appliquer ces outils à des usages technologiques revient, selon les chercheurs, à « diagnostiquer une addiction au tango ou au bronzage avec les critères de l’héroïne ».

L’effet loupe médiatique sur les technologies émergentes

Ce type de débat n’est pas nouveau. Radio, télévision, Internet : chaque génération de technologies a provoqué des craintes parfois démesurées, souvent mal fondées. L’intelligence artificielle n’échappe pas à la règle. Sa rapidité d’adoption, sa forte visibilité et son potentiel disruptif nourrissent un terrain fertile aux exagérations. L’étude rappelle que l’on parle déjà d’addictions au téléphone portable, aux jeux vidéo, à la musculation… ou même à la pêche sportive.

Dans ce brouhaha d’étiquettes cliniques, les auteurs mettent en garde contre un phénomène bien réel : la surpathologisation. En qualifiant de « dépendance » toute pratique répétée ou plaisante, on court le risque de vider le concept même d’addiction de son sens médical. Pire encore, cette dérive peut déboucher sur des stigmatisations sociales ou des mesures de régulation inadaptées.

Ce que dit réellement l’usage : entre intensité et bénéfices

Si les utilisateurs réguliers de ChatGPT existent bel et bien, leur comportement ne révèle ni angoisse persistante, ni détresse psychologique. Au contraire, les interactions avec l’IA sont souvent motivées par l’apprentissage, la curiosité ou l’envie de gagner du temps. En clair, on parle ici d’un usage soutenu, mais encadré, qui ne présente pas les marqueurs de la compulsion.

Les chercheurs insistent toutefois sur un point important : reconnaître que l’usage de l’IA peut devenir problématique dans certains contextes n’implique pas qu’il soit pathologique. Comme pour tout outil, l’impact dépend de la manière dont il est utilisé, et surtout du contexte psychologique ou social dans lequel il s’inscrit.

Repenser notre vocabulaire face à l’IA

Pour l’équipe à l’origine de l’étude, une chose est claire : tant que les critères cliniques d’une addiction ne sont pas réunis, il faut éviter les raccourcis sémantiques. Cela ne veut pas dire que tout va bien, ni qu’aucune vigilance n’est nécessaire. Mais il faut faire la part des choses entre usage excessif et addiction réelle.

Cette nuance n’est pas seulement scientifique, elle est aussi politique et médiatique. Elle nous oblige à regarder l’intelligence artificielle comme un phénomène complexe, à la croisée des technologies, des comportements humains et des dynamiques sociales. Un terrain qui mérite des enquêtes rigoureuses, loin des paniques morales.

Il reste donc essentiel de garder la tête froide : l’enthousiasme pour les chatbots ne doit pas occulter leurs risques éventuels, mais aucune étiquette clinique ne devrait précéder la preuve.

Suivez linformatique.org sur Google Actualités pour rester informé chaque jour de l’essentiel du numérique, de l’innovation et des enjeux technologiques.
Aucun commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *