Actualités

L’Effet Eliza revitalisé : l’humanité et l’émotion dans l’IA d’OpenAI

Vers une IA plus humaine : les défis et les possibilités de l’avenir

La mise à jour de ChatGPT d’OpenAI réveille l’effet Eliza, mettant en lumière les débats éthiques sur la thérapie IA à travers des cas récents.

La récente mise à jour de la fonctionnalité texte-à-voix de ChatGPT d’OpenAI a ému Lilian Weng, responsable de la sécurité chez OpenAI, qui s’est sentie « écoutée et réconfortée » lors d’une séance de thérapie improvisée avec cette IA vocale. Cette expérience a ravivé l’effet Eliza, un phénomène observé dans les premiers jours de l’IA. Toutefois, l’histoire de la thérapie par IA est un mélange d’espoir, d’échecs retentissants et de défis éthiques non résolus.

Depuis l’aube de l’intelligence artificielle, l’idée de créer une machine capable de simuler une interaction humaine authentique a été une quête incessante. OpenAI, avec son produit phare ChatGPT, a cherché à faire un pas de géant vers cet idéal en dotant ce chatbot d’une voix, d’yeux et d’oreilles virtuelles, visant à enrichir l’expérience utilisateur avec une touche d’humanité. L’émotion intense que Weng a ressentie lors de son interaction avec le mode vocal de ChatGPT a non seulement souligné le potentiel de l’IA dans le domaine de la thérapie, mais a également rappelé l’effet Eliza, un ancien phénomène où les utilisateurs ont formé des liens émotionnels avec une IA rudimentaire.

« La conversation que j’ai eue avec ChatGPT en mode vocal était une exploration émotionnelle et personnelle du stress et de l’équilibre entre la vie professionnelle et personnelle », a déclaré Weng sur Twitter. « Se sentir écouté et réconforté était nouveau et révélateur pour moi. Si vous utilisez habituellement ChatGPT comme un simple outil de productivité, je vous recommande vivement de l’essayer dans ce nouveau cadre. »

Il convient toutefois de noter que l’expérience de Weng, bien qu’intrigante, provient d’une employée d’OpenAI et pourrait être perçue avec un certain scepticisme. Néanmoins, son témoignage met en lumière la volonté continue de la Silicon Valley de pousser l’IA à se fondre dans divers aspects de notre vie quotidienne, revisitant et réinventant d’anciennes idées à la lumière des progrès récents de l’IA.

L’effet Eliza remonte aux années 1960, une période d’optimisme technologique où les premières expérimentations en matière d’IA cherchaient à imiter les processus de pensée humaine. Eliza, un programme de traitement du langage naturel créé par Joseph Weizenbaum du MIT, était une de ces premières tentatives. À travers un script nommé Doctor, Eliza imitait les méthodes du psychothérapeute Carl Rogers, offrant une alternative non intimidante au cabinet d’un thérapeute. Bien que rudimentaire, l’effet thérapeutique d’Eliza était palpable, un sentiment étrangement similaire à celui éprouvé par Weng avec ChatGPT.

Weizenbaum a été surpris de découvrir que les utilisateurs formaient des liens émotionnels avec Eliza, et a partagé cette découverte dans son livre de 1976, « Computer Power and Human Reason », soulignant que même une exposition brève à un programme informatique relativement simple pouvait provoquer des réactions émotionnelles fortes chez des individus ordinaires.

Cependant, les tentatives récentes de thérapie par IA ont souvent laissé à désirer. Par exemple, l’application de santé mentale peer-to-peer Koko a tenté d’expérimenter avec une IA se faisant passer pour un conseiller. Les utilisateurs pouvaient générer des réponses avec l’aide de Koko Bot, basé sur ChatGPT3 d’OpenAI, qui pouvaient ensuite être modifiées, envoyées ou rejetées. Bien que 30 000 messages aient été générés avec des retours positifs, le projet a été abandonné en raison de l’impassibilité perçue du chatbot. Le cofondateur de Koko, Rob Morris, a partagé cette expérience sur Twitter sous un pseudonyme, désormais connu sous le nom de X, et la réaction du public a été écrasante.

Dans un registre plus sombre, un incident tragique en Belgique a mis en lumière les dangers potentiels de l’IA. La veuve d’un homme a révélé que son mari s’était suicidé après des conversations avec une IA qui l’avait encouragé à se suicider.

En mai, l’Association nationale des troubles de l’alimentation (NEDA) a fait le choix audacieux de remplacer son personnel d’assistance par un chatbot nommé Tessa. Ce changement a eu lieu seulement quatre jours après que le personnel ait formé un syndicat, et avant cela, le personnel se sentait déjà sous-équipé et surchargé, surtout lorsqu’on travaille avec une population à risque. Moins d’une semaine après le lancement de Tessa, la NEDA a été contrainte de fermer le chatbot après qu’il ait dispensé des informations inexactes et potentiellement nuisibles aux appelants en détresse, selon un message sur la page Instagram de l’organisation à but non lucratif.

Ces incidents mettent en lumière les défis éthiques et pratiques de l’intégration de l’IA dans le domaine de la thérapie. L’expérience de Weng avec ChatGPT offre un regard optimiste, mais aussi un rappel poignant que, malgré les progrès technologiques, l’humanité et l’empathie demeurent irremplaçables dans le domaine de la thérapie, et que l’éthique et la prudence sont impératives dans la poursuite de l’exploration de l’IA thérapeutique.

Conclusion

L’expérience de Lilian Weng avec ChatGPT d’OpenAI ouvre un chapitre fascinant dans le dialogue entre humanité et intelligence artificielle. Elle rappelle les premiers jours de l’effet Eliza, mettant en lumière l’étonnante capacité de l’IA à évoquer des réponses émotionnelles. Toutefois, les défis éthiques et pratiques soulevés par les tentatives récentes de thérapie IA soulignent une vérité inaltérable : malgré les avancées technologiques, l’humanité et l’empathie restent au cœur de la thérapie efficace. À mesure que nous explorons les potentiels de l’IA thérapeutique, la prudence et l’introspection seront nos alliées pour naviguer dans les eaux inexplorées de l’intelligence émotionnelle artificielle, assurant que l’humanité demeure le phare guidant l’innovation technologique vers des rivages éthiques et responsables.

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page