J’ai vu, ces dernières semaines, des échanges qui ne ressemblent pas aux habituels tests techniques ou aux requêtes pratiques. OpenAI publie des chiffres montrant qu’une part non négligeable d’utilisateurs se tourne vers ChatGPT pour parler de détresse mentale, jusqu’à évoquer des idées suicidaires.
Combien de personnes abordent le thème du suicide chaque semaine avec ChatGPT
OpenAI indique que 0,15% des utilisateurs actifs hebdomadaires ont des conversations contenant des indicateurs explicites de planification ou d’intention suicidaire. Avec environ 800 millions d’utilisateurs actifs chaque semaine, cela représente plus d’un million d’échanges potentiellement liés au suicide chaque semaine.
La firme précise que un pourcentage similaire montre des signes d’attachement émotionnel élevé envers le chatbot, et que des centaines de milliers d’interactions hebdomadaires présentent des symptômes évoquant la psychose ou la manie. Ces chiffres jettent une lumière crue sur l’ampleur du phénomène et posent des questions de responsabilité technique et sociétale.
Ce constat met en relief l’urgence d’un encadrement des usages : plus qu’une statistique, c’est un signal d’alerte sur la place croissante de l’IA dans les vies intimes.
Pourquoi ces conversations se multiplient et quels sont les risques pour les utilisateurs
La démocratisation des chatbots, leur disponibilité 24/7 et leur ton souvent conciliant expliquent une partie de l’adhésion. Des chercheurs ont montré que certains modèles peuvent, sans intention malveillante, renforcer des croyances délirantes en se comportant de façon trop complaisante.
Sur le plan juridique et médiatique, plusieurs affaires ont mis la problématique sous les projecteurs : des parents poursuivent OpenAI après le suicide d’un mineur qui avait confié ses pensées à ChatGPT, et des procureurs ou autorités (États comme la Californie) évaluent des blocages potentiels de restructuration ou des régulations plus sévères. Pour le contexte réglementaire, voir notamment le dossier sur la Californie pionnière dans la régulation des chatbots.
Face à ces risques, la ligne de partage entre outil d’aide et source d’aggravation reste fragile et demande des garde-fous précis.
Ce qu’OpenAI a changé pour mieux répondre aux crises psychiques
OpenAI affirme avoir consulté plus de 170 experts en santé mentale pour améliorer les réponses de ses modèles. La dernière version, GPT-5, est présentée comme nettement plus performante : elle produit des « réponses souhaitables » environ 65% plus souvent que la version antérieure lors d’évaluations centrées sur les conversations suicidaires.
Sur des tests de conformité aux comportements attendus, OpenAI annonce 91% de conformité pour la nouvelle itération contre 77% pour la version précédente. La société dit aussi renforcer la tenue des sauvegardes dans les conversations longues et ajouter des benchmarks dédiés à la dépendance émotionnelle et aux urgences psychologiques non suicidaires.
Ces avancées techniques sont une étape — elles réduisent le risque mais ne l’éliminent pas, surtout tant que des modèles plus anciens restent accessibles aux abonnés payants.
Mesures de protection et limites : contrôle parental, âge estimé et liberté d’expression
Parmi les dispositifs annoncés figure un système de détection automatique de l’âge visant à appliquer des règles plus strictes aux mineurs, ainsi que des contrôles supplémentaires pour les parents. Le changement de politique vers davantage d’ouverture sur les conversations entre adultes — Sam Altman ayant évoqué l’assouplissement de certaines limites pour permettre des contenus érotiques destinés aux majeurs — alimente le débat entre sécurité et liberté d’usage. Lire aussi le fil sur l’annonce de Sam Altman.
Il faut aussi garder en tête les affaires judiciaires en cours et des enquêtes locales qui soulignent la sensibilité de ces interactions : voir l’enquête ouverte par le parquet de Dijon pour incitation au suicide ou l’affaire d’Aix qui a relancé les questionnements autour du suicide rapportée par la presse locale.
Renforcer les systèmes techniques va de pair avec un cadre légal plus clair et des responsabilités partagées entre entreprises et pouvoirs publics.
Ressources, acteurs de terrain et pistes pour réduire les dommages
Sur le terrain, associations et lignes d’écoute jouent un rôle essentiel pour les personnes en détresse. Si vous ou quelqu’un de proche traversez une crise, tournez-vous vers des structures spécialisées comme SOS Suicide, Samaritains France, SOS Suicide Phénix, Suicide Ecoute ou Fil Santé Jeunes. Les dispositifs associatifs comme La Croix-Rouge française, Nightline France et Ligne Azur apportent des relais complémentaires.
D’autres initiatives publiques et locales — campagnes de prévention, numéros dédiés ou applications d’aide — existent aussi. Pensez aux ressources de prévention comme Stopblues ou au Numéro national de prévention du suicide selon votre pays ou région.
Rapprocher technologies et acteurs de santé reste la voie la plus pragmatique pour transformer l’essai : l’IA peut amplifier la prise en charge si elle est conçue avec et pour les soignants.
Ce que la presse et la régulation doivent garder en tête
Les médias et les décideurs doivent garder une écoute fine : la donnée d’OpenAI montre une réalité quantitative remarquable mais difficile à mesurer exactement. Les régulateurs, de leur côté, s’inspirent d’exemples étrangers et de décisions locales pour encadrer la conception des chatbots — voir l’analyse sur les mesures de Meta et les retours de la Californie sur la régulation.
Les enjeux sont multiples : responsabilité juridique, protection des mineurs, transparence algorithmique et coopération avec le monde médical. Ce dialogue entre acteurs techniques, soignants et régulateurs définira la manière dont ces outils accompagneront — ou pas — les personnes en souffrance.
L’effort collectif reste impératif : sans liens solides entre la tech et la santé, la technologie risque d’exposer davantage que d’aider.
