Bien qu'il ne soit pas possible de prévenir tous les suicides, de nombreuses mesures peuvent contribuer à réduire le risque. Et certaines de ces mesures sont aussi proches que votre smartphone.
Les systèmes de santé, les entreprises technologiques et les instituts de recherche étudient comment ils peuvent contribuer à la prévention du suicide. Ils cherchent à exploiter la technologie en général - et l'intelligence artificielle (IA) en particulier - pour détecter des signes subtils de risque de suicide et alerter un humain pour qu'il intervienne.
"La technologie, bien qu'elle ne soit pas exempte de défis, offre des possibilités incroyables", explique Rebecca Bernert, PhD, directrice et fondatrice du Suicide Prevention Research Laboratory de la Stanford University School of Medicine à Palo Alto, CA.
Par exemple, Mme Bernert explique que si l'IA peut signaler les patients à risque en se basant sur leurs dossiers médicaux, leurs médecins de premier recours pourraient être mieux préparés à les aider. Bien que les professionnels de la santé mentale soient spécialement formés à cet effet, des études montrent que parmi les personnes qui se suicident, environ 45 % consultent leur médecin de premier recours au cours de leur dernier mois de vie. Seuls 20 % consultent un professionnel de la santé mentale.
Voici quelques-unes des avancées technologiques qui sont en cours de développement ou qui se produisent déjà.
Les indices de votre voix
Des chercheurs de l'Institut polytechnique de Worcester, dans le Massachusetts, mettent au point un programme basé sur l'IA appelé EMU (Early Mental Health Uncovering) qui exploite les données d'un smartphone pour évaluer le risque de suicide de l'utilisateur du téléphone.
Cette technologie est encore en cours de développement. Elle pourrait être intégrée à une application de santé que vous pourriez télécharger sur votre téléphone, peut-être à la demande de votre médecin.
Une fois que vous aurez accordé toutes les autorisations requises, l'application déploiera l'IA pour surveiller votre risque de suicide par le biais de votre téléphone. Parmi les fonctionnalités incluses, il est possible de parler dans l'analyseur vocal de l'application, en utilisant un script fourni ou en autorisant l'application à enregistrer des segments d'appels téléphoniques. L'application peut détecter des caractéristiques subtiles de la voix qui peuvent indiquer une dépression ou des pensées suicidaires.
"Il existe des caractéristiques vocales connues que les êtres humains ne peuvent pas détecter, mais que l'IA peut détecter parce qu'elle a été entraînée à le faire sur de grands ensembles de données", explique le psychologue Edwin Boudreaux, PhD. Il est vice-président de la recherche au département de médecine d'urgence de l'UMass Chan Medical School.
"Elle peut prendre la voix et toutes ces autres sources de données et les combiner pour faire une prédiction solide quant à savoir si votre humeur est dépressive et si vous avez eu des idées suicidaires", explique Boudreaux, qui n'a aucun intérêt financier dans la société qui crée cette application. "C'est comme une biopsie du téléphone".
Les données des smartphones, avec la permission de l'utilisateur, pourraient être utilisées pour envoyer des alertes aux utilisateurs du téléphone eux-mêmes. Cela pourrait les inciter à demander de l'aide ou à revoir leur plan de sécurité. Ou peut-être pourrait-on alerter le prestataire de soins de santé de la personne.
À l'heure actuelle, les applis n'ont pas besoin de l'approbation du gouvernement pour étayer leurs affirmations, donc si vous utilisez une appli liée à la prévention du suicide, parlez-en avec votre thérapeute, votre psychiatre ou votre médecin.
Partager son expertise
Google s'efforce de donner aux personnes présentant un risque de suicide des ressources telles que la National Suicide Prevention Lifeline. Il a également partagé son expertise en matière d'IA avec The Trevor Project, un service d'assistance téléphonique contre le suicide chez les LGBTQ, afin d'aider l'organisation à identifier les appelants les plus à risque et à leur apporter de l'aide plus rapidement.
Lorsqu'une personne en crise contacte The Trevor Project par SMS, chat ou téléphone, elle répond à trois questions préliminaires avant d'être mise en relation avec un service d'assistance. Google.org Fellows, un programme caritatif géré par Google, a aidé The Trevor Project à utiliser des ordinateurs pour identifier les mots dans les réponses aux questions d'accueil qui étaient liés au risque le plus élevé et le plus imminent.
Lorsque les personnes en crise utilisent certains de ces mots clés en répondant aux questions d'accueil du Trevor Project, leur appel passe en tête de la file d'attente pour obtenir un soutien.
Une culture de la ténacité
Vous savez peut-être déjà que les suicides constituent un risque particulier chez les professionnels militaires et les policiers. Et vous avez sans doute entendu parler des suicides parmi les professionnels de la santé pendant la pandémie.
Mais il existe un autre domaine où le taux de suicide est élevé : la construction.
Selon le CDC, les travailleurs de la construction sont deux fois plus susceptibles de se suicider que les personnes exerçant d'autres professions et cinq fois plus susceptibles de se suicider que de mourir d'un accident du travail. Les taux élevés de blessures physiques, les douleurs chroniques, l'instabilité de l'emploi et l'isolement social dû aux longues distances à parcourir pour travailler peuvent tous jouer un rôle.
JobSiteCare, une entreprise de télésanté conçue pour les travailleurs du bâtiment, pilote une réponse high-tech au suicide dans ce secteur. L'entreprise offre des soins de télésanté aux travailleurs de la construction blessés sur les chantiers grâce à des tablettes stockées dans un casier de la remorque médicale sur le site. Elle étend désormais ces soins aux soins de santé mentale et aux interventions en cas de crise.
Les travailleurs peuvent obtenir de l'aide en quelques secondes grâce à la tablette située dans la remorque. Ils ont également accès à une ligne d'assistance téléphonique 24 heures sur 24, 7 jours sur 7, et à des soins de santé mentale continus grâce à la télésanté.
"La télésanté mentale a été l'une des grandes réussites de la télémédecine", explique Dan Carlin, MD, fondateur et PDG de JobSiteCare. "Dans le secteur de la construction, où votre travail vous amène d'un endroit à l'autre, la télémédecine vous suivra où que vous alliez."
Application de plan de sécurité contre le suicide
L'appli Jaspr vise à aider les personnes après une tentative de suicide, en commençant lorsqu'elles sont encore à l'hôpital. Voici comment elle fonctionne .
Un prestataire de soins de santé commence à utiliser l'appli avec le patient à l'hôpital. Ensemble, ils élaborent un plan de sécurité pour aider à prévenir une future tentative de suicide. Le plan de sécurité est un document qu'un prestataire de soins élabore avec un patient pour l'aider à gérer une future crise de santé mentale - et les facteurs de stress qui déclenchent généralement ses pensées suicidaires.
Le patient télécharge l'application compagnon à domicile de Jaspr. Il peut accéder à son plan de sécurité, à des outils pour gérer une crise en fonction des préférences décrites dans son plan de sécurité, à des ressources pour obtenir de l'aide pendant une crise et à des vidéos encourageantes de personnes réelles qui ont survécu à une tentative de suicide ou qui ont perdu un proche par suicide.
Et si l'IA se trompait ?
Il y a toujours une chance que l'IA se trompe sur les personnes à risque de suicide. Elle n'est aussi bonne que les données qui alimentent son algorithme.
Un "faux positif" signifie qu'une personne est identifiée comme étant à risque - alors qu'elle ne l'est pas. Dans ce cas, il s'agit d'une personne qui est identifiée à tort comme présentant un risque de suicide.
Dans le cas d'un "faux négatif", une personne à risque n'est pas signalée.
Selon M. Boudreaux, le risque de préjudice lié aux faux négatifs et aux faux positifs est trop important pour utiliser l'IA afin d'identifier le risque de suicide avant que les chercheurs ne soient sûrs de son efficacité.
Il note que Facebook a utilisé l'IA pour identifier les utilisateurs qui pourraient présenter un risque imminent de suicide.
Meta, la société mère de Facebook, n'a pas répondu à la demande de commentaires du médecin sur son utilisation de l'IA pour identifier et traiter le risque de suicide chez ses utilisateurs.
D'après son site web, Facebook permet aux utilisateurs de signaler des publications inquiétantes, y compris des vidéos Facebook Live, qui peuvent indiquer qu'une personne est en crise de suicide. L'IA analyse également les publications et, lorsqu'elle le juge approprié, met en évidence la possibilité pour les utilisateurs de signaler la publication. Que les utilisateurs signalent ou non une publication, l'IA peut également analyser et signaler les publications Facebook et les vidéos en direct. Les membres du personnel de Facebook examinent les publications et les vidéos signalées par les utilisateurs ou par l'IA et décident de la manière de les traiter.
Ils peuvent contacter la personne qui a créé la publication et lui conseiller de se tourner vers un ami ou une ligne d'assistance téléphonique, comme la National Suicide Prevention Lifeline, qui a lancé ce mois-ci son numéro à trois chiffres, le 988. Les utilisateurs peuvent contacter les lignes de crise directement via Facebook Messenger.
Dans certains cas, lorsqu'une publication indique un risque urgent, Facebook peut contacter le service de police situé à proximité de l'utilisateur Facebook en crise potentielle. Un agent de police est alors dépêché au domicile de l'utilisateur pour un contrôle de son état de santé.
La plateforme de médias sociaux TikTok, dont les représentants ont également refusé d'être interviewés pour cet article mais ont fourni des informations générales par courrier électronique, suit des protocoles similaires. Il s'agit notamment de mettre les utilisateurs en relation avec des numéros d'urgence et de signaler les messages urgents aux forces de l'ordre. TikTok fournit également des numéros de téléphone d'urgence et d'autres ressources de crise en réponse aux recherches liées au suicide sur la plateforme.
Problèmes de confidentialité
La possibilité pour les plateformes de médias sociaux de contacter la police a suscité des critiques de la part des experts en protection de la vie privée ainsi que des experts en santé mentale comme Boudreaux.
"C'est une idée terrible", dit-il. "Facebook l'a déployée sans que les utilisateurs sachent que l'IA fonctionnait en arrière-plan et quelles seraient les conséquences si l'IA identifiait quelque chose. Envoyer un agent de police pourrait ne faire qu'aggraver la situation, surtout si vous êtes une minorité. En plus d'être embarrassant ou potentiellement traumatisant, cela décourage les gens de partager car de mauvaises choses arrivent quand on partage."
Selon le Journal of Law and the Biosciences, c'est pour des raisons de protection de la vie privée que l'algorithme qui pourrait envoyer des messages Facebook aux forces de l'ordre est interdit dans l'Union européenne.
Les conséquences pour les personnes faussement identifiées comme étant à haut risque, explique M. Boudreaux, dépendent de la façon dont l'organisation entre en contact avec la personne supposée à risque. Un appel potentiellement inutile d'un professionnel de la santé peut ne pas faire le même mal qu'une visite inutile de la police.
Si vous ou une personne que vous connaissez pense au suicide, vous pouvez contacter le National Suicide Prevention Lifeline. Aux États-Unis, vous pouvez appeler, envoyer des textos ou chatter au 988 pour joindre la National Suicide Prevention Lifeline à partir du 16 juillet 2022. Vous pouvez également appeler la ligne d'assistance à son numéro d'origine, le 800-273-8255. L'aide est disponible 24 heures sur 24 et 7 jours sur 7 en anglais et en espagnol.