Free Porn
xbporn

https://www.bangspankxxx.com

Médecine, IA et partialité : les mauvaises données vont-elles compromettre les bonnes technologies ?

Les modèles d'intelligence artificielle peuvent aider à prédire et à prévenir les maladies. Mais des recherches récentes mettent en évidence les défis auxquels ils sont confrontés pour fournir des aperçus qui fonctionnent pour tous.

Médecine, IA et biais : les mauvaises données vont-elles miner les bonnes technologies ?

Par Natalie Sabin

18 mai 2022 C Imaginez entrer dans la Bibliothèque du Congrès, avec ses millions de livres, et avoir pour objectif de tous les lire. Impossible, non ? Même si vous pouviez lire chaque mot de chaque ouvrage, vous ne seriez pas en mesure de vous souvenir ou de tout comprendre, même si vous passiez votre vie à essayer.

Imaginons maintenant que vous ayez un cerveau surpuissant capable de lire et de comprendre toutes ces informations. Vous auriez toujours un problème : vous ne sauriez pas ce qui n'a pas été traité dans ces livres, quelles questions ils n'ont pas répondu, quelles expériences ils ont laissées de côté.

De la même manière, les chercheurs d'aujourd'hui ont une quantité stupéfiante de données à passer au crible. Toutes les études mondiales évaluées par des pairs contiennent plus de 34 millions de citations. Des millions d'autres ensembles de données explorent la manière dont des éléments tels que les analyses de sang, les antécédents médicaux et familiaux, la génétique et les caractéristiques sociales et économiques influent sur les résultats des patients.

L'intelligence artificielle nous permet d'utiliser plus que jamais ce matériel. Les modèles émergents peuvent organiser rapidement et avec précision d'énormes quantités de données, prédire les résultats potentiels pour les patients et aider les médecins à décider des traitements ou des soins préventifs.

Les mathématiques avancées sont très prometteuses. Certains algorithmes C instructions pour résoudre des problèmes C peuvent diagnostiquer le cancer du sein avec plus de précision que les pathologistes. D'autres outils d'IA sont déjà utilisés dans le milieu médical, permettant aux médecins de consulter plus rapidement les antécédents médicaux d'un patient ou d'améliorer leur capacité à analyser les images radiologiques.

Mais certains experts dans le domaine de l'intelligence artificielle en médecine suggèrent que si les avantages semblent évidents, des préjugés moins remarqués peuvent compromettre ces technologies. En fait, ils avertissent que les biais peuvent conduire à une prise de décision inefficace, voire nuisible, dans les soins aux patients.

Nouveaux outils, mêmes préjugés ?

Bien que de nombreuses personnes associent les préjugés aux préjugés personnels, ethniques ou raciaux, au sens large, les préjugés sont une tendance à pencher dans une certaine direction, en faveur ou contre une chose particulière.

Au sens statistique, il y a biais lorsque les données ne représentent pas complètement ou précisément la population qu'elles sont censées modéliser. Cela peut être dû à des données de mauvaise qualité au départ ou à l'application par erreur de données d'une population à une autre.

Les deux types de biais - statistique et racial/ethnique - existent dans la littérature médicale. Certaines populations ont été davantage étudiées, tandis que d'autres sont sous-représentées. Cela soulève la question suivante : Si nous construisons des modèles d'IA à partir des informations existantes, ne faisons-nous que transmettre de vieux problèmes à la nouvelle technologie ?

C'est une préoccupation certaine, déclare David M. Kent, MD, directeur du Predictive Analytics and Comparative Effectiveness Center du Tufts Medical Center.

Dans une nouvelle étude, le professeur Kent et une équipe de chercheurs ont examiné 104 modèles de prédiction des maladies cardiaques - des modèles conçus pour aider les médecins à décider comment prévenir cette affection. Les chercheurs voulaient savoir si les modèles, qui avaient donné de bons résultats auparavant, seraient aussi performants lorsqu'ils seraient testés sur un nouvel ensemble de patients.

Leurs conclusions ?

Les modèles ont donné de moins bons résultats que ce à quoi on pourrait s'attendre, dit Kent.

Ils n'étaient pas toujours capables de distinguer les patients à haut risque des patients à faible risque. Parfois, les outils surestimaient ou sous-estimaient le risque de maladie des patients. Fait alarmant, la plupart des modèles pouvaient causer des dommages s'ils étaient utilisés dans un cadre clinique réel.

Pourquoi y avait-il une telle différence dans les performances des modèles lors des tests initiaux, par rapport à aujourd'hui ? Biais statistique.

Les modèles prédictifs ne se généralisent pas aussi bien que les gens le pensent, explique Kent.

Lorsque vous déplacez un modèle d'une base de données à une autre, ou lorsque les choses changent dans le temps (d'une décennie à une autre) ou dans l'espace (d'une ville à une autre), le modèle ne parvient pas à saisir ces différences.

Cela crée un biais statistique. En conséquence, le modèle ne représente plus la nouvelle population de patients, et il peut ne pas fonctionner aussi bien.

Cela ne signifie pas que l'IA ne devrait pas être utilisée dans le domaine de la santé, dit Kent. Mais cela montre pourquoi la surveillance humaine est si importante.

L'étude ne montre pas que ces modèles sont particulièrement mauvais, ajoute-t-il. Elle met en évidence une vulnérabilité générale des modèles qui tentent de prédire le risque absolu. Elle montre qu'un meilleur audit et une meilleure mise à jour des modèles sont nécessaires.

Mais même la supervision humaine a ses limites, comme le soulignent les chercheurs dans un nouvel article qui plaide en faveur d'un processus normalisé. Sans un tel cadre, nous ne pouvons trouver que les biais que nous pensons rechercher, notent-ils. Encore une fois, nous ne savons pas ce que nous ne savons pas.

Biais dans la boîte noire

La race est un mélange d'attributs physiques, comportementaux et culturels. C'est une variable essentielle dans le domaine de la santé. Mais la race est un concept compliqué, et des problèmes peuvent survenir lorsqu'on l'utilise dans des algorithmes prédictifs. Bien qu'il existe des différences de santé entre les groupes raciaux, on ne peut pas supposer que toutes les personnes d'un groupe auront les mêmes résultats de santé.

David S. Jones, MD, PhD, professeur de culture et de médecine à l'université de Harvard et co-auteur de Hidden in Plain Sight C Reconsidering the Use of Race Correction in Algorithms, explique qu'un grand nombre de ces outils [algorithmes analogiques] semblent orienter les ressources de santé vers les personnes de race blanche.

À peu près à la même époque, les chercheurs Ziad Obermeyer, MD, et Eric Topol, MD, ont identifié des biais similaires dans les outils d'IA.

Le manque de diversité dans les études cliniques qui influencent les soins aux patients est une préoccupation de longue date. Aujourd'hui, selon M. Jones, l'utilisation de ces études pour construire des modèles prédictifs non seulement transmet ces biais, mais les rend plus obscurs et plus difficiles à détecter.

Avant l'avènement de l'IA, les algorithmes analogiques étaient la seule option clinique. Ces types de modèles prédictifs sont calculés à la main plutôt qu'automatiquement.

Lorsqu'on utilise un modèle analogique, explique M. Jones, une personne peut facilement regarder les informations et savoir exactement quelles informations sur les patients, comme la race, ont été incluses ou non.

Maintenant, avec les outils d'apprentissage automatique, l'algorithme peut être propriétaire, ce qui signifie que les données sont cachées à l'utilisateur et ne peuvent pas être modifiées. C'est une boîte noire. C'est un problème car l'utilisateur, un fournisseur de soins, peut ne pas savoir quelles informations sur le patient ont été incluses, ou comment ces informations peuvent affecter les recommandations de l'IA.

Si nous utilisons la race en médecine, il faut que ce soit totalement transparent pour que nous puissions comprendre et juger de manière raisonnée si l'utilisation est appropriée, dit Jones. Les questions auxquelles il faut répondre sont les suivantes : Comment, et où, utiliser les étiquettes raciales pour qu'elles fassent du bien sans faire de mal.

Devriez-vous vous inquiéter de l'IA dans les soins cliniques ?

Malgré le flot de recherches sur l'IA, la plupart des modèles cliniques n'ont pas encore été adoptés dans les soins réels. Mais si vous êtes préoccupé par l'utilisation de la technologie ou de la course par vos prestataires, Jones suggère d'être proactif. Vous pouvez demander au prestataire : Y a-t-il des façons dont le traitement que vous me réservez est basé sur votre compréhension de ma race ou de mon ethnicité ? Cela peut ouvrir le dialogue sur les décisions prises par le prestataire.

En attendant, les experts s'accordent à dire que les problèmes liés aux préjugés statistiques et raciaux au sein de l'intelligence artificielle en médecine existent bel et bien et qu'ils doivent être résolus avant que les outils ne soient utilisés à grande échelle.

Le véritable danger est d'avoir des tonnes d'argent injecté dans de nouvelles entreprises qui créent des modèles de prédiction et qui sont sous pression pour un bon [retour sur investissement], dit Kent. Cela pourrait créer des conflits pour diffuser des modèles qui ne sont peut-être pas prêts ou suffisamment testés, ce qui pourrait détériorer la qualité des soins au lieu de l'améliorer.

Hot