Intelligence artificielle : aimeriez-vous être soigné par un robot ?

Intelligence artificielle : aimeriez-vous être soigné par un robot ?

La santé est au cœur de la relation humaine. Et pourtant, l’intelligence artificielle est sur le point de la révolutionner. Jusqu’où peut-on la laisser prendre place dans la médecine ? Comment encadrer son utilisation ?

Imaginez, vous êtes assis sur la table d’examen du médecin, il prélève un peu de votre sang et revient, après quelques instants, vous annoncer que dans 5 ans vous risquez d’être victime d’un accident cardio-vasculaire. S’il le sait, c’est parce qu’une intelligence artificielle le lui a dit, ou prédit, grâce à des calculs dont aucun humain n’est capable aussi rapidement. Grâce à cette prédiction, vous éviterez peut-être de développer une maladie, en commençant dès maintenant un traitement préventif. Le vieil adage que personne ne conteste, « mieux vaut prévenir que guérir », est enfin réalisable.

Et pourtant, spontanément, si l’on vous demandait si vous aimeriez être soigné par un robot, vous auriez de grande chance de dire « non ». Les sciences cognitives le montrent bien : notre cerveau n’aime pas le changement. Surtout lorsqu’il touche à la santé – la plus intime, et peut-être la plus humaine, de toutes les sciences – et qu’il est imposé. La question n’est en effet pas de savoir si vous souhaitez être soigné par un robot, mais comment ? Qu’on le veuille ou non, l’Intelligence artificielle (IA) est en train de révolutionner la médecine.

Guérir l’avenir

L’une des attentes vis-à-vis de l’IA dans le domaine médical vient notamment de sa capacité à déceler des problèmes complexes plus rapidement et plus sûrement que l’être humain, et ainsi de passer petit à petit d’une médecine curative à une médecine plus préventive.

Les principaux champs d’application de l’IA dans ce domaine, comme on peut le lire dans une étude de l’Inserm, sont aujourd’hui la médecine prédictive (prédiction d’une maladie ou de son évolution), la médecine de précision qui permet notamment la préconisation de traitements personnalisés, l’aide à la décision thérapeutique et de diagnostic, la prévention, comme par exemple l’anticipation d’une épidémie, la chirurgie assistée par ordinateur et l’accompagnement robotisé des personnes âgées. Dans ces différents domaines, les applications de l’IA permettent, dès à présent, d’améliorer la qualité des soins.

Et l’avenir s’annonce prometteur : les principaux domaines de recherches sur les développements futurs de l’IA portent sur les opérations assistées, le suivi des patients à distance, les prothèses intelligentes et les traitements personnalisés grâce au regroupement d’un nombre croissant de données, appelées Big Data.

L’IA, en bonne intelligence ?

Le but recherché est d’aider efficacement les médecins et le personnel soignant, voire de se substituer à eux dans l’accomplissement de certaines tâches, en prenant en charge certains gestes, ce qui permettrait à ces derniers de consacrer plus de temps à consolider la relation humaine avec les patients. Le programme Molly a notamment mis en place une infirmière virtuelle qui pose des questions aux patients, recueille leurs données médicales de base et leur soumet des conseils.


A lire aussi : Intelligence artificielle, technologie et acteurs clés


Le cerveau humain, si puissant soit-il, présente un certain nombre de limites, sa capacité à traiter des informations et sa mémoire sont réduites si on les compare à celles d’un ordinateur. L’être humain est soumis à la fatigabilité, ce qui peut poser problème dans des métiers comme la chirurgie où la moindre inattention peut être fatale. Dans certains domaines où l’analyse d’images est nécessaire, comme en radiologie diagnostique, en dermatologie ou en ophtalmologie par exemple, l’IA peut également se substituer à l’intelligence humaine et obtenir des résultats probants. Certains diagnostics pourront même être posés de façon plus rapide et plus fiable, ce qui peut permettre une prise en charge plus efficace des patients. L’IA présente aussi d’immenses espoirs dans le traitement des masses de données, ce qui peut considérablement accélérer le travail des chercheurs et améliorer leur capacité à comprendre le développement de certaines maladies.

L’intelligence du droit…

Mais l’IA est une arme puissante. Et Hollywood a imaginé avant nous les dérives qu’elle pourrait entraîner. Son utilisation ne peut être justifiée que dans l’hypothèse où elle est envisagée au service des médecins et des patients. Elle nécessite donc d’être maitrisée et strictement encadrée. Par le droit.

Les résultats de la médecine prédictive, par exemple, ne seront, par essence, pas vérifiables. L’IA prédira l’apparition d’une future maladie ou indiquera des risques de décès, par le biais de l’analyse génomique notamment, mais le médecin n’aura d’autres choix que de lui faire confiance, ou pas. Comment, dès lors, réguler l’utilisation de l’IA et qui devra le faire ? Les tenants d’un encadrement très strict proposent un cadre inspiré des contrôles opérés lors de la mise sur le marché des dispositifs médicaux ou médicamenteux ; ils estiment que, sans rigueur scientifique extrême, le risque d’exposer les patients à des erreurs qui pourraient être fatales sera trop important.

…face aux droits de l’économie

Seulement, la compétition internationale pousse à vouloir toujours aller plus vite dans ce domaine. « Les autorités sanitaires et le secteur public sont donc devant un choix cornélien : réguler fortement l’utilisation de l’IA en santé et prendre un retard considérable ou ouvrir grand les portes du marché du soin aux solutions d’intelligence artificielle, ce qui risque de favoriser l’émergence de système défectueux voire dangereux ce qui posera des problèmes importants en termes de responsabilité et d’éthique », souligne le docteur Jean-Emmanuel Bidault dans Le Figaro. Si l’on veut développer une IA responsable et éthique, la pression économique ne doit en aucun cas être le moteur de son développement et de son usage.

Mais l’IA pose une autre question majeure : celle de la collecte des données. Les données médicales qu’elle traite sont des informations extrêmement sensibles qui doivent être protégées en tant que telles. L’accès aux données d’un individu pourrait, s’il était autorisé, lui porter préjudice et entraver, par exemple, sa capacité d’emprunt, sa faculté à s’assurer ou encore à obtenir un emploi. Pour développer l’IA en médecine, l’ancien député et lauréat de la Médaille Fields Cédric Villani envisageait pourtant, dans le rapport qui porte son nom (p. 195-203), « que chacun, dans une logique citoyenne, permette à l’État et aux collectivités territoriales de récupérer toutes ses données pour développer des applications en intelligence artificielle à des fins de politique publique qu’il s’agisse de données liées à un compte d’utilisateur ou à ses objets connectés. » Cette proposition contrevient aux règles posées par l’article 4.15 du RGPD qui protège l’individu et l’utilisation qu’on peut faire de ses données, et n’a finalement pas été retenue. En France, les données personnelles ne sont pas la propriété du patient, ni celle de l’organisme qui les collecte. Les Français peuvent disposer de leurs données, mais non les vendre. Par ailleurs, le traitement de ces données est conditionné au consentement éclairé de la personne concernée. Les données de santé sont anonymisées pour être accessibles par les chercheurs uniquement sur des projets autorisés.  

Garder la main

Plus la collecte est massive, plus la sécurité et la confidentialité doivent être assurées pour limiter les risques liés à un possible détournement d’usage, mais aussi de piratage. Si l’IA doit servir l’intérêt des patients, le traitement des données doit être strictement encadré pour éviter toute dérive quant à leur utilisation. Dans un rapport de 2017, la Commission nationale Informatique et Liberté (CNIL) insiste d’ailleurs sur les notions de loyauté et de vigilance dans l’application de l’IA en milieu médical où l’intérêt des utilisateurs doit primer sur toute autre considération.

Ces données doivent être protégées mais leur utilisation doit aussi être comprise. C’est tout l’enjeu de la transparence des algorithmes et de l’explication de leur fonctionnement. Dans un secteur aussi sensible que celui de la santé, il est important de rassembler un maximum de données. Mais il est également nécessaire d’introduire de la rationalité – et donc de la confiance –  pour expliquer la pertinence des résultats proposés par l’IA. En d’autres mots : comment permettre à l’homme de garder la main ?


A lire aussi : Pourquoi l’enseignement du droit prend-il un virage transdisciplinaire ?


Quand il faudra prendre une décision pour un patient impliquant la manipulation de données critiques confidentielles et ultra protégées, via un algorithme, il faudra s’assurer que l’éthique soit respectée. Que ce soit au stade de la collecte des données de santé et de bien-être, au cœur de l’algorithme en tant que valeurs de gestion des données pendant tout leur cycle de vie, et enfin dans les pratiques de l’intelligence artificielle en santé en expliquant les résultats produits en adéquation avec la finalité de la collecte. Cette transparence, synonyme de confiance, en l’algorithme est un enjeu majeur et implique notamment que le patient puisse :

  • se voir expliquer l’algorithme pour lui permettre d’accéder à des informations précises et comprendre le diagnostic ou la suggestion thérapeutique.
  • avoir la possibilité, s’il le souhaite et à tout moment, d’un contact humain pour permettre un deuxième avis médical en cas de doute sur la recommandation thérapeutique de l’algorithme.

Pour être acceptables et légitimes, les décisions de tout algorithme doivent pouvoir être comprises et donc expliquées. Seule une bonne compréhension des diagnostics posés et thérapies proposées par l’application de l’IA pourra permettre aux médecins de dialoguer avec le patient et de lui exposer les autres possibilités à considérer.

Dans le cas contraire, le médecin risque d’écarter l’utilisation des algorithmes s’il ne peut pas justifier les décisions prises sur la base de ses résultats, ce qui poserait des problèmes de responsabilité. La question de doter ou non les robots d’une personnalité juridique est d’ailleurs en débat au sein de la Commission européenne. Les textes existants, notamment la directive sur la responsabilité du produit du fait des produits défectueux numéro 85/374/CEE, ne sont pas adaptés au contexte du développement de l’IA.

“La garantie humaine”

La réflexion sur l’utilisation et les limites de l’IA en matière médicale doit être portée par les parties prenantes, notamment les patients et les médecins. Il serait raisonnable que les facteurs humains puissent rester maîtres du développement et de l’utilisation possibles de l’IA. Les personnels soignants doivent s’approprier cette nouvelle technologie, la comprendre afin d’être acteurs de son développement raisonné, pour avoir notamment la capacité de choisir la technologie qu’ils souhaiteront utiliser plutôt que de se la voir imposer. Il n’est pas souhaitable que l’intelligence artificielle remplace les médecins, mais il est à peu près certain que ceux qui ne voudront pas s’emparer du sujet seront rapidement disqualifiés.

L’enjeu du futur sera certainement la maîtrise des développements de l’IA par les humains, ce que le docteur David Gruson appelle « la garantie humaine ». La garantie d’une supervision humaine de toute utilisation du numérique en santé et de donner la possibilité à toute personne d’avoir une relation avec un soignant susceptible de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de soins.

Diane de Saint-AffriqueProfesseur à SKEMA Business-School, où elle dirige le double Master Droit des Contrats d’Affaires, qu’elle a créé.

Tous ses articles

Fermer le menu