INTELLIGENCE ARTIFICIELLE
ACTUALITÉS
REGARDS CROISÉS
Examiné à l’Assemblée nationale à partir du 23 septembre, le projet de loi relatif à la bioéthique intègre un volet sur l’intelligence artificielle en santé. Le texte prévoit notamment la garantie d’une intervention humaine. propos recueillis par HÉLÈNE COLAU
« Le risque est d’accorder une confiance totale à la machine »
Il y a d’abord du positif ! Par exemple, de nouvelles techniques de modélisation nous permettent de simuler une opération de la cataracte. Des professionnels de santé entraînés sur ce système, pourquoi pas des infirmières, pourraient à l’avenir réaliser ce type d’intervention dans des pays où les médecins manquent. Par ailleurs, la numérisation des parcours de santé n’est certes pas parfaite, mais apporte aux soignants une capacité d’analyse exceptionnelle.
À l’inverse, il existe des points qu’il faut apprendre à maîtriser. Ce n’est pas parce qu’une technologie est très pratique qu’il faut lui faire une confiance aveugle ! L’humain doit toujours rester en position de décision, en cas de problème direct (comme un bug) ou indirect (si l’algorithme n’a pas pris en compte le contexte particulier d’un patient). C’est très clair que la responsabilité doit rester de son côté.
Il reste un énorme effort de formation à fournir pour qu’elles maîtrisent leur nouvel environnement de travail. Car, avec le numérique, le triangle soignant-patient-outils se complexifie. Ces derniers font désormais passer des informations que le soignant se retrouve en position d’analyser. Or, cette tâche risque d’accaparer son attention et de le déposséder d’informations qu’il traitait jusque-là : quand on dispose d’une calculette, on ne prend plus la peine de poser des opérations !
Le risque, c’est d’accorder une confiance totale à la machine et d’abandonner certains réflexes professionnels. Si les résultats d’une analyse de sang réalisée par une machine vous semblent curieux, il faut savoir prendre du recul et se repositionner par rapport à cet outil et à ce qu’il apporte. Ce sont de nouveaux réflexes à acquérir, de façon constructive, sans accabler le numérique ni le rendre responsable de toutes les erreurs.
En effet, si les jeunes commencent à être mieux formés aux usages numériques, ce n’est pas le cas des personnes âgées. Or, ce sont elles qui y sont le plus confrontées dans leur parcours de soins ! Mais l’accès à ces éléments ne se fait pas que par l’intermédiaire d’un téléphone ou d’un ordinateur personnel. Les professionnels de santé ont ici une nouvelle responsabilité, celle d’aider les patients à mieux comprendre ces systèmes. Ce n’est pas simple, car il leur faut d’abord les maîtriser eux-mêmes pour savoir en montrer les aspects positifs et faire de la pédagogie au quotidien.
Pour légiférer, il faut d’abord être sûr que l’on saura maîtriser un sujet dans la durée, ce qui n’est pas encore vrai pour le numérique. En France, nous avons la chance d’avoir des instances chargées de réfléchir et de réguler de façon “souple”, comme la Haute Autorité de santé. Cela permet de réagir plus rapidement et de façon plus adaptée que ce qu’autorise actuellement la voie législative.
« Les robots doivent intégrer nos valeurs »
On ne peut pas parler, à ce jour, d’un droit spécifique des algorithmes en santé. Hors milieu médical, il n’existe pour l’instant que la loi Lemaire sur le droit des plateformes. Celle-ci repose sur deux principes : d’une part, la loyauté ; d’autre part, l’explicabilité des décisions. Prévue pour des plateformes comme Uber ou Airbnb, elle s’applique également à celles de santé ! Il faudrait une réglementation plus spécifique qui clarifierait, en premier lieu, les conséquences en cas de défaillance de la machine. Comme tout cela est très récent, le grand public ne sait pas encore à quel point l’intelligence artificielle s’est répandue dans le domaine de la santé… Or, cela va très vite : il existe déjà plusieurs systèmes d’aide chirurgicale utilisés dans les hôpitaux, tels que le robot Da Vinci.
À l’heure actuelle, les machines n’ont aucune responsabilité quand un problème survient, tout simplement car elles n’interviennent qu’en assistance du médecin, sous sa supervision. C’est différent des voitures autonomes pour lesquelles, depuis la loi Pacte, le conducteur est déchargé de sa responsabilité pénale dans la mesure où la délégation de conduite est activée. Il va falloir réviser ce point car demain, les robots médicaux seront dotés d’une vraie autonomie. On pourrait prévoir un système de responsabilité sans faute, comme dans la loi Badinter sur le rapport entre voitures et piétons : on sort alors du champ de la responsabilité pour entrer dans celui de l’indemnisation.
Pour moi, le robot a non seulement une éthique, mais aussi une nationalité. C’est-à-dire que les codeurs doivent concevoir des machines dont l’attitude correspond aux habitudes du pays où il évolue. En France, il devrait donc intégrer des valeurs telles que le respect de la dignité : il ne doit pas enregistrer des propos à l’insu de la personne ni divulguer ses données de santé sans son autorisation. Mais un problème demeure : ces systèmes sont capables d’auto-apprentissage et il est dur de leur mettre des barrières. On l’a vu avec Tay, le chatbot de Microsoft, qui est devenu raciste et antisémite en vingt-quatre heures.
Trois grands principes me semblent essentiels. D’abord, l’intelligence artificielle doit toujours rester sous supervision humaine. Ensuite, il faut impérativement recueillir l’autorisation préalable du patient avant toute intervention, sauf urgence. Enfin, il doit y avoir une traçabilité complète, grâce à un système d’enregistrement. Ces trois règles peuvent dessiner un début de cadre légal, à adapter au fil des évolutions technologiques. Ces adaptations relèvent du droit “souple”, c’est-à-dire des codes de bonne conduite ou des référentiel édictés par des institutions telles que l’Agence nationale de sécurité du médicament et des produits de santé (ANSM), la Direction de la recherche, des études, de l’évaluation et des statistiques (Drees) ou la Commission nationale de l’informatique et des libertés (Cnil).
DIRECTEUR DE RECHERCHE ÉMÉRITE À L’INSTITUT NATIONAL DE RECHERCHE EN SCIENCES DU NUMÉRIQUE (INRIA)
→ 1988 : entre à l’Inria en tant que directeur de recherche
→ 2003-2008 : préside les conseils scientifique et d’évaluation des programmes SSI du ministère de la Recherche
→ 2010-2014 : directeur scientifique d’Inria
→ novembre 2018 : publication du rapport « Numérique et santé : quels enjeux éthiques pour quelles régulations ? »
AVOCAT SPÉCIALISÉ EN DROIT DES TECHNOLOGIES AVANCÉES
→ 1978 : devient avocat à la cour d’appel de Paris
→ 2009 : arbitre auprès du centre d’arbitrage et de médiation de l’Organisation mondiale de la propriété intellectuelle
→ 2012 : lance au sein de son cabinet un département sur le droit des technologies robotiques
→ 2014 : fonde l’Association du droit des robots
→ 2015 : sortie du livre « Droit des robots », aux éditions Larciers
→ La prochaine réforme de la loi de bioéthique, la troisième en vingt-cinq ans, soumise au Conseil des ministres le 24 juillet, sera examinée en septembre à l’Assemblée nationale. Elle s’appuie notamment sur un rapport d’information, comportant soixante propositions, remis au gouvernement par les députés Xavier Breton et Jean-Louis Touraine en janvier dernier. Au programme, sept thématiques : procréation, personnes intersexes, recherches sur l’embryon et sur les cellules souches, médecine génomique et tests génétiques, cadre du débat bioéthique et enfin l’intelligence artificielle en santé. En effet, le développement de cette dernière pose aux autorités comme aux soignants de nombreuses questions, parmi lesquelles l’utilisation des données personnelles, la place des soignants par rapport aux algorithmes ou encore la responsabilité des professionnels de santé vis-à-vis de l’utilisation et des robots et autres logiciels.