KOS AVOCATS en partenariat avec JAW Conseil et Formation
L’intelligence artificielle est désormais communément employée dans le secteur public (bien qu’à une échelle moindre que dans les secteurs marchands), avec un double objectif de faciliter les démarches des usagers mais aussi de rationaliser l’organisation de l’administration en désengorgeant certains services saturés.
Parmi les technologies digitales en vogue figurent les agents conversationnels. Ils sont tantôt à interface texte : ce sont les chatbots ; tantôt à interface vocale : il s’agit alors de voicebots ou d’assistants vocaux, au premier rang desquels les enceintes connectées commercialisées par les géants du numérique. Certaines solutions hybrides peuvent même combiner les deux types d’interface.
Ces outils digitaux sont de plus en plus présents, « dans la poche » (services de messagerie instantanée accessibles depuis un smartphone) comme à la maison (enceintes connectées).
Certains chatbots sont désormais assez connus au sein du service public, tels que « Lisa », le robot conversationnel français du site « toutemesaides.fr », qui accompagne les usagers dans leurs démarches relatives aux prestations sociales. Lisa détermine les aides auxquelles l’usager peut prétendre, et va même jusqu’à remplir le formulaire à sa place.
Le robot conversationnel « Amelibot » est quant à lui dédié aux démarches relatives à l’Assurance maladie.
Enfin, « NOA » (Nous orienter dans l’Administration) a pour mission de faciliter les démarches administratives des start-ups lors de leur création (aides disponibles, dépôt de marque, import/export, fiscalité).
Ces exemples attestent de ce que l’administration essaie de se moderniser tout en souhaitant rester proche de ses usagers, avec un accueil personnalisé.
C’est dans la santé que les chatbots remplissent selon nous une fonction particulièrement importante et sensible, à travers un nombre d’aspects très variés (humain, éthique, médical, juridique…).
En effet, la e-santé[1] occupe une place particulièrement importante, tant en termes d’enjeux d’intérêt général pour les usagers que de rationalisation des coûts d’un service public particulièrement onéreux.
Par exemple, les établissements de l’Assistance Publique-Hôpitaux de Paris (AP-HP) utilisent le chatbot « Memoquest » pour le suivi des patients bénéficiant d’une intervention chirurgicale en ambulatoire (pour des opérations qui, il y a seulement une décennie, nécessitaient une hospitalisation d’une durée d’une semaine en moyenne). Cet outil a été conçu pour rassurer les patients lorsqu’ils rentrent à domicile, mais aussi pour aider le personnel médical en termes de prise en charge pré et post-opératoire.
L’avènement de la e-santé représente de nouveaux espoirs, mais aussi de nouveaux risques pour l’ensemble des acteurs de la santé.
D’un côté, ces acteurs peuvent s’attendre à profiter de divers progrès avec par exemple, pour conséquence, une diminution des accidents médicaux, et donc une diminution a priori des sources de responsabilité.
Mais d’un autre côté, il existe une contrepartie aux progrès attendus en e-santé. Précisément, si le résultat attendu n’est pas atteint par la technologie, il se peut qu’il y ait une augmentation du nombre de recours en responsabilité. En effet, le patient sera naturellement plus sévère vis-à-vis du résultat obtenu à l’aide d’une machine que de celui obtenu par l’homme à qui l’on confère le droit à l’erreur…
L’introduction croissante des « robots » à qui seraient confiés des patients nécessite d’appréhender les risques de défaillance et donc une problématique de responsabilité : en cas d’incident, qui est responsable ?
Définition de l’agent conversationnel
Un chatbot (« chat » pour « discussion en ligne » et « bot » pour « robot ») est un agent conversationnel automatisé, c’est à dire « un programme informatique qui simule une conversion humaine en s’appuyant sur une base de données pour répondre aux phrases d’un interlocuteur humain » (https://www.usine-digitale.fr/chatbot/).
En général, il apparaît sous la forme d’un personnage animé ou d’une zone de dialogue en bas à droite de l’écran intitulée « Posez-nous vos questions ».
Pour échanger avec l’agent conversationnel par langage naturel (parlé ou écrit) ou à l’aide de boîtes de dialogue, l’utilisateur utilise différentes interfaces : son téléphone (si le chatbot est proposé via un système de messagerie instantanée tels Messenger ou WhatsApp) ou son ordinateur.
Précisions qu’il existe trois principales catégories de chatbots :
- les assistants, qui proposent une réponse de type « Foire Aux Questions » ;
- les concierges, qui fournissent une réponse contextualisée en facilitant un service rendu à l’usager (étapes d’une action par exemple) ;
- les conseillers, qui intègrent des réponses personnalisées à des demandes complexes, et des processus automatisés pour exécuter certaines actions.
Les « assistants » prenant évidemment moins de risques que les conseillers.
En matière de santé, les chatbots peuvent être destinés aux patients (aide ponctuelle ou accompagnement) ou aux professionnels de santé, généralistes ou spécialistes (aide à la prescription, gestion documentaire).
Le développement quantitatif et qualitatif des agents conversationnels, tous secteurs confondus, s’explique par une double révolution. D’abord celle des nouvelles technologies et de la data, qui ne cessent de faire progresser les performances techniques des solutions (puissance de calcul, compréhension du langage naturel, machine learning, deep learning). Celle des usages, ensuite, qui établissent le principe d’immédiateté comme la norme. Or dans le cas d’un agent conversationnel, nul besoin de télécharger une application ni de rentrer ses identifiants. Bien au contraire, surgit alors la promesse d’une interaction instantanée, plus contextualisée et personnalisée que tout autre outil digital.
Quelle nature juridique ?
Le chatbot est un logiciel.
Si la règlementation ne définit pas le logiciel, la Commission de terminologie française a pu donner, dans des travaux publiés au journal officiel du 17 janvier 1982, une définition aujourd’hui reprise par le Larousse : « Ensemble des programmes, procédés et règles, et éventuellement de la documentation, relatifs au fonctionnement d’un ensemble de traitement de données ».
Or, sous certaines conditions, un logiciel, tel qu’un logiciel d’aide à la prescription ou au diagnostic, revêt la qualification juridique de « dispositif médical ». Les conditions d’une telle qualification sont exposées dans l’arrêt de la Cour de Justice de l’Union européenne du 7 décembre 2017 « Syndicat national de l’industrie des technologies médicales (SNITEM) et Philips France C/ France » (C-329/16).
La question posée à la Cour était celle de savoir si un logiciel proposant au prescripteur une aide à la détermination de la prescription médicamenteuse, en détectant les contre-indications, les interactions médicamenteuses et les posologies excessives grâce à l’exploitation des données propres au patient, devait être considéré comme un dispositif médical au sens de la Directive 93/42/CEE alors même qu’il n’agit pas directement dans ou sur le corps humain ?
En effet, pour rappel, la directive précitée définit le « dispositif médical » comme « tout instrument, appareil, équipement, matière ou autre article, utilisé seul ou en association, y compris le logiciel nécessaire pour le bon fonctionnement de celui-ci, destiné par le fabricant à être utilisé chez l’homme à des fins :
– de diagnostic, de prévention, de contrôle, de traitement ou d’atténuation d’une maladie,
– de diagnostic, de contrôle, de traitement, d’atténuation ou de compensation d’une blessure ou d’un handicap,
– d’étude ou de remplacement ou modification de l’anatomie ou d’un processus physiologique,
– de maîtrise de la conception,
et dont l’action principale voulue dans ou sur le corps humain n’est pas obtenue par des moyens pharmacologiques ou immunologiques ni par métabolisme, mais dont la fonction peut être assistée par de tels moyens ».
Or, pour faire entrer le logiciel d’espèce dans le champ des dispositifs médicaux, la CJUE va estimer qu’un logiciel « qui procède au recoupement des données propres du patient avec les médicaments que le médecin envisage de prescrire et est, ainsi, capable de lui fournir, de manière automatisée, une analyse visant à détecter, notamment, les éventuelles contre-indications, interactions médicamenteuses et posologies excessives, est utilisé à des fins de prévention, de contrôle, de traitement ou d’atténuation d’une maladie et poursuit en conséquence une finalité spécifiquement médicale, ce qui en fait un dispositif médical».
La Cour adopte donc une approche fonctionnelle de la définition du dispositif médical, privilégiant la finalité de l’utilisation du logiciel plutôt que la manière dont l’effet attendu est susceptible de se concrétiser, ceci permettant à la juridiction de préciser qu’il importe peu que le logiciel agisse directement sur ou dans le corps humain du moment qu’il est destiné par le fabricant à être utilisé dans une finalité spécifiquement médicale.
On peut d’ores et déjà présager de difficultés à venir quant à la question de classer certains logiciels dans la catégorie des dispositifs médicaux ou non lorsque la frontière sera floue entre ce qui relève par exemple de simples conseils « bien-être » ou de véritables prescriptions médicales. En revanche, ce qui est certain, c’est que sont exclus de la catégorie « dispositifs médicaux » un simple logiciel d’archivage ou de stockage des données du patients, un logiciel qui se limiterait à indiquer au médecin traitant le nom d’un générique pour le médicament envisagé, ou un logiciel simplement destiné à lister les contre-indications mentionnées par le fabricant de ce médicament dans sa notice d’utilisation.
Les cas d’usages dans le service public de la santé
Pour le service de la santé, la qualité d’un chatbot requiert des exigences particulièrement élevées. Outre le fait que des données particulièrement sensibles sont en jeu, une mauvaise information ou orientation d’un patient peut avoir des conséquences évidemment dramatiques. Le niveau de fiabilité doit donc être sans failles, que le chatbot soit utilisé par les patients ou les professionnels de santé.
C’est d’ailleurs pourquoi, outre le « droit dur » applicable, beaucoup de « droit mou » a émergé ces derniers temps, avec nombre de recommandations ou bonnes pratiques, à l’image de celles du think-tank « Le Lab e-Santé »[2] ou encore du laboratoire pharmaceutique Sanofi qui a publié un livre blanc[3] en la matière.
Sans pouvoir en effectuer une liste exhaustive, citons quelques chatbots récents en matière de santé publique.
Le chatbot cité en introduction, « Memoquest », est utilisé en chirurgie ambulatoire. Mais d’autres solutions existent pour les patients atteints de cancer, de problèmes cardiaques, de maladies respiratoires – autant de pathologies pour lesquelles un pronostic vital peut être vite engagé.
L’épidémie de Covid-19 a également favorisé l’émergence des robots conversationnels en santé. Notamment, l’Organisation mondiale de la Santé (OMS) a lancé un service de messagerie interactive sur Messenger (messagerie de Facebook), avec le soutien de Sprinklr (service gratuit et interactif « Health Alert »). Le chatbot de l’OMS est accessible sur la page Facebook officielle de l’OMS. Grâce à Messenger, l’OMS peut s’adresser à un public extrêmement large et diffuser des informations fiables. En outre, le robot « Covibot », une aide à l’auto-diagnostic Covid, a été réalisé à partir de l’algorithme élaboré en lien avec l’Institut Pasteur et l’Assistance publique des Hôpitaux de Paris. Son contenu a été validé par le Ministère des Solidarités et de la Santé. Il est précisé que le chatbot n’est pas un dispositif médical car il ne délivre pas d’avis médical. En revanche il peut permettre le suivi des patients en quarantaine, en lien avec une équipe médicale. Enfin, les données issues de Covibot sont échangées avec les autorités régionales de santé en vue du suivi de la pandémie. Elles peuvent être intégrées dans le « Health Data Hub[4] » pour alimenter de futures études épidémiologiques.
A Bordeaux, le Centre hospitalier Charles-Perrens, spécialisé en psychiatrie, a intégré un chatbot à son site Internet. Il s’agit d’un outil de fluidification des parcours pour les usagers et leurs proches. Accessible 24h/24h et 7j/7, il peut répondre à des questions saisies en texte libre par les internautes sur une boîte de dialogue, ou à une série de questions prédéfinies.
Enfin, citons un chatbot destiné exclusivement aux professionnels de santé. « Synapse Medicine » utilise un algorithme donnant aux professionnels de santé des informations précises, officielles et fiables sur les médicaments (posologie, contre-indications et interactions médicamenteuses détectées par une analyse d’ordonnance). Ce programme s’enrichit quotidiennement des nouveaux documents de l’ANSM et de la HAS. Les sources comme le Vidal ne correspondaient plus aux besoins actuels au regard du nombre de cas complexes liés à un grand nombre de patients polypathologiques (diabétiques, hypertendus…) qui prennent plusieurs médicaments au quotidien).
Quel régime juridique pour un chatbot qualifié de dispositif médical ?
►Quid des procédures de marquage ou de certification ?
Un logiciel qualifiable de « dispositif médical » doit porter le marquage CE de conformité lors de sa mise sur le marché afin de pouvoir circuler librement dans l’Union européenne.
Pour autant, une législation nationale qui imposerait une procédure supplémentaire, telle une nouvelle certification, serait alors contraire à la libre circulation sur le marché intérieur. C’est ce qui ressort de l’arrêt européen précité. En effet, la CJUE a estimé que la procédure française de certification des logiciels d’aide à la prescription garantissant leur conformité à des exigences minimales en termes de sécurité, de conformité et d’efficience de la prescription, était contraire, pour des logiciels disposant déjà d’un marquage CE, à la libre circulation européenne.
Ainsi, toute procédure de certification exigée par le législateur national pour un dispositif médical, y compris un chatbot qualifiable comme tel, serait contraire au droit européen.
Pourtant, dans le cadre de la loi de financement de la sécurité sociale pour 2018, le législateur français a étendu la procédure de certification aux fonctions relatives à la délivrance des dispositifs médicaux et des prestations qui leur sont associées. Une telle certification est notamment obligatoire, au plus tard au 1er janvier 2021, pour tout logiciel dont au moins une des fonctionnalités est de proposer une aide à l’édition des prescriptions médicales relatives à des dispositifs médicaux et à leurs prestations associées éventuelles ou une aide à la délivrance de ces produits et prestations associées. La France va donc encore plus loin que pour le décret n° 2014-1359 du 14 novembre 2014 fixant les modalités de l’obligation de certification des logiciels d’aide à la dispensation et à la prescription, alors même qu’il y a fort à parier, et ce pour le plus grand bonheur des industriels du secteur, que le Conseil d’Etat soit amené à sanctionner cette procédure française comme contraire au droit de l’Union.
Pendant ce temps, le Règlement (UE) 2017/745 sur les dispositifs médicaux, en vigueur depuis 2020, introduit quant à lui dans la définition du dispositif médical de nouvelles finalités permettant notamment de qualifier de dispositifs médicaux les logiciels ayant une fonction de prédiction et de pronostic. Ces dispositifs médicaux ne sauraient dès lors, en principe, faire l’objet de procédures internes de certification.
En tout état de cause, et en dehors de la question de l’incompatibilité des procédures de certification au regard du droit européen, on est en droit de s’interroger sur l’intérêt qu’il y a à vouloir certifier quelque chose de mouvant…
► Quid de la responsabilité en cas de dommage occasionné à l’utilisateur du chatbot?
- Si le chatbot est qualifiable de dispositif médical et donc de produit de santé, il sera soumis à un régime de responsabilité traditionnellement sans faute dans le secteur public (établissements publics de santé) et pour faute dans le secteur privé (libéraux, cliniques).
- Que le chatbot soit un dispositif médical ou pas, la responsabilité civile ou administrative classique demeure applicable, même si le juge sera enclin à davantage de sévérité en présence d’un dispositif médical. La responsabilité applicable peut être la responsabilité contractuelle (en cas de conseils délivrés erronés, non validés médicalement ou dans le cadre d’une requalification du chatbot en dispositif médical qui aboutit à une interdiction de commercialisation et une annulation éventuelle de contrats de vente). La responsabilité peut également trouver à s’appliquer sur le fondement de l’article 9 du Code Civil (atteinte à la vie privée issue d’un manquement à l’obligation de confidentialité des données personnelles, constitutive d’une obligation de moyens renforcée, Crim., 30 octobre 2001, n° 99-82136). Ce dernier régime est alors très favorable à la victime car la seule publication des informations suffit à caractériser le préjudice (Civ. 1ère, 28 avril 2011, n° 10-17909).
- Que le chatbot soit un dispositif médical ou pas, une responsabilité pénale est toujours envisageable sur certains fondements, au-delà de la traditionnelle hypothèse d’une mise en danger de la vie d’autrui : publicité trompeuse si l’étiquette « dispositif médical » est avancée alors que le chatbot n’en est pas un ; infraction à l’obligation d’assurance obligatoire si l’application est en fait un dispositif médical ; exercice illégal de la médecine.
► Des causes d’exonération sont-elles envisageables ?
Le « responsable » sur le plan juridique pourra toujours avancer des moyens d’exonération classiques.
En dehors du pénal, l’éditeur du chatbot pourrait, en cas de condamnation, se retourner contre les professionnels de santé ayant élaboré les contenus du chatbot. Il pourrait sinon, dès le cadre du procès qui lui est intenté, invoquer la responsabilité du fait du tiers ; le juge pourrait alors condamner l’éditeur et le professionnel de santé de manière solidaire. Enfin, la faute de la victime pourrait également être exonératrice.
Au pénal, notons qu’il existe des fautes d’imprudence, de négligence ou de manquement à une obligation de prudence ou de sécurité prévue par la loi ou le règlement (article 121-3 alinéa 3 du Code pénal) : cette hypothèse renvoie à celles des personnes physiques qui n’ont pas causé directement le dommage, mais qui ont créé ou contribué à créer la situation qui a permis la réalisation du dommage, ou encore qui n’ont pas pris les mesures pour l’éviter. Elles sont alors responsables pénalement s’il est établi qu’elles ont, soit violé de façon manifestement délibérée une obligation particulière de prudence ou de sécurité prévue par la loi ou le règlement, soit commis une faute caractérisée et qui exposait autrui à un risque d’une particulière gravité qu’elles ne pouvaient ignorer. Cette dernière hypothèse permettrait de faire porter la responsabilité pénale pour les faits commis par le chatbot sur l’auteur de l’algorithme sur lequel il s’appuie.
► Est-il envisageable d’invoquer le fait que le chatbot soit devenu « auto-apprenant »?
Si le chatbot est en cours d’apprentissage, voire si son apprentissage est abouti, l’entrepreneur pourrait-il invoquer que le dommage est dû, non pas à un défaut initial, mais à l’apprentissage ultérieur de l’intelligence artificielle ?
Si cette exonération venait à être acceptée par un juge, ce serait alors, a priori, parce qu’il existerait des alternatives possibles pour le patient victime, afin que son préjudice puisse être indemnisé. Par exemple, on pourrait envisager que l’utilisateur du chatbot puisse bénéficier d’un recours à la solidarité nationale (devant la Commission de conciliation et d’indemnisation- CCI) si l’accident médical a eu des conséquences anormales au regard de l’état de santé du patient comme de son évolution prévisible. Néanmoins, pour que le recours soit étudié par la CCI, il faut un certain degré de gravité, à savoir, notamment, un taux d’atteinte permanente à l’intégrité physique ou psychique supérieur à 25 %.
► Quid des obligations de l’exploitant du chatbot en tant que responsable du traitement de données de santé ?
Tout chatbot doit préciser qu’il assure la collecte et le traitement des Données à caractère personnel dans le respect de la vie privée et conformément à la législation relative à la protection des données personnelles (Loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés et Règlement (UE) 2016/679 du Parlement Européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE – dit « RGPD »).
Le responsable de traitement doit être en mesure de démontrer, à tout moment, sa conformité aux exigences du RGPD en traçant toutes les démarches entreprises (principe d’accountability).
D’une manière générale, les exigences sont relatives aux principes de protection des données prévus à l’article 5 du RGPD (traitement loyal, licite et transparent des données, collecte des données pour des finalités déterminées, explicites et légitimes, minimisation des données, etc.) et les droits des personnes concernées.
Le responsable de traitement doit notamment :
- mettre en place un registre des traitements (outil recensant l’ensemble des traitements mis en œuvre dans la structure) ;
- mener des analyses d’impact pour les traitements considérés comme présentant « un risque élevé » pour les personnes (cas notamment lorsqu’il y a une évaluation de l’état de santé de la personne ou qu’il existe un système de données croisées, ou encore qu’il s’agit d’un usage innovant) ;
- veiller à encadrer l’information des personnes concernées et s’assurer de l’effectivité de leurs droits (droit d’accès, de rectification, d’opposition, etc.) ;
- formaliser les rôles et responsabilités du responsable de traitement ;
- lorsque cela est obligatoire, désigner un délégué à la protection des données (DPO);
- renseigner les actions menées pour garantir la sécurité des données.
Enfin, l’hébergement des données de santé doit être réalisé dans des conditions de sécurité adaptées à leur caractère particulièrement sensible.
L’article L.1111-8 du code de la santé publique dispose :
« Toute personne physique ou morale qui héberge des données de santé à caractère personnel recueillies à l’occasion d’activités de prévention, de diagnostic, de soins ou de suivi médico-social pour le compte de personnes physiques ou morales à l’origine de la production ou du recueil de ces données ou pour le compte du patient lui-même, doit être agréée ou certifiée à cet effet ».
Le décret 2018-137 du 26 février 2018 définit la procédure de certification et organise la transition entre l’agrément d’avant la réforme et la certification actuelle. L’arrêté portant approbation des référentiels d’accréditation et de certification, publié le 29 juin 2018, permet l’ouverture du schéma d’accréditation « HDS ». Les hébergeurs peuvent déposer une demande de certificat HDS auprès de tout organisme de certification ayant réalisé les démarches d’accréditation auprès du Comité Français d’Accréditation (COFRAC). L’Agence du Numérique en Santé (ANS) liste sur son site internet les 66 hébergeurs actuellement agréés.
Quelles garanties pour l’usager ?
En dehors de la protection légale et règlementaire, l’usager doit pouvoir compter sur un contrat lui conférant des garanties.
La confiance se construit sur la base du respect des exigences éthiques, déontologiques, juridiques et réglementaires en vigueur et de la transparence de la relation contractuelle entre le fournisseur et l’utilisateur de chatbot. Une attention particulière doit donc être portée à la rédaction des conditions générales d’utilisation (CGU) comme de tout autre document émis par le fournisseur à destination de l’utilisateur.
Contrairement à certaines idées reçues, les CGU forment un « vrai » contrat. C’est pourquoi rédiger des CGU ne s’improvise pas, et nécessite deux éléments essentiels :
– Les CGU doivent être rédigées par un professionnel du droit. Lui seul en effet est capable d’anticiper tout type de contentieux, et de garantir le délicat équilibre à atteindre entre les droits de chaque co-contractant.
– Le fournisseur de chatbot doit transmettre au professionnel du droit qui l’accompagne les informations lui permettant de bien cerner la solution : description du produit/ service, description du parcours client, environnement technologie, recours à des sous-traitants, etc.
CONCLUSION
Se pose aujourd’hui la question de savoir si les chatbots sont susceptibles de devenir indépendants, question liée à celle de l’autonomisation possible des robots.
En effet, il émerge l’idée que le robot pourrait devenir autonome à l’avenir dans ses décisions (cf Résolution du Parlement européen du 16/02/2017 envisageant la création d’une personnalité juridique à part).
Mais cette hypothèse manque à notre avis de pertinence pour au moins une raison : la personnalité juridique autonome n’a d’intérêt que si celle-ci dispose d’un patrimoine destiné à réparer un préjudice. Autrement dit, sans réparation possible la responsabilité n’a pas de sens.
Enfin, il est indispensable de rappeler que le chatbot ne peut être vu que comme un complément de la prise en charge médicale humaine, devant s’intégrer au parcours de soin, et certainement pas en remplacement de cette prise en charge. En effet, un raisonnement par algorithmes ne saurait être comparable à un raisonnement humain, et ce en dépit des progrès phénoménaux de l’intelligence artificielle. Cette intelligence artificielle produit des probabilités de type statistique par analyse de séquences lexicales, et opère des corrélations entre ces séquences lexicales dans un contexte donné. Elle ne saurait donc s’analyser comme une « science prédictive », mais plutôt comme un outil d’aide à la décision, reposant sur une logique de déduction à partir de statistiques. En outre, les chercheurs ont démontré que ces statistiques ne sont pas forcément fiables, en ce sens qu’elles peuvent colporter certains « biais » humains et ainsi « déformer » la réalité. Le raisonnement humain, lui, repose sur une logique d’interprétation in concreto, en tenant compte de ce que chaque individu est un cas particulier face à une pathologie identique.
Pour autant, il convient de rappeler que beaucoup de progrès de la médecine ont été concrétisés grâce à l’assistance des nouvelles technologies. A titre d’exemple, la chirurgie robotique présente des avantages irremplaçables puisqu’elle permet notamment d’accéder à des zones particulièrement « sensibles », difficilement atteignables par la main de l’homme. Le robot sécurise donc la pratique. Mais ici encore, la pratique démontre que les robots sont des assistants, et non des substituts…
Pour finir, le 20 novembre 2018, la clinique du droit de Science Po avait rendu public un livre blanc sur les enjeux éthiques de la justice prédictive, ainsi qu’une charte éthique… Cette illustration atteste de ce que, quel que soit le domaine d’utilisation de l’intelligence artificielle, l’éthique reste et restera un garde-fou humain indispensable.
[1] L’Organisation mondiale de la santé (OMS) définit l’e-santé comme désignant « les services du numérique au service du bien-être de la personne » et, plus spécifiquement, comme « l’utilisation des outils de production, de transmission, de gestion et de partage d’informations numérisées au bénéfice des pratiques tant médicales que médico-sociales ».
[2] http://lelabesante.com/livre-blanc-le-futur-de-la-sante-sera-t-il-conversationnel/
[3]https://www.sanofi.fr/-/media/Project/One-Sanofi-Web/Websites/Europe/Sanofi-FR/Newsroom/nos-publications/Livre-blanc-BOT-V03_BD.pdf
[4]https://www.cnil.fr/fr/la-plateforme-des-donnees-de-sante-health-data-hub#:~:text=La%20Plateforme%20des%20donn%C3%A9es%20de%20sant%C3%A9%20(PDS)%2C%20infrastructure%20officiellement,afin%20de%20favoriser%20la%20recherche.