
BARBACH Abdelhaq Doctorant en droit Université Hassan II, Casablanca. Maroc |
L’essor de l’intelligence artificielle (IA) dans le domaine médical soulève des enjeux juridiques et bioéthiques inédits, notamment en matière de consentement éclairé et d’autonomie des patients. Le fonctionnement opaque des algorithmes d’IA, souvent qualifié de « boîte noire », accentue l’asymétrie informationnelle entre les professionnels de santé et les patients, fragilisant leur capacité à consentir de manière libre et éclairée. Cette opacité complexifie d’autant plus la protection des patients vulnérables, et interroge la responsabilité des acteurs face aux biais et risques de manipulation inhérents à ces technologies.
L’étude analyse les instruments juridiques internationaux encadrant le consentement éclairé dans un contexte d’utilisation de l’IA en santé. Si des textes comme la Déclaration d’Helsinki, la Convention d’Oviedo, les recommandations de l’UNESCO ou le RGPD apportent des principes fondamentaux, ils peinent à répondre aux spécificités des systèmes d’IA, notamment quant à la transparence algorithmique et à la responsabilité décisionnelle. Cette insuffisance normative est accentuée dans les situations médicales complexes et face à l’évolution continue des technologies d’IA.
L’article propose des pistes de réflexion pour renforcer l’encadrement juridique et éthique : développement de l’intelligence artificielle explicable (XAI), introduction du consentement dynamique, création de fonctions de médiation technico-éthique, et renforcement de la formation des professionnels de santé aux enjeux technologiques. Ces approches visent à préserver les droits fondamentaux des patients tout en intégrant les innovations technologiques dans le respect des principes du droit de la santé.
Mots-clés : intelligence artificielle, droit de la santé, consentement éclairé, autonomie du patient, bioéthique, encadrement juridique, IA explicable.
INFORMED CONSENT AND PATIENT AUTONOMY IN THE FACE OF ARTIFICIAL INTELLIGENCE IN HEALTHCARE: BIOETHICAL CHALLENGES AND LIMITATIONS OF INTERNATIONAL LEGAL FRAMEWORKS
BARBACH Abdelhaq PhD Student in law Hassan II University, Casablanca. Morocco |
ABSTRACT
The rise of artificial intelligence (AI) in the medical field raises unprecedented legal and bioethical challenges, particularly regarding informed consent and patient autonomy. The opaque functioning of AI algorithms, often referred to as “black boxes,” exacerbates the informational asymmetry between healthcare professionals and patients, thereby weakening patients’ ability to provide free and informed consent. This opacity further complicates the protection of vulnerable patients and raises questions about the responsibility of actors in light of biases and manipulation risks inherent to these technologies.
This study analyzes international legal instruments regulating informed consent in the context of AI use in healthcare. While texts such as the Declaration of Helsinki, the Oviedo Convention, UNESCO’s recommendations, and the GDPR provide fundamental principles, they struggle to address the specificities of AI systems, particularly regarding algorithmic transparency and decision-making accountability. This normative insufficiency becomes more acute in complex medical situations and in the face of the continuous evolution of AI technologies.
The article offers avenues for strengthening the legal and ethical frameworks: the development of explainable artificial intelligence (XAI), the introduction of dynamic consent models, the creation of techno-ethical mediation functions, and the reinforcement of healthcare professionals’ training on technological issues. These approaches aim to safeguard patients’ fundamental rights while integrating technological innovations in compliance with health law principles.
Keywords: artificial intelligence, health law, informed consent, patient autonomy, bioethics, legal framework, explainable AI.
Références bibliographiques
AI Regulation Team. (2024). Texte Définitif du Règlement IA en Français avec Table des Matières Interactive. AI-Regulation Papers 24-05-6. https://ai-regulation.com/
Andreotta, A. J., Kirkham, N., & Rizzi, M. (2022). AI, big data, and the future of consent. AI & SOCIETY, 37(4), 1715‑1728. https://doi.org/10.1007/s00146-021-01262-5
Artificial Intelligence. (2024, août 2). Center for Informed Consent Integrity. https://ge2p2global-centerforinformedconsentintegrity.org/category/artificial-intelligence/
Association Médicale Mondiale. (s.d.). Déclaration d’Helsinki de l’AMM – Principes éthiques applicables à la recherche médicale impliquant des êtres humains. https://www.wma.net/fr/policies-post/declaration-dhelsinki-de-lamm-principes-ethiques-applicables-a-la-recherche-medicale-impliquant-des-etres-humains/
Azaroual, P. F. (2024). L’Intelligence Artificielle en Afrique : Défis et opportunités.
Besse, P., Besse-Patin, A., & Castets-Renard, C. (2020). Implications juridiques et éthiques des algorithmes d’intelligence artificielle dans le domaine de la santé. Statistique et société, 8(3), 21‑53. https://doi.org/10.3406/staso.2020.1136
Binkley, C. E. (2024, juillet 19). Is Informed Consent Necessary When Artificial Intelligence is Used for Patient Care : Applying the Ethics from Justice Cardozo’s Opinion in Schloendorff v. Society of New York Hospital. https://verdict.justia.com/2024/07/19/is-informed-consent-necessary-when-artificial-intelligence-is-used-for-patient-care
Bonin, B. (2012). 43. Le consentement et la prise de décision. In L’Aide-mémoire de psychologie médicale et de psychologie du soin (p. 271‑275). Dunod. https://proxy.univh2c.ma:2133/l-aide-memoire-de-psychologie-medicale–9782100570157-page-271.htm
Bruns, A., & Winkler, E. C. (2024). Dynamic consent : A royal road to research consent? Journal of Medical Ethics. https://doi.org/10.1136/jme-2024-110153
Cayol, A., Catherine, A., & Rogue, F. (2022). Enjeux juridiques et éthiques du consentement des personnes âgées à la téléconsultation : L’exemple Normand. Netcom. Réseaux, communication et territoires, 36-3/4, Article 36-3/4. https://doi.org/10.4000/netcom.7266
Center for Informed Consent Integrity. (2024, août 2). Center for Informed Consent Integrity. https://ge2p2global-centerforinformedconsentintegrity.org/
Chaire Santé de Sciences Po. (2023). Enjeux de l’intelligence artificielle en santé. Sciences Po. Consulté 2 janvier 2025, à l’adresse https://www.sciencespo.fr/chaire-sante/sites/sciencespo.fr.chaire-sante/files/Enjeux%20de%20l%27IA%20en%20sante%CC%81%2026.05.pdf
Chatila, R. (2022). Bioéthique et éthique du numérique : Une hybridation paradoxale. In Pour une éthique du numérique (p. 27‑39). Presses Universitaires de France. https://proxy.univh2c.ma:2133/pour-une-ethique-du-numerique–9782130833482-page-27.htm
Comité consultatif sur l’engagement des patients. (2020). Résumé de la réunion du Comité consultatif sur l’engagement des patients – Intelligence artificielle (IA) et apprentissage automatique (AM) dans les dispositifs médicaux. Food and Drug Administration des États-Unis. https://www.fda.gov/media/151482/download
Conseil de l’Europe. (1997). Convention pour la protection des droits de l’Homme et de la dignité de l’être humain à l’égard des applications de la biologie et de la médecine : Convention sur les droits de l’Homme et la biomédecine. https://www.coe.int/fr/web/conventions/full-list?module=treaty-detail&treatynum=164
Conseil de l’Europe. La protection juridique des droits de l’homme—Manuel pour la pratique de l’éducation aux droits de l’homme avec les jeunes—Www.coe.int. (s. d.). Manuel pour la pratique de l’éducation aux droits de l’homme avec les jeunes. Consulté 18 Janvier 2025, à l’adresse https://www.coe.int/fr/web/compass/legal-protection-of-human-rights
Conseil de l’Europe. (2019). Recommandation CM/Rec(2019)2 du Comité des Ministres aux États membres sur la protection des données relatives à la santé. Conseil de l’Europe. https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=090000168093b26b
Conseil de l’Europe. (2020). Recommandation CM/Rec(2020)1 du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’homme. Conseil de l’Europe. https://www.coe.int/fr/web/freedom-expression/committee-of-ministers-adopted-texts/-/asset_publisher/aDXmrol0vvsU/content/recommendation-cm-rec-2020-1-of-the-committee-of-ministers-to-member-states-on-the-human-rights-impacts-of-algorithmic-systems
Conseil de l’Europe. (2024). Rapport sur l’application de l’intelligence artificielle dans les soins de santé et son impact sur la relation « patient•e-médecin ». Comité directeur. https://rm.coe.int/cdbio-2023-7rev3-ai-report-new-banner-f/1680b1bff4
Convention contre la torture et autres peines ou traitements cruels, inhumains ou dégradants. (s. d.). OHCHR. Consulté 2 Décembre 2024, à l’adresse https://www.ohchr.org/fr/instruments-mechanisms/instruments/convention-against-torture-and-other-cruel-inhuman-or-degrading
Convention internationale pour la protection de toutes les personnes contre les disparitions forcées. (s. d.). OHCHR. Consulté 23 Novembre 2024, à l’adresse https://www.ohchr.org/fr/instruments-mechanisms/instruments/international-convention-protection-all-persons-enforced
Convention internationale sur la protection des droits de tous les travailleurs migrants et des membres de leur famille. (s. d.). OHCHR. Consulté 24 Novembre 2024, à l’adresse https://www.ohchr.org/fr/instruments-mechanisms/instruments/international-convention-protection-rights-all-migrant-workers
Convention on the Elimination of All Forms of Discrimination against Women New York, 18 December 1979. (s. d.). OHCHR. Consulté 1 Décembre 2024, à l’adresse https://www.ohchr.org/en/instruments-mechanisms/instruments/convention-elimination-all-forms-discrimination-against-women
Convention relative aux droits de l’enfant. (s. d.). OHCHR. Consulté 28 octobre 2024, à l’adresse https://www.ohchr.org/fr/instruments-mechanisms/instruments/convention-rights-child
Convention relative aux droits des personnes handicapées. (s. d.). OHCHR. Consulté 28 octobre 2024, à l’adresse https://www.ohchr.org/fr/instruments-mechanisms/instruments/convention-rights-persons-disabilities
Cour des comptes. (2023). La stratégie nationale de recherche en intelligence artificielle, comparaison de 10 stratégies nationales sur l’intelligence artificielle. Cour des comptes. https://www.ccomptes.fr/system/files/2023-04/20230403-comparaison-strategies-nationales-strategie-nationale-recherche-intelligence-artificielle.pdf
David, G. (2004). Introduction. In Le consentement éclairé en périnatalité et en pédiatrie (p. 9‑12). Érès. https://proxy.univh2c.ma:2133/le-consentement-eclaire-en-perinatalite-et-en-pedi–978274920314-page-9.htm
Dumez, H., & Minvielle, É. (2020). Jusqu’où la santé numérique va-t-elle transformer l’organisation des soins ? In C. Lindenmeyer & M.-P. d’Ortho (Eds.), Santé connectée (Chap. 3). CNRS Éditions. https://books.openedition.org/editionscnrs/45537
World Health Organization. (2021). Ethics and governance of artificial intelligence for health: WHO guidance. World Health Organization. https://www.who.int/publications/i/item/9789240029200
Farvaque, É., Garçon, H., & Samson, A.-L. (2022). « Je ne tromperai jamais leur confiance » : Analyse de l’influence des laboratoires sur la relation médecin-patient en France: Revue d’économie politique, Vol. 132(2), 273‑312. https://doi.org/10.3917/redp.322.0273
Fondation mondiale GE2P2. (sd). Fondation mondiale GE2P2. https://ge2p2-center.net/ge2p2-global-foundation/
Future of Life Institute. (2017). Principes de l’IA d’Asilom. Future of Life Institute. Consulté le 06 Janvier 2025. https://futureoflife.org/fr/lettre-ouverte/ai-principles/
Gozlan, D., Mathieu, M., Montgolfier, S. de, Morillon, L., Demaret, B., Pierrart, C., Fourmy, C. A., Lamarche, D., Koulikoff, F., Nowak, F., Zucker, J.-M., Malen, J.-P., Avram, F., Panchal, M., Lanta, M., Prouvost, M.-F., Maizeroi, M., Tronel, V., & Mathieu, F. (2023). Vers un consentement plus éclairé—Rendre l’information accessible. médecine/sciences, 39(8‑9), Article 8‑9. https://doi.org/10.1051/medsci/2023092
Groupe d’experts de haut niveau sur l’intelligence artificielle. (2019). Lignes directrices en matière d’éthique pour une IA digne de confiance. Commission européenne. https://digital-strategy.ec.europa.eu/en/library/policy-and-investment-recommendations-trustworthy-artificial-intelligence
Hulsen, T. (2023). Explainable Artificial Intelligence (XAI) : Concepts and Challenges in Healthcare. AI, 4(3), 652‑666. https://doi.org/10.3390/ai4030034
Inuwa-Dutse, I. (2023). FATE in AI : Towards Algorithmic Inclusivity and Accessibility. Equity and Access in Algorithms, Mechanisms, and Optimization, 1‑14. https://doi.org/10.1145/3617694.3623233
Justice, V. de la. (2023, mai 31). Les implications juridiques de l’intelligence artificielle en médecine. Par Noémie Le Bouard, Avocat. Village de la Justice. https://www.village-justice.com/articles/les-implications-juridiques-intelligence-artificielle-medecine,46347.html
Le Moli, G. (2021). IA vs dignité humaine : quand la sous-performance humaine est légalement requise. Revue Européenne du Droit. Consulté le 22 Janvier 2025 à l’adresse: https://legrandcontinent.eu/fr/2021/06/28/intelligence-artificielle-vs-dignite-humaine-quand-la-sous-performance-humaine-est-legalement-requise/.
Lenesley, P., & Le Bouler, S. (2022). Chapitre 9. Évolutions de la pratique médicale et enjeux pour la formation. In S. Le Bouler (Éd.), Études de santé : Le temps des réformes (p. 145‑154). Presses universitaires François-Rabelais. https://doi.org/10.4000/books.pufr.32830
MÉDECINE et IA : Pourquoi les médecins doivent se former aux probas. (2023, août 16). santé log. https://www.santelog.com/actualites/medecine-et-ia-pourquoi-les-medecins-doivent-se-former-aux-probas
Mittelstadt, B. (2021). L’impact de l’intelligence artificielle sur les relations médecin-patient. Conseil de l’Europe.Nations, U. (s. d.). Déclaration universelle des droits de l’homme | Nations Unies. United Nations; United Nations. Consulté 1 octobre 2024, à l’adresse https://www.un.org/fr/about-us/universal-declaration-of-human-rights
Nations Unies. (1965). International Convention on the Elimination of All Forms of Racial Discrimination. Haut-Commissariat des Nations Unies aux droits de l’Homme. https://www.ohchr.org/en/instruments-mechanisms/instruments/international-convention-elimination-all-forms-racial
Okolo, C. T., & Amador, M. G. (2023). IAC : A Framework for Enabling Patient Agency in the Use of AI-Enabled Healthcare (arXiv:2111.04456). arXiv. https://doi.org/10.48550/arXiv.2111.04456
Organisation de coopération et de développement économiques (OCDE). (2019). Recommandation du Conseil sur l’intelligence artificielle (OECD/LEGAL/0449). OCDE. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
Organisation des Nations Unies. (s.d.). Dossier 3 – Droits de l’Homme. Découverte de la Coopération internationale. (s. d.), à l’adresse https://www.eduki.ch/fr/doc/dossier_3_DDH.pdf
Organisation mondiale de la santé. (2021). WHO issues first global report on AI in health and six guiding principles for its design and use. Consulté 18 janvier 2025 à l’adresse: https://www.who.int/fr/news/item/28-06-2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its-design-and-use
Organisation Mondiale de la Santé. (2023). Considérations réglementaires sur l’intelligence artificielle pour la santé. Organisation Mondiale de la Santé. https://iris.who.int/bitstream/handle/10665/373421/9789240078871-eng.pdf?sequence=1&isAllowed=y
Parlement européen et Conseil de l’Union européenne. (2016). Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (Règlement général sur la protection des données – RGPD) . Journal officiel de l’Union européenne, L 119, 1-88. https://eur-lex.europa.eu/eli/reg/2016/679/oj
Rochaix, L. (1997). Asymétries d’information et incertitude en santé : Les apports de la théorie des contrats. Économie & prévision, 129(3), 11‑24. https://doi.org/10.3406/ecop.1997.5861
Rogerson, A., Hankins, E., Fuentes Nettel, P., & Rahim, S. (2022). Government AI Readiness Index 2022. Oxford Insights. https://www.oxfordinsights.comhttps://www.unido.org/sites/default/files/files/2023-01/Government_AI_Readiness_2022_FV.pdf
Seoul Ministerial Statement for advancing AI safety, innovation and inclusivity : AI Seoul Summit 2024. (s. d.). GOV.UK. Consulté 07 Janvier 2025, à l’adresse https://www.gov.uk/government/publications/seoul-ministerial-statement-for-advancing-ai-safety-innovation-and-inclusivity-ai-seoul-summit-2024/seoul-ministerial-statement-for-advancing-ai-safety-innovation-and-inclusivity-ai-seoul-summit-2024
Srinivasu, P. N., Sandhya, N., Jhaveri, R. H., & Raut, R. (2022). From Blackbox to Explainable AI in Healthcare : Existing Tools and Case Studies. Mobile Information Systems, 2022(1), 8167821. https://doi.org/10.1155/2022/8167821
Suva, D., Hoffmeyer, P., & Haller, G. (2011). Information et consentement éclairé des patients en orthopédie : Mission (im)possible ? Revue Médicale Suisse, 7(322), 2475‑2477. https://www.revmed.ch/revue-medicale-suisse/2011/revue-medicale-suisse-322/information-et-consentement-eclaire-des-patients-en-orthopedie-mission-im-possible
The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. (s. d.). GOV.UK. Consulté 24 Janvier 2025, à l’adresse https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
Tribunal militaire de Nuremberg. (1947). Le Code de Nuremberg. In F. Bayle, Croix gammée contre caducée : Les expériences humaines en Allemagne pendant la Deuxième Guerre mondiale (pp. 1493–1495). Commission scientifique des crimes de guerre. https://www.inserm.fr/wp-content/uploads/2017-11/inserm-codenuremberg-tradamiel.pdf
UNESCO. (2021). Recommandation sur l’éthique de l’intelligence artificielle. Organisation des Nations Unies pour l’éducation, la science et la culture. https://unesdoc.unesco.org/ark:/48223/pf0000380455
Valade, B. (2013). La traversée des disciplines : Passages et passeurs. Hermès, La Revue, 67(3), 80‑89. https://doi.org/10.4267/2042/51890
Véron, P. (2020). Les décisions de soins en contexte de vulnérabilité : Quels arbitrages du droit entre autonomie et contrainte ? Sciences sociales et santé, 38(2), 67‑75. https://shs.cairn.info/revue-sciences-sociales-et-sante-2020-2-page-67?lang=fr
Wahdan, MH (1996). La transition épidémiologique. La Revue de Santé de la Méditerranée orientale, 2 (1), 8-20. https://applications.emro.who.int/emhj/0201/emhj_1996_2_1_8_20.pdf?ua=1
Zeitoun, J.-D., & Ravaud, P. (2019). L’intelligence artificielle et le métier de médecin. Les Tribunes de la santé, 60(2), 31‑35. https://doi.org/10.3917/seve1.060.0031
Comments are closed, but trackbacks and pingbacks are open.