Droit et éthique de l'intelligence artificielle - Document 1

Droit et éthique de l'intelligence artificielle - Master 2 Droit du numériqueNiveau : intermediate23 novembre 2025
Practice with this sheet
Create your flashcards, quizzes, and mock exams

Advanced features available in the app

  • Images
  • Mathematical formulas
  • Professional and academic diagrams in the app
Start for free

Droit et éthique de l'intelligence artificielle

Chapitre I - L'existence d'un droit à l'IA dans les administrations


Introduction générale

L’intelligence artificielle (IA) s’impose progressivement dans les administrations publiques, soulevant des questions juridiques et éthiques majeures. En France, l’intégration des systèmes d’intelligence artificielle (SIA) dans le secteur public est marquée par une approche prudente, fondée sur une analyse des risques et une absence de reconnaissance explicite d’un droit à l’IA. Cette fiche de révision explore cette posture française, les obstacles spécifiques rencontrés dans les collectivités territoriales, ainsi que le cadre réglementaire européen qui encadre les pratiques à risque et les systèmes à haut risque.


I. Une approche française défensive du droit à l’IA dans les administrations

1. Le rapport du Conseil d’État de 2022 : une posture prudente

Le rapport du Conseil d’État du 31 mars 2022, intitulé « Intelligence Artificielle et action publique : construire la confiance, servir la performance », constitue une référence majeure pour comprendre la position française. Il souligne que :

  • L’administration bénéficie d’une liberté de choix des moyens pour remplir ses missions, ce qui inclut la possibilité d’adopter ou non des outils technologiques innovants.
  • Cette liberté s’appuie sur la notion de mutabilité du service public, une construction doctrinale permettant à l’administration de s’adapter aux innovations, sans pour autant créer un droit à l’innovation technologique.
  • Aucune norme juridique supérieure (constitution, loi) ne garantit un droit à l’utilisation d’un système d’IA dans les administrations françaises, contrairement à certains pays comme les États-Unis.
  • Les objectifs constitutionnels liés à la qualité et à la performance de l’action publique ne sont pas directement invoquables par les usagers pour exiger l’usage de l’IA.

2. Exemple jurisprudentiel : l’article L.1110-5 du Code de la santé publique

Cet article garantit à toute personne le droit de recevoir les traitements les plus appropriés selon les connaissances médicales avérées. Le Conseil d’État en tire plusieurs enseignements concernant l’usage des SIA :

  • Le non-recours à un SIA pourrait, en théorie, motiver une action en justice, notamment en cas de perte de chance d’éviter un accident médical.
  • Pour qu’une telle action aboutisse, il faudrait démontrer un décalage flagrant entre le service rendu et ce qu’il pourrait être avec un SIA.
  • Ce décalage s’apprécie selon les moyens de l’administration et les besoins des usagers.
  • Le juge doit également considérer le degré de maturité et de généralisation du SIA pour justifier une éventuelle réparation.

3. Comparaison avec une jurisprudence étrangère

Le Conseil d’État cite un arrêt du Conseil d’État italien (8 avril 2019) qui reconnaît que la décision administrative automatisée peut être une application cohérente du principe constitutionnel de bonne action de l’administration (article 97 de la Constitution italienne). Cette décision encourage la rationalisation des procédures par l’usage des SIA, sans toutefois créer un droit à l’automatisation.


II. Les risques et obstacles liés au déploiement des SIA dans les administrations

1. Les risques principaux associés au déploiement des SIA

a) Le risque juridique

Le respect du Règlement Général sur la Protection des Données (RGPD) est un défi majeur, notamment pour les collectivités territoriales qui manipulent des données sensibles et interconnectées. Le risque de ré-identification de données anonymisées est réel.

La responsabilité juridique en cas de mauvaise décision prise par un SIA est également incertaine : qui est responsable — le fabricant, le fournisseur ou le déployeur ? Cette incertitude freine l’adoption des SIA.

b) Le défaut d’acceptabilité

L’acceptabilité des SIA est un enjeu crucial, tant pour les usagers que pour les agents publics :

  • Le manque d’acculturation aux enjeux de l’IA crée un rejet.
  • La méthode descendante de conception des SIA, souvent déconnectée des besoins réels, renforce cette résistance.
  • La rigidité organisationnelle et l’aversion au changement jouent un rôle important dans le refus.

c) La sécurisation de l’outil

La protection des données et la cybersécurité sont essentielles, notamment face à la valeur croissante des bases de données nettoyées. L’Agence nationale de la sécurité des systèmes d’information (ANSSI) impose des règles strictes, notamment via :

  • Le Référentiel Général de Sécurité (RGS)
  • La directive NIS 2 (Network and Information Security)

2. Obstacles spécifiques aux collectivités territoriales

Les collectivités territoriales rencontrent des difficultés particulières dans le déploiement des SIA, liées à :

a) Le manque de compétences disponibles

  • Les petites collectivités ont souvent des ressources financières limitées, rendant difficile le recrutement d’experts en données et IA.
  • L’agence Etalab propose un soutien pour faciliter le déploiement de projets numériques.
  • Certaines collectivités, comme le département du Cantal, se distinguent par leur dynamisme numérique, réduisant leur isolement.

b) Une faible liberté concernant l’achat public

  • Les procédures de commande publique sont longues, complexes et coûteuses en ressources, ce qui décourage les petites entreprises innovantes.
  • Cette rigidité limite l’accès à des prestataires spécialisés et freine l’innovation.

[Diagramme]


III. Le cadre réglementaire européen : le Règlement sur l’Intelligence Artificielle (RIA)

1. Les pratiques interdites : le risque inacceptable

L’article 5, paragraphe 1 du RIA énonce huit types de pratiques interdites, considérées comme présentant un risque inacceptable. Ces interdictions concernent la mise sur le marché, la mise en service ou l’utilisation des SIA impliquant :

Pratique interditeDescription
Manipulation préjudiciable et tromperieUsage de techniques manipulatrices pouvant tromper ou nuire aux individus.
Recours à des techniques subliminalesExploitation inconsciente, notamment selon âge, handicap ou situation sociale.
Exploitation préjudiciable des vulnérabilitésProfiter des faiblesses spécifiques des personnes.
Notation socialeÉtablissement de scores sociaux discriminatoires ou restrictifs.
Évaluation individuelle et prédiction des risques d’infraction pénaleInterdite si basée uniquement sur le profilage, sauf si étayée par une évaluation humaine objective.
Moissonnage non ciblé pour bases de données de reconnaissance facialeCollecte massive d’images issues d’internet ou vidéosurveillance.
Reconnaissance des émotionsInterdite au travail ou dans les écoles, sauf pour raisons médicales ou de sécurité.

Ces interdictions visent à protéger les droits fondamentaux et la dignité des personnes.


2. Les systèmes à haut risque : le risque élevé

a) Définition (article 6, §1 du RIA)

Un SIA est à haut risque s’il remplit simultanément :

  1. Il est un composant de sécurité d’un produit soumis à la législation harmonisée de l’UE (annexe I du RIA) ou constitue ce produit.
  2. Ce produit ou composant doit être évalué par un tiers avant mise sur le marché ou mise en service.

b) Catégories listées à l’annexe III (article 6, §2 du RIA)

Secteur / UsageDescription
BiométrieUtilisation autorisée par le droit de l’UE ou national.
Infrastructures critiquesGestion sécurisée d’infrastructures numériques essentielles (trafic, eau, etc.).
Éducation et formation professionnelleAdmission, évaluation, détection de comportements interdits lors d’examens.
Emploi et gestion du personnelRecrutement, sélection, promotion, licenciement, attribution de tâches.
Accès aux services essentiels et prestations socialesÉvaluation d’éligibilité, solvabilité, hiérarchisation des appels d’urgence, tri des patients (hors détection de fraudes financières).
RépressionÉvaluation des risques criminels ou fiabilité des preuves, si autorisé par la loi.
Migration, asile, contrôle aux frontièresÉvaluation des risques liés à la sécurité, migration irrégulière ou santé.
Administration de la justice et processus démocratiquesInterprétation des faits, application de la loi, influence sur élections ou référendums (hors outils non exposant directement les personnes).

Ces systèmes doivent respecter des exigences strictes en matière de sécurité, transparence et respect des droits fondamentaux.


3. Protection des données personnelles et RGPD

Le RIA rappelle que toute utilisation d’IA doit être conforme au RGPD, qui demeure la première législation applicable en matière de protection des données personnelles.


4. Exception à la classification haut risque

Un SIA figurant dans l’annexe III n’est pas considéré comme à haut risque s’il ne présente pas un risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux, ni d’impact significatif sur le résultat de la prise de décision.


[Diagramme]


Réglementation IA


Conclusion : points clés à retenir

  • La France adopte une approche défensive face à l’intégration de l’IA dans les administrations, fondée sur la liberté de choix des moyens et l’absence d’un droit explicite à l’IA.
  • Les obstacles au déploiement des SIA sont multiples : risques juridiques (RGPD, responsabilité), acceptabilité sociale, sécurisation technique, et contraintes spécifiques des collectivités territoriales (compétences, commande publique).
  • Le Règlement sur l’Intelligence Artificielle (RIA) encadre strictement les pratiques à risque inacceptable et définit les systèmes à haut risque, imposant des exigences renforcées pour protéger les droits fondamentaux.
  • Les administrations doivent concilier innovation technologique et respect des cadres juridiques et éthiques, en tenant compte des réalités organisationnelles et techniques.

Cette synthèse illustre la complexité et la prudence nécessaires pour intégrer l’IA dans le secteur public, tout en garantissant la confiance des citoyens et la protection de leurs droits.


Agent CTA Background

Transform your learning experience

Get started nowJoin thousands of students who have already transformed their learning