Advanced features available in the app
L’intelligence artificielle (IA) s’impose progressivement dans les administrations publiques, soulevant des questions juridiques et éthiques majeures. En France, l’intégration des systèmes d’intelligence artificielle (SIA) dans le secteur public est marquée par une approche prudente, fondée sur une analyse des risques et une absence de reconnaissance explicite d’un droit à l’IA. Cette fiche de révision explore cette posture française, les obstacles spécifiques rencontrés dans les collectivités territoriales, ainsi que le cadre réglementaire européen qui encadre les pratiques à risque et les systèmes à haut risque.
Le rapport du Conseil d’État du 31 mars 2022, intitulé « Intelligence Artificielle et action publique : construire la confiance, servir la performance », constitue une référence majeure pour comprendre la position française. Il souligne que :
Cet article garantit à toute personne le droit de recevoir les traitements les plus appropriés selon les connaissances médicales avérées. Le Conseil d’État en tire plusieurs enseignements concernant l’usage des SIA :
Le Conseil d’État cite un arrêt du Conseil d’État italien (8 avril 2019) qui reconnaît que la décision administrative automatisée peut être une application cohérente du principe constitutionnel de bonne action de l’administration (article 97 de la Constitution italienne). Cette décision encourage la rationalisation des procédures par l’usage des SIA, sans toutefois créer un droit à l’automatisation.
Le respect du Règlement Général sur la Protection des Données (RGPD) est un défi majeur, notamment pour les collectivités territoriales qui manipulent des données sensibles et interconnectées. Le risque de ré-identification de données anonymisées est réel.
La responsabilité juridique en cas de mauvaise décision prise par un SIA est également incertaine : qui est responsable — le fabricant, le fournisseur ou le déployeur ? Cette incertitude freine l’adoption des SIA.
L’acceptabilité des SIA est un enjeu crucial, tant pour les usagers que pour les agents publics :
La protection des données et la cybersécurité sont essentielles, notamment face à la valeur croissante des bases de données nettoyées. L’Agence nationale de la sécurité des systèmes d’information (ANSSI) impose des règles strictes, notamment via :
Les collectivités territoriales rencontrent des difficultés particulières dans le déploiement des SIA, liées à :
[Diagramme]
L’article 5, paragraphe 1 du RIA énonce huit types de pratiques interdites, considérées comme présentant un risque inacceptable. Ces interdictions concernent la mise sur le marché, la mise en service ou l’utilisation des SIA impliquant :
| Pratique interdite | Description |
|---|---|
| Manipulation préjudiciable et tromperie | Usage de techniques manipulatrices pouvant tromper ou nuire aux individus. |
| Recours à des techniques subliminales | Exploitation inconsciente, notamment selon âge, handicap ou situation sociale. |
| Exploitation préjudiciable des vulnérabilités | Profiter des faiblesses spécifiques des personnes. |
| Notation sociale | Établissement de scores sociaux discriminatoires ou restrictifs. |
| Évaluation individuelle et prédiction des risques d’infraction pénale | Interdite si basée uniquement sur le profilage, sauf si étayée par une évaluation humaine objective. |
| Moissonnage non ciblé pour bases de données de reconnaissance faciale | Collecte massive d’images issues d’internet ou vidéosurveillance. |
| Reconnaissance des émotions | Interdite au travail ou dans les écoles, sauf pour raisons médicales ou de sécurité. |
Ces interdictions visent à protéger les droits fondamentaux et la dignité des personnes.
Un SIA est à haut risque s’il remplit simultanément :
| Secteur / Usage | Description |
|---|---|
| Biométrie | Utilisation autorisée par le droit de l’UE ou national. |
| Infrastructures critiques | Gestion sécurisée d’infrastructures numériques essentielles (trafic, eau, etc.). |
| Éducation et formation professionnelle | Admission, évaluation, détection de comportements interdits lors d’examens. |
| Emploi et gestion du personnel | Recrutement, sélection, promotion, licenciement, attribution de tâches. |
| Accès aux services essentiels et prestations sociales | Évaluation d’éligibilité, solvabilité, hiérarchisation des appels d’urgence, tri des patients (hors détection de fraudes financières). |
| Répression | Évaluation des risques criminels ou fiabilité des preuves, si autorisé par la loi. |
| Migration, asile, contrôle aux frontières | Évaluation des risques liés à la sécurité, migration irrégulière ou santé. |
| Administration de la justice et processus démocratiques | Interprétation des faits, application de la loi, influence sur élections ou référendums (hors outils non exposant directement les personnes). |
Ces systèmes doivent respecter des exigences strictes en matière de sécurité, transparence et respect des droits fondamentaux.
Le RIA rappelle que toute utilisation d’IA doit être conforme au RGPD, qui demeure la première législation applicable en matière de protection des données personnelles.
Un SIA figurant dans l’annexe III n’est pas considéré comme à haut risque s’il ne présente pas un risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux, ni d’impact significatif sur le résultat de la prise de décision.
[Diagramme]

Cette synthèse illustre la complexité et la prudence nécessaires pour intégrer l’IA dans le secteur public, tout en garantissant la confiance des citoyens et la protection de leurs droits.
