Le département Etalab accompagne les administrations dans l'application du nouveau cadre juridique sur les algorithmes publics. Ce guide, ouvert aux contributions, est composé de trois parties qui peuvent se lire de manière indépendante.
La première partie donne des éléments de contexte: qu'est-ce qu'un algorithme ? à quoi servent les algorithmes dans le secteur public ?
La seconde partie détaille les enjeux en termes d'éthique et de responsabilité,
La troisième partie présente le cadre juridique applicable en matière de transparence des algorithmes notamment suite à l'adoption de la loi pour une République numérique.
📎 Etalab propose par ailleurs d'autres ressources en lien avec ce sujet, notamment un guide sur l'ouverture des codes sources.
Ce guide est destiné à l'ensemble des administrations et organisations chargées d'une mission de service public qui conçoivent, développent et opèrent des traitements algorithmiques.
Ce document est un outil évolutif et ouvert. Vous pouvez contribuer à l'améliorer en proposant une modification dans la version éditable du guide (sur GitHub) ou en contactant directement l'équipe en charge des algorithmes publics (Cindy Kus) : algorithmes@etalab.gouv.fr
.
Commençons tout d'abord par une définition: qu'est-ce qu'un algorithme ?
Selon le Larousse, un algorithme est un "ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur".
📍 Retenons que, selon cette définition, un algorithme peut donc exister indépendamment d'un traitement informatique. Une grille de notation "papier" utilisée par une administration peut donc être considérée comme un algorithme.
La CNIL définit un algorithme comme "une suite finie et non ambigüe d’instructions permettant d’aboutir à un résultat à partir de données fournies en entrée." (rapport "Comment permettre à l'Homme de garder la main ? Les enjeux éthiques des algorithmes et de l'intelligence artificielle", décembre 2017
Nous avons recensé plusieurs types d'usages des algorithmes dans les administrations, avec une série d'exemples associés.
Usages | Exemples |
---|---|
Certains algorithmes peuvent être utilisés pour prendre des décisions. On les distingue selon le degré d'intervention humaine dans cette prise de décision:
Certains fonctionnent sans intervention humaine (par exemple le calcul de l'impôt des 37 millions de foyers fiscaux). On parle alors de traitement automatisé ou de décision automatisée.
D'autres sont des outils d'aide à la décision: ils aident l'humain à prendre une décision, par exemple en classant des dossiers selon des critères de priorité pour qu'ils soient ensuite étudiés par une commission qui prendra formellement la décision.
Nous reviendrons sur cette distinction dans la troisième partie de ce guide consacrée au cadre juridique applicable.
Tout le monde a entendu parler des algorithmes utilisés par les grandes entreprises du numérique. Citons quelques exemples:
le PageRank du moteur de recherche Google qui détermine les pages de résultats pour une requête,
le Newsfeed qui détermine le contenu d'un fil d'actualités Facebook,
l'algorithme de tarification dynamique d'Uber qui fait varier les prix des courses en fonction de la demande,
...
Par rapport aux algorithmes mis en oeuvre par le secteur privé, les algorithmes publics ont des caractéristiques particulières:
Ils sont censés opérer au service de l'intérêt général,
Ils servent souvent à exécuter le droit, à (faire) appliquer la loi,
Ils sont bien souvent incontournables, c'est à dire qu'il n'existe pas d'alternatives pour les usagers.
📍En ce sens, les algorithmes publics sont des formes de l'action publique et sont à ce titre soumis à la même forme d'exigence de redevabilité. Les administrations qui conçoivent et utilisent des algorithmes publics doivent donc "rendre des comptes" de leur utilisation auprès des individus concernés, mais aussi de la société dans son ensemble.
Ce ne sont pas tant les algorithmes eux-mêmes que les administrations qui les mettent en oeuvre qui doivent rendre des comptes. On parle de principe de redevabilité. Concrètement cela signifie:
signaler, en indiquant quand un algorithme est utilisé,
décrire, en précisant le fonctionnement général de l'algorithme,
justifier, en expliquant les objectifs poursuivis et les raisons du recours à cet algorithme,
expliquer ses effets, en expliquant un résultat individuel mais aussi en précisant les impacts généraux et particuliers,
rendre accessible, en publiant le code source et la documentation associée,
permettre la contestation, en indiquant les voies de recours possibles.
Il faut noter que plusieurs manières de rendre des comptes (se signaler, décrire, justifier, expliquer, ...) correspondent à des obligations légales introduites par la loi pour une République numérique ou plus récemment le Règlement général sur la protection des données (RGPD). La troisième partie de ce document présente le cadre juridique applicable.
La loi pour une République numérique, et plus récemment le Règlement sur la protection des données à caractère personnel (RGPD) ont introduit de nouvelles dispositions concernant les algorithmes publics. Ces dispositions visent à introduire une plus grande transparence et une plus grande redevabilité de l'administration dans l'usage de ces systèmes, en particulier quand ils sont utilisés pour prendre des décisions.
On distingue :
Les obligations liées au traitement de données personnelles : l'article 119 de la loi Informatique et Libertés, qui s'applique tant au secteur public que privé, précise que "toute personne physique justifiant de son identité a le droit d'interroger le responsable d'un traitement à caractère personnel en vue d'obtenir (...) 5° les informations permettant de connaître et de contester la logique qui sous-tend le traitement automatisé en cas de décision prise sur le fondement de celui-ci et produisant des effets juridiques à l'égard de l'intéressé".
Les obligations liées à l'ouverture des codes sources (voir le guide d'Etalab sur l'ouverture des codes sources de logiciels) ;
Les obligations spécifiques de transparence des algorithmes prévues par le code des relations entre le public et l'administration (CRPA), qui sont détaillées dans la section suivante.
En résumé : même si un algorithme n'est pas concerné par les obligation de transparence du CRPA, il peut être soumis aux autres obligations précitées.
Le code des relations entre le public et l'administration (CRPA) précise le périmètre des administrations et des traitements concernés.
📝 Si:
vous êtes une administration d’Etat, une collectivité, un organisme de droit public ou de droit privé intervenant dans le cadre d’une mission de service public (article L.300-2),
vous utilisez un traitement algorithmique (cf. la définition ci-dessus. Pour rappel, cela inclut les traitements automatisés et les outils d'aide à la décision),
à l’aide de ce traitement, vous prenez des décisions administratives individuelles envers des personnes physiques ou morales, de droit public ou privé nommément désignées (article L311-3-1),
et que ce traitement n’est pas couvert par l’un des secrets définis par la loi (2° de l'article L.311-5), et notamment: délibérations du Gouvernement, défense nationale, conduite de la politique extérieure, sûreté de l’Etat, sécurité publique, sécurité des personnes ou des systèmes d’information, recherche et prévention d’infractions, etc.
Alors vous devez remplir les nouvelles obligations liées à la transparence des algorithmes.
La décision administrative individuelle
📍On notera que les décisions administratives "individuelles" ne concernent pas uniquement des personnes physiques mais aussi les personnes morales pour la définition de décision administrative individuelle). C'est à dire qu'une décision prise par une administration envers une association, une entreprise ou un autre acteur public à l'aide d'un traitement algorithmique sera aussi concernée par ces obligations.
L'article L200-1 du CRPA et la circulaire du 24 décembre 1997 relative à la mise en oeuvre de la déconcentration des décisions administratives individuelles détaillent les caractéristiques des décisions administratives individuelles.
📝Le Code des relations entre le public et l'administration définit 3 obligations:
fournir une information générale (article L.312-1-3)
faire figurer une mention explicite (article L.311-3-1)
fournir une information individuelle à la demande de l'intéressé (article R.311-3-1-2).
📍A noter que l'obligation d'information générale s'applique uniquement aux administrations comptant plus de 50 équivalents temps plein (agents et/ou salariés) et aux collectivités de plus de 3500 habitants.
Concrètement, si vous remplissez les conditions, alors vous devrez:
au titre de l'information générale: publier en ligne les règles définissant les principaux traitements utilisés dans l’accomplissement de vos missions lorsqu’ils fondent des décisions individuelles,
au titre de la mention explicite: faire figurer en ligne et sur les documents (avis, notifications) une mention précisant les finalités du traitement, le rappel du droit de communication, les modalités d’exercice de ce droit,
au titre de l'information individuelle: fournir à la demande de l’intéressé : le degré et le mode de contribution du traitement algorithmique à la prise de décision, les données traitées et leurs sources, les paramètres de traitement et leur pondération, appliqués à la situation de l'intéressé, les opérations effectuées par le traitement.
On notera que ces obligations s'appliquent à l'ensemble des traitements qui fondent des décisions administratives individuelles, quel que soit le degré d'intervention humaine. Elles concernent donc aussi bien les traitements automatisés que les outils d'aide à la décision.
📍Le législateur a introduit en 2018 dans la loi dite "Informatique et libertés" (article 47 de la loi du 6 janvier 1978) une obligation supplémentaire concernant les traitements automatisés (c'est à dire sans intervention humaine): à compter du 1er juillet 2020, tout traitement automatisé devra comporter, à peine de nullité, l'obligation de mention explicite. Par ailleurs le même article précise que "le responsable du traitement s'assure de la maîtrise du traitement algorithmique et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, à la personne concernée, la manière dont le traitement a été mis en oeuvre à son égard". Cela implique notamment que les traitements de machine learning qui ne peuvent pas être expliqués peuvent être utilisés uniquement comme des outils d'aide à la décision, en gardant un humain dans la boucle.
Nous vous proposons un outil sous la forme d'un quizz pour tester votre connaissance du cadre légal applicable aux algorithmes publics. Nous avons identifié 8 exemples réels d'utilisation d'algorithmes.
🧐 Saurez-vous identifier ceux qui, parmi les 8, sont aujourd'hui concernés par les obligations de transparence des algorithmes ?
Réponses au quiz
Le Ministère de l'Education nationale met en place un système de gestion de la mutation des personnels enseignants du premier degré : oui
Le département de la Lozère décide de l'attribution de l'allocation personnalisée d'autonomie (APA) pour une personne âgée dépendante : oui
Avec le service en ligne la Bonne Boîte, Pôle Emploi aide les demandeurs d'emploi à cibler les entreprises qui vont prochainement recruter sur un territoire : non, car il n'emporte pas de décision de la part de l'administration. C'est un outil utilisé pour orienter.
Au sein du Ministère de l'Intérieur, la Direction générale des collectivités locales calcule la dotation globale de fonctionnement pour les collectivités : oui.
La commission d'attribution des logements d'un bailleur social priorise les demandes suivant de nombreux critères (dont situation familiale, handicap, taille du logement demandé) : oui.
La Direction générale des finances publiques utilise un traitement algorithmique pour cibler les contrôles de lutte contre la fraude fiscale (CFVR) : non. Ce traitement est couvert par l'un des secrets prévus par la loi (2° de l'article L.311-5 du CRPA) : la recherche et la prévention d'infractions.
Le centre d'appel de SOS Médecins Grand Paris utilise un algorithme pour classer les appels selon le niveau d'urgence : oui. La question pourrait se poser de savoir si SOS Médecins est investi d'une mission de service public. C'est le cas. Par ailleurs, la CADA a rendu un avis sur l'algorithme de tri de la Brigade des Sapeurs pompiers de Paris et du SAMU, considérant qu'il s'agissait bien d'une décision administrative individuelle.
La Préfecture des Pays de la Loire priorise les demandes de places en crèche pour les fonctionnaires d'Etat : oui.
La première action à mener, en tant qu'administration, est de recenser les algorithmes potentiellement concernés par l'obligation de transparence et de redevabilité, et de publier cette liste en la rendant facilement trouvable.
Nous remercions toutes les personnes qui ont partagé des retours sur la première version du guide et ont contribué à le faire évoluer, notamment les participantes et participants à l'atelier de mars 2020 organisé par Etalab.
Attribuer des droits, calculer des montants selon des règles prédéfinies
Calcul des taxes et des impôts, attribution de prestations sociales, ...
Réaliser un appariement entre une "offre" et une "demande"
Gestion de la mobilité des agents (RH), accès à l'enseignement supérieur (Parcoursup), attribution de places en crèches, ...
Prédire une situation ou un risque en analysant des données
Prédire un risque de défaillance d'une entreprise (Signaux Faibles), cibler les contrôles de lutte contre la fraude fiscale, ...
Aider à la décision des usagers
Aider les demandeurs d'emploi à cibler leurs candidatures spontanées (La Bonne Boîte), simuler le coût d'une embauche, ...
Mise à jour Ce contenu a été mis à jour le 2 octobre 2020.
L'obligation de mention explicite pour les décisions administratives individuelles prises sur le fondement d'un traitement algorithmique est définie à l'article L311-3-1 du code des relations entre le public et l'administration (CRPA).
Elle rentre dans le cadre des obligations de transparence des administrations ayant recours à des traitements algorithmiques. Le code des relations entre le public et l'administration (CRPA) précise le périmètre des administrations et traitement concernés.
La transparence permet aux personnes concernées :
de comprendre la manière dont une décision administrative a été rendue ;
de faciliter l'exercice de leurs droits.
Pour les administrations, elle permet d'instaurer une relation de confiance avec les personnes concernées.
Si :
Vous êtes une administration d’État, une collectivité, un organisme de droit public ou de droit privé intervenant dans le cadre d’une mission de service public (article L.300-2 du CRPA),
Vous utilisez un traitement algorithmique c'est-à-dire "un ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations",
À l’aide de ce traitement, vous prenez des décisions administratives individuelles envers des personnes physiques ou morales, de droit public ou privé nommément désignées,
Ce traitement n’est pas couvert par l’un des secrets définis par la loi (2° de l'article L.311-5 du CRPA), et notamment: délibérations du gouvernement, défense nationale, conduite de la politique extérieure, sûreté de l’État, sécurité publique, sécurité des personnes ou des systèmes d’information, recherche et prévention d’infractions, etc.
Alors vous devez remplir les obligations liées à la transparence des algorithmes, dont l'obligation de mention explicite.
Rappels :
La notion de « traitement algorithmique » s'étend au-delà de l'intelligence artificielle ou des algorithmes de machine learning. Un classeur Excel constitue un traitement algorithmique. De même, un traitement algorithmique peut aussi exister sous la forme d'un document non-informatisé (par exemple une grille de notation d'un projet).
L'obligation de mention explicite s'applique également aux décisions non automatisées. Cependant, une disposition est spécifique aux traitements entièrement automatisés : à compter du 1er juillet 2020, une décision prise sur le seul fondement d'un traitement entièrement automatisé ne comportant pas mention explicite est nulle (voir l'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés).
Cette obligation s'applique pour les décisions individuelles envers des personnes physiques et morales.
La mention explicite doit figurer en ligne et sur les documents (avis, notifications) qui notifient la personne concernée de la décision.
Cette mention doit être visible par les personnes concernées.
L'article R. 311-3-1-1 du CRPA fixe les catégories d'informations devant être contenues dans la mention explicite.
La mention explicite doit préciser :
L'administration responsable de la décision ;
La finalité du traitement, c'est-à-dire à quoi il a servi ;
Le rappel du droit d'obtenir la communication des règles définissant ce traitement et des principales caractéristiques de sa mise en œuvre ;
Les modalités d'exercice de ce droit.
Les administrations soumises à l'obligation de mention explicite doivent également remplir l'obligation d'information générale. À ce titre, la mention explicite peut également indiquer comment avoir accès aux règles générales de fonctionnement du traitement algorithmique.
Voici un modèle de mention explicite que vous pouvez personnaliser et utiliser pour vos décisions.
Information sur l’utilisation d’un traitement algorithmique
La présente décision a été prise sur le fondement d’un traitement algorithmique. Ce traitement permet de [mentionner la finalité, ex : calculer le montant de l’impôt dû] et dont les règles sont définies ici [Lien vers les règles définissant les principaux traitements algorithmiques utilisés dans l'accomplissement des missions de l’administration lorsqu'ils fondent des décisions individuelles cf. art. L. 312-1-3 du CRPA]. En application de l’article R. 311-3-1-1 et R. 311-3-1-2 du code des relations entre le public et l’administration, vous pouvez demander la communication des règles définissant ce traitement et leur mise en œuvre dans votre cas auprès de [Nom de l'administration, modalités de contact]. En cas d’absence de réponse dans un délai d’un mois à la suite de la réception de votre demande par nos services, vous disposez d'un délai de deux mois pour saisir la Commission d'accès aux documents administratifs (CADA) selon les modalités décrites sur le site web www.cada.fr.
La mission Etalab accompagne les administrations dans la mise en oeuvre du principe de transparence des algorithmes.
Dans ce cadre, Etalab développe un certain nombre de ressources pour :
Comprendre les enjeux et les obligations légales, avec le guide des algorithmes publics à l'usage des administrations,
Faire, avec des ressources pour mettre en oeuvre ces principes et obligations :
La fiche pratique sur l'obligation de mention explicite ;
Le webinaire "Mettre en oeuvre les obligations de transparence des algorithmes publics".
Aller plus loin, avec des ressources utiles (rapports, articles, outils, évènements, ...).
[In English]
"With great power comes great responsibility: keeping public sector algorithms accountable", white paper for RightsCon Tunis, June 2019.
Nous vous proposons une sélection de ressources (études, articles, outils, évènements) sur les algorithmes publics.
🇫🇷 "Les conditions d'ouverture du système Admission Post-Bac", rapport au Secrétaire d'Etat en charge de l'enseignement supérieur et de la recherche", mision Etalab, avril 2017
🇫🇷 "Les algorithmes au service de l'action publique, le cas du portail Admission Post-Bac", compte-rendu de l'audition publique de l'Office parlementaire d'évaluation des choix scientifiques et technologiques", Sénat, février 2018
🇫🇷 "Rapport au Parlement du Comité d'éthique et scentifique de Parcoursup, janvier 2019
🇫🇷 "Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle", Commission nationale Informatique et Libertés, décembre 2017
🇺🇸 "Public scrutiny of automated decisions", Upturn & Omidyar Network, 2018
🇪🇺 "Draft Ethics guidelines for trustworthy AI", European Commission’s High-Level Expert Group on Artificial Intelligence, mars 2019
🇪🇺 "algo:aware - State of the Art Report", Optimity Advisors for the European Commission, décembre 2018
🇪🇺 "Automating societies: taking stock of automated decision-making in the EU", Algorithm Watch, janvier 2019
🇪🇺 "Understanding algorithmic decision-making: Opportunities and challenges", Future of Science and Technology Panel, Parlement européen, mars 2019
🇺🇸 "Algorithmic accountability: a primer", Data & Society, avril 2018
🇫🇷 "Admission Post-Bac, cas d'école des algorithmes publics ?", Hubert Guillaud, Internet Actu, 28 juillet 2017
🇫🇷 "Vers des algorithmes publics exemplaires", Hubert Guillaud, Internet Actu, décembre 2018
🇫🇷 "Concrètement, comment rendre les algorithmes responsables et équitables ?", Hubert Guillaud, Internet Actu, juillet 2018
🇫🇷 "Quelle transparence pour les algorithmes d’apprentissage machine? Maël Pégny, Issam Ibnouhsein, 2018
🇬🇧 "10 principles for public sector use of algorithmic decision making", Eddie Copeland, Nesta, février 2018
🇬🇧 "It's Reducing a Human Being to a Percentage': Perceptions of Justice in Algorithmic Decisions, Reuben Binns, Max Van Kleek, Michael Veale, Ulrik Lyngs, Jun Zhao, and Nigel Shadbolt. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems
🇬🇧 "Fairness and Accountability Design Needs for Algorithmic Support in High-Stakes Public Sector Decision-Making", Michael Veale, Max Van Kleek, and Reuben Binns. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems
🇬🇧 "Enslaving the Algorithm: From a ‘Right to an Explanation’ to a ‘Right to Better Decisions’?, Lilian Edwards, Michael Veale, IEEE Security & Privacy, 2018
🇫🇷 "5 pistes d'innovation du programme NosSystèmes", Fing, juin 2017
🇫🇷 "Guide des algorithmes publics à l'usage des administrations", Etalab, mars 2019
🇬🇧 "20 questions for public sector use of algorithmic decision making", Eddie Copeland, Nesta, juin 2018
🇺🇸 "Ethics & algorithms toolkit", John Hopkins University, Harvard University, Data for DC, City of San Francisco, 2018-2019
Journée d'études "Admission Post-Bac, cas d'école des algorithmes publics", co-organisée par Etalab et la Fondation Internet nouvelle génération, Saint-Denis, 28 juin 2017
Atelier de travail Nos Systèmes x EIG saison 2 au Liberté Living Lab, Paris, septembre 2018
Atelier participatif Forum Open d'Etat #4, Numériques en commun(s), Nantes, septembre 2018
Mise à jour : ce contenu a été mis à jour le 11 février 2021.
Cette fiche pratique a été élaborée dans le cadre d'un groupe de travail sur les inventaires animé par Etalab et composé de quatre administrations (centrales et territoriales).
Nous remercions chaleureusement Anthony Claverie, Maryse Le Bras, Cécile Le Guen et Nathalie Vernus-Prost pour nos échanges. Ce travail n'aurait pas pu avoir lieu sans leurs avancées, leurs retours et leur motivation.
L'obligation pour une administration de réaliser un inventaire des principaux traitements algorithmiques utilisés pour prendre des décisions administratives individuelles et de leurs règles est prévue par l'article L312-1-2 du code des relations entre le public et l'administration (CRPA).
Elle rentre dans le cadre des obligations de transparence des administrations ayant recours à des traitements algorithmiques. Le code des relations entre le public et l'administration (CRPA) précise le périmètre des administrations et traitement concernés.
La transparence permet aux personnes concernées :
de comprendre la manière dont une décision administrative a été rendue ;
de faciliter l'exercice de leurs droits.
Pour les administrations, elle permet d'instaurer une relation de confiance avec les personnes concernées.
Si :
Vous êtes une administration d’État, une collectivité, un organisme de droit public ou de droit privé intervenant dans le cadre d’une mission de service public (article L.300-2 du CRPA),
Vous comptez plus de 50 équivalents temps plein (agents et/ou salariés) et/ou vous êtes une collectivité de plus de 3500 habitants,
Vous utilisez un ou plusieurs traitements algorithmiques, c'est-à-dire « un ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations »,
À l’aide de ce(s) traitement(s), vous prenez des décisions administratives individuelles envers des personnes physiques ou morales, de droit public ou privé nommément désignées,
Ce(s) traitement(s) ne sont pas couverts par l’un des secrets définis par la loi (2° de l'article L.311-5 du CRPA), et notamment: délibérations du gouvernement, défense nationale, conduite de la politique extérieure, sûreté de l’État, sécurité publique, sécurité des personnes ou des systèmes d’information, recherche et prévention d’infractions, etc.
Alors vous devez remplir les obligations liées à la transparence des algorithmes, dont l'obligation de publier en ligne les principaux traitements algorithmiques.
Rappels et précisions :
Par « principaux traitements », on entend les traitements qui concernent un grand nombre de personnes et/ou qui entraînent des effets importants pour une catégorie de personnes.
La notion de « traitement algorithmique » s'étend au-delà de l'intelligence artificielle ou des algorithmes de machine learning. Un classeur Excel constitue un traitement algorithmique. De même, un traitement algorithmique peut exister sous la forme d'un document non-informatisé (par exemple une grille de notation d'un projet).
Cette obligation s'applique pour les décisions individuelles envers des personnes physiques et morales.
L'article L312-1-2 prévoit que les administrations concernées « publient en ligne les règles définissant les principaux traitements algorithmiques utilisés dans l'accomplissement de leurs missions lorsqu'ils fondent des décisions individuelles ».
Voici une liste d'informations que vous pouvez rassembler pour chaque algorithme inventorié.
Certaines de ces informations seront également utiles pour répondre à des demandes d'explication individuelle.
Sur les données, leur(s) source(s) et leur(s) mode(s) de collecte
*Les catégories "données traitées", "source des données" et "mode de collecte des données" doivent être pensées ensemble. Un même algorithme peut traiter des données de sources différentes. L'information doit alors être recueillie séparément pour les différents types de données.
Rappelons que les algorithmes ne sont pas uniquement numériques.
Plusieurs questions se posent autour des modalités pratiques de réalisation et de publication des inventaires.
Le sujet des algorithmes publics est à la croisée de beaucoup de domaines et compétences de l'administration.
Il est probable que cette démarche rassemble beaucoup d'acteurs traditionnellement impliqués dans la gouvernance de données ou celle de l'ouverture de données.
Parmi eux, on peut nommer (liste non exhaustive) :
La ou les personne(s) en charge de l'ouverture des données et de la transparence ;
Les services métiers, qui disposent d'une connaissance forte des algorithmes utilisés dans les services, leur fonctionnement et leur impact ;
Les équipes techniques (en cas d'algorithmes numériques) ;
La ou le délégué à la protection des données ;
Le service juridique ;
Les directions des administrations ;
Dans le cadre des collectivités territoriales, les élus.
Nous vous conseillons qu'une personne (chef/cheffe de mission ou de projet) soit en charge de piloter cet inventaire et puisse coordonner différents acteurs afin que l'action ne soit pas conduite en silos.
Rappelons que, bien que cette liste ne soit pas ordonnée, c'est le métier qui est susceptible de disposer du plus d'informations sur les algorithmes, leur fonctionnement et leur impact. Ainsi, réaliser un inventaire des algorithmes et publier leurs règles de fonctionner ne doit pas être relégué à un simple enjeu technique.
Autres modalités : d'autres questions se posent : où publier cet inventaire ? Sous quelle forme ? Cette section continuera à être enrichie dans les prochains mois pour apporter plus de précisions sur ces sujets.
Le premier rapport annuel sur les algorithmes de la ville de New-York ;
La V1 de l'inventaire des algorithmes de la ville d'Antibes Juan-les-Pins, accessible sur le site de la ville ;
La liste des algorithmes de Nantes-Métropole ;
La liste des algorithmes de Pôle Emploi.
Information |
---|
Information | Précisions |
---|---|
Information | Précisions |
---|---|
Information | Précisions |
---|---|
Nom de l'administration concernée
Direction/service porteur
Contact au sein de l'administration concernée
Date de mise à jour des informations
Nom de l'algorithme
S'il n'en a pas, indiquer la décision mise en oeuvre. Exemple : calcul de la taxe de séjour.
Contexte global
Pourquoi une décision administrative est-elle prise ? Qui sont les acteurs de la décision ? Quelles sont les tâches à accomplir ?
Finalité de l'algorithme
À quoi sert cet algorithme ? Exemple : l'algorithme sert à calculer la taxe de séjour due. Cette catégorie peut également comporter des éléments de justification : pourquoi un algorithme a-t-il été utilisé dans ce processus ?
Comment et quand l'algorithme intervient-il dans la prise de décision ?
Pour effectuer lesdites tâches, à quel moment s'insère l'algorithme dans le processus de décision ? Quel est le processus complet et quelle(s) partie(s) l'algorithme prend-il en charge ?
Niveau d'automatisation de la décision
Préciser si la décision est entièrement automatisée ou s'il s'agit d'un outil d'aide à la décision.
Fondements juridiques
Le(s) fondement(s) juridique(s) de la mise en oeuvre de la décision individuelle et, le cas échéant, du traitement des données.
Ressources connexes
Par exemple, un lien externe vers la plateforme où se connecter pour remplir un formulaire.
Nombre de décisions administratives prises par an
Portée de la décision
Préciser si la décision a une portée externe (par exemple : pour un usager) ou concerne une procédure interne (par exemple : traitement de la mobilité des agents).
Public concerné par la décision
Qui est affecté par cette décision ? Est-ce que la décision emporte des effets importants sur ce public ?
Ressources connexes
Données traitées*
Source des données traitées*
Qui fournit les données (l'usager, une autre administration, etc.) ? Comment sont elles fournies (un dossier, une API, etc.) ? Exemple : "dossier rempli par le demandeur sur une plateforme en ligne" ou "revenu fiscal de référence fourni par la DGFIP".
Mode de collecte des données traitées*
Comment les données sont-elles initialement collectées ? Exemple : "Les inscriptions sont très majoritairement prises en charge au sein d'un portail virtuel dédié aux familles, plus exceptionnellement par voie papier".
Type d'algorithme
Préciser s'il s'agit d'un système de règles (les règle de calculs sont codées par des personnes) ou d'un algorithme reposant sur l'apprentissage machine (machine learning).
Opérations effectuées par l'algorithme
Donnez des détails sur les opérations techniques effectuées par l'algorithme. Cette catégorie peut être simple ou complexe, en fonction du type d'algorithme mobilisé.
Ressources connexes
Notamment des liens vers les dépôts de code source ou vers un logigramme.