Sélectionner une page
Des Données Et des Territoires : la newsletter consacrée à l’impact du numérique et des données sur le développement des territoires – retrouvez l’essentiel de l’actualité à retenir compilée et mise en perspective par nos consultants, chaque semaine, en moins de 10 minutes.

Dans cette interview, Julien Hautemaniere, consultant au sein d’Infhotep et créateur de cette newsletter #DDET interview Joël Gombin, co-fondateur de DATACTIVIST.

Bonjour Joël. Tu as beaucoup travaillé sur les sujets de gouvernance de la donnée pour les collectivités territoriales au travers de missions de conseil, d’élaboration de rapport pour les pouvoirs publics, ou par des activités de recherche. Avec cette expérience, quelles sont pour toi les priorités d’un directeur en charge de la donnée dans une collectivité ?

Bien qu’il soit encore assez rare de voir un directeur en charge de la donnée dans une collectivité, les feuilles de route sont-elles assez variées en fonction du type de collectivité et des priorités opérationnelles et politiques. Plusieurs ensembles reviennent régulièrement :

  • Un bloc d’acculturation, de sensibilisation et de formation. Il s’agit du bloc le plus fondamental car si cette culture n’est pas partagée dans l’organisation de la base au sommet, et dans tous les services, le reste aura du mal à suivre ;
  • Un bloc d’outillage, qui peut prendre des formes et niveaux d’ambition variés, de la plateforme open data jusqu’à la « plateforme de donnée idéale qui fait tout ». L’objectif est d’offrir une infrastructure technique qui va servir de socle aux projets, et créer de la transversalité et de l’urbanisation par la donnée ;
  • La gouvernance de la donnée à proprement parler, qui passe par une organisation dans la collectivité et sur le territoire, avec un objectif de maitrise du patrimoine de donnée, et d’identification et d’organisation de la manière de partager.
  • Enfin, la valorisation et les cas d’usage. L’outillage, les infrastructures, la gouvernance doivent avoir une utilité concrète. Il y a souvent dans un premier temps des projets de l’ordre de la communication ou du POC, puis véritablement une vocation à piloter et optimiser les services publics par la donnée.

Justement, pour favoriser l’émergence de cas d’usage, on parle beaucoup de la standardisation des données, pourquoi s’agit-il d’un enjeu essentiel ?

Il est intéressant d’observer que dans l’histoire de l’Open Data en France et même au niveau mondial, la culture est peu organisée autour de la notion de qualité et de standardisation. Cela est particulièrement frappant avec la fameuse intervention de Tim Berners-Lee dans un Ted Talk de 2009 : « Raw Data now », un peu le « venez comme vous êtes » à la sauce data. L’outillage open data a été développé autour de cela, marquant une rupture nette avec la culture de l’information géographique où la normalisation est très forte, une conséquence notamment de la directive Inspire. Suite à cela, on s’est aperçu collectivement qu’ouvrir les données sans se préoccuper d’un schéma de donnée donnait une faible garantie de réutilisabilité, mais également de découvrabilité.

Il y a donc eu une préoccupation de plus en plus forte pour les schémas de données. Le Socle commun des données locales réalisé par Open Data France répondait à cet enjeu, et Etalab a saisi la balle au bond avec la création d’un outillage spécifique au travers de schema.data.gouv.fr.

Il reste toutefois deux incertitudes :

  • la gouvernance de ces schémas. En effet, schema.data.gouv.fr n’est pas un outil de gouvernance mais une plateforme technique.
  • Sur quel critère pouvons-nous dire qu’un schéma fonctionne bien ou pas ?

Sur ce dernier sujet, Datactivist a lancé un projet de recherche, en partenariat avec l’Ecole des Mines, pour identifier et diffuser les bonnes pratiques en la matière. Il s’agissait d’ailleurs d’un point soulevé dans le rapport sur les territoires intelligents effectué avec Data Publica pour la DGE. L’IGA a également repris ce point dans son propre rapport, et l’ANCT est fléché comme chef d’orchestre au niveau national sur ce sujet.

Dans la continuité de l’Open Data, de nombreuses plateformes territoriales de données ont vu le jour ces dernières années, comment expliquerais-tu ce concept et les enjeux sous-jacents ?

Avec l’Open Data, on adresse le partage public de données en bout de chaine pour une organisation. Avec les plateformes de données territoriales, il s’agit de couvrir tout le cycle de vie de la donnée (de la collecte jusqu’à l’utilisation, la documentation, le stockage à long terme…), non plus pour une seule organisation mais à l’échelle d’un territoire, en incluant l’ensemble des parties prenantes, acteurs publics et privés compris.

Une bonne manière de présenter ce sujet est d’imaginer comment on déploie un objet connecté : soit on ne construit que des verticales (lampadaires publics, déchets, …) avec un outil pour chaque type de métier, ou alors on met en place une plateforme IoT qui recevra les différentes données, et qui permettra de réaliser des opérations, de les transformer, de les croiser entre elles, en se basant sur des référentiels communs, ou encore de les valoriser au travers de tableaux de bord. Il s’agit également de pouvoir les partager avec des partenaires externes grâce à une gestion des droits d’accès, ou en libre quand il s’agit de données Open Data.

De manière opérationnelle, il s’agit d’un objet conceptuel, qui peut être une agrégation de briques fonctionnelles et techniques, dès lors qu’il y a une articulation et une réflexion globale qui permet d’assurer la cohérence et l’interopérabilité du tout. On retombe alors sur des arbitrages entre un « monolithe qui ne fait rien parfaitement », ou des briques fonctionnelles connectées entre elles.

Un enjeu fort sur ce sujet est celui de la mutualisation, souligné dans le rapport sur les territoires intelligents : si l’objectif est partagé par tous, la façon de procéder est moins évidente. L’Open Source est un moyen d’action, mais il ne faut pas avoir une vision naïve en estimant que si un outil est Open Source, il sera réutilisé. Plusieurs grandes métropoles ont, ou sont en train, de développer une plateforme de données sur la base d’outils Open Source, mais on est en manque de cadre et d’outil juridique pour réaliser la mutualisation. Nous observons assez peu de groupement de commande, alors que les métropoles ont des besoins en grande partie similaire.

Ne serait-ce pas à l’Etat de se saisir de ce sujet pour éviter une trop grande perte d’efficacité ?

Compte tenu du fonctionnement de l’Etat français, et de l’importance du principe de libre administration, cela peut poser problème. Une recommandation du rapport pour la DGE était justement de mettre en place un centre de ressources mutualisé sur les territoires intelligents, qui pourrait se saisir de ce sujet.

Notons d’ailleurs que dans la feuille de route data du ministère de la cohésion territoriale, il y a la nomination d’un administrateur général des données, et il est affirmé que le ministère doit se mettre au service et en appui des Collectivités Territoriales, là où la DINUM et Etalab ont pour périmètre quasi exclusif l’Etat central. L’Etat est en train de prendre la mesure, mais il faut maintenant passer aux actes, et il s’agira d’un des enjeux de la mandature à venir.

Julien Hautemaniere

Julien Hautemaniere

Consultant en stratégie numérique