Donnée brute ou donnée contextualisée ?

La mission gouvernementale Etalab lance une consultation autour de l’évolution du portail data.gouv.fr. Vous êtes invités à contribuer à cette démarche de co-design. C’est aussi l’occasion de repenser plus globalement la conception des portails open data… A quoi et à qui servent-ils ? Comment doit-on présenter les données ? Je vous propose une série de billets sur ce thème. Le premier traite de la donnée elle-même et de la tension entre donnée brute et donnée contextualisée…

1 – Un cas pratique : la fréquentation des musées

J’ai récemment animé un atelier de sensibilisation à l’open data pour les acteurs culturels d’une collectivité. A cette occasion, j’ai repéré un jeu de données disponible sur le portail gouvernemental. Ce fichier propose les chiffres de la fréquentation des musées de France, de 2006 à 2010. Je vous invite à télécharger celui qui concerne la région Bretagne (pour plus de facilité, je vous propose aussi une copie d’écran ci-dessous, que vous pouvez agrandir en cliquant).

(cliquer pour l'agrandir) - fréquentation des musées de France, source Ministère de la Culture sur data.gouv.fr

La fréquentation des musées de France, source Ministère de la Culture sur data.gouv.fr (cliquer pour agrandir l’image)

Le tableau présente les chiffres de fréquentation pour chaque « musée de France » situé dans la région. On a donc le nom du musée (ex. « musée des beaux-arts »), une ville, puis les chiffres de fréquentation répartis en 2 colonnes « total » et « grat ». On peut raisonnablement supposer qu’il s’agit des entrées gratuites (mais rien ne le précise formellement, ni dans le fichier, ni dans la fiche de métadonnées). D’autres colonnes précisent l’évolution de la fréquentation d’une année sur l’autre.

Le code couleur est expliqué en pied de page du fichier. La couleur noire représente des « données confidentielles », avec la mention « contacter le chef d’établissement », les autres couleurs viennent apporter des éléments de contexte sur la fréquentation de tel ou tel musée. En l’occurence il y est surtout question d’évènements exceptionnels susceptibles d’expliquer le chiffre de fréquentation : fermeture ou réouverture d’un musée, exposition temporaire ayant entraîné une fréquentation exceptionnelle, …

Plus intéressant, la première colonne du tableau contient un numéro de référence, qui **semble** être un identifiant unique accordé à chaque musée de France.

2 – La tension « brutification » vs. contextualisation

La lecture de ce fichier permet d’illustrer la tension entre deux tendances qui s’expriment aujourd’hui dans le monde de l’open data.

La première tendance est liée à une demande de « brutification ». Je reprends ici le terme évoqué par Samuel Goeta et Jérôme Denis pour décrire l’une des actions qui se déroulent dans les coulisses de l’open data (le thème de la thèse de Samuel à Telecom Paris Tech).

Pour permettre la mise en place d’un ensemble de services sur le portail open data, il faudrait que la donnée proposée soit la plus brute possible (et je parle bien là d’une donnée brute techniquement, pas en termes sociologiques).

Parmi ces « services » on peut citer par exemple la pré-visualisation des jeux de données sans avoir à ouvrir le fichier (une fonctionnalité très utile et déjà mis en oeuvre ailleurs), la datavisualisation ou représentation cartographique par défaut (un exemple ici), ou enfin même les API (des interfaces de programmation qui font aujourd’hui cruellement défaut dans la plupart des portails, à quelques exceptions près). Sans même parler d’un pas vers le web des données et le Linked Data, une attente forte des acteurs du web sémantique.

Reprenons le fichier sur la fréquentation des musées : pour proposer tous ces services il faudrait donc faire un travail *supplémentaire* de brutification : retirer les codes couleurs, ignorer les colonnes qui proposent une donnée recalculée (le taux d’évolution d’une année sur l’autre, les totaux, …) et plus globalement retirer tout ce qui concerne la mise en forme du fichier. On pourrait d’autre part mieux utiliser des données qui y figurent déjà, ainsi le fameux numéro de référence.

J’ai trouvé sur le portail un autre fichier qui fournit des informations complémentaires sur les musées de France : leur adresse postale, le site web, les horaires et jours d’ouverture. Problème : ce fichier ne propose aucun identifiant unique. On a là une occasion manquée de permettre une mise en relation et un enrichissement de deux fichiers (open data 1 – web sémantique 0).

La donnée proposée ici n’est donc pas tout à fait « brute » … mais elle n’est pas tout à fait contextualisée non plus !

La seconde demande qui émerge – et qui de prime abord peut sembler contradictoire avec la brutification – est liée à la contextualisation de la donnée.

J’ai déjà eu l’occasion ici de parler de l’importance d’une lecture critique des données. Si l’on considère le fichier sur la fréquentation des musées, ce besoin de contextualisation apparaît rapidement : qu’est-ce qu’un « musée de France » ? comment les données de fréquentation sont-elles collectées ? quel est l’usage initial des données ? qui la collecte et pour quoi faire ? Et enfin, la meilleure : pourquoi certaines données sont-elles considérées comme « confidentielles » (celles dont les cases portent la couleur noire) ?

La réponse à bon nombre de ces questions se trouve sur le site du Ministère de la Culture (précision importante : j’ai trouvé cela via Google, pas depuis la fiche de métadonnées). On y apprend qu’un service du ministère publie annuellement un très intéressant document de 75 pages, appelé « MuséoStat« . J’ai ainsi pu comprendre que le terme « musée de France » correspond à une appellation officielle (accordée et retirée par les services du ministère), que les variations de fréquentation sont très souvent liées à des expositions temporaires (d’où l’importance des annotations colorées), que la notion de gratuité a elle aussi une définition officielle précise, …

Le document reproduit aussi le questionnaire envoyé aux différents responsables de musée, questionnaire très détaillé puisqu’il précise aussi le mode de mesure de la fréquentation (comptage manuel, automatisée, estimation, …). Enfin, on peut apercevoir en fin de questionnaire une case à cocher par les répondants : « acceptez-vous que ces chiffres soient diffusés ? ». Voilà donc l’origine de cette formule un peu ambigüe de « données confidentielles » !

Cette demande de contextualisation me semble tout aussi pertinente que la demande de brutification du jeu de données. On doit pouvoir y répondre en repensant profondément la manière de documenter les jeux de données – c’est à la fois le rôle des métadonnées mais aussi plus globalement la fonction éditoriale des portails open data.

3 – Sortir de l’opposition « qualité vs. quantité » des données

Le fichier de la fréquentation des musées ne représente bien sûr pas à lui seul la diversité et la richesse des jeux de données disponibles, sur data.gouv.fr ou ailleurs … Mais cet exemple illustre quand même je pense la situation actuelle : des données ni tout à fait brutes, ni tout à fait contextualisées.

La particularité du ni-ni est qu’il ne satisfait ni ceux qui attendent des services plus poussés (API, Linked Data pour les développeurs), ni ceux qui militent pour une meilleure appropriation des données par tous (façon Infolab) – bien qu’ils ne faillent pas opposer les uns et les autres.

Dans le débat qui va s’ouvrir sur les fonctions des portails open data, il y a à mon avis un écueil majeur à éviter : réduire cela à une opposition « qualité vs. quantité » des jeux de données.

La qualité ne peut s’évaluer qu’à l’aune de l’objectif : un développeur, un chercheur ou un associatif qui veut évaluer la fréquentation des musées de sa région ont tous besoin de fichiers de qualité.

C’est la manière dont ils expriment ce besoin qui diffère (notre tension brutification / contextualisation). Il nous faut donc à la fois de la qualité ET de la quantité…

4 – De qui est-ce le travail ?

Reste la question du rôle de chaque acteur impliqué : qui doit assurer ces tâches de brutification et de contextualisation ? Est-ce la mission du service détenteur de la donnée ou du service qui met en oeuvre le portail, en l’occurence Etalab ? Les réutilisateurs  enrichissent eux-aussi les jeux de données, par exemple en reliant deux fichiers via des identifiants, peut-on imaginer qu’un portail officiel puisse héberger, ou faire un lien vers le fruit de leur travail ?

On voit qu’à partir d’une question précise – quelles fonctions pour les portails open data ? – on en arrive à interroger le périmètre même des portails et des organisations qui les mettent en oeuvre…

[En vidéo] Master Class : innover avec l’Open Data

Webcast de la Master Class « Innover avec l’Open Data », à l’invitation de l’Executive MBA « Innovation in a digital world » de Telecom Ecole de Management (enregistrée à Paris le 28.02.2013).

Sommaire

0:00:00 – Présentation de l’Executive MBA « Innovation in a digital world » par Didier Tranchier, responsable du programme

0:06:30 – Début de la Master Class par Simon Chignard

0:08:45 – Open Data ? Définition, origines et enjeux de l’ouverture des données

0:30:15 – Les entreprises et l’Open Data : le double rôle

0:43:00 – Ouvrir les données d’entreprises : 10 stratégies génériques

1:03:00 – Demain l’Open Data : la donnée personnelle, la donnée collaborative

1:12:00 – Questions des participants : Big Data / Open Data, qualité des données, gouvernance, …

Un hackathon, sinon rien ?

Le hackathon est à la mode en ce début d’année 2013 ! Les développeurs qui s’intéressent à l’open data vont être très sollicités. C’est l’occasion de se pencher sur ce format d’animation original. A quoi sert un hackathon ? Quels en sont les valeurs mais aussi les limites ? 

(photo la Cantine Rennes)

(photo la Cantine Rennes)

Tout à la fois dispositif créatif et mode d’animation, le hackathon rassemble dans une unité de temps (généralement un week-end) et de lieu des réutilisateurs qui travaillent en mode projet. Il fait partie de la panoplie des outils d’animation que j’ai déjà eu l’occasion de détailler sur ce blog. Plus léger qu’un concours, a priori moins complexe à mettre en place que d’autres formes d’animation au long cours, le hackathon pose aussi ses propres défis.

Les 3 valeurs du hackathon

Le hackathon a d’abord une dimension de mobilisation, tant interne qu’externe. On pourra noter d’ailleurs que ce format est de plus en plus utilisé en amont de l’ouverture des données. C’est tout d’abord l’opportunité pour obtenir l’ouverture, même partielle ou limitée dans le temps, de jeux de données. Le hackathon est alors un prétexte en interne pour faire bouger les lignes, en arguant du caractère éphémère – donc perçu moins impliquant ou risqué – de l’opération.

Dans un curieux renversement de logique, on ne propose pas un hackaton parce que l’on a des données, on demande des données parce que justement un hackathon est organisé ! La dimension mobilisatrice est aussi importante en externe, c’est un excellent moyen de faire baisser la pression sur le sujet, mais aussi d’engager de premières relations avec un écosystème de réutilisateurs.

La seconde valeur du hackathon est liée à l‘expérience-même du hackaton par ses participants. Ceux qui ont eu l’occasion d’en vivre un vous le diront : ils ont vécu une expérience. Tout d’ailleurs dans l’organisation vise à renforcer cette dimension : l’unité de lieu (on vit en vase clos pendant 48 heures), le travail en petit groupe d’individus qui ne se connaissaient pas nécessairement auparavant (la colonie de vacances est l’archétype du team building, c’est bien connu), la contrainte de temps (à la fin chaque groupe présente son projet), voire la compétition (quand le hackathon donne lieu à un vote).

Le problème avec cette dimension expérientielle est qu’elle ne produit guère d’externalités pour ceux qui ne l’ont pas vécu. Je vais le dire autrement : soit vous avez vécu le hackathon – et vous en comprenez la valeur -, soit vous ne l’avez pas vécu. La transmission d’une expérience vécue est toujours délicate, hackathon ou pas – d’où l’importance de la documentation projet sur laquelle je reviendrai ultérieurement dans ce billet.

La troisième valeur du hackathon est liée à la communication. C’est un dispositif qui permet de donner corps à une démarche d’ouverture des données et constitue en tant que tel un objet de communication. Comment dès lors rendre compte des travaux et de l’ambiance générale ? Le hackathon permet certes d’avoir quelque chose à montrer de l’open data, mais cela ne peut pas se réduire à une photographie de quatre gars et une fille devant un ordinateur 😉

L’opération MuseoMix, largement disséquée dans cet article d’Hubert Guillaud d’Internet Actu ou, dans une moindre mesure, les hackathons organisés par Transilien SNCF, font l’objet d’un retour en ligne assez poussé : vidéos, témoignages de participants, présentation détaillée des projets réalisés (ou en cours de réalisation). Mais le budget nécessaire à cette couverture ne correspond pas tout à fait l’idée du hackathon comme formule d’animation un peu cheap et accessibles à toutes les bourses.

Et pourtant cette fonction de communication est essentielle pour essayer de transmettre aux non-participants un peu de l’essence de l' »expérience hackathon« . Il faut donc l’inclure dans son organisation et sans aucun doute la considérer comme une fonction à part entière. On retrouve ici l’idée de la documentation de projet au fil de l’eau mise en place notamment à la 27ème Région.

Les défis du hackathon

La question principale qui se pose aux organisateurs du hackathon est celle de la finalité : à quoi sert-il ? S’agit-il essentiellement de mettre en oeuvre des démarches agiles et des pratiques d’innovation plus légères, ce qui en soit présente déjà un intérêt comme le souligne Fréderic Charles dans son article « Un hackathon pour innover à la DSI en mode start-up » ? Ou le hackaton a-t-il un objectif de réalisation (de prototypes, de services) ?

Faute d’avoir défini, clarifié et partagé en amont les objectifs, on risque d’être un peu déçu par la réalité des réalisations. De la même manière qu’un Start-Up Week-End (marque déposée, sic) fait émerger des idées d’entreprises (et non des entreprises elles-même), le hackathon fait émerger des idées de service, éventuellement des prototypes. Mais le passage à la phase opérationnelle demande bien souvent un effort supplémentaire.

C’est aussi sur ce point que l’organisateur devra se positionner : comment souhaite-t-il accompagner la concrétisation ? Est-il prêt à financer les projets les plus intéressants ou considère-t-il que son action s’arrête le dimanche soir ? Le hackathon est peut-être finalement une formule un peu plus engageante et impliquante que nous pourrions initialement le penser. L’après-hackathon est un sujet à part entière.

L’autre question qui se pose – au hackathon mais aussi plus globalement aux autres formes d’animation ponctuelles comme les concours – est celle de la répétabilité. Peut-on répéter indéfiniment la formule sur un public cible de développeurs intéressés par l’open data, cible qui n’est pas -par définition – extensible à l’infini ? Dit autrement, un hackathon ca va, trois hackathons bonjour les dégâts ? Les équipes des premières éditions se concentrent sur la concrétisation de leurs idées, il faut donc être capables de mobiliser de nouveaux participants – et ce n’est pas toujours simple. Le premier semestre 2013 va être un bon test grandeur nature, vu le nombre important d’hackathons annoncés…

Ps : j’en profite pour vous conseiller la lecture du guide pratique d’organisation d’un hackathon, proposé par Open Data BC (British Columbia) en anglais, donc.

Moderniser l’action publique par l’open data ?

Moderniser l’action publique par l’open data, c’est le sens du nouveau rattachement de la mission Etalab en charge de la politique gouvernementale d’ouverture des données. Cela passe notamment par la capacité à faire (enfin) jouer la boucle de rétroaction : que les données permettent d’améliorer les services publics. Revue des initiatives existantes et propositions d’actions : comment boucler la boucle de l’open data ?

Central Park (photo NYC Parks)

Central Park, New-York
(photo NYC Parks)

En septembre dernier, j’ai suivi avec un grand intérêt l’annonce d’un hackaton dédié aux parcs et jardins new-yorkais (NYC Government DataKind). La politique open data de Big Apple reste pour moi une référence, tout comme son plan global pour le numérique.

A l’époque, je préparais des ateliers de réutilisations des données liées aux arbres du parc du Thabor et j’imaginais donc y trouver des sources d’inspiration pour des applications ou des services originaux ou ludiques… J’ai été très agréablement surpris par la qualité et le niveau des projets développés lors de cet évènement DataKind – pourtant aucune application mobile flashy n’a été développée ! Mieux, les résultats illustrent bien comment l’open data peut répondre à des questions concrètes et contribuer in fine a améliorer l’action publique.

1 – DataKind : des questions, des données, des réponses

L’organisation DataKind se propose de mettre à disposition des compétences liées aux données pour répondre à des problèmes concrets. L’ancien nom de DataKind – Data Without Borders (données sans frontières) – traduit par cette ambition d’un peace corps dédié aux données. Leur slogan « Using data in the service of humanity » m’a bien fait marrer (sauver le monde par la technologie, une idée très anglo-saxonne), mais leur action est bien sérieuse. DataKind organise régulièrement des hackatons, toujours en relation avec des institutions (associations, ONG ou villes) qui accueillent l’évènement et posent les questions. Pour cette édition new-yorkaise, le partenaire était le service des Parcs et Jardins de la ville (NYC Parks). Pour vous et moi, les jardins new-yorkais cela se résume sans doute à Central Park… mais en tout cela représente 600 000 arbres d’alignements (dans les rues) et plus de 2 millions dans les parcs publics !

En amont de la manifestation, NYC Parks et DataKind ont identifié les problèmes qui seront soumis aux participants. J’ai retenu deux questions qui ont donné lieu à des projets : pouvons-nous prédire où une future tempête risque de faire le plus de dégâts dans nos parcs ? Les opérations préventives d’élagage ont-elles un impact sur les demandes ultérieures d’intervention, notamment par les habitants ?

Les organisateurs ont aussi recensé un ensemble de jeux de données, en grande partie déjà ouvertes sur le portail open data comme tous les appels au 311 (le numéro des services urbains pour les demandes d’intervention), les travaux programmés (work orders), mais aussi des sources extérieures (les principaux événements météorologiques, l’historique des interventions liées aux précédentes tempêtes). L’ensemble a fait l’objet d’un brief que l’on peut retrouver en ligne.

Les participants (des data-scientists) n’ont pas développé des services en ligne, ils ont proposé des modèles pour répondre aux questions posées. Ainsi, un groupe a proposé un index de risque de tempête pour chaque bloc, en fonction des arbres que l’on y trouve et de leur ancienneté. Un autre a remis en question, à partir des données brutes et d’un modèle mathématique, l’intérêt de la politique préventive d’élagage. Bref, ils ont répondu à des questions concrètes et ont permis d’améliorer l’action publique sur ce champ précis.

2 – La boucle de rétroaction de l’open data V.2

Par contraste, l’exemple de DataKind illustre bien ce qui fait aujourd’hui défaut dans notre approche de l’open data : nous ne bouclons pas la boucle. Le modèle actuel est le suivant : un acteur public (ou privé) met à la disposition des réutilisateurs des données ouvertes. Ces derniers développent des services, des applications, souvent utiles, parfois ludiques mais bien souvent aucune d’entre elles n’impacte la manière de faire de l’organisation. Avec des horaires de bus on peut certes développer des services d’information voyageurs, mais l’on peut aussi analyser la desserte de chaque quartier et – potentiellement – proposer des améliorations au gestionnaire du réseau de transport.

Ce qui nous manque donc c’est l’application de la boucle de rétroaction (feedback loop) : une organisation ouvre des données, qui servent ensuite à des tiers pour améliorer les actions de l’organisation… une sorte d’open data  version 2.

Le principe de la boucle de rétroaction est l’un des éléments fondateurs de la cybernétique (j’ai eu l’occasion dans mon livre d’évoquer le lien entre l’open data et les théories de Norbert Wiener). Vous pouvez en voir un exemple à l’oeuvre dans la plupart des villages de France avec l’affichage en temps réel de la vitesse de votre véhicule… Il suffit d’offrir au conducteur une information qu’il possède pourtant déjà sur son tableau de bord pour qu’il réduise en moyenne de 10% sa vitesse… Cet article de Wired raconte la genèse de ce dispositif et explique pourquoi l’efficacité n’en diminue pas avec le temps.

3 – Des projets pour l’action publique

Je reviens sur l’exemple de New-York. La ville s’était déjà illustrée par son équipe interne de data-scientists et son approche très pragmatique des données (tant big data que open data). Toutes les villes n’ont pas les moyens du maire de New-York, mais la plupart des acteurs publics qui ouvrent aujourd’hui leurs données pourraient travailler sur la boucle de rétroaction. Je vous propose deux exemples pour tenter de vous en convaincre.

Projet 1 : du marketing achats avec l’open data

Une partie de la modernisation de l’action publique passe par une maîtrise des dépenses. Mieux acheter est une source importante d’économies. L’open data pourrait faciliter la mise en place d’une démarche de marketing achats. L’opérateur des transports londoniens (TfL) met en ligne sur son portail open data toutes les dépenses d’achats et d’équipements supérieures à 500 livres. Ainsi, un nouveau fournisseur peut se positionner pour faire la meilleure offre, en connaissant le détail et le prix des prestations acquises par TfL…

Projet 2 : les « Happy Hours » de la piscine municipale

Dans ma ville, on peut accéder à la piscine municipale avec sa carte de transport (genre pass Navigo). La mise en place du système a accompagné l’introduction d’une tarification horaire, où l’on paie en fonction du temps passé dans le bassin. Les services de la ville disposent donc d’une grande masse de données sur la fréquentation des piscines et le système fournit aussi une vision en temps réel du nombre de nageurs.

Comme tout équipement, la piscine municipale connaît des pics de fréquentation, certains liés à des variations saisonnières (été/hiver) ou à la météo du moment… En ouvrant la donnée de fréquentation en temps réel, on pourrait informer les usagers de l’affluence qu’ils risquent d’y trouver à cet instant. Mieux, en anonymisant les données de fréquentation on pourrait proposer, sur le modèle de DataKind, d’imaginer des formules d’incitation pour aller nager aux heures creuses.

L’idée : j’ouvre 3 mois d’historique de fréquentation, je fournis des données sur les événements météorologiques ou autres (les vacances scolaires, …) et je lance un challenge avec une question : « aidez-nous à définir les Happy Hours de la piscine !« .

Les deux exemples présentés ici sont plutôt anecdotiques, mais ils sont réalisables à plus ou moins court terme. On peut aussi imaginer travailler sur d’autres champs de l’action publique avec des questions plus ambitieuses... Celles du logement ou de la prise en charge de la petite enfance par exemple.

4 – En pratique, comment faire ?

Comment boucler la boucle de l’open data ? Il va tout d’abord falloir revoir notre manière de procéder. Les formules d’incitation (type concours ou hackatons) ne devraient pas partir des données disponibles mais plutôt des questions et des problèmes concrets. Bien entendu, la puissance publique n’est pas la seule à pouvoir définir les problèmes, la société civile peut aussi jouer son rôle (DataKind a par exemple organisé un évènement londonien avec plusieurs ONG).

Le plan de route serait donc le suivant :

– définir une question, un problème de politique publique,

documenter la problématique et les principaux enjeux,

– recenser, lister et ouvrir les jeux de données pertinents,

– s’appuyer sur des médiateurs tiers,

– proposer des challenges, des concours, des hackatons pour inviter les participants à répondre à la question… (souvenons-nous que les sites data.gov et challenge.gov vont de pair),

faciliter la réintégration des résultats au sein des services et des administrations (leur implication est amont dans la définition des questions est un bon levier pour cela).

Il ne s’agit pas pour autant de brider les réutilisateurs dans leur créativité, libres à eux de participer ou non aux actions proposées. Libres à eux de développer l’application de leurs rêves.

Mais n’ayons pas non plus peur de partager les questions qui se posent quotidiennement dans l’action publique. Ainsi, nous ferons le lien entre l’ouverture des données publiques et la cohérence des politiques publiques, un argument développé par ceux qui ne veulent pas ouvrir leurs données

Que faire avec les données ouvertes de mobilité ?

Le 19 décembre 2012 j’ai animé à la Cantine de Rennes une soirée spéciale sur les données ouvertes de mobilité. A cette occasion, j’ai présenté un tour du monde des réutilisations possibles de ces données. L’objectif : démontrer, par l’exemple, que l’open data transport ne sert pas uniquement à produire des applications mobiles !

1 – L’information voyageur ne se limite pas aux applications mobiles

The City Dashboard (Casa - UCL)

The City Dashboard
(Casa – UCL)

L’application mobile d’information voyageur est bien souvent la face la plus visible de l’open data pour le grand public, en témoigne le grand nombre de services mobiles proposés lors des concours et autres hackatons de données ouvertes. Cependant, cette focalisation sur un seul type de réutilisation génère aussi une incapacité à appréhender tous les usages possibles des données de mobilité.

La problématique de diffusion et de partage de la donnée transport s’inscrit aujourd’hui dans une double tendance : accroissement de la demande d’information voyageur (en tous lieux, en tous temps et sur tous supports) et difficulté à proposer une offre institutionnelle qui couvre l’ensemble des besoins, aussi spécifiques soient-ils.

Dès lors, l’open data est une piste pour répondre à cette diversité de besoins. L’info de mobilité prend son sens à partir du moment où elle est disponible au moment où on en a besoin, dans sa poche, dans l’écran du bus, sur le site Internet du réseau mais aussi – et surtout – dans tous les lieux où elle est aujourd’hui absente. Trois exemples pour illustrer cet usage de « consultation » de la donnée de mobilité (je reprends ici la grille de 4 classes de réutilisation développée dans mon ouvrage) :

Le City Dashboard a été développé par des universitaires britanniques. Ils proposent en un seul écran un tableau de bord de la ville, en particulier sur les questions de mobilité. On y retrouve notamment le taux d’utilisation en temps réel des stations de vélo en libre-service, mais aussi les perturbations dans le métro et l’état du trafic routier… mais aussi la météo, les dernières actualités ou les tendances locales sur Twitter… Le City Dashboard a été conçu pour être déployé partout via un simple écran de PC.

The Muni-Watch(Joe Hugues)

The Muni-Watch
(Joe Hugues)

La montre « Muni Watch » (du nom du réseau de transport municipal de San Francisco) a été développé par Joe Hughes. La montre indique les 3 prochains horaires de passage pour l’arrêt de bus le plus proche – elle communique en Bluetooth avec un smartphone Android. A noter que le projet a été l’un des premiers initiés suite à l’ouverture des données de cette ville californienne… et date de 2008 !

Plus près de nous, dans le cadre du LabFab rennais, Baptiste Gaultier a conçu « La Boîte » sur une base Arduino (électronique open source). Cette petite boîte, qui trouvera  sa place dans votre salon, indique la météo, le nombre de minutes avant le prochain passage d’un bus ou le nombre d’emails reçus…

Aussi anecdotiques puissent-ils paraître, ces deux derniers projets montrent que l’on peut encore imaginer de nouvelles formes de diffusion de l’information de mobilité. Il y a sans aucun doute des pistes à creuser du côté de l’ambient computing pour créer des objets communicants qui nous informent tout en restant le moins intrusif possible. Le lapin Nabaztag, la star de Noël (en 2006…), ou la lampe Orb étaient de bons candidats pour afficher l’imminence du passage d’un bus avec des codes couleurs très simples…

2 – Des médiations : rendre visible les mobilités dans la ville

5 millions de trajets vélo (Jo Wood - City University London)

5 millions de trajets vélo en une image
(Jo Wood – City University London)

Les médiations – notamment visuelles – permettent de représenter les flux de mobilité dans la ville. La représentation cartographique pré-existait bien entendu au mouvement d’ouverture des données, mais l’open data lui a donné un nouveau souffle. Les visualisations peuvent être ludiques ou avoir un objectif professionnel – par exemple dans le domaine de l’analyse de l’accessibilité. Trois exemples pour illustrer ce second type de réutilisation des données de mobilité (la médiation) :

L’opérateur des transports londoniens (TfL) a mis en ligne un fichier comportant le 1er million de trajets effectués par le service de vélo en libre-service de la capitale Barclays Cycle Hire (connu sous le surnom de Boris Bikes, le prénom du maire). Ces données historiques ont donné lieu à plusieurs représentations : l’effet d’une grève du métro sur l’utilisation du service de vélo, le repérage des principaux noeuds de circulation ou encore les jours de fréquentation record du service…

Melbourne Pedestrian Map

Melbourne Pedestrian Map (City of Melbourne)

La municipalité de Melbourne en Australie dispose d’une série de 18 capteurs piétonniers répartis dans le centre-ville. Ils enregistrent en temps réel le nombre de piétons qui empruntent un trajet particulier. Ces données ont donné lieu à une représentation interactive, on peut ainsi visualiser les flux de piétons heure par heure ou « rejouer » une journée d’affluence exceptionnelle (la parade annuelle par exemple). A noter que Melbourne propose les données brutes en téléchargement, ce qui permet donc de construire sa propre visualisation ou – encore mieux – d’utiliser ces données comme matière première (cf. la prochaine classe d’utilisation).

Enfin, dans le cadre du concours Rennes Métropole en accès libre, la société Isokron avait réalisé une très intéressante vidéo « Un lundi à Rennes » qui répondait visuellement à la question : jusqu’où peut-on se aller en 10, 15 ou 30 minutes en n’empruntant que les transports publics ? Cette dernière visualisation est clairement plus ludique qu’informative, mais elle propose une autre représentation du réseau de transport urbain…

3 – La donnée de mobilité comme matière première

La donnée de mobilité peut aussi être utilisée comme une matière première, pour un usage qui n’est pas directement lié à la mobilité. En effet, la question de l’accessibilité d’un lieu – que ce soit à pied, en voiture ou en transport en commun – est un sujet qui intéresse bien au-delà des opérateurs de mobilité. Les gestionnaires de grands équipements sportifs, ou encore de centres commerciaux, utilisent la donnée de mobilité comme un intrant dans un processus, par exemple au moment de prendre des décisions d’investissement. Cette question intéresse aussi au plus haut point le marché de l’immobilier.

Transit-friendly apartment search (TransitScore)

Transit-friendly apartment search (TransitScore)

Aux Etats-Unis, la société WalkScore (issue de la fondation FrontSeat) propose une note d’accessibilité pour chaque adresse d’une ville américaine ou canadienne. Le WalkScore (et son équivalent le TransitScore) est un indice qui évalue sur une échelle de 1 à 100 la marchabilité d’un lieu, c’est à dire la capacité à y effectuer la plupart des actes de la vie quotidienne sans avoir à prendre sa voiture. On voit déjà apparaître les premières annonces immobilières qui font figurer ce score dans le descriptif du bien… L’impact de cet indice sur le niveau des prix a lui aussi été évalué. Le plus intéressant dans le WalkScore est la monétisation de cet indice : la société propose un service en ligne à destination des agents immobiliers indépendants.

Ainsi, chacun peut créer une affiche personnalisée avec l’adresse du bien, son score d’accessibilité, une carte des principaux équipements et services de proximité (paramétrables selon le profil des acheteurs pressentis) et bien sûr le contact de l’agent immobilier…. Chaque fiche est facturée 5 dollars, la reproduction étant assurée directement par l’utilisateur du service. WalkScore propose aussi un ensemble de services de syndication de son contenu et de ses données… Bref, l’open data est ici à la fois une matière première et une partie de la production de la société.

Les croisements entre donnée de mobilité et d’autres sources de données restent encore largement à imaginer et à travailler. Un exemple : croiser les données issues de mon Fitbit (le nombre de pas parcourus, le nombre d’étages gravis quotidiennement) avec celles de ma carte de transport, pour montrer concrètement comment l’on peut faire de l’activité physique en prenant les transports en commun (par exemple en n’utilisant jamais les escalators ou les ascenseurs…).

4 – L’art et le jeu, d’autres modes de réutilisations

Je propose de finir ce tour du monde de la réutilisation des données par deux approches différentes et résolument non-utilitaristes de l’open data : le jeu et l’art. Les données de mobilité, notamment par leur caractère souvent urbain, se prêtent bien à des jeux grandeur nature. L’un des premiers exemples est le jeu Chromaroma, qui réutilise (initialement de manière un peu sauvage, aujourd’hui de manière bien encadrée) les données des Oyster Cards (l’équivalent des pass Navigo à Paris). Chromaroma est un véritable jeu dans la ville où les joueurs, regroupés en équipes, accomplissent des challenges et prennent possession – virtuellement bien sûr – de stations de métro (sur le modèle du maire d’un lieu Foursquare).

Dans le domaine artistique, le projet Conductor: MTA.me propose une représentation poétique des mouvements du métro new-yorkais : chaque ligne est une corde de guitare et les croisements génère une mélodie étrange qui évolue au cours de la journée et de l’activité du réseau…

Bref, les données ouvertes de mobilité offrent un éventail de réutilisations très larges, qui dépassent de loin les premières applications mobiles qui ont déjà été développées…

4 pistes pour un open data des biens communs

A l’occasion du lancement de l’antenne française de l’Open Knowledge Foundation le 12 décembre à la Cantine Paris, je suis intervenu pour présenter 4 pistes pour un open data des biens communs. Retour sur cette intervention sous forme d’interpellation…

L’open data et les biens communs, une (trop) vieille histoire ?

"Open Data Commons" (photo by jwyg)

« Open Data Commons » (photo by jwyg)

Il y a une filiation entre le mouvement d’ouverture des données et la philosophie des biens communs. Les données ouvertes sont une illustration de la notion de biens communs informationnels proposé par Elinor Ostrom, « prix Nobel » d’économie en 2009. Les données ouvertes nous appartiennent à tous et, contrairement à l’eau ou à l’air (d’autres biens communs), elles sont dites non-soustractibles : leur usage par l’un n’empêche pas les usages par les autres. En d’autres termes : si je réutilise une donnée ouverte, cela n’empêche pas un autre réutilisateur de faire de même.

Cette proximité biens communs / open data se traduit aussi par la présence de l’instigateur des licences Creative Commons, Lawrence Lessig lors de la réunion de Sebastopol de 2007 qui a permis de définir le concept même de données publiques ouvertes.

Malgré cette relation historique et féconde, il me semble que nous, acteurs de l’open data, sommes parfois trop timides à réaffirmer le caractère commun de certaines données ouvertes. Trop timides parce que, contents que l’idée d’open data fasse son chemin auprès des acteurs publics et privés, nous ne voulons pas en rajouter… Les quatre pistes que je propose et détaille ici ne visent donc qu’un objectif : ne pas lâcher l’affaire sur le sujet !

Piste 1 : défendre un vrai choix en matière de licences open data (pro-choice)

Sur le papier, cela semble clair : il y a en France un vrai choix en matière de licences open data. D’un côté la licence ouverte proposée par Etalab, de l’autre l’ODbL. Les services de l’Etat se doivent d’utiliser la première, certaines collectivités ont choisi la seconde solution, en revendiquant de manière plus ou moins affirmée le caractère commun des données ouvertes.

Dans la pratique, le choix apparent se heurte aux difficultés, réelles ou perçues, liées à la licence ODbL. Je rappelle que ce qui distingue les deux licences c’est l’obligation de partage à l’identique (le share-alike) qui répond clairement à un enjeu de pot commun (si j’utilise, je dois recontribuer). Entendez-vous la petite musique qui monte et qui met en garde contre le recours à une licence « contaminante » (terme preféré à celui de « virale ») ? L’ODbL est accusée d’être anti-business, d’être venue de l’étranger, d’être source de dangers imprévisibles (le risque de contrefaçon de bonne foi), …

Nous nous retrouvons donc dans la situation où, au moment même où les grands projets collaboratifs (comme Open Street Map) adoptent l’ODbL, les nouveaux entrants de l’open data appliquent parfois, en toute bonne foi, le principe du moindre effort : « ça a l’air compliqué ce truc de partage à l’identique, on a pas une vision très claire des risques potentiels, je vais plutôt choisir la licence ouverte« .

Il me semble qu’en tant qu’instigateur de la licence ODbL, l’Open Knowledge Foundation devrait en être le premier promoteur*, pour en expliquer les mécanismes, les obligations et les opportunités (et pas uniquement celle d’embêter Google). Pour qu’un vrai choix soit possible en matière de licences open data (pro-choice !).

La licence a elle seule ne saurait garantir le caractère commun des données ouvertes. Je propose trois autres pistes d’action et de réflexion.

Piste 2 : la D.I.G. : donnée d’intérêt général

Prenons un problème qui nous concerne tous et que nous avons abordé lors d’un récent atelier Net:Lab : le logement et son accessibilité. Qui possède aujourd’hui l’une des meilleures visions du marché de la location ? Qui recense avec la plus grande acuité et en temps réel le montant des loyers, avec une adresse et un descriptif précis du logement ? Un indice : ce ne sont ni les mairies, ni les services des impôts, ni même le ministère du logement… mais un acteur privé de la petite annonce immobilière.

En France, on a une loi pour la donnée personnelle (loi CNIL), une autre pour la donnée publique (loi CADA)… Mais quid des données – personnelles, publiques ou privées – dont l’ouverture répond à l’intérêt général ? En ayant une vision plus claire et dynamique des loyers pratiqués, on pourrait imaginer que tout un chacun soit mieux informé sur les prix réels du marché (en prenant soin, bien sûr, de limiter les efforts de bord de la transparence).

Sans aller jusqu’à la réquisition des données (comme celle des logements vacants), on peut imaginer une fiscalité du numérique qui encouragerait la mise à disposition de ces données par les acteurs privés. Il y a bien un crédit d’impôt recherche, pourquoi pas un crédit d’impôt open data ?

Il faudrait donc, comme cela a déjà été évoqué, définir une nouvelle classe de données, la D.I.G. (donnée d’intérêt général) à laquelle serait associée des droits particuliers d’accès et de réutilisation… « Tout ne s’arrête pas au clivage public / privé« .

(Bien évidemment, la D.I.G. pose autant de questions qu’elle n’apporte de réponses. En voilà une première : qui va définir l’intérêt général ?).

Piste 3 : le peering de contribution : je contribue / je reçois

Le premier temps de l’open data a vu des acteurs publics (collectivités ou gouvernements) mettre des données ouvertes à la disposition des réutilisateurs, principalement des développeurs.

L’open data qui est en train d’émerger est infiniment plus riche et plus complexe. La répartition des rôles entre producteur et réutilisateur de la donnée semblait bien établie, elle évolue pourtant : les données publiques et collaboratives commencent à s’enrichir mutuellement, des entreprises travaillent à rendre à leurs clients une partie des données les concernant. Dès lors, comment concevoir des mécanismes de contribution qui tiennent compte de ces évolutions dans une optique de « pot commun des données » ?

La troisième piste est celle d’un peering de contribution, tel qu’il existe déjà pour les données de positionnement des bateaux (données AIS). Le site collaboratif Marine Traffic lancé en 2007 est aujourd’hui le premier site de suivi du trafic maritime mondial. Plus de 1000 contributeurs (équipés d’un récepteur AIS connecté à Internet) permettent de suivre quotidiennement les mouvements de 65 000 bateaux. Le site affiche aujourd’hui deux millions de pages vues… par jour (source : entretien S. Chignard avec Dimitris Lekkas, l’universitaire grec à l’origine du projet).

Tout un chacun peut visualiser les données à partir de la carte proposée sur le site, mais celui qui veut accéder aux données brutes peut le faire à la condition expresse de contribuer à la couverture du service en connectant un nouveau récepteur AIS… Le peering de contribution encourage donc bien chacun à participer à l’amélioration du service (Marine Traffic n’est pas le seul site à procéder ainsi, voir par exemple AIS Hub qui propose des conditions encore plus permissives).

Piste 4 : la tarification contributive à l’usage (GET > POST)

Dernière piste de travail, la tarification à l’usage, déjà évoquée sur ce blog à propos des données transport. Il s’agit de penser un modèle de tarification mixte pour l’usage des données. Les API se prêtent particulièrement bien à ce mode de fonctionnement.

On peut imaginer que l’accès à nos D.I.G. soit gratuit pour tous, mais qu’une contribution soit demandée aux plus gros utilisateurs de l’API qui ont un comportement proche de celui du passager clandestin (j’utilise sans jamais contribuer). Libre ensuite à chacun de choisir s’il veut contribuer en améliorant la donnée (en la mettant à jour, en la corrigeant, …) ou en payant de sa poche !

* quelques pistes, ludiques et sérieuses, pour promouvoir la licence ODbL en France : une campagne de communication « j’ai été contaminée et j’en suis très heureuse » (avec des témoignages de bases de données en ODbL), un séminaire pratique pour les collectivités, un guide pratique en français avec une réponse aux questions fréquentes, une hotline « toutes vos questions sur l’ODbL », un ODbL-day pour mettre en valeur les données publiées sous cette licence, une infographie « toutes ces données sous proposées sous licences ODbL » ….

Animer l’open data, mille possibilités

Animer-opendata-chignard.001« Animer, animer et encore animer » : Hubert Guillaud résumait ainsi pour Internet Actu une partie des échanges lors de la Semaine européenne de l’open data en mai dernier. L’animation de l’open data est aujourd’hui à la fois un enjeu reconnu par tous et une « expression-valise ». Proposition d’une grille d’analyse pour recenser la grande diversité des pratiques.

Passé les premiers temps de l’effervescence, tous ceux qui – acteurs publics ou privés – ont ouvert des données se posent les mêmes questions. Pourquoi animer ? Comment, selon quels formats ? Auprès de quels publics ? Pour quels résultats ? … La question de l’animation rejoint en partie celle de l’appropriation par le plus grand nombre, mais elle est à mon avis plus large. Un concours de développement d’applications, un hackaton sont autant de formats qui visent à stimuler la réutilisation sans pour autant viser le grand public.

Si le constat semble partagé, il n’en est pas de même des réponses mises en oeuvre. L’observateur attentif de l’actualité open data aura remarqué que les dispositifs d’animation se déploient aujourd’hui partout en France, avec parfois des modalités très différentes. Du concours DataConnexions d’Etalab aux Infolabs citoyens de la FING, du week-end BeMyApp Tourisme au Hackdays internes de SNCF Transilien, autant de manière d’animer l’open data…

La grille d’analyse : animer l’open data en 5 questions

Animer-opendata-chignard.001

Je vous propose une grille d’analyse de l’animation de l’open data, en 5 questions :

pourquoi ? identifier les objectifs de l’animation (de la stimulation de la réutilisation à une sensibilisation à la culture de la donnée, les enjeux sont différents),

comment ? les modalités varient, on peut notamment citer le concours de développement d’applications, les hackatons et challenges courts, les appels à projets et concours d’idées, les ateliers et workshop (data journalisme, …) et les infolabs,

pour qui ? les publics cibles, destinataires de ces animations peuvent être multiples : réutilisateurs (développeurs, journalistes, étudiants, …), le « grand » public, les médiateurs traditionnels du numérique (et notamment les espaces publics numériques), les détenteurs (decideurs publics ou privés, élus et agents des services),

quand ? ces actions peuvent être proposées en amont du lancement du portail open data (par exemple les animations internes autour du repérage des données), au lancement du portail (les concours par exemple) ou au long cours, par exemple pour pérenniser la démarche,

par qui ? les acteurs qui portent ces animations peuvent aussi être très divers : l’acteur (public ou privé) qui ouvre les données, mais aussi des tiers-lieux (les Cantines numériques, les espaces publics numériques), les collectifs open data, les « agences numériques » (par exemple l’AEC en Aquitaine) voire des prestataires spécialisés (par exemple les organisateurs de BeMyApp).

En mixant les différentes options, on arrive au final à près de 1200 combinaisons possibles pour animer l’open data ! Certaines sont bien documentées (les concours en phase de lancement), d’autres beaucoup moins (en particulier les actions internes ou celles au long cours).

Comment utiliser cette grille d’analyse ?

On peut utiliser cette grille d’analyse de plusieurs manières. La première est de s’en servir pour recenser et classer les initiatives déjà recensées, en France et en Europe. Quelques illustrations à partir des exemples cités précédemment :

Concours DataConnexions #2 proposé par Etalab : stimuler la réalisation de services par des réutilisateurs (plutôt start-ups mais pas exclusivement) par l’organisation d’un concours / appel à projet, au long-cours,

Infolab Paris Citoyens proposé par la FING : sensibiliser à la culture de la donnée, imaginer des services par le biais d’un dispositif Infolab éphémère, pour un public d’acteurs associatifs,

Week-end Open Tourisme organisé par Be My App avec Google et Bouches du Rhône Tourisme : un hackaton pour imaginer et réaliser des services avec des données ouvertes, plutôt pour une cible de développeurs, en accompagnement du portail data.visitprovence.com, par un prestataire spécialisé,

Le Hackaton des Cheminots de SNCF Transilien : un week-end de développement réservé aux cheminots, sur le modèle des HackDays « tous publics » de l’été dernier, pour un public de réutilisateurs internes, en animation au long-cours de la démarche,

les ateliers du collectif Open Data Rennes lors de VivaCités : sensibiliser un public scolaire aux données, par une approche graphique et ludique des données d’abord personnelles, la « dataviz des enfants ».

Une autre utilisation possible de la grille d’analyse est d’imaginer des croisements à partir des 5 questions pour identifier de nouvelles pistes d’animation… A vous de jouer !