Datanomics, un livre pour alimenter le débat sur les données

PlatCouv-DatanomicsV2_orange.inddAu début de l’année 2014, nous commencions ici et sur Without Model un travail d’exploration de la valeur des données, nous sommes heureux de vous annoncer la sortie de Datanomics, les nouveaux business models des données (Fyp Editions, 2015).

Le point de départ, une interrogation et une insatisfaction

Lorsque nous avons commencé à travailler sur la question de la valeur des données, nous constations chaque jour un décalage croissant entre les pratiques des données et notre compréhension, souvent partielle, de leurs enjeux techniques, économiques, politiques et sociétaux. Face à cette réalité, les discours, les raisonnements et les débats sont fragmentés. Même notre « pensée » sur les données est en silos. On continue de structurer les échanges par type de données : personnelles, ouvertes, massives. Cette approche, qui conduit à des discours d’expertise, ne nous aide pas à comprendre les interactions entre toutes ces dimensions.

Pour sortir du flou, il fallait choisir une clé de lecture. La question de la valeur et les discours qui lui sont associés nous ont semblé pertinents pour éclairer les changements en cours. La valeur, forcément subjective, que nous accordons aux données est à la fois la cause et la conséquence de nos actions, le déterminant et le résultat.

Une double question nous animait au moment de commencer cette exploration de la valeur des données : où est la valeur, se mesure-t-elle uniquement en euros, ça change quoi pour les individus, les entreprises et la société ?

Une année d’exploration

Pour nourrir cette question, nous avons régulièrement interagi en ligne et lors d’événements pour établir les thèmes  les plus saillants et mettre à l’épreuve nos principales hypothèses.

Les retours reçus suite à la publication des articles Datanomics ont confirmé nos intuitions (Explorer la valeur des donnéesLa révolution des proxiesLes données de l’internet des objets et la valeur de l’open data), les présentations lors du Web2day et d’Open Experience nous ont permis de mieux les formuler.

Nous remercions en particulier celles et ceux qui ont contribué par leurs réactions et leurs travaux à cette exploration : Henri Verdier, Valérie Peugeot, Daniel Kaplan, Bruno Marzloff, Bernard Stiegler, Yann Moulier-Boutang, Nicolas Colin, Christophe Benavent, Hubert Guillaud, Lionel Maurel, Camille Domange, Stéphane Schultz et Adnène Trojette, Romain Lalanne, Frédéric Charles, Christian Quest, Loïc Hay, Stéphane Derville, Stéphan Minard, Charles Népote, Chloé Bonnet, Kat Borlongan, Guillaume Crouigneau, Tristan Nitot, l’équipe de la mission Etalab et Olivier Mamavi.

Un livre pour alimenter le débat

Après ce travail d’exploration, les événements et débats récents confirment que le travail de pédagogie reste entier. Plusieurs organisations ou individus s’engagent pour l’alimenter (par exemple OpenClassrooms ou Tristan Nitot) et nous  avons écrit ce livre pour participer à ce débat.

Cet essai explore les transformations engendrées par un monde de données abondantes.

  • La première transformation concerne la façon dont nous produisons et collectons aujourd’hui des données. Ce phénomène, appelé « big data », n’est pas qu’une affaire de volume : il change fondamentalement la nature même des données qui peuvent être mobilisées.
  • La deuxième est liée aux fondements de la valeur : la rareté a cédé la place à l’abondance. Les données ne valent pas tant pour ce qu’elles sont, mais plutôt pour ce qu’elles permettent de faire et pour les positions stratégiques auxquelles elles donnent accès.
  • La troisième transformation est liée à l’émergence d’une économie de la donnée selon trois facettes : la matière première, le levier et l’actif stratégique. Bien plus qu’un bien qui se vend et s’achète, la donnée est un outil puissant pour décider, agir et produire autrement, mais aussi pour prendre place au sein d’un écosystème.

Le propos ne serait pas complet sans une analyse critique des impacts pour les entreprises, l’acteur public et les individus. Car les données sont pour chacun une source d’opportunités et de menaces. Elles rebattent les cartes de la concurrence, interrogent les services publics dans leurs missions et interpellent les individus sur leur capacité à ne pas être « prisonniers des algorithmes », mais plutôt à utiliser les données comme un levier d’émancipation.

Datanomics s’adresse à ceux qui veulent comprendre et agir. Pour participer au débat nous vous invitons à utiliser #datanomics sur twitter et à parcourir le scoopit Datanomics.

J’ai contribué à « Open Models » (et c’était bien)

couv« Open Models, le livre » est le fruit des rencontres Open Experience initiées de janvier à juin 2014 par Without Model. L’idée: faire le tour des modèles économiques de l’open en 6 étapes, de l’art au manufacturing en passant par la data, la science, l’éducation et le logiciel. Retour sur ma modeste contribution à ce projet.

Je me souviens, je me rappelle. L’équipe de Without Model nous avait tous convié à une soirée dédiée à l’open data. Au programme: des interventions de Chloé Bonnet et Romain Lalanne (FivebyFive, SNCF), de Frédéric Charles (Lyonnaise des Eaux), de Christian Quest (OSM France), de Guillaume Crouigneau (Canal TP). Avec mon compère Louis-David Benyayer (à l’origine de Without Model), nous avions discuté de ce que l’open fait à la data.

Je me souviens, je me rappelle. C’était le 30 juin dernier, ce jour-là il faisait beau mais surtout il y avait au même moment un match de la Coupe du Monde de football, un huitième de final qui opposait la France au Nigéria (2-0). Autant dire que l’audience était de très bonne qualité, à défaut d’être présente en quantité ;-)

Je me souviens, je me rappelle aussi que l’histoire de l’open data a toujours eu en toile de fond le débat entre partisans du logiciel libre et ceux de l’open source. S’intéresser aux modèles ouverts, qui plus est dans ses dimensions multiples, m’apparait donc comme une excellente idée.

Tout cela pour vous annoncer donc que la souscription pour la réalisation d' »Open Models, le livre » est lancée, et que je vous invite à y contribuer. L’ouvrage est magnifique, et il regroupe plus d’une cinquantaine de contributeurs dont Michel Bauwens et Bernard Stiegler… (et en prime cette dernière intervention est tout à fait compréhensible). Elle est pas belle, la vie ?

 

Datanomics: « Open Data: show me the money ! »

Open-exp-6-Show-me-the-money4 ans après les premières démarches d’ouverture des données publiques en France, la question économique reste entière. Pourquoi a-t-on toujours autant de mal à déterminer l’impact économique de l’open data, autrement qu’à grands coups de milliards de dollars façon Mc Kinsey… ? Elle est où la start-up qui va révolutionner le monde et qui doit tout aux données ouvertes ?

Louis-David Benyayer et Simon Chignard (Datanomics) proposent de considérer la question sous l’ange de la valeur des données: qu’est-ce que l’Open fait aux données ? Ce texte est publié simultanément sur withoutmodel.com et la vidéo réalisée lors d’Open Experience 6 est visible ici.

Elle est-où la super start-up qui doit tout à l’open data ?

Le débat sur la valorisation n’est pas nouveau et les mesures de la valeur de l’open data s’établissent selon deux logiques. Soit c’est la valeur du marché des informations publiques qui est mesurée (par exemple dans le cadre de l’étude MEPSIR de 2006) alors que nombre d’entre elles ne sont pas ouvertes. Soit ce sont les gains d’opportunité qui sont comptabilisés (Mc Kinsey Global Institute).

Suivant cette deuxième logique, les rapports se sont succédés et concluent tous à des montants colossaux. Le plus récent, celui de McKinsey en 2013, situe entre 3 220 et 5 290 milliards de dollars la valeur annuelle de l’open data. A titre de comparaison, le PIB de l’Allemagne, 4ème puissance mondiale est de 3 747 milliards.

Dans le même temps, les gouvernements ont été nombreux à mettre en place des politiques d’ouverture des données publiques pour des raisons politiques (une gouvernance plus ouverte), économiques (permettre le développement de nouvelles activités qui génèront des bénéfices économiques pour l’état et la société) ou pour impulser la modernisation de l’action publique.

Cependant, force est de constater aujourd’hui que peu d’exemples probants de valeur économique générée par des données publiques ouvertes sont disponibles: elle est où la start-up qui doit tout à l’open data ? De même, les entreprises ne s’engagent pas de façon très nette dans l’ouverture des données qu’elles détiennent, génèrent ou manipulent, à l’exception de quelques acteurs du secteur des transports et de la mobilité. Plus encore, on a parfois du mal à comprendre si l’open crée de la valeur pour les données… ou alors en détruit (par les mécanismes de gratuité, etc.).

Quelles raisons expliquent cette difficulté à mesurer l’impact économique et la valeur de l’Open Data ?

Trois hypothèses

Hypothèse 1 : c’est trop tôt

L’effet-retard est une première hypothèse que l’on peut mobiliser pour expliquer notre difficulté à mesurer les impacts économiques. Selon cette approche, développée notamment dans l’étude réalisée en 2012 par Marc de Vries et Geoff Sawyer pour le compte de l’Agence spatiale européenne. Les deux auteurs distinguent ainsi 3 phases dans les effets de l’ouverture des données : une phase d’ensemencement (sowing phase), une phase de culture (growing phase) et une phase de récolte (harvesting phase). Si l’on retient cette approche, il est donc logique de ne pas voir aujourd’hui les bénéfices économiques car nous ne serions pas encore rentrés dans la phase de récolte…

Hypothèse 2: parce que c’est trop diffus et/ou compliqué

Dans les rapports et évaluation de la valeur de l’open data, un élément important est souvent peu mis en lumière par les auteurs et les commentateurs qui explique en partie la difficulté à voir la réalisation des promesses avancées. Dans de nombreuses évaluations (et dans de nombreux cas d’utilisation des données ouvertes), la valeur de l’open data se réalise largement en combinaison avec d’autres données qui, elles, ne sont pas forcément ouvertes, ce qui est appelé généralement les big data.

Note de bas de page du rapport McKinsey de 2013 (page 2) :

Throughout this report we express value in terms of annual economic surplus in 2013 US dollars, not the discounted value of future cash flows; this valuation represents estimates based on initiatives where open data are necessary but not sufficient for realizing value. Often, value is achieved by combining analysis of open and proprietary information to identify ways to improve business or government practices. Given the interdependence of these factors, we did not attempt to estimate open data’s relative contribution; rather, our estimates represent the total value created.

Ainsi, selon cette hypothèse, pour que la valeur de l’open data se révèle, la disponibilité et l’utilisation d’autres données est déterminante. Ce n’est pas la seule mise à disposition qui produit l’intégralité de la valeur.

Hypothèse 3: parce qu’on ne connaît pas bien les réutilisateurs

Enfin, la dernière hypothèse est que les réutilisations de données publiques ouvertes ne sont pas toutes visibles, communiquées ou explicites.

Certaines réutilisations sont particulièrement visibles quand elles sont incarnées par des applications mobiles qui le revendiquent. En revanche, la majorité des réutilisations de données publiques ouvertes n’est pas communiquée à l’extérieur de l’organisation qui les utilise. On mesure donc difficilement ce qui ne nous est pas donné à voir.

Toutefois, des effort sont faits pour mieux identifier et révéler les utilisations, par exemple le site Open Data 500 qui les recense et la plateforme ouverte des données publiques data.gouv.fr qui permet aux utilisateurs de mettre en ligne les réutilisations qu’ils ont faites des données mises à disposition.

Pistes de réflexion Datanomics, qu’est-ce que l’open fait à la valeur des données ?

Pour tenter d’y voir plus clair dans cette questions de la valeur de l’open data, faisons un détour par la valeur des data. Dans le cadre de Datanomics, nous avons identifié une typologie de trois formes de valeur des données : les données comme matière première, les données comme levier et les données comme actif stratégique (nous avons fait une première descriptions de cette typologie dans cet article à propos des objets connectés).

Concentrons nous ici sur les données comme matière première. Les métaphores habituelles utilisées pour décrire la valeur des données (pétrole, diamant, blé ou l’or) nous ramènent assez vite dans cette conception de la valeur des données comme matière première. On y voit les données comme un combustible qui alimenterait une machine (le pétrole), comme une matière qui prend sa valeur une fois qu’elle est travaillée (le diamant) ou comme un produit qui peut être consommé ou utilisé pour se renouveler (le blé). Les limites de ces comparaisons sont nombreuses : à la différence du pétrole qui disparait avec son utilisation, les données peuvent être réutilisées à l’infini, à la différence de l’or, les données ne prennent pas de valeur de thésaurisation.

Un constat s’impose : avec des données ouvertes (dont, par définition, on ne monétise pas la transmission), la valeur monétaire, celle qu’on associe à la donnée comme matière première, est en grande partie liquidée. C’est d’ailleurs l’une des conclusions du rapport Trojette sur les redevances des données publiques publié en 2013.

Autre raison qui explique la liquidation de la valeur des données avec l’ouverture : la révolution des proxies. Comme de nombreuses sources sont disponibles pour mesurer le même phénomène et qu’une grande partie est accessible gratuitement, la rareté et l’exclusivité des données sont moins assurés: leur valeur monétaire tend à décroitre.

Cette explication est confortée par un autre constat concernant les acteurs de l’open data et leur modèle économique. Au démarrage des initiatives d’open data, des acteurs économiques sont apparus avec un positionnement d’infomédiaire ou de place de marché de données ouvertes (Infochimps et Data Publica par exemple). Aujourd’hui ces acteurs ont abandonné ce positionnement de pur intermédiaire (data broker) pour évoluer vers un positionnement de type service. Ce ne sont pas les données qui sont vendues mais les services qui permettent de l’exploiter (API, analyse ou visualisation par exemple).

C’est la forme de valeur des données comme levier qui correspond probablement le plus à la valeur de l’open data : elles permettent aux organisations qui utilisent des données ouvertes d’améliorer leur performance soit en évitant des coûts soit en développant des revenus (par une meilleure tarification ou par de nouvelles ventes)

Finalement

Les caractéristiques de la valeur de l’open data sont celles des données en général : la valeur est dans la réutilisation, elle est future et co-construite.

Dans la réutilisation car elle est n’est pas monétisé directement. Future car la valeur ne se révèle qu’une fois l’utilisation réalisée (elle s’évalue difficilement a priori). Co-construite car c’est rarement celui qui dispose des données qui peut en révéler toute la valeur.

In fine, l’ouverture des donées pose un grand nombre de défis aux acteurs privés : faut-il acter la liquidation de la valeur monétaire des données – c’est-à-dire renoncer à les vendre – pour mieux en exploiter la valeur stratégique et de levier ? Comme nous le disait un responsable d’un grand groupe, par ailleurs largement impliqué dans des démarches open data : “tant que personne ne fait d’argent avec nos données, cela ne nous pose pas de problème de les ouvrir”.

 

Image d’illustration par Hélène Pouille

 

Datanomics: les stratégies Data de l’Internet des Objets

Les données ont façonné les services du numérique que nous utilisons au quotidien. Demain, elles vont modifier notre relation aux produits par l’Internet des objets. Quelle est la valeur de ces données ? Qui peut se l’approprier ? Quelles sont les stratégies Data mises en oeuvre par les start-up, les industriels et les acteurs des services de l’Internet des objets ?

Louis-David Benyayer et Simon Chignard explorent, sous le titre de Datanomics, les transformations engendrées par l’économie des donnéesCe texte est publié simultanément sur withoutmodel.com et a fait l’objet d’une vidéo enregistrée à l’occasion du festival Web2Day.

Datanomics: les 3 formes de valeur des données

Datanomics: les 3 formes de valeur des données

Des objets connectés partout, tout le temps

Linternet des objets, c’est la communication entre objets ou entre des objets et des humains par le biais des technologies numériques. Les objets connectés sont partout : à nos poignets ou nos chevilles, dans nos poches, nos voitures ou nos salles de bains, sur nos routes ou nos compteurs électriques.

Ils concentrent aujourd’hui l’attention d’acteurs du numérique (dont les usual suspects, Google et co.) mais aussi d’acteurs non numériques (Nike par exemple, et surtout les industriels et les distributeurs avec les puces RFID)[1]. Bref, l’internet des objets constitue un ensemble relativement hétérogène en termes de technologie, de proposition de valeur ou d’écosystème industriel. L’arrivée annoncée des lentilles de contact et des prothèses connectées puis des capteurs ingérables va probablement, si elle se réalise contribuer à brouiller encore un peu plus le paysage.

Trois formes de valeur des données

Sensors + Data + Networks + Services = Internet of Things

Si l’on reprend cette définition proposée par Nick Wainwright et ces composants, on s’aperçoit que la valeur créée par l’Internet des objets s’est jusqu’à présent principalement concentrée dans des produits qui se sont vendus avec plus plus ou moins de succès et dans les réseaux de télécommunications. Pourtant, les données générées et collectées par les objets ou capteurs représentent une valeur potentiellement encore plus grande – et dont les mécanismes sont très différents.

Dans le cadre de Datanomics, nous avons identifié une typologie de trois formes de valeur des données qui s’applique aux données en général et à celles produites par les objets connectés : les données comme matière première, les données comme levier et les données comme actif stratégique.

Les données matières premières

Les données peuvent en premier lieu être vues comme une matière première brute que l’on achète ou que l’on vend. L’outil de navigation TomTom génère une partie non négligeable de ses revenus (jusqu’à 30%) par la revente des données de ses clients et utilisateurs à d’autres acteurs économiques. Par exemple la fréquentation d’un tronçon routier ou les zones des dépassements de vitesse. Certaines de ces transactions sont d’ailleurs polémiques, comme quand la police néerlandaise achète les données de Tom Tom et repositionne ses radars sur les lieux où les dépassements sont les plus fréquents.

Diapositive12Autre exemple moins polémique (et moins massif), Strava revend les données de ses fitness trackers à des agences de planification urbaine. Le plus frappant dans cette transaction est son faible montant (20.000 $). On peut même penser qu’il y a plus de valeur générée par l’écho médiatique donné à cet accord que par la transaction elle-même ! Ces deux exemples illustrent aussi les stratégies de tarification et l’épineuse question du prix de vente des données. Comme pour de nombreux produits ou services émergents, deux logiques complémentaires sont visibles : faire payer ce que ça coûte de produire les données et faire payer ce que les données font gagner.

La première logique est probablement la plus accessible et la plus facilement communicable aux clients potentiels. Il s’agit de recenser les postes de coûts (les capteurs, le réseau, les communications, …) et d’en déduire un prix en fonction de tranches de volumes consommés. Cette approche peut toutefois être perçue comme décevante par les vendeurs dans le cas où ils ont le sentiment que les acheteurs bénéficient de plus de valeur que ce qu’ils ont payé par le prix de vente.

La seconde logique consiste à évaluer le gain que les clients vont réaliser avec l’utilisation des données et de calculer le prix comme une fraction constante de cette valeur produite. Celle logique permet au vendeur de s’assurer d’un certain équilibre dans la répartition de la valeur. Cependant, les calculs de valeur produite sont moins simples que ceux de calculs des coûts effectivement mobilisés : la valeur des données est principalement une valeur future et subjective.

Les données comme levier

Il s’agit d’utiliser les données pour son propre compte (sans monétisation directe auprès d’un tiers) de façon à améliorer sa performance en réduisant ses coûts (mieux mobiliser ses ressources) ou développant ses revenus (vendre plus ou plus cher)

Quand ils connectent leurs produits, Les industriels fabricants des produits à forte technicité et qui ont des durées de vie longue sont en mesure de mieux connaître les conditions d’utilisation des produits et l’évolution de leurs performances techniques. C’est le cas pour les fabricants de l’industrie aéronautique ou automobile par exemple. Les données ici représentent un levier pour améliorer les générations suivantes de produits en utilisant des données fines d’utilisation. Elles peuvent aussi représenter un moyen de développer un modèle économique autour des services associés aux produits. C’est le cas de General Electric qui a développé une offre services autour des produits et matériels d’exploitation vendus aux opérateurs de plateformes d’extraction de pétrole brut.

Deuxième exemple d’utilisation des données comme levier, dans un univers beaucoup plus personnel: Glow. Cette start-up fondée par un ancien de Pay Pal propose une application mobile pour celles et ceux qui veulent avoir un enfant. Glow collecte et analyse des données pour prédire le moment le plus propice pour concevoir un bébé.

Les données comme actif stratégique

La donnée, par sa possession-même, constitue un élément stratégique majeur pour défendre une position ou en attaquer de nouvelles.

Walmart Retail Link est non seulement une solution de tracking RFID précise des produits stockés en magasins (qui permet par exemple de réaliser un inventaire en temps réel) mais aussi et surtout un outil stratégique dans le rapport de force entre WallMart et les industriels. Avec Retail Link, la politique de stockage et son exécution devienne la responsabilité de l’industriel (et plus du distributeur) avec à la clé des gains possibles en cas de bonne gestion ainsi que des responsabilités accrues en cas de problème d’approvisionnement.

La donnée redistribue aussi la valeur au sein d’écosystèmes industriels. C’est particulièrement vrai dans les systèmes avec plusieurs sous-ensemble comme l’automobile ou l’aviation. Chaque fournisseur d’un sous-ensemble acquiert avec les données remontées par ses appareils connecté des informations sur le fonctionnement de l’ensemble de l’appareil (par exemple les données disponibles sur les moteurs d’avion informent sur les conditions d’exploitation de chaque compagnie aérienne). Les données constituent un levier de négociation dans la répartition de la valeur au sein de filières industrielles.

Diapositive06Xee est un boitier connecté pour rendre les véhicules communicants. La voiture connectée est un marché que l’on dit souvent promis aux constructeurs automobiles ou aux grands fournisseurs d’OS mobiles, comme Google ou Apple. L’exemple de Xee illustre pourtant une autre voie : la société qui a conçue le boîtier est une filiale du groupe Mobivia, la structure de diversification des propriétaires de Norauto et Midas. La donnée prend alors toute sa dimension stratégique : elle permet à un acteur de l’aftermarket non seulement d’imaginer un relais de croissance à son activité, mais aussi un moyen de défendre sa place sur son marché d’origine. Les données de Xee permettent de proposer de nouvelles offres d’entretien du véhicule, mais aussi de nouveaux modèles d’assurances ou de services premium… sans le constructeur automobile.

Dans le cas des grands acteurs du numérique, les données produites par l’internet des objets ont la même valeur d’actif stratégique que les traces numériques qui constituent déjà le moteur et le carburant de leurs modèles économiques. C’est grâce aux données que Google et Facebook parviennent à monétiser de la publicité. Des objets connectés signifient plus de données et des données de nature différente. Ces données constituent un nouveau gisement de carburant pour les modèles économiques des acteurs du numérique.

D’autre part, la bataille entre ces acteurs s’établit autour du point d’entrée sur internet. Chacun développe des stratégies pour s’assurer de rester ou de devenir le point d’entrée aux contenus sur le réseau. Les objets sont les prochains points d’accès au réseau (après les ordinateurs et les appareils mobiles) et les géants du numérique s’y engagent. C’est une façon d’interpréter les initiatives de Google dans les objets connectés (voiture, lunettes ou thermostats avec le rachat de Nest) : une stratégie de conquête des points d’entrée au réseau et de collecte de nouvelles données pour alimenter le modèle économique bi-face.

Trois valeurs non exclusives

Ces trois types de valeur peuvent se cumuler et certains objets connectés peuvent générer plus d’un type de valeur. Le Disney Magic Band peut être analysé de plusieurs façons. C’est un bracelet personnalisé que l’on commande avant de visiter un parc d’attraction, il enregistre les déplacements au sein du parc, sert de clé et de moyen de paiement.

Diapositive19Ces données sont bien sûr un levier pour un gestionnaire de parc : elles permettent d’ajuster en continu les ressources mobilisés dans le parc en fonction des déplacements des visiteurs. Elles permettent également d’identifier des patterns de visite et d’améliorer les prévisions. Les données peuvent également être vues comme un actif stratégique pour Disney : en disposant de ces données, l’entreprise est capable de tisser un lien plus fort avec ses clients, d’augmenter les fréquences de viste et de se différencier par rapport aux autres gestionnaires de parc. Enfin, on pourrait imaginer que d’autres acteurs économiques pourraient être intéressés par l’analyse a posteriori ou en temps réel des données issues de bracelets.

Ce qui caractérise les stratégies Data de l’Internet des Objets

On le voit, les stratégies données des acteurs de l’internet de objets sont différentes. Elles dépendent de l’activité historique ou principale de celui qui les met en valeur :

  • Pour certains, les données servent principalement à vendre des device, elles constituent un sous produit marginal. C’est le cas des fabricants d’appareils de quantified self comme Netnatmo ou Withings.
  • Pour d’autres, les données sont centrales car leur modèle économique est centré autour des données (ex : Google).
  • Enfin, pour des acteurs comme les industriels de produits de série, les données servent d’une part à améliorer la performance (en réduisant les coûts d’exploitation ou augmentant les revenus)  et d’autre part à développer des modèles économiques de services.

Les acteurs mobilisent des stratégies différentes, notamment car les compétences requises sur la chaîne de valeur de l’internet des objets sont très nombreuses (design d’objet, fabrication, distribution de produit, stockage et analyse de données, utilisation des données) et qu’aucun acteur ne peut prétendre (ou n’aurait intérêt) à les maîtriser toutes. On observe donc des stratégies de spécialisation et d’alliance. C’est certainement une façon d’analyser la décision récente de Nike de réduire ses investissement dans l’internet des objets et de travailler à un partenariat avec Apple.

La valeur d’une donnée diffère fortement suivant celui qui l’analyse ou qui l’utilise : une même donnée peut receler une valeur très forte pour un acteur et quasi nulle pour un autre. Egalement, ce ne sont pas toujours ceux qui détiennent les données qui peuvent en réaliser la valeur la plus forte ; à la fois pour des raisons de compétences et d’accès à un marché client ou à une utilisation.  Cela signifie par exemple que les fabricants d’appareils de quantified self se posent la question des partenariats à réaliser pour exploiter la valeur des données produites. Cela signifie aussi que les acteurs qui réalisent un métier non nativement numérique (comme les transports par exemple) s’interrogent sur le niveau de leur implication dans la valorisation des données : ont-ils plus intérêt à laisser d’autres acteurs s’enrichir en utilisant leurs données (quitte à percevoir une redevance) ou au contraire à limiter l’accès à leurs données ou les exploiter eux mêmes en créant de nouvelles activités.

A qui appartiennent les données de l’Internet des objets ?

Diapositive22Il nous semble essentiel de clarifier les enjeux de propriété des données. A qui appartiennent-elles : à celui qui utilise l’objet connecté, à celui qui le finance, à celui qui l’opère ou le fabrique ? La relecture des conditions générales d’utilisation (terms of service) de quelques grands noms de l’Internet des objets montre une grande diversité de pratiques. Mais dans l’ensemble, l’utilisateur cède une licence d’utilisation non révocable qui permet une réutilisation par le fabricant, parfois même sans accord préalable et explicite.

L’Internet des objets, un outil de redistribution de la valeur ?

On le voit, l’internet des objets et les données associés constituent une évolution déterminante dans les équilibres entre les acteurs. Il s’agit bien sûr d’un nouveau marché qui recèle des opportunités importantes. Il s’agit aussi et surtout d’un outil de redistribution de la valeur au sein de filières et entre secteurs économiques : c’est le moyen pour les acteurs du numérique de rentrer dans certains écosystèmes “physiques”, c’est le moyen pour certains sous-traitants d’affermir leur levier par rapport à leurs donneurs d’ordre (ou inversement), c’est le moyen pour les acteurs des produits d’augmenter leur présence dans le marché des services.

[1]  Pour avoir une vision plus exhaustive, le site de LeWeb12 en décembre 2012 à Paris recense quelques exemples et le site Postcapes recense les start-ups et projets dans le domaine de l’internet des objets et présente des synthèse des études disponibles sur ce marché. Ces initiatives sont classées en 4 champs d’application principaux: Body (les capteurs de l’activité humaine), Home (les objets connectés de la maison), City et Industry. Une cinquième catégorie concerne les objets connectés conçus et fabriqués en Open Source / Do it Yourself.

Datanomics: la révolution des proxies

Poursuite de l’exploration de la valeur des données engagée avec Louis-David Benyayer. Après un premier billet de présentation de Datanomics, nous vous proposons un éclairage sur le phénomène des proxies et son impact pour les entreprises et les individus. Ce texte est publié simultanément sur withoutmodel.com.

Tourists vs. Locals  (MapBox / Gnip)

Tourists vs. Locals: une analyse des tweets
par MapBox et Gnip

Derrière la masse de données, les proxies

Le paysage actuel des données est le plus souvent abordé sous l’angle de la volumétrie. Il est vrai que l’accroissement spectaculaire des volumes de données collectées et stockées est la caractéristique première du Big Data. Cet effet de massification des données nous semble pourtant en cacher un autre: l’apparition des proxies, c’est à dire le fait que plusieurs sources très différentes puissent permettre de mesurer le même phénomène.

Prenons un exemple, sous la forme d’une interrogation: combien de personnes fréquentent chaque jour l’avenue des Champs Elysées ? Parmi elles, combien de touristes étrangers ? Plusieurs proxies sont disponibles: on peut utiliser les données de l’API de twitter et isoler la localisation parmi les métadonnées des tweets, consulter les données de localisation des téléphones portables, scruter les requêtes formulées sur le moteur de recherche Google, analyser les données du pass Navigo, celles des cartes bancaires utilisées dans les commerces de la plus belle avenue du monde, celles de Foursquare, … Sans même évoquer les procédés plus classiques, tels que les enquêtes réalisées auprès de la clientèle touristique ou le comptage manuel à quelques points de passage.

La généralisation des proxies nous semble constituer un fait nouveau: en raison de la mise en données du monde, de la multiplication des traces numériques et des dispositifs de captation, il y bien souvent aujourd’hui plusieurs manières de mesurer le même phénomène.

Dit autrement: la rareté laisse peu à peu la place à l’abondance – et surtout à la fin de l’exclusivité de la mesure. Plus personne ne semble à l’abri:  même la mesure de l’inflation, a priori une fonction régalienne, se voit concurrencée par une mesure réalisée par Premise Data, une start-up co-financée par Google et Marc Andreessen. On a donc une compétition entre proxies, et bien sûr entre acteurs qui les portent !

L’erreur était juste 

L’émergence des proxies ne va pas sans heurts. Avec la profusion vient aussi la confusion: Quelle est la meilleure méthode pour mesurer le phénomène ? Qui a “raison”, qui a “tort” ?

On comprend assez rapidement que chaque source de données comporte ses propres limites. Il est probable que les touristes étrangers aient désactivé le transfert de données (fort coûteux en roaming), réduisant d’autant la capacité à tweeter en tous temps et en tous lieux. De la même façon, les données du pass Navigo permettront de disposer d’une bonne visibilité sur les Parisiens ou Franciliens disposant d’un abonnement et moins sur les touristes de passage. Les données issues des cartes bancaires en revanche permettront de disposer d’une vision relativement complète sur les dépenses (mais moins sur les circulations !). Autant de biais dans les méthodes de mesure.

Chaque donnée nous informe sur une partie de la réalité et afin de pouvoir les analyser, il est indispensable d’en comprendre les mécanismes de production.

Ce que la science peut nous apprendre des données

Dans les discours et les pratiques, la donnée est toujours investie d’une objectivité toute naturelle : les données ne mentent pas ! Toutefois, dans certains cas, la donnée, à défaut de mentir, s’est magistralement trompée.

Ce fut le cas quand Google Flu trends a largement surestimé les prévisions de propagation de la grippe pendant l’hiver 2012-2013. Pendant de nombreuses années Google Flu trends – l’un des mythes fondateurs du Big Data –  a été un très bon prédictif de la propagation du virus grippal aux Etats-Unis, bien plus réactif que la mesure officielle réalisée par les services sanitaires.

En décembre 2012, il a pourtant réalisé une estimation trois fois supérieure aux autres indicateurs et à la réalité de la propagation de la grippe. Pourquoi cet écart ? La raison est à chercher dans la source des données utilisées pour établir la prévision de propagation : les requêtes saisies dans le moteur de recherche. Or, à l’hiver 2012, le nombre de requêtes a fortement évolué en raison d’évènements extérieurs, rendant d’un coup beaucoup moins fiable l’indicateur produit par Google:

“‘(…) Several researchers suggest that the problems may be due to widespread media coverage of this year’s severe US flu season, including the declaration of a public-health emergency by New York state last month. The press reports may have triggered many flu-related searches by people who were not ill.” (Declan Butler dans Nature, février 2013)

Dans un monde de données nous avons tous à nous préoccuper des conditions de production de la donnée,  débattre et argumenter sur les sources et les méthodes. Nous avons besoin de développer ces capacités d’appréciation de la validité et de la fiabilité des instruments de mesure qu’on nous propose. Or le monde des proxies n’est pas celui de la recherche scientifique: jusqu’à preuve du contraire, l’algorithme de classement des pages web reste l’un des secrets les mieux gardés de Google !

Assez curieusement, la donnée brute reste un mythe vivace. On entend plus souvent l’injonction “show me the data” plutôt que la question: “explique moi comment ces données ont été produites”. On retrouve ici une tension entre le besoin de brutification et celui de contextualisation. Brutifier la donnée pour la rendre plus facilement réutilisable c’est une exigence. Mais pour autant c’est bien la compréhension du contexte de cette donnée  – qui l’a produit ? pourquoi ? comment ? pour qui ? – qui fiabilise les traitements issus de sa réutilisation !

Datanomics: explorer la valeur des données

Avec Louis-David Benyayer nous avons entamé une exploration de la valeur des données: où est la valeur, se mesure-t-elle uniquement en euros, ça change quoi pour les individus, les entreprises et la société ? Nous partageons ici les points de départ de notre réflexion. Ce texte est publié simultanément sur withoutmodel.com.

"Open Data Commons" (photo by jwyg)

« Open Data Commons » (photo by jwyg)

Données partout, justice nulle part

Dans l’actualité récente de la donnée, Nelly Kroes a cotoyé Edward Snowden. L’un a révélé des pratiques de collecte et de surveillance à grande échelle et l’autre a une nouvelle fois mis en avant l’exploitation des données comme la réponse aux déficits de croissance de nos économies européennes… Les données sont en train de bouleverser les équilibres économiques, sociaux et politiques. Et ce n’est probablement que le début, si l’on considère l’essor de l’Internet des objets et des nano-technologies.

Big brother vs big data : les discours autour de la donnée se concentrent autour de deux rationalités qui s’affrontent : l’une s’établit sur des raisonnements économiques et entrepreneuriaux et l’autre sur des raisonnements démocratiques. Pour certains les données sont une opportunité économique majeure tandis que pour d’autres elles sont un risque majeur pour la démocratie. Mais ce débat ne nous aide pas, l’opposition n’est pas productive car elle ne se situe pas sur le même plan.

Nous pensons les données de façon très (trop ?) fragmentée : Open data vs big data vs données personnelles. Cela fait sens car il faut distinguer les données produites par les individus de celles produites par les entreprises ou les Etats – nulle raison de leur appliquer la même réglementation. Mais cette fragmentation ne nous permet pas de saisir la question dans son ensemble car la réalité est que ces types de données sont interdépendantes (y a-t-il du big data sans données personnelles ?).

Nous pensons que mettre à jour ce qui fait la valeur des données, comment elle se partage nous permettra de sortir de cette pensée en silo, condition première pour mieux vivre et faire des affaires dans ce monde de données.

Que valent les données ?

Se poser la question, c’est d’abord interroger le paysage actuel des données. Leurs modes de production tout d’abord: aujourd’hui tout le monde produit de la donnée, parfois consciemment, parfois inconsciemment. Les humains, les machines, les objets connectés. Les entreprises – pas uniquement celles du numérique -, les Etats et même les communautés à l’instar d’Open Street Map.
Déluge de données nous dit-on, reprenant l’idée d’un flux que nul ne pourrait stopper ou ralentir, sauf intervention divine. Traces numériques, logs de connexion, métadonnées popularisées par la NSA et le juge Courroye, tweets et réponses à des formulaires … La donnée est aussi multiple dans les formes qu’elle peut prendre.

La donnée, de par sa nature même, interpelle ce qui fait traditionnellement la valeur des biens et des choses. La donnée n’est pas le pétrole: difficile de faire avancer deux voitures avec le même litre d’essence, tout à fait possible d’alimenter mille applications avec le même jeu de données !
Ce n’est pas non plus un bien rare: il y a aujourd’hui, grâce aux données, de multiples manières de mesurer ou d’approcher le même phénomène, ce que nous appelons des « proxys ». Twitter, Flickr, Orange, les commerçants des Champs Elysés: tous ont des données qui permettent de mesurer et de qualifier la fréquentation de la célèbre avenue par les touristes étrangers. Certains enregistrent des tweets ou des photos avec des métadonnées de localisation, d’autres repèrent sur leur réseau mobile l’activité de clients en roaming, les derniers enregistrent des numéros de carte bancaire, …

Ce que nous souhaitons comprendre et proposer à voir, ce sont les mécanismes qui donnent aujourd’hui de la valeur aux données.

La donnée comme matière première, susceptible d’être enrichie et revendue parfois très cher (dans le domaine de l’information financière par exemple). La donnée comme levier, qui permet aux entreprises d’optimiser leurs produits, leurs stocks, … Mais aussi la donnée comme actif stratégique, qui appuie et renforce la domination des plateformes – mais pas uniquement d’elles.

Que font les données, à nos entreprises et à nos sociétés ?

La donnée n’est pas uniquement le carburant de l’économie numérique. Elle conforte et renforce les plateformes. C’est la donnée qui leur permet en permanence de s’adapter, d’expérimenter. C’est aussi la donnée qui les rend si difficiles à quitter. Cheval de Troie, la donnée est-elle l’instrument qui permet aux acteurs du numérique de manger progressivement l’ensemble des secteurs économiques, de la mobilité à la culture ?

Dans ce vaste mouvement de contagion par la donnée, l’hypothèse de réaction est-elle à rejeter ? Des individus ont commencé à utiliser massivement des outils leur permettant d’utiliser internet sans pour autant céder la monnaie d’échange implicite que constituent leurs données personnelles. Ils ne sont pas tous pédophiles ou trafiquants de drogue. Ils accordent une valeur importante à leurs données. Quel sera à l’avenir la pénétration de ces pratiques de résistance ?

Autant de questions que nous souhaitons explorer avec le projet Datanomics.

Et concrètement
Nous allons réaliser dans les prochaines semaines une série de rencontres et d’entretiens avec des acteurs en France et en Europe et partager notre veille sur twitter avec le mot-clic #datanomics. Vous pouvez bien sûr y contribuer.

Une année en open data

Web2Day Nantes

Web2Day Nantes

Ce début d’année n’est pas uniquement la période des voeux, c’est aussi l’occasion d’un petit retour en arrière sur l’année 2013. J’ai repris mes agendas pour évoquer quelques sujets et collaborations qui auront marqué mon année « en open data ». Avec plein de liens à découvrir si vous avez loupé un épisode ;-)

Des conférences, encore et toujours

L’année 2012 était marquée par un très grand nombre de conférences et de villes traversées, bien sûr en lien avec la sortie de mon livre sur l’open data au printemps. En 2013, le rythme a été encore assez soutenu: près d’une trentaine de dates, en France et en Suisse. Je retiens quelques grands rendez-vous: l’OK Con 2013 à Genève (la grand messe de l’Open Knowledge Foundation), OuiShare Fest et Net:Lab à Paris, Web2Day à Nantes, … J’ai aussi donné une master-class à TelecomParis Tech sur l’open data des entreprises, qui a donné lieu à un webcast.

Des collaborations avec des collectivités

J’ai poursuivi mes collaborations avec plusieurs collectivités: le Conseil général des Hauts-de-Seine, les Régions Provence Alpes Côtes d’Azur, Auvergne, Nord Pas-de-Calais, Bretagne, des métropoles comme Rennes et Nantes. Parfois je suis intervenu pour le lancement du portail, parfois en réflexion sur la stratégie open data (en amont ou après le lancement des initiatives).

Des détours par la Suisse

En 2013 j’ai eu l’occasion de me rendre en Suisse romande à plusieurs reprise. Pour intervenir lors de l’OK Con, mais aussi pour poursuivre l’accompagnement des Transports publics de Genève (TPG) qui ont ouvert leurs données transports en fin d’année. Des contacts ont aussi été noués avec le Canton et la République de Genève (via le SITG).

L’open data des entreprises

Plusieurs collaborations intéressantes avec des entreprises: la SNCF (avec la Fabrique Digitale), la RATP (participation au jury de l’Open Data Lab), les TPG, la société Xee (participation au jury des Xee App Awards). Au cours du 1er trimestre, j’ai accompagné le service Infolocale de Ouest-France dans la mise à disposition des données évènementielles. Le portail a été lancé en cours d’année, et c’est à ma connaissance l’une des premières démarches opérationnelles de la part d’un groupe de médias…

Infolab

Je participe au programme Infolab de la Fing, en collaboration avec Claire Gallon (Libertic) et Sarah Labelle (Paris 13). L’année dernière, nous avons mené de front plusieurs rencontres nationales, à Paris, Marseille, Bordeaux et Rennes. Infolab a notamment produit une cartographie des compétences data que je vous invite à (re)découvrir. Au second semestre, j’ai participé avec Charles Népote à des expérimentations territoriales à Marseille et Aix-en-Provence. Nous y avons notamment testé des méthodologies pour des projets data, dont nous aurons sûrement l’occasion de reparler cette année.

Données personnelles et MesInfos

La question des données personnelles est revenue en force à plusieurs reprises en 2013. La CNIL a organisé, avec Etalab, une très intéressante journée de débats et d’ateliers autour de la thématique open data et respect de la privacy. J’ai eu le plaisir d’y co-animer un atelier. Mais rien ne vaut des expérimentations concrètes, et je suis donc particulièrement content de participer à MesInfos, un projet de restitution des données personnelles. Je m’y occupe plus particulièrement de la dimension « réutilisation des données ». Infolab, MesInfos: deux collaborations avec la FING qui se poursuivent en ce début d’année.

Etalab

J’ai co-animé, avec Charles Ruelle, deux ateliers dans le cadre de la démarche co-design pour la refonte du site data.gouv.fr, l’une à Rennes et l’autre à Marseille dans le cadre de l’Open Data Week. La nouvelle version qui a été lancée en fin d’année reprend d’ailleurs quelques idées qui ont émergé de ces ateliers (« un mélange de GitHub et de Stackoverflow », je vous laisse faire votre propre traduction).

A la fin de l’année, j’ai contribué à l’Open Data Camp et à DataConnexions #4, pour une expédition consacrée à l’égalité femmes-hommes. Toujours en lien avec l’actualité gouvernementale sur le sujet, j’ai été auditionné par M. Trojette de la Cour des Comptes, dans le cadre de son évaluation des redevances sur les données publiques.

Rennes, bien sûr !

Plusieurs actions open data en 2013 dans ma ville d’adoption. Au cours du 1er semestre, j’ai co-animé avec Bernadette Kessler plusieurs ateliers internes pour les services de Rennes Métropole et de la Ville de Rennes. Nous avons pu y affiner des méthodologies de sensibilisation déjà initiées en 2012, en particulier sur l’approche « mettre les mains dans le cambouis des données ». Ce travail s’est d’ailleurs poursuivi avec les acteurs culturels du territoire et a permis d’aboutir en fin d’année à l’ouverture de plusieurs jeux de données sur cette thématique, avec les Transmusicales de Rennes, les Champs Libres, l’Opéra, et bien d’autres.

A la Cantine numérique rennaise, nous avons organisé plusieurs rencontres: un atelier co-design avec Etalab, un débat sur l’open data des entreprises avec Ouest-Marchés, Bluenove, Celtipharm et DataPublica. J’ai lancé un cycle « Bonjour Data » pour les entreprises que nous accompagnons dans le cadre de l’Annexe (le second lieu de la Cantine, ouvert en 2013). Dans les derniers jours de 2013, la Cantine a accueilli la 4è rencontre nationale Infolab.

Quelques billets de blog

En 2013, les 5 billets de blog les plus consultés ont été les suivants: moderniser l’action publique par l’open data, données brutes ou données contextualisées, l’open data renforce-t-il le risque de désintermédiation ?, Open Data Transport: les enjeux du débat, mesurer l’open data et ses effets.