Mieux vivre avec les algorithmes grâce à l’algo-literacy

dlc-panel

Data Literacy Conference 2017 (crédit photo Crige Paca)

La seconde édition de la Data Literacy Conference organisée par la Fondation Internet Nouvelle Génération vient de se terminer à Aix-en-Provence.  A cette occasion, j’ai eu le plaisir d’animer une table ronde sur la littératie des algorithmes (algo-literacy) avec Sarah Labelle, Dorie Bruyas et Thierry Marcou. 

Mieux vivre avec les algorithmes: utiliser, comprendre et créer

Depuis quelques mois, un compte Twitter (@lesalgos) se livre à un détournement des plus intéressants: il re-tweete des articles de presse parlant d’algorithmes en remplaçant ce dernier terme par « les gens ». Le résultat est parfois déroutant, souvent amusant (« failles, biais, erreurs: faut-il croire tout ce que nous disent les gens ?« ). D’objets techniques, les algorithmes sont maintenant devenus des sujets qui semblent animés d’une volonté propre. La littératie des algorithmes – c’est à dire l’aptitude à les comprendre, les utiliser et les critiquer –  est l’un des outils dont nous disposons pour dépasser cette vision trop simpliste. Les algorithmes sont là pour durer, que l’on s’en réjouisse ou s’en désole. L’enjeu donc est d’apprendre à mieux vivre avec eux,  d’être capables d’en faire à nouveau des objets, d’en décortiquer les rouages pour démont(r)er leur supposée toute-puissance.

Le chemin ne sera pas sans embûches. Celles et ceux qui se frottent à la médiation aux données savent à quel point il faut ruser pour rendre les données plus accessibles et plus compréhensibles au plus grand nombre. Les « visualisations analogiques » de José Duarte, les expériences de Data Cuisine de Susanne Jaschko (tous deux sur scène à Aix-en-Provence cette année) ou les Data-Trucs du programme Infolab sont autant de tentatives souvent réussies de (faire) « mettre les mains dans le cambouis des données ».

Lors de cette table ronde nous sommes allés chercher l’inspiration du côté de la data literacy: est-ce que les grands principes de la médiation aux données (la physicalisation, le jeu, l’apprentissage par la manipulation notamment) s’appliquent aussi aux algorithmes ?

Rendre les algorithmes tangibles et « jouables »

Commençons tout d’abord par mettre les mains dans le « cambouis des algorithmes ». Ce n’est pas évident tant les systèmes numériques ressemblent aux moteurs que l’on découvre aujourd’hui en ouvrant le capot de sa voiture. D’un seul bloc, sans aspérité, le plus souvent même le cambouis semble avoir disparu. Difficile de savoir par où commencer.

Dorie Bruyas est la directrice de Fréquence Ecoles, une association basée à Lyon qui se consacre à l’éducation au numérique et aux médias pour les jeunes et ceux qui les accompagnent. Dorie a présenté l’une des activités qui composent la « valise data » de Fréquence Ecoles. « Youtube Data » est un jeu de cartes qui vous invite à se mettre dans la peau de l’algorithme de recommandation de la plateforme vidéo. Le jeu est composé de 48 cartes représentant un clip vidéo. Au recto on retrouve le nom de la chanson et une photo de l’artiste. Au verso figurent trois éléments sous la forme de métadonnées: les tags (par exemple #pop #miley #usa), un nombre de vues et un historique de consultation. Trois cartes, tirées au sort,  sont présentées aux participants (sur leur verso uniquement). A partir des métadonnées les joueurs (à partir de 11 ans) sont invités à deviner ce que l’algorithme de YouTube aurait recommandé: quel sera le quatrième clip proposé ?  A la fin de l’activité, l’animateur indique le temps qui aura été nécessaire (de l’ordre de 30 minutes) et indique aux participants que l’algorithme informatisé aurait  réalisé cette opération en quelques centaines de millisecondes.

youtubedata-1

Dans la peau de l’algorithme de recommandation de YouTube (par Fréquence Ecoles)

Bien sûr un tel jeu n’est qu’une représentation très partielle et incomplète du fonctionnement réel de l’algorithme de la plateforme vidéo. Dorie le reconnaît d’ailleurs volontiers. L’enjeu ici est plutôt de provoquer la discussion, la prise de conscience sur des pratiques quotidiennes des jeunes.

Sarah Labelle, maître de conférences à l’Université Paris 13 et partenaire de longue date du programme Infolab, a présenté elle aussi deux expériences qui visent à rendre plus tangibles, plus « manipulables » (au sens littéral) les algorithmes. La première s’appuie elle aussi sur un jeu de cartes, mais il s’agit d’un jeu de cartes classique auquel on retire une carte au hasard.  Les « joueurs » (plutôt des adultes) sont invités à prendre le jeu en main et à décrire la recette qu’ils utilisent pour retrouver la carte manquante. Sarah les invite ainsi à « verbaliser » un algorithme (car c’est bien de cela qu’il s’agit). Autre expérience, que nous avons initié tous les trois avec Loic Haÿ lors du forum des usages coopératifs de Brest en 2016 (« ouvrir la boîte noire des algorithmes sans être magicien ni développeur »): trier des chaussettes pour retrouver les paires. Activité quotidienne, triviale même, mais qui permet aussi de montrer que le plus souvent, il y a plusieurs manières de réaliser un objectif selon les contraintes que l’on pose. Par exemple lors de l’un des ateliers, les participants se sont mis à plusieurs pour trier les chaussettes. D’autres ont utilisé l’espace (une très longue table) pour disposer toutes les chaussettes et repérer visuellement les paires. Les plus joueurs ont remis en cause l’objectif même: pour eux, il n’y a rien de choquant à porter des chaussettes dépareillées.

rta-071-2-peugeot-j7-diesel-etai-large-737

Une invitation à mettre les mains dans le cambouis

La « jouabilité » des algorithmes il en a été question aussi avec Thierry Marcou, co-responsable du programme NosSystèmes de la Fondation Internet Nouvelle Génération. La jouabilité, c’est-à-dire la capacité à interagir librement avec un algorithme est d’ailleurs l’une des pistes explorées par NosSystèmes pour « amorcer une dialogue non-technique avec la technique« . Thierry a cité l’exemple des guides techniques publiés depuis la fin de la seconde guerre mondiale et qui ont connu leur pic de popularité dans les années 80. Chaque guide était consacré à un modèle de véhicule et expliquait, concrètement et pas à pas, comment réaliser les réparations des plus simples (changer un phare) aux plus complexes (remplacer un moteur). Ces guides constituaient de véritables invitations à mettre les mains dans le cambouis ! Dès lors, pourquoi ne pas envisager des guides techniques de l’ère algorithmique, qui permettent à chacun de bricoler un peu les algorithmes du quotidien ?

Défier les algorithmes, provoquer les controverses

 

camouflage-mode

CV Dazzle, la mode pour défier les systèmes de reconnaissance facile (NYT)

La littératie des algorithmes peut aussi prendre des chemins de traverse. Ainsi, la controverse est l’un des outils pour mettre en débat les systèmes. L’émergence des systèmes de reconnaissance faciale a provoqué la riposte: des artistes ont imaginé des maquillages / camouflages pour tenter de leur échapper. Ces « peintures de guerre » provoquent le débat sur l’utilisation des technologies, débat d’autant plus nécessaire qu’on apprend que la Chine utilise ces systèmes et le croisement de données personnelles pour « humilier » les piétons qui traversent en dehors des clous

Parfois ces démarches artistiques ne visent pas tant à créer la controverse qu’à la documenter. Ainsi, les systèmes de police prédictive (dont Predpol) sont déjà sous le feu des critiques pour leur efficacité limitée, les biais des données d’apprentissage ou encore les impacts de l’utilisation de tels systèmes sur l’activité des forces de l’ordre. Le magazine The New Inquiry a récemment mis en ligne une application (aussi disponible sur iOS) de « prédiction de la criminalité en col blanc« . WCCRS (white collar crime risk zones) reprend tous les codes graphiques de Prepol et s’appuie sur les données de l’ensemble des infractions financières commises depuis les années 1960… Bien sûr, derrière la blague potache se dessine la question des priorités de la lutte contre la délinquance.

white-predpol

La prédiction de la criminalité en col blanc (The New Inquiry)

 

 

 

Données et concurrence: quand l’algorithme travaille pour les cartels

2466357253_03622550a9_zL’Autorité de la concurrence française et son homologue allemande Bundeskartellamt ont publié la semaine dernière une étude sur l’impact des données sur le droit de la concurrence1, et notamment la capacité des acteurs d’un marché à mettre en oeuvre des pratiques anti-concurrentielles (cartels d’entente sur les prix, par exemple). Les données et surtout les algorithmes posent des questions nouvelles, renforcant d’autant plus la nécessité de penser leur régulation.

Quand on parle de cartels et d’ententes illicites, on imagine sans peine la scène suivante: des messieurs dans des costumes de marque, des cigares à la main, se réunissent dans les salons privés et les bars discrets des grands hôtels. Ils échangent des informations sur le marché et se mettent d’accord sur l’évolution des prix et des volumes.

A vrai dire je n’invente pas grand chose dans cette scène: les industriels des produits frais laitiers ont été condamnés en mars 2015 à une amende de 190 millions d’euros pour avoir procédé ainsi pendant plusieurs années. Dans le relevé de la décision de l’Autorité de la concurrence, on peut notamment y lire – cela ne s’invente pas – que les réunions se tenaient à chaque fois dans un hôtel parisien différent et parfois aussi dans la brasserie « Le chien qui fume » située près de Montparnasse …

Les données et les algorithmes vont donner du fil à retordre aux autorités en charge de la concurrence, nous explique en substance l’étude conjointe des deux autorités européennes. Leur préoccupation rejoint celle du département de la Justice américain, dont l’un des représentants a déclaré l’an dernier:

“We will not tolerate anticompetitive conduct, whether it occurs in a smoke-filled room or over the Internet using complex pricing algorithms. American consumers have the right to a free and fair marketplace online, as well as in brick and mortar businesses »2

 

L’image est destinée à frapper les esprits: les pratiques anti-concurrentielles voient aujourd’hui le jour non plus seulement dans les salons enfumés des hôtels, mais aussi à l’intérieur même du code informatique et des algorithmes. Ces derniers peuvent notamment être programmés pour réagir à des mouvements de prix des concurrents. Ils peuvent même intégrer dans leurs calculs les comportements passés des dits concurrents: comment ont-ils réagi au cours des dernières années ? On retrouve ici la capacité d’apprentissage propre aux traitements de type machine learning.

L’Autorité de la concurrence et le Bundeskartellamt pointent aussi le risque d’une entente non-intentionnelle ou non-coordonnée: les concurrents n’ont plus besoin de se retrouver ou de se mettre d’accord, l’utilisation d’algorithmes de fixation des prix identiques suffit à assurer cette coordination. « Difficult to prove » est l’une des expressions récurrentes de ce document. On voit bien effet qu’il va être très difficile de prouver les intentions d’un cartel qui ne se rencontre jamais, qui n’est jamais en relation, mais qui pourtant aboutit à une réduction de la compétition sur un marché donné !

Il me semble par ailleurs que les données sont un autre élément d’enquête à disposition des autorités de la concurrence. J’ai eu l’occasion il y a deux ans d’accompagner des étudiants de la chaire ESSEC Analytics encadrés par Nicolas Glady. L’un des groupes a ainsi pu travailler sur un cold case: les tarifs des carburants dans les stations-services de France3. Leur travail d’analyse s’est appuyé sur les données historiques proposées en open data par Bercy. On voit bien dans ce cas qu’il y a un intérêt, pour le régulateur, à se doter de capacité à traiter et analyser les données pour trouver de nouveaux indices de comportements anti-concurrentiels (j’utilise à dessein le terme d’indice et non de preuve formelle).

Il faut remettre ces premiers éléments dans une perspective plus large: la régulation des algorithmes et des traitements automatisés. Cette question est le plus souvent abordée sous l’angle de la protection de la vie privée – la Maison Blanche a par exemple pointé récemment le risque de discrimination pour les individus. L’étude de l’Autorité de la concurrence vient à point nommé pour rappeler que l’efficacité de la régulation tient aussi à une meilleure coordination entre le droit de la concurrence et celui qui protège la vie privée des individus (la loi Informatique et Libertés pour notre pays) 4.

— Notes

1 le document est actuellement disponible uniquement en langue anglaise, mais une traduction en français est annoncée.

2 Assistant Attorney General Bill Baer, cité dans « Artificial Intelligence & Collusion: When Computers Inhibit Competition« , Maurice E. Stucke & Ariel Ezrachi, mai 2015, University of Tennessee College of Law

3 Cold case car la condamnation des principaux pétroliers pour entente illicite sur les tarifs pratiqués dans les stations-services d’autoroute a été annulée par la suite.

4 On peut citer en appui la décision rendue concernant GDF. Saisie par un concurrent (Direct Energies), la société GDF a été condamnée à fournir les données de consommation de ses clients à des tiers pour faciliter l’entrée sur le marché de nouveaux concurrents. En vertu des principes de la loi Informatique et Libertés, les clients de GDF devaient donner leur accord explicite à ce transfert. Et en pratique une très grande part d’entre eux l’ont refusé, réduisant d’autant la portée de la décision de l’autorité de la concurrence.

Crédit photo: Fairmont Hotel Lobby, San Jose California par Pargon