Algorithmes: à qui profite le flou ?

Internet Actu relate récemment la rencontre organisée par France Stratégies à propos de la responsabilité des algorithmes. Daniel Le Métayer, chercheur à l’INRIA, évoque notamment le fait qu’il est souvent bien difficile de savoir ce que désigne précisement ce terme d’algorithme. « Recette de cuisine » pour les uns, « ensemble de procédés de calcul » pour d’autres et même tout simplement « programme informatique » pour les derniers.

Ce flou n’empêche aucunement le terme algorithme de fleurir un peu partout dans la presse (de moins en moins) spécialisée. Ainsi le débat actuel aux Etats-Unis portent sur l’algorithme de classement de contenu de Facebook, accusé de partialité dans la campagne des primaires (un élu du Dakota du Sud a même demandé à Mark Zuckerberg d’expliciter le fonctionnement de son système de curation).

C’est l’une des caractéristiques des mots-valise: leur imprécision est à la hauteur de leur popularité. Dès lors, on peut légitimement se demander: à qui profite le flou ? Qui a intérêt à continuer à désigner, de manière aussi vague, ces systèmes automatisés de traitement ?

Il faut tout d’abord regarder du côté des concepteurs de ces systèmes. Quand on parle de l’algorithme de Google, ou de celui de Facebook, on tend à résumer ces entreprises à un simple objet technique, a priori asexué et surement neutre. Parler de l’algorithme d’Uber ou de Facebook, se concentrer uniquement sur cela, c’est passer sous silence le modèle économique de ces organisations, le système dans lequel elles interviennent, les valeurs portées par les hommes et les femmes qui les imaginent, les conçoivent, les développent et les optimisent. Il y a de la chair derrière les algorithmes, des passions, des contraintes, des intentions, …

Ensuite le terme d’algorithme fleure bon la précision des mathématiques, des statistiques*. Parler de « programme informatique » c’est beaucoup plus trivial et cela évoque aussi davantage l’idée que le code informatique – et le développeur – sont faillibles. Si l’algorithme est paré des vertus de la science, le code lui est porteur de bugs, de dysfonctionnements, d’imperfections. D’humanité, en quelque sorte.

Enfin, il me semble que le flou entretenu n’est pas un accident. L’utilisation du terme d’algorithme tient à distance. L’objet semble hors de portée, difficile à saisir (comprendre) donc difficile à saisir (tenir). Certains concepteurs évoquent d’ailleurs la complexité des systèmes, et en particulier celles des systèmes apprenants (machine learning) pour s’excuser, par avance, de ne pas être en mesure d’en expliquer le fonctionnement, les intentions et les contraintes. Il me semble pour ma part que l’intelligibilité de ces systèmes est l’une des conditions essentielles de leur acceptabilité sociale et in fine, de la capacité à demander des comptes à ces systèmes (accountability).

* On peut faire le parallèle avec l’origine du mot « donnée » qui évoque l’idée d’un objet exogène (les données du débat), qui vient d’on ne sait où mais n’est pas censé être mis en débat.

3 réflexions au sujet de « Algorithmes: à qui profite le flou ? »

  1. Tout cela est bien généralisant…
    Considérons par exemple le cas suivant : un contrôleur informatisé utilise les données provenant de capteurs comme signaux d’entrée dirigés vers un algorithme de commande qui détermine de quelle manière modifier la pression hydraulique d’un vérin. Cet algorithme de commande est en fait un contrôleur flou dont les règles ont été établies entièrement automatiquement par algo génétique : aucun « concepteur » n’est en mesure « d’en expliquer le fonctionnement, les intentions et les contraintes ». Ce système n’étant pas « ’intelligible », il ne serait donc pas « acceptable socialement » et on ne pourrait pas lui « demander des comptes » ? L’algorithme décrit ici est pourtant installé dans tous les véhicules depuis 20 ans : c’est un ABS. Si son « acceptabilité sociale » a été mise en cause, cela m’a échappé.

  2. Ping : Algorithmes: à qui profite le flou ? | I...

  3. Bonjour Vincent,

    Merci pour ce commentaire ! J’étais certain de te croiser sur la route de ma croisade pour une plus grande intelligibilité des systèmes 😉

    Ce que j’essaie de souligner tient finalement en deux idées:

    1/ on doit traiter les systèmes automatisés et les algorithmes comme des dispositifs socio-techniques et non comme de (simples) objets techniques,
    2/ l’intelligibilité est une condition, nécessaire mais pas suffisante je te l’accorde, à l’acceptation sociale de ces systèmes.

    Tu cites en contre-exemple le système ABS. Ce n’est pas de mon point de vue un système qui échappe à la compréhension: il est documenté (et même breveté), on en connait les concepteurs (même s’il y a un débat sur la primauté de l’innovation avant sa popularisation par Bosch).

    Cela me donne aussi l’occasion de préciser un point: bien sûr la question de l’acceptabilité sociale se pose dans des termes différents selon le système dont on parle (et merci de ton alerte sur le risque de sur-généralisation). ABS et APB ne sont pas similaires de ce point de vue !

    En l’occurrence sur la question de l’intelligibilité des systèmes plus complexes, du type machine learning, je reprends les termes de Jenna Berrel (Berkeley) dans un papier récent: « How the Machine ‘Thinks:’ Understanding Opacity in Machine Learning Algorithms ». Elle distingue notamment trois niveaux d’opacité:
    – l’opacité volontaire, recherchée par les entreprises et les organisations qui mettent en avant ces systèmes automatisés (le secret des affaires en est une excellente illustration !),
    – l’opacité lié à la digital literacy et plus particulièrement la capacité à comprendre le code informatique,
    – l’opacité spécifique aux dispositifs de machine learning, qui seraient plus difficilement accessibles à l’esprit et à l’intelligence humaine.

    Le papier complet est là (lecture chaudement recommandée): http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2660674

Les commentaires sont fermés.