Internet Actu

S'abonner à flux Internet Actu
Pour comprendre ce que notre rapport à la technologie transforme
Mis à jour : il y a 2 heures 53 min

Réguler par la donnée ?

mar, 12/12/2017 - 07:00

L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une initiative de la Harvard Kennedy School pour promouvoir une ville réactive aux données.

D’une régulation par l’autorisation à une régulation par la responsabilité ?

Pour lui, il est nécessaire de passer d’une régulation par la permission (et son corollaire, l’interdiction) à une régulation par la responsabilité informée par la donnée. Les plateformes du web ne sont pas tant des plateformes que des « moteurs pour la régulation », expliquait-il au Personal Democracy Forum de 2016 (vidéo, présentation), et ces moteurs de régulation vont directement impacter la manière dont le secteur public pratique la régulation.

Dans le système de régulation traditionnel, explique-t-il, une entreprise ou un individu doivent demander une autorisation, comme c’est le cas des licences de taxis ou des permis de construire. Pour cela, ils doivent apporter une foule de documents, pour prouver qui ils sont ou expliquer ce qu’ils vont faire. Une fois accordée, une surveillance légère est parfois opérée, mais la plupart du temps aucune donnée ne vient informer le régulateur.


Image : la matrice de la régulation par Nick Grossman, de la régulation par l’autorisation à la régulation par la responsabilité.

Dans le monde des plateformes, la régulation se pratique totalement différemment. Il est très simple de devenir un vendeur sur eBay ou un conducteur pour Uber. Par contre, beaucoup de données sont collectées : la surveillance comme la responsabilité sont assez strictes, encadrées et continues. Pour Grossman, la différence entre ces modèles nous fait passer d’une régulation par l’autorisation à une régulation par la responsabilité. Pour lui, c’est là une innovation qui rejoint le nouveau paradigme que décrit Carlota Perez à savoir le paradigme de l’âge de l’information (qui succède aux paradigmes de l’âge du pétrole, de l’électricité et de la vapeur…). Chaque âge a apporté son lot d’innovations spécifiques, non seulement technologiques, mais plus encore en matière de législation et de régulation. Il en conclut que les données apportent des réponses pour transformer nos pratiques de régulation.

En connaissant mieux le trafic automobile par exemple, grâce aux données des plateformes de véhicules avec chauffeurs, de covoiturage ou de GPS communautaire on peut imaginer de nouvelles formes de régulation. Comme en connaissant mieux la boulangerie on peut adapter l’offre (c’est ce que font les plateformes en s’adaptant sans cesse à leurs utilisateurs) mais également la régulation (puisqu’on connaît l’activité des utilisateurs).

Comment expérimenter la politique conduite par la donnée ?

Grossman défend activement une régulation informée par la donnée – ce qu’il appelle « la politique conduite par la donnée » (data-driven policy) – qui imagine que les règles qui s’imposent à tous soient construites sur de l’information statistique pour rétroagir sur la société elle-même. Reste que pour aboutir à cette forme applicative de l’ingénierie sociale, le problème est bien sûr de pouvoir avoir accès aux données, de les partager, entre citoyens, entreprises et autorités et également de trouver les modalités communes de leurs usages.

Mais c’est loin d’être le cas. « Les plateformes sont comme de petites dictatures qui édictent leurs propres règles », rappelle-t-il. Difficile pour les autorités publiques d’avoir accès à ces données, d’autant que tous les accès aux données ne sont pas nécessairement de confiance (comme nous le pointions dans notre article sur les limites à la loyauté des plateformes). Sans compter également que toutes les autorités ne sont pas équivalentes : quand le FBI veut avoir accès aux données des Gafa, ce n’est pas la même chose que quand une ville veut avoir accès aux données de ceux qui organisent du transport ou du logement sur son territoire. Rendre accessibles les données nécessite donc d’imaginer et de construire des formes de régulation (la carotte et le bâton), en partie parce que la valeur de ce partage est loin d’être toujours claire (et ce d’autant plus que ce partage pose des questions de confidentialité et de concurrence). Plutôt que de trouver une solution magique à cette tension, Grossman demeure pragmatique : pour promouvoir de nouvelles formes de transparence, le mieux est encore d’expérimenter, afin de trouver, pour chaque cas, les bonnes modalités de mise à disposition des données, de partage, de valeurs…

Nick Grossman évoque deux exemples en démonstration de sa thèse : Airmap, un système de gestion du trafic aérien sans pilote qui facilite l’échange de données et le contrôle du trafic aérien pour les drones (signalons d’ailleurs que le Secrétariat d’Etat à la modernisation de l’action publique vient de lancer une plateforme assez similaire, drone.beta.gouv.fr). Une plateforme de régulation qui fait le lien entre les pilotes et les autorités, en développant par exemple de la géo-identification pour interdire certains espaces aux drones ou favoriser leur identification par les autorités. Une plateforme qui a le potentiel de créer une régulation adaptée aux utilisateurs depuis les données que les pilotes et les constructeurs partagent. Grossman espère que nous allons voir se démultiplier ce type de plateformes très spécifiques, « verticales », permettant aux différents acteurs de discuter entre eux, très concrètement, par le partage de données.


Image : la carte des drones, avec ses zones de régulation, via drone.beta.gouv.fr.

D’autres plateformes, plus horizontales, permettant de mieux partager des données et de mieux les protéger par exemple devraient également voir le jour, estime l’investisseur, en évoquant Enigma (né au MIT) et le chiffrement homomorphe qui permettent d’interroger les données et de faire des calculs tout en les laissant chiffrées. Une solution technique qui permettrait par exemple de mieux partager des données sans que les systèmes y accèdent en détail tout en leur permettant de les interroger à leur gré. Un exemple éminemment vertueux à nouveau, même si cette opacité sur les données générée par le chiffrement pose aussi des questions sur la validité des données partagées.

Des limites de la « politique conduite par la donnée »

En fait, contrairement à ce qu’avance Grossman, la régulation amont (la licence, l’autorisation ou leur contraire, l’amende…) ne recoupe pas nécessairement le périmètre sur lequel agit la régulation par les données. En fait, les deux formes ne s’opposent pas tant qu’elles se complètent, avec des objectifs et des modalités distinctes. Surveiller la construction des immeubles n’est pas la même chose que leur donner une autorisation de construction selon le respect des critères auxquels les constructeurs doivent se conformer avant la construction. La régulation par les données ne pourra peut-être pas s’appliquer partout et pour tout. L’instauration de boucle de rétroaction vertueuse nécessite de la transparence et du dialogue pour peaufiner les critères (évaluer et surveiller dans le temps leur pertinence) comme le soulignait très bien Cathy O’Neil.

Autre problème : les plateformes sont très fragmentées, ce qui pose la question de l’agrégation des données multiples, pas forcément compatibles entre elles, de leur coordination et de la gestion de cette coordination, comme nous le soulignions déjà. Enfin, autre écueil et non des moindres : la question de la validité et de la pertinence des données. Les politiques conduites par la donnée posent la question des données utilisées et introduisent le risque d’un facile datasolutionnisme, produisant des indicateurs et des politiques depuis des données peu adaptées à cela. Or, tous les problèmes ne sont ni visibles ni solubles dans les données. L’enjeu n’est pas tant de conduire des politiques depuis les données, de produire une régulation à la demande, que de trouver dans les données des modalités de rétroaction vertueuses. D’où l’appel de Grossman à expérimenter, à jouer du « bac à sable réglementaire » pour trouver les modalités effectives du partage des données et des formes de régulation.

Reste que « la politique conduite par la donnée » pose bien d’autres problèmes encore. Démultiplier les données n’abolit pas les choix politiques comme de savoir quelles données et quels critères sont utilisés pour la régulation. A l’image du débat actuel sur les prérequis attendus des lycéens pour postuler dans les formations universitaires : si l’on demande des notes ou compétences minimum, reste à savoir lesquelles, comment et par qui elles sont déterminées et évaluées. Si vous devez avoir au moins un 13 dans telle matière pour concourir à telle formation, comment est calculée cette note ? Est-ce celle des premiers trimestres de terminale ou celle du du Bac ? Est-ce que ce prérequis est calculé depuis les résultats des précédents candidats (aucun de ceux qui sont allés dans cette formation n’ont réussi avec moins de 13 dans cette matière) ? Avec le risque bien sûr, que les critères choisis s’auto-renforcent. Enfin bien sûr, les systèmes automatisés posent la question des possibilités de recours…

Le problème de l’accès aux données n’est pas non plus un petit problème. Même si cet accès était facilement possible, cela ne signifie pas pour autant qu’il soit loyal, comme le soulignait les activistes Murray Cox et Tom Slee en montrant qu’Airbnb ne donnait pas accès à toutes ses données comme les problèmes de manipulation de données d’Uber. A Bordeaux, l’Observatoire Airbnb monté par un élu local, Matthieu Rouveyre, pointe également toutes les limites de confier des formes régulatoires aux plateformes. En fait, l’une des questions de fond que pose « la politique conduite par la donnée » est que bien souvent elle repose sur la nécessaire fusion de la plateforme et de la politique, avec le risque d’être juge et parti. Une perspective qui pose une question de régulation intrinsèque : comment séparer ces deux perspectives dans des outils, qui par nature, tirent leur force de cette double capacité ? Or, nos modalités démocratiques ont toujours veillé à distinguer les pouvoirs. Les plateformes de données, par essence, proposent à la fois des modalités où la mise en oeuvre, le contrôle et l’autorité sont interdépendants, un peu comme si les pouvoirs législatifs, exécutifs et judiciaires procédaient d’une seule et même entité. L’extension de l’action aux données elles-mêmes que recouvre l’enjeu des politiques conduites par les données pose la question de leur contrôle démocratique. Le risque est que mesures et données deviennent performatives, les plateformes deviennent productrices de leurs propres règles favorisant à terme un mandat impératif et une société sans pouvoir.

Le risque d’une Gouvernance par les nombres, soulignait le juriste Alain Supiot dans son ouvrage éponyme, est que la régulation par la donnée transforme la politique en simple fonctionnement, que les mesures et les critères de performances qu’elle produit devienne le critère de la gouvernance. Le risque que cela induit est que le système produise sa propre optimisation depuis des critères retenus sans grand contrôle démocratique et sans séparation des pouvoirs entre le système et la régulation qu’elle produit. Le calcul devient autoréférentiel, produisant à la fois des indicateurs, la mesure et son but.

Quand les machines servent à la fois à rendre compte, à administrer, juger et légiférer… le risque est de voir fusionner la satisfaction des indicateurs et la réalisation des objectifs au détriment de tout contrôle démocratique par ceux qui sont calculés, administrés, jugés et ainsi légiférés.

Hubert Guillaud

Catégories: Veille et actualités

Le niveau des discussions politiques a (encore) baissé

mer, 06/12/2017 - 07:00

Vous pensez que la qualité des discussions politiques (notamment en ligne) ne cesse de se dégrader ? Mais s’agit-il d’une simple impression subjective, ou cela traduit-il une réalité ? Selon une étude dirigée par Rishab Nithyanand (@rishabn_) de l’institut Data & Society (@datasociety), et rapportée par le New Scientist (@newscientist), il semblerait bien que le niveau des discussions, déjà pas très élevé, ait atteint de nouveaux abîmes…

Les chercheurs ont pris Reddit comme objet de leur analyse. Pourquoi Reddit ? Parce que, nous explique le New Scientist, les commentaires peuvent être plus longs que les proverbiaux 140 (pardon, 280) caractères de Twitter. Et, contrairement à Facebook, on n’est pas obligé de dévoiler son identité sur Reddit, ce qui garantit une plus grande liberté de ton.

Ont donc été analysés pas moins de 3,5 milliards de commentaires publiés par 25,3 millions de personnes entre 2007 et 2017. Ces données étaient divisées en deux groupes : l’un était composé des commentaires sur des sujets non politiques, et l’autre, on l’aura deviné, regroupait toutes les discussions portant sur ce domaine.

Résultat, les usagers des forums politiques utilisaient 35 % de termes agressifs en plus que les auteurs de commentaires non politiques. Et cette tendance s’est montrée encore plus forte entre mai 2016 et mai 2017 (donc, la période englobant la campagne présidentielle américaine et les premiers mois de Donald Trump à la Maison-Blanche) que pendant toutes les autres années.

Les chercheurs ont également analysé le niveau de complexité des messages en utilisant un test éprouvé, celui de Flesch–Kincaid. Ils ont découvert que le niveau global des commentaires était passé du niveau d’un adolescent de 12 ans (ce qui n’était déjà pas terrible) à celui d’un enfant de 6 ans au cours des dernières années.

Quelle peut être la cause d’une telle dégradation ? Cela peut s’expliquer par plusieurs raisons : ainsi, l’équipe a repéré l’arrivée d’un grand nombre de nouveaux utilisateurs Reddit qui auront peut être contribué à dégrader la qualité du discours. Il est également possible que des extrémistes, qui ne postaient pas jusqu’ici sur des sites « mainstream », se soient mis à y participer, donnant ainsi un tour plus violent aux conversations. Autre possibilité, plus inattendue : qu’un grand nombre des posts aient été effectués par des robots. Comme l’a rappelé Nithyanand au New Scientist, c’est une pratique qui s’est déjà largement développée sur Twitter : « pendant le Brexit, ils ont juste retweeté des propos en faveur du camp de Leave… Lors des élections américaines, il s’est agi d’une campagne de propagande complète, qui a excité les gens et alimenté un feu d’insultes partisanes. »

Et quel est le rôle de Trump dans tout ça ? Pour Nithyanand, on ne peut pas déduire avec certitude un rapport de cause à effet entre son accession au pouvoir et la dégradation du discours (ou l’inverse). Mais tout de même, précise-t-il, « L’étude montre une forte corrélation entre la montée de la popularité de Trump et une augmentation de l’agressivité… Les politiciens de haut niveau ont la responsabilité de rester plus civils, parce que les gens imitent leur comportement. »

Catégories: Veille et actualités

GPS : de la valeur par défaut

mar, 05/12/2017 - 15:42

Sur son blog, Michael Verdi (@michaelverdi), designer pour Firefox, pointe un excellent exemple des ambiguïtés des architectures de choix décidées par-devers nous.

Michael possède un véhicule hybride, une Chevrolet Volt. Pour surveiller sa consommation électrique, il dispose d’un tableau de bord précis qui lui montre par exemple que sa batterie se vide bien plus rapidement lorsqu’il roule plus vite, à 120 qu’à 100 km/h. Or, il a remarqué que les GPS qu’il utilise ont toujours tendance à lui proposer les itinéraires les plus rapides, c’est-à-dire ceux qui passent par les voies les plus rapides. Pour se rendre à son restaurant préféré, Apple Maps et Google Maps l’envoient tous les deux sur la voie rapide, lui faisant faire des itinéraires entre 14 et 12 kilomètres. Or, s’il prend la route la plus courte, sans passer par les voies rapides, il ne fait que 8 kilomètres, mais met 1 à 2 minutes de plus. Or, a-t-il calculé, s’il utilise la route la plus rapide et qu’il va plus vite, sa voiture va consommer bien plus d’énergie que s’il prend la route la plus courte. Il échafaude ensuite, via un rapide calcul, que baser les GPS par défaut sur l’économie d’énergie plutôt que la vitesse permettrait d’enlever de la circulation l’équivalent annuel de quelque 800 000 voitures aux États-Unis.

Qu’en serait-il si les GPS de voiture, par défaut, nous montraient les itinéraires les plus respectueux de la planète, les plus économes en énergie, ou les plus respectueux de nos portefeuilles ? Chiche ?

Catégories: Veille et actualités

De l’automatisation des relations… à notre propre automatisation

mar, 05/12/2017 - 07:00

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan Polgar (@techethicist) pour Quartz. Mais leur efficacité s’avance sous le masque de la duplicité. Et le risque à venir, à mesure que cette automatisation va investir tous nos outils, est que nous ne sachions bientôt plus à qui nous nous adressons, s’inquiète le journaliste. Avec les e-mails personnalisés, par exemple, le récepteur pense recevoir un message de l’expéditeur, quand il ne communique qu’avec la « marionnette » de l’expéditeur, un programme qui le plus souvent, ne donne pas accès à l’expéditeur (comme le rappellent les messages du type : « Nous vous informons que les messages reçus sur cette adresse e-mail ne sont pas pris en charge » ou « Merci de ne pas répondre à ce message »).

Pour David Polgar, le développement de l’automatisation de portions significatives de nos communications, en les présentant comme réelles, relève indubitablement de la tromperie.

En fait, explique-t-il, ces systèmes automatisés visent à nous aider à élargir le sentiment d’intimité à l’heure où les outils numériques nous permettent d’entretenir de plus en plus de relations. Au lieu de réduire ou limiter nos relations ou d’être transparents sur l’utilisation d’outils automatisés, nous nous dotons de bots, de « marionnettes », censées nous représenter pour démultiplier et entretenir nos relations. Mais cette communication via des bots, qui se présente comme authentique, n’est pas une forme inoffensive d’efficacité communicationnelle : elle méconnaît complètement les qualités fondamentales des relations. Les relations sont construites sur la réciprocité de temps ou d’énergie émotionnelle. Communiquer avec autrui via des systèmes automatisés en faisant croire à un investissement authentique tient donc plus de la duperie qu’autre chose. David Polgar explique ainsi avoir reçu un message automatique personnalisé après s’être abonné à une personne sur Twitter. Un message qu’il a trouvé plus offensant qu’efficace. Le problème estime-t-il, c’est que si nous sommes prêts à utiliser des outils de communication automatisés pour faire passer nos propres relations à l’échelle, nous sommes beaucoup moins enclins à accepter qu’on utilise ces mêmes outils sur nous. Le risque à terme, c’est celui d’une course à des relations complètement automatisées, produisant une communication sans fin et sans frictions… mais entièrement inutiles.

Dans un autre article sur le même sujet écrit pour l’un des blogs d’IBM, David Polgar rappelle d’ailleurs que le test de Turing lui-même, ce Graal de la mesure de l’intelligence artificielle, a pour principe l’imitation : l’intelligence pour Turing consistait à ce que la machine parvienne à se faire passer pour un humain. Pas sûr pourtant que le fait de confier notre communication à des machines représente une grande avancée. Ici, il prend l’exemple de Linked-in qui propose d’envoyer des messages standardisés à ses relations par exemple pour les féliciter de leur anniversaire de travail (un concept qui semble lui aussi provenir des profondeurs de la simplification automatique). Comme dans le cas du rituel des anniversaires sur Facebook, de plus en plus souvent, nous pouvons attacher des messages à nos avatars en ligne, des messages qui se veulent pleins d’humanité, mais qui sont en fait dépouillés de toute humanité, puisqu’ils peuvent être rédigés et adressés sans aucune intervention humaine. Pour la psychologue Liraz Margalit, responsable de la recherche comportementale chez Clicktale, le problème est qu’en prenant l’habitude d’interagir avec des robots, nous réintroduisons dans nos rapports avec des humains des modèles que nous développons dans nos interactions automatisées.

Pour le philosophe Evan Selinger (@evanselinger), responsable des recherches et de l’éthique du Centre pour les médias, les arts, les jeux, l’interaction et la créativité du Rochester Institute of Technology, le développement de nos « liens faibles » qu’entretiennent les réseaux numériques, nous poussent à une communication succincte. « Nous subissons collectivement l’attraction d’adopter des styles de communication marchandisés ». « Quand notre comportement communicatif est conçu pour devenir plus automatique que délibératif, nous pouvons avoir l’impression que c’est notre humanité même qui s’effondre », explique encore Selinger.

Evan Selinger et le juriste Brett Frischmann (@brettfrischmann), qui publieront au printemps 2018 Re-Engineering Humanity, ont récemment produit une réflexion sur une forme de test de Turing inversé, pour tenter d’évaluer nos différents niveaux d’intentionnalité. Pour Selinger et Frischmann, le monde ne se sépare plus seulement entre humains et robots, mais se complexifie d’« humains botifiés » et de « bots humanisés ». Pour les chercheurs, c’est à nous de rester conscients de la manière dont nous communiquons. Tout l’enjeu, expliquent-ils, consiste à mesurer si la technologie augmente ou diminue notre humanité. Sommes-nous en train d’être reprogrammés par les machines ? Selon eux, il nous faut une méthode pour comprendre la valeur des dynamiques relationnelles qui se tissent entre machines et humains. Pour cela, si on mesure l’humanité des machines, il nous faut en regard tenter d’évaluer quand et comment nous nous comportons comme des machines.

Pour eux, la question de savoir ce que signifie être humain face aux machines n’est plus si triviale. Nous ne devrions pas tant avoir peur des robots, que d’avoir peur de devenir nous-mêmes des robots, expliquent-ils. « Il nous faut introduire des valeurs humaines dans la technologie plutôt que la technologie n’introduise ses valeurs dans notre humanité ». Pour cela, il faut être capable de mesurer quand une technologie est déshumanisante ou quand les humains ne pensent pas ou ne se comportement pas en humains.

Comme le soulignait les deux auteurs dans une tribune pour le Guardian, l’enjeu n’est peut-être pas tant de savoir si les robots vont prendre notre travail que de savoir si leur démultiplication ne va pas nous transformer en robots, nous « saper de notre humanité ». Depuis les chaînes de montage de Taylor où les humains se livrent à des tâches répétitives de robots, les hommes sont devenus des rouages de machines programmables. Et la version moderne et numérique du taylorisme est plus puissante et plus déshumanisante que jamais. Avec le Big Data, le taylorisme s’est propagé bien au-delà de l’usine. Des livreurs à vélo aux chauffeurs de voitures qui doivent suivre à la lettre les instructions des machines… partout les humains sont surveillés, monitorés, suivis, tracés, synchronisés, conduits par des capteurs qui mesurent tout, de leurs emplacements permanents à leurs performances. Comme le soulignent certains chercheurs, comme Karen Levy (qui a étudié par exemple la surveillance dans les lieux de travail hypermasculins), les systèmes de gestion intenses réduisent l’autonomie des travailleurs, accroissent les cadences… et donc leurs effets psychosociaux, comme la perte de sommeil.

Pour les auteurs, ce n’est pas seulement que l’intensité de la surveillance s’est accrue, c’est aussi qu’elle s’est dissimulée partout : dans les outils que les employés utilisent, dans les caméras de surveillance, dans les logiciels qu’ils utilisent… Surtout concluent-ils, si sur le papier transformer les humains en machine semble produire de l’efficacité, rien n’est moins sûr (à tout le moins, si c’est le cas, c’est sans mesurer les coûts sociaux et les contreparties qui ne sont pas assumées par ceux qui mettent en place ces techniques).

La déshumanisation n’est pas seulement imputable à l’utilisation croissante de la technologie, expliquent-ils encore dans un autre article pour Quartz. Nous sommes trop confiants et dépendants des développements technologiques et nous supposons donc que chaque nouvelle technologie est bénéfique par nature. L’efficacité également alimente notre engouement : or, être humain est parfois coûteux, notamment en terme d’efficacité. L’optimisation ne peut pas tout.


Vidéo : Sur We Make Money Not Art, Regine Debatty revenait sur le festival DocLab à Amsterdam dont le thème était justement « est-ce que les robots nous imitent ou imitons-nous les robots ? » Elle évoquait notamment le dernier projet de Superflux et Mozilla, mené par Brett Gaylor, le réalisateur du documentaire Do Not Track, Nos amis électroniques (vidéo), une critique des interfaces vocales qui nous rendent fous en nous demandant, comme le feraient des enfants, les raisons à ce qu’on leur demande de faire.

Catégories: Veille et actualités

Vers une ville numérique ingouvernable (2/2) ? Le modèle de la startup en ses limites

ven, 01/12/2017 - 11:46

L’innovation n’est pas absente de la ville numérique. Au contraire. Elle est foisonnante. Mais ce foisonnement apparent cache une certaine homogénéité qui se cristallise autour de l’impact d’un modèle ultra-dominant : celui de la startupisation de l’innovation. Or, les enjeux que soulève le programme Audacities de la Fing (éditeur d’InternetActu.net) et de l’Iddri, montrent qu’innovation et gouvernance sont liées, qu’elles sont les deux faces d’une même demande collective. Reste que l’arrivée des startups, ces nouveaux acteurs de l’innovation ne favorisent pas une gouvernance partagée, au contraire. Par essence, chaque startup optimise son propre service, au détriment d’une approche collective. Waze optimise son service pour fournir aux conducteurs le plus court chemin pour aller d’un point A à un point B, au détriment des politiques publiques de mobilité, comme le soulignait très bien le chercheur Antoine Courmont. Airbnb optimise la rentabilité de la location touristique de courte durée professionnalisée au détriment des possibilités de location de logement traditionnelle de longue durée, comme s’en émouvait récemment la fondatrice de Bedy Casa dans une tribune pour Challenges. La récente limitation de location à 120 nuitées à Paris (mais pas pour le reste de la France), à 60 nuitées à San Francisco… semblent autant de tentatives pour limiter une « disruption » sur laquelle l’acteur public est toujours à la peine alors qu’il dispose de moyens d’action limités selon ses compétences.

La startup : solution ou problème ?

On pourrait vouloir voir entre les approches présentées par Etalab et le Numa (voir la première partie de notre dossier) des différences de fond. D’un côté, la Ville de Paris déléguerait son innovation, de l’autre l’État, chercherait lui, à garder le pouvoir. Mais ce n’est pas si simple, remarque Romain Thales d’Etalab. L’outsourcing, le fait de faire développer des services par des tiers, coûte parfois cher. Etre capable de faire en interne, ou de contrôler les projets comme le soulignait un récent article de Libération, d’avoir la main sur les développements peut être parfois important, selon les projets. « L’enjeu n’est pas de chercher à tout faire, ni de faire mieux, mais il est important de laisser aussi sa chance à l’administration de faire aussi bien que leurs délégataires », souligne Romain Tales.

Le programme d’intrapreneuriat de la ville de Paris avec ses startups de Ville, comme les programmes de startups d’État ou d’entrepreneurs d’intérêts général visent à faire monter en compétence les services dans une logique d’innovation interne. L’enjeu n’est pas tant de créer de réelles startups que d’acculturer les services publics à d’autres méthodes d’innovation. Seul Datacity s’inscrit dans une logique externe, qui valorise les compétences des délégataires de services publics et de startups. Mais au-delà de ces programmes spécifiques, la plupart des programmes d’aides à l’innovation sont encore largement dirigés vers les startups technologiques, via de multiples incubateurs, au détriment d’autres formes d’innovation. C’est peut-être là que le bât blesse. Promouvoir la startup comme le seul et unique modèle d’innovation, c’est invisibiliser, pousser dans l’angle mort, tous les autres dispositifs qui existent, toutes les autres formes d’amélioration et de transformation. Comme le soulignait très bien l’entrepreneur Mehdi Medjaoui ou comme le concentraient les critiques que nous formulions à l’encontre de l’État plateforme, la startup n’est pas la seule façon d’innover. A ne promouvoir qu’elle, le risque serait de laisser de côté toute forme d’innovation qui n’entre pas dans cette case ou de forcer tout projet à y entrer. Tous les projets n’ont pourtant pas vocation à se transformer en services commerciaux et tous les projets n’ont pas vocation à devenir des services. Le risque également est de favoriser certaines formes d’innovation technologique… au détriment d’autres, notamment celles qui reposent sur l’innovation sociale, celles proposées par d’autres acteurs comme des associations ou des PME.

La méthode startup en question

La startupisation pose également la question de l’uniformisation des méthodes. Tous les programmes d’incubation, d’accélération et de développement ont tendance à utiliser les mêmes méthodes, comme si l’innovation n’était possible qu’en utilisant celles-ci au détriment de toutes autres, sans voir leur réductionnisme. De partout, on prône l’agilité, le lean management, la rapidité, l’ouverture (avec beaucoup de non-dits sur ces la valorisation d’échanges ouverts qui s’appliquent plus aux données des autres qu’aux méthodes qu’on s’applique à soi-même)…

Dans l’introduction au riche dossier que livre le dernier numéro du magazine Socialter en forme d’appel à faire de la France une terre d’innovation différente (« La France, une sociale Valley »), le journaliste Philippe Vion-Dury rappelle les enjeux du mode d’innovation que constitue la startup, en puisant dans une de ses bibles, le livre De zéro à un, du business angel libertarien Peter Thiel. Une startup a pour objet la perturbation, c’est-à-dire la disruption, des codes, marchés ou règlements. Son second impératif est la croissance et la vitesse. Le troisième c’est de chercher à établir un monopole. D’autant plus que leur dernier enjeu est bien de court-circuiter le législateur, afin que « la loi soit obsolète, le reste le plus longtemps possible, et qu’étant finalement trop puissant pour être sanctionné, on puisse tranquillement faire du lobbying pour aménager la loi selon ses intérêts ». Autant d’objectifs qui ne croisent nulle part ceux des acteurs publics, au contraire. Ça n’empêche pas les acteurs publics de soutenir activement cette forme d’innovation, au prétexte du développement économique, de la compétition économique internationale, de l’innovation…

L’angle des méthodes utilisées pour transformer les projets en startups a tendance à chercher à réduire leurs propositions à l’aune de leur seule efficacité. Le risque est bien, en utilisant partout les mêmes méthodes (valorisation, dumping des prix, optimisation à tout craint, recherche de positions monopolistiques…), de faire advenir les mêmes types de solutions et les mêmes types d’entreprises. C’est d’ailleurs déjà beaucoup le cas, avec des secteurs très embouteillés où de multiples entreprises exploitent les mêmes domaines (la mobilité « flottante », les services de livraisons ou location à la demande, les services de type majordome, les services de « co-« voiturage, de co-location, etc.).

Les mêmes méthodes et les mêmes soutiens aux mêmes formes opératoires d’innovation nous confrontent non seulement à un foisonnement d’innovation, mais plus encore à un foisonnement uniforme d’innovation. La concentration de dispositifs de soutiens à l’innovation similaires (incubateurs, accélérateurs, concours, modes de financement…) bénéficie à ceux qui rentrent dans ces cadres au détriment de ceux qui pourraient proposer des modalités d’action différentes, comme les modèles associatifs, les coopératives, les innovations sociales… Les méthodes utilisées sont dupliquées tant et si bien que tout ce qui ne s’inscrit pas dans ces méthodes, modèles économiques et temporalités ne semblent plus pouvoir exister. Tout projet qui ne devient pas startups semble exclu des modèles de soutien, de financement, d’accompagnement, de développement, de mise en visibilité…

De la célébration des startups à l’heure du triomphe des plateformes

Cette victoire sans conteste de la startupisation est d’autant plus étrange que les beaux jours de cette forme d’innovation semblent derrière elle. La célébration de ce modèle particulier d’innovation est paradoxal : on n’a jamais autant célébré la startup à l’heure du triomphe des plateformes. C’est ce que soulignait Joe Evans (@rezendi) sur Techcrunch en pointant la fin de l’ère des startups. Il expliquait combien toutes les grandes métropoles cherchent à devenir des territoires d’accueils de startups, démultipliant les projets d’incubateurs, les programmes d’accélérateurs (et de « lieux totems » pour les accueillir). Toutes les villes rêvent de devenir la nouvelle Silicon Valley. Or, souligne-t-il, on a changé de décade. Désormais, les entrepreneurs « ont bien plus de chance de finir par travailler pour Mark Zuckerberg que de suivre ses pas ». Du boom du web (1997-2006) à celui des applications (2007-2016), nous sommes entrés dans l’ère des plateformes, où les startups n’ont plus leur place. Les technologies sont devenues plus compliquées, plus chères et les entreprises ont besoin de plus de croissance et de capital pour réussir, sans être toujours assuré d’y parvenir comme l’explique très concrètement le spécialiste de l’économie du partage, Steven Hill (@stevenhill1776), dans une tribune pour le Monde.fr en disséquant le cas Uber, désespérément non rentable. Pour Joe Evans, le ralentissement du financement des startups n’est pas un hasard. Les mégaplateformes que sont Alphabet, Amazon, Apple, Facebook et Microsoft l’ont emporté (tout comme les plateformes chinoises de Tencent, Alibaba et Baidu). La prochaine vague technologique n’est plus accessible aux jeunes pousses : l’intelligence artificielle notamment a plus que jamais besoin de données, et c’est l’affaire des plus grosses entreprises. Le matériel est difficile à prototyper, rapporte peu et est cher à pousser sur les marchés. Les voitures autonomes sont encore bien plus inaccessibles… Pour Joe Evans, les startups rêvent plus que jamais d’être rachetées par les plateformes. Les jeunes pousses prometteuses de Y Combinator, l’un des plus importants fonds d’investissement dans les nouvelles technologies sont les mêmes en 2017 qu’en 2012, à savoir Airbnb, Dropbox et Stripe. Même si Y Combinator a financé bien plus de startups depuis 2012 qu’avant, aucune n’est devenue un géant. À mesure que les titans technologiques accumulent de la puissance, les startups ont de plus en plus de mal à rivaliser.

Il n’y a pas que Techcrunch qui s’en alarme. Le New York Times, Wired, Vox… se sont également fait écho de la disruption de la disruption… En France, on se félicite néanmoins du développement des soutiens aux startups, de la progression de l’investissement et de nos réussites entrepreneuriales, comme le souligne le journaliste Benjamin Ferran pour Le Figaro, même si celles-ci font figure de nains économiques.

En France, le numérique ces dernières années a été un des rares secteurs à connaître une croissance soutenue, dans un contexte général de crise, de chômage de masse… les startups semblent aujourd’hui les structures qui embauchent. Soutenir les startups, c’est donc pour beaucoup soutenir le développement économique et donc l’emploi. Même si les chiffres peinent à réaliser ces espérances. En fait, comme le souligne encore très bien le dossier de Socialter, c’est oublier par exemple que les chiffres de l’innovation sociale et solidaire sont bien plus stimulants que ceux de l’innovation numérique : l’ESS représente 10,5 % du PIB de la France, 220 000 établissements, 2,4 millions de salariés sans compter les 730 000 structures associatives, ses 23 millions d’adhérents, ses 16 millions de bénévoles, ses 21 000 coopératives… L’emploi y a crû de 23 % au cours des 10 dernières années. Comparativement, les startups dont on parle tant ont des résultats plus modestes. On dénombre environ 10 000 startups en France (dont ⅓ en Ile-de-France), soutenus par quelque 284 structures (incubateurs, accélérateurs…). Quant au nombre d’emplois qu’elles génèrent, les sondages parlent de quelques milliers par an. Bien moins que le secteur du numérique dans son entier en tout cas, qui est loin d’être composé uniquement de startups.

Qu’importe. Cela n’empêche pas l’innovation numérique au format startup de s’imposer comme un modèle et d’inspirer bien d’autres secteurs. Tous les grands groupes ont désormais leur portefeuille de startups, leurs élevages. Toutes les villes cherchent à se doter de fermes industrielles d’incubation. Partout les structures de soutiens se multiplient.

Le problème, c’est que la vampirisation de toutes les formes innovantes par la startup (qui colonise jusqu’à certaines formes de l’économie sociale et solidaire) contribue à son déclin et à sa saturation. Certes, dans la grande galerie des méthodes d’innovation, il y a toujours eu des modes, des modèles dominants et des modèles dominés. Aujourd’hui, le modèle dominant de la startup écrase tous les autres modèles, notamment les modèles imparfaits, ceux qui tâtonnent, ceux qui avancent sans méthode préétablie. Le modèle de l’innovation a la gueule de bois, comme l’internet depuis les révélations d’Edward Snowden. Nous sommes passés du rêve d’un internet émancipateur à la réalité du digital labor. Dans le domaine de l’innovation nous sommes passés du rêve d’une innovation libre et sans contrainte, à des méthodes obligées pour produire de l’innovation en série avec ses cohortes de startups qui se ressemblent que ce soit dans le domaine de la rencontre, des petits boulots à la demande, du transport à la demande… Qu’importe si elles ne produisent pas vraiment de valeur ajoutée, ou si elles n’adressent pas vraiment de grands problèmes. L’important est qu’elles produisent vite des résultats. Qu’elles soient agiles. Qu’elles pivotent. Qu’elles utilisent des méthodes dites efficaces… Qu’importe si elles ne produisent pas mieux ni plus d’innovation. Qu’importe si elles ne produisent pas de sens.

Le problème de cette bascule, c’est qu’elle se fait au détriment d’autres modèles et qu’elle réduit la diversité. L’innovation en provenance du tiers secteur, des associations, des PME et PMI, comme le champ de l’innovation sociale, elles, semblent invisibilisées par la célébration des startups. La ville comme plateforme d’innovation ouverte s’est réalisée. Mais la ville n’en a pas été l’opérateur. Les startups utilisent l’infrastructure physique des villes pour opérer, sans plus avoir besoin de délégation. Ce qui laisse les villes assez démunies pour réagir, pour orienter cette innovation, comme le montre l’exemple de l’explosion des systèmes de transports à la demande ou des plateformes de location à la demande que les villes peinent à réguler. Difficile pour elles d’agir, car agir consiste à réglementer voir interdire les startups qu’elles glorifient par ailleurs via les programmes qui les engagent avec elles. Alors que, par nature, les startups cherchent avant tout à « disrupter », c’est-à-dire contourner les infrastructures et règlements nécessaires à la cohésion sociale et urbaine.

Or réguler les flottes de véhicules à la demande, de deux roues flottants, comme l’accès au logement tient, en partie, de la responsabilité des collectivités. De fait, la startupisation, parce qu’elle est le volant politique d’un projet économique, entre en conflit direct avec les politiques sociales pour ne pas dire avec la politique tout court.

A l’heure du foisonnement, où sont les stratégies ?

La startupisation ne regarde l’innovation que sous l’angle du développement de nouveaux services. Or, pour créer du changement, les nouveaux services ne sont que le haut de l’iceberg, résume l’entrepreneur Indy Johar de la Young Foundation dans un intéressant graphique (qu’évoquait longuement le blog de la 27e Région). Produire des changements plus durables nécessite de dépasser la seule innovation servicielle et courtermiste que proposent les startups, pour privilégier d’autres formes d’innovation. En regardant les problèmes que sous l’angle de leurs solutions, l’acteur public se contraint à être confronté à toujours plus de solutions servicielles, sans prioriser entre elles ou sans se doter pour autant d’objectifs ou de stratégies. Sans feuille de route, quels services favoriser ? Quelles orientations prendre ? Face à une innovation devenue foisonnante, bien qu’homogène, comment piloter l’innovation ? Comment soutenir les startups ? Sur quels critères ?… Les nouveaux services ne sont pas toujours raccords avec la stratégie quand elle existe. Comme pour mieux contraindre l’innovation foisonnante, les stratégies réussies ont tendance à devenir plus radicales à l’image de la politique zéro déchet de San Fransisco ou zéro carbone de Copenhague. Sur l’iceberg de l’innovation, on ne célèbre que les nouveaux services, sans regarder ce qui est abandonné sous la ligne de flottaison : la stratégie, la cohérence, l’objectif économique, politique et social.

C’est au final devenu un peu un gros mot dans une innovation startupisée, mais définir des objectifs et des stratégies pour concentrer et orienter les moyens, définir une politique de l’innovation qui ne soit ni courtermiste, ni technosolutionniste, qui donne des objectifs à long terme, qui oriente l’innovation, encourage ses formes sociales et pas seulement la seule valorisation technologique, semble faire défaut.

Dans un monde où les politiques manquent d’objectif, les services des startups semblent occuper tout le terrain. Qu’importe si leurs solutions sont peuplées d’angles morts : le logement social, l’impact écologique, l’emploi… c’est-à-dire les défis environnementaux et sociaux. Pas sûr que la démultiplication des plateformes de covoiturage suffisent à résoudre le problème de l’autosolisme et de la congestion des grandes agglomérations. A nouveau, l’enjeu n’est pas de dire trop simplement que les startups c’est le mal. 40 % des trajets réalisés avec Uber en Ile-de-France sont des trajets banlieue/banlieue. Cela montre que Uber est parvenu à adresser un problème de transport que les politiques publiques du transport en commun n’avaient pas adressé. Uber, en Ile-de-France, a créé 20 000 « emplois » (enfin, plutôt des autoentrepreneurs »). Ce ne sont pas deux petits effets. Et l’enjeu est de trouver les moyens de les améliorer et de les développer tout en limitant leurs effets négatifs. Aujourd’hui on raisonne et on s’affronte dans un périmètre de gouvernance qui n’a pas changé, et qui fonctionne en mode action/réaction, désordre/rappel à l’ordre, les plateformes disruptives comme Uber pratiquant la politique du fait accompli, qui maintient dans une posture réactive et empêcheur de tourner en rond l’acteur public urbain. C’est cette répartition des rôles qu’il convient de changer, et les deux bords nous semblent également prêts à l’accepter. C’est dans cette nouvelle configuration de gouvernance partagée, qui reste à construire, que l’on peut imaginer pouvoir faire le tri entre les externalités positives et négatives d’Uber, et renforcer les unes tout en corrigeant les autres.

Le strapontin des usagers : du rêve de l’émancipation à la réalité du digital labor

Reste enfin à questionner la place de l’usager dans cet écosystème. S’il est toujours valorisé, force est de constater que celui-ci est toujours vu comme un consommateur par les nouveaux services produits par les startups. Si tous les programmes placent l’usager au coeur de leurs dispositifs, le plus souvent, il demeure sur un strapontin, un simple cobaye voire un simple client. L’usager reste bien souvent sur le bord de la route de l’innovation startup, qui travaille pour les collectivités et les gouvernements pour mettre au travail les gouvernés, développent le digital labor au détriment de la capacitation.

L’innovation startup favorise une innovation de consommation. L’émancipation promise se concrétise dans un digital labor qui n’a rien de libérateur. Les usagers et consommateurs ne sont pas des victimes : ils sont demandeurs de services, d’applications, ils livrent leurs données sans états d’âme, ils légitimes les pratiques les plus disruptives qui leur profitent et donnent de la force aux disrupteurs, qu’importe si cela produit de la précarisation, de la prédation, de la liberté sans pouvoir… Pourtant, l’enjeu est bien là. Si les questions d’innovation et de gouvernance sont liées, alors il est nécessaire de réinterroger la place de la gouvernance dans l’innovation, à l’image des propositions faites par le coopérativisme de plateforme (le livre éponyme de Trebor Scholz vient d’ailleurs d’être traduit chez Fyp éditions).

La startup n’est pas le problème, tant qu’elle reste une forme d’innovation parmi d’autres. Mais la concentration et l’uniformisation de l’innovation, qui consistent à ne valoriser que des entreprises dont le modèle n’est pas compatible avec un modèle de société, est le problème. Le problème est bien le modèle de société qu’impose la révolution numérique dont la startup est l’emblème. Comme le dit l’avocat Jean-Baptiste Soufron, la révolution numérique n’a fait que « renforcer les travers les plus évidents du libéralisme et du capitalisme », accélérant le capitalisme numérique, accroissant le pouvoir des dirigeants et du capital, n’améliorant ni la démocratie, ni le lien social ou l’estime de soi. «Si le numérique était vraiment disruptif, Uber appartiendrait à ses chauffeurs et Facebook à ses usagers.» Nous en sommes loin. L’absence d’usagers dans les modalités de gouvernance des entreprises accentue la dissonance.

Le modèle d’innovation a besoin de diversité. La startup ne peut pas rester le seul modèle valorisé et valorisable. Comme le soulignent bien des acteurs de l’innovation sociale auxquels donne la parole Socialter, beaucoup d’ingrédients sont déjà là. Reste à trouver les moyens d’encourager des formes d’innovation sociale. De construire des formes de soutien à une innovation sociale (cf. Pour une French Tech de l’innovation sociale qu’appelait de ses voeux Romain Dichampt, directeur du développement de Ashoka France). Promouvoir des systèmes de travail à la demande qui ne précarisent pas ceux qu’ils embauchent, des systèmes de transport à la demande respectueux des infrastructures et de notre modèle social, des systèmes de location collaborative limités, plafonnés…

Mettre l’innovation en débat
En fait, l’innovation et les politiques de soutien à l’innovation ne sont jamais mises en débat. Or, si nous avons besoin d’une politique de l’innovation, nous avons également besoin de mettre en débat cette politique (et aussi d’une innovation dans la mise en débat elle-même). Le soutien à l’innovation doit également rendre des comptes. L’accountability, la responsabilité, la loyauté et la transparence des systèmes techniques qu’on demande aux algorithmes et qu’on impose aux individus ne doivent-elles pas aussi concerner le soutien à l’innovation ? Nous avons besoin de débattre des modèles d’innovation que notre société promeut. On ne peut pas d’un côté célébrer des startups et des plateformes qui nous font les poches par l’optimisation fiscale et la disruption réglementaire et de l’autre, oublier les mécanismes politiques et sociaux nécessaires à la redistribution. Avec leurs services, les entrepreneurs du numérique nous disent ce qu’il faut faire, comment gérer la société, alors mêmes qu’ils utilisent des techniques pour s’abstraire de la société, en s’abstenant notamment de tout partage de l’argent, du pouvoir et de la gouvernance qu’ils s’accaparent.

On observe les gains de la productivité, mais on oublie les mécanismes politiques et sociaux nécessaires à la redistribution. Les entrepreneurs du numérique nous disent ce qu’il faut faire, comment il faut gérer la société alors même qu’ils l’instrumentent à leurs propres bénéfices. Si l’innovation est un sujet politique, alors il ne peut pas être confisqué par ceux qui s’en appliquent à eux-mêmes les principes et en retirent les bénéfices. C’est d’ailleurs seulement en faisant des politiques d’innovation un sujet de débat politique qu’on arrivera à remettre l’usager des politiques d’innovation au coeur et pas seulement dans la cible. C’est en faisant de l’innovation un sujet politique qu’on parviendra peut-être à faire se rejoindre l’innovation technologique et l’innovation écologique qui pour l’instant peinent à se croiser… C’est en en faisant un sujet politique qu’on sortira l’innovation du solutionnisme pour en faire une innovation inclusive, responsable, durable et créatrice d’emplois et de valeurs pour tous, plutôt qu’une innovation prédatrice. La politique de l’innovation a besoin d’entamer un dialogue avec la société. Quand on constate la différence entre le foisonnement de politiques de soutien à l’innovation économique et aux startups et la modestie des moyens alloués au soutien à l’innovation sociale par exemple, on voit bien qu’il y a une carence à combler, un espace pour innover avec la société plutôt que contre elle. Les modalités de l’innovation sont un sujet peu débattu. Or, nous devons nous interroger pour savoir comment on la fait, avec qui, et selon quels principes et valeurs ?

Le foisonnement d’une innovation homogène où l’acteur public semble plus client que maître d’ouvrage pose une question stratégique et politique forte. C’est à l’acteur public de donner le sens, de trouver les critères pour séparer le bon grain de l’ivraie de l’innovation. Pas sûr que nous en prenions beaucoup le chemin. Le lancement récent par Mounir Mahjoubi, secrétaire d’État chargé du numérique, de Cahiers de doléances à destination des seules startups, afin que le gouvernement puisse trouver les modalités pour faciliter leur activité (minorant et oubliant les doléances du reste de la société) est un signal de plus (de trop) d’un biais qui se renforce dans les politiques de soutien à une seule forme d’innovation.

Ici encore, ici toujours, c’est de diversité dont on a besoin.

Hubert Guillaud et Thierry Marcou, responsable du programme Audacities pour la Fing.

Catégories: Veille et actualités

Vers une ville numérique ingouvernable (1/2) ? Un foisonnement d’innovation

mar, 28/11/2017 - 07:00

L’un des constats que dresse le groupe de travail Audacities, lancé par la Fing (éditeur d’InternetActu.net) et l’Iddri, est que le numérique ne rend pas tant que ça la ville réactive au doigt et à l’oeil. L’imaginaire de la ville « propre », smart, intelligente… n’est pas ce qu’on observe sur le terrain, expliquent Tatiana de Feraudy et Mathieu Saujot chercheurs à l’Iddri, Institut du développement durable et des relations internationales, Thierry Marcou et Marine Albarède responsables d’Audacities à la Fing.

En fait « plein d’acteurs sont venus agir sur le territoire de manière autonome ». La ville numérique n’est ni centralisée ni pilotée, comme on nous la vend trop souvent dans le concept de Smart City ou de Ville intelligente, au contraire. Si elle concentre un foisonnement d’innovations, force est de constater que l’acteur public, dans ce foisonnement, est devenu un acteur parmi d’autres. Et nombre de nouveaux acteurs ont des impacts sur les domaines traditionnellement réservés à l’action publique, à l’image d’Uber sur le transport, d’Airbnb sur le logement pour ne citer que les exemples les plus connus. La ville est désormais investie, colonisée, d’innombrables services numériques qui se superposent les uns aux autres et cherchent chacun à la transformer, la « disrupter »… Pour ne prendre que l’exemple des services de mobilité, la ville est perturbée à la fois par Uber et Waze, par les voitures autonomes et les services de covoiturage comme Blablacar, par les services qu’elle met en place elle-même via ses délégataires, comme Velib ou Autolib, mais également par leurs nouveaux concurrents indépendants comme Zipcar ou Drivy, Gobeebike et oBike, Cityscoot sans compter leurs innombrables concurrents qui s’annoncent (voir cet article du Monde.fr qui tente d’être exhaustif ou celui du Parisien qui pose la question de la place dans la ville des vélos « flottants » et de leur régulation)…

Comment gouverner la ville numérique ?

Comment dans ce contexte les collectivités peuvent-elles continuer à poursuivre des objectifs collectifs ? Comment rendre possibles une action publique et une régulation ? Et bien sûr, comment imaginer de nouveaux modèles de gouvernance au coeur d’une complexité croissante ?

Les premiers résultats du groupe de travail montrent que partout pointe une inquiétude face à l’ubérisation des services publics, soulignent Mathieu Saujot et Tatiana de Feraudy. Pourtant, cette disruption de la gouvernance urbaine est très variable selon les secteurs. Si elle est très forte dans le domaine des transports et de la mobilité, elle demeure pour l’instant faible en terme d’impact dans le domaine de la participation citoyenne par exemple.

Le foisonnement et la profusion d’innovation dans tous les secteurs pose néanmoins question : comment orienter l’innovation ? Comment favoriser dans ce schéma la transition et la cohérence du rapport numérique et écologie  ? Comment faire converger cette débauche d’innovation ? Après avoir appelé l’innovation de ses voeux, force est de constater qu’elle est désormais partout. Même si tous les services lancés n’ont pas toujours une forte valeur ajoutée…

Les animateurs d’Audacities constatent que, face à ce foisonnement, les collectivités cherchent des leviers pour agir. Elles cherchent à limiter l’éclatement des services, le développement des inégalités territoriales, que risquent de favoriser une innovation débridée, intéressée par son seul profit, sa croissance, son passage à l’échelle. Reste que la capacité d’action des collectivités n’est pas homogène. Elle dépend bien sûr de leurs forces propres : toutes les collectivités, selon leur échelle et leur taille, n’ont pas la même capacité de négociation. Elle dépend de la force des nouveaux entrants : ce n’est pas la même chose de discuter avec une startup locale que de discuter avec un Gafa implanté à l’international. Elle dépend de ses relations avec les délégataires de services publics, des compétences perturbées, des questions d’accès au marché ou à l’espace public nécessitant ou non l’appui des acteurs publics… Et bien sûr de leur capacité d’action réglementaire. Le mille-feuille de l’innovation est loin d’être homogène ! Et le risque également, est de piloter l’innovation seulement avec ceux qui proposent simplement de nouveaux services, au détriment de tous les autres modes de pilotage de l’action publique ou de tous les autres modes d’action innovants. De favoriser le travail avec les startups plutôt que celui avec les associations, les PME ou les citoyens. De favoriser et soutenir les solutions techniques et services des startups ou des plateformes au détriment d’autres acteurs ou d’autres approches. Pour le dire simplement, il est finalement plus facile pour des services de livraison à domicile comme Foodora ou Ubereats de s’implanter quelque part que de trouver les modalités de soutiens à des initiatives différentes, à l’image de CoopCycle (blog). L’innovation en mode startup semble bien plus accessible, lisible et simple à soutenir, notamment parce qu’elle est soutenue par ailleurs, notamment financièrement par des investisseurs qui vont leur permettre d’atteindre des seuils critiques bien plus rapidement que ne le peuvent d’autres formes d’innovation.

Piloter ou animer l’innovation ?

Quels sont donc les leviers d’actions des collectivités, mais également des nouveaux entrants ? Comment l’acteur public définit-il des critères pour soutenir certains projets plutôt que d’autres ? Doit-il piloter l’innovation ? Laquelle et comment ?

Pour en parler, les responsables d’Audacities avaient convié deux intervenants. Clémence Fischer du Numa et Romain Tales d’Etalab. Clémence Fischer (@clemfis) est en charge des programmes Smart City au Numa, qu’elle présente comme un facilitateur d’innovation pour les startups, les organisations et les communautés. Numa fait de la formation, de l’accélération de startups et de l’accompagnement à la transformation numérique. Outre les nombreux événements qu’accueille le lieu parisien, le Numa propose plusieurs programmes d’innovation ouverte multipartenaires liés à la thématique urbaine comme CityMaker et DataCity. DataCity vise à résoudre les problèmes des villes par les données. Ce data solutionnisme s’intéresse à toutes les thématiques de la ville comme la planification urbaine, la logistique, la mobilité, l’énergie, les déchets… DataCity est un programme d’innovation sur 9 mois initié par les collectivités, en l’occurrence la ville de Paris, qui apporte, via ses différentes administrations, des problèmes à résoudre, que startups et grands groupes viennent relever en échafaudant des solutions qui seront testées par les habitants. « Tout l’enjeu consiste à trouver le moyen d’aligner les intérêts des acteurs selon les problèmes et les solutions », explique Clémence Fischer. Tout l’enjeu semble donc de soutenir un écosystème visant à favoriser le rapprochement et la discussion entre grands groupes et startups, une collaboration qui a encore bien des progrès à faire, comme le pointait une récente étude de La French Tech, mais qui exclue de nombreuses autres formes de collaborations qui ne relèvent pas des formes startups instituées. En septembre 2017, DataCity a lancé sa 3e campagne. Pour bien comprendre comment DataCity agit, Clémence Fischer s’arrête sur l’une des solutions imaginées la saison dernière.


Image : Présentation synthétique du programme DataCity par le Numa, tiré de la présentation de Clémence Fisher.

L’un des défis proposés par la ville de Paris était de réduire le temps de présence des bacs poubelles sur les trottoirs. Aujourd’hui, faute de données précises sur le passage des quelques 500 camions de ramassage d’ordures qui circulent chaque jour à Paris, les bacs poubelles peuvent rester plusieurs heures sur le trottoir entre le moment où ils sont sortis pour attendre le camion et le moment où ils sont rentrés après son passage, pas toujours parfaitement régulier. Le fait que toutes les poubelles parisiennes soient équipées de puces électroniques, qui sont lues par les camions automatiquement quand elles sont vidées, est ce qui a permis à Craft.ai, la startup chargée de relever le défi (en partenariat avec les grands délégataires de services publics) de trouver une solution. Depuis les données de récoltes, Craft.ai a construit un modèle prédictif du ramassage (voir les explications de Sylvien Marchienne sur le blog de Craft.ai et notamment l’explication en vidéo) lui permettant de réduire de moitié (46 %) le temps où les poubelles restent sur le trottoir. Durant un mois, une expérimentation a eu lieu sur le 14e arrondissement de Paris pour tester la solution. Un site web et un système d’alerte par SMS ont été mis en place pour permettre aux personnes chargées de sortir et de rentrer les poubelles d’être tenues informées du passage des camions 30 minutes avant son passage, puis une fois que la poubelle a été collectée et en cas de perturbation.

Cela peut sembler impressionnant, mais personnellement je reste un peu dubitatif. Certes, le cas du ramassage des poubelles sur de grandes agglomérations est parfois victime d’aléas de services et de trafic, et celui-ci est loin d’être homogène sur les quartiers, mais ce que j’en constate tous les jours en y habitant, est plutôt la très grande régularité de la collecte (la ville de Paris publie d’ailleurs les horaires de passage des collectes par arrondissements et par type de collecte). S’il y a certes des poubelles qui restent trop longtemps sur le trottoir, cela semble plus tenir de problèmes liés à la disponibilité de ceux qui sont chargés de les sortir et les rentrer, qu’un problème de régularité de ramassage ou d’injonction par SMS. Bref, pas sûr que la solution par l’analyse prédictive de données soit une piste satisfaisante pour régler le problème, qui n’est pas tant dans l’information ou la prédiction que dans la manière dont sont recrutés et rémunérés les agents chargés de sortir et rentrer les poubelles.

Clémence Fischer évoque un autre exemple, issu du programme DataCity (parmi les 12 projets qui avaient été retenus cette année qu’évoquaient Numerama ou LeMonde). La startup danoise Linc, qui propose une solution d’échange et de facturation énergétique pour des communautés locales – un peu sur le modèle du Brooklyn Microgrid lancé par LO3Energy -, a réalisé des entretiens avec des Parisiens pour connaître leur réaction à la possibilité d’acheter et d’échanger de l’énergie renouvelable entre voisins, comme l’autorise désormais la loi. A ce qu’on en comprend, ce projet semble en être resté à une enquête sur une possibilité de service.

Clémence Fischer explique encore que si les défis de DataCity sont portés par la ville de Paris, ce sont les grands groupes et les startups sélectionnées par le Numa qui sont chargés de répondre aux défis. Chacun reste propriétaire de ses apports respectifs : les startups qui apportent des solutions en demeurent propriétaires, les acteurs n’ayant qu’un droit de préférence sur ces solutions. Si les startups reçoivent un soutien financier des grandes délégataires de services publics qui participent, elles sont plutôt motivées par l’accès aux données et les cas d’usages réels. L’enjeu est à la fois de faire de l’acculturation entre les acteurs, via des méthodes innovantes comme le design thinking ou les méthodes agiles, et de mettre en relation des acteurs les uns avec les autres par le biais de démonstrateurs expérimentaux concrets (on parle de POC pour Proof of concept, ou preuve de concept, comme on dit dans le secteur). Quant à savoir si ceux-ci ont été généralisés ou adoptés, Clémence Fischer explique : « On a tout type d’histoire ». Des entreprises et des startups concourent parfois ensemble à des appels d’offres suite à leur rencontre. Pour d’autres, cela leur permet de réorienter leur marché : une startup proposant du transport de marchandise à la demande a pu mesurer par ce biais que le marché qu’elle visait n’était pas assez développé, elle a réorienté son offre pour aider des entreprises à trouver de meilleurs déplacements. Elle souligne que chaque année, le challenge fait un appel à startups qui doivent signaler leur intérêt pour participer. Numa a reçu plus de 200 candidatures au dernier challenge.

Clémence Fischer détaille rapidement deux autres programmes du Numa. Celui de l’accompagnement, avec la ville de Paris, d’un programme d’intrapreneuriat : les startups de ville (qu’avait évoqué il y a plusieurs mois la Gazette des communes). L’enjeu est de proposer un programme d’accompagnement court, sur 5 semaines, pour valider la pertinence à développer des projets. Ici, le Numa propose un accompagnement permettant de comprendre le monde de l’innovation par de la formation, par de la conception de prototype pour définir le « minimum viable product », de connecter les projets à d’autres startups pour contribuer au projet. L’enjeu, à travers ce programme, est de transmettre un état d’esprit aux porteurs de projets provenant des différents services des collectivités : montrer comment prendre des risques, apprendre à aller vite, à pivoter… en utilisant les méthodes d’accélération de startups.

Enfin, Angers IoT est une plateforme d’accélération de startups de l’internet des objets (Internet of things) en projet à Angers où est installé la Cité de l’objet connecté ainsi que tout un écosystème local.

Pour Clémence Fischer l’innovation ouverte que propose le Numa repose sur une approche multipartenariale, qui permet de faire se croiser les compétences et les savoir-faire. Elle repose aussi sur la confiance et l’ouverture, c’est-à-dire le fait d’accepter d’expérimenter et de changer d’approche si besoin. Elle repose également sur le « time-boxing », c’est-à-dire une méthode de gestion de projet qui utilise des délais très courts et des méthodes d’accélération pour réduire les risques. Enfin, elle privilégie le « design thinking« , c’est-à-dire une approche centrée sur l’usager et le problème à résoudre, plutôt que de commencer par la solution.

L’innovation est au croisement de la désirabilité liée à l’usage, de la faisabilité, liée à la technologie et de la viabilité liée au modèle d’affaires, explique encore Clémence Fischer. Sans intelligence collective, le chemin entre les trois n’est pas si simple à tracer, conclut Clémence Fischer.

Effectivement, l’innovation est compliquée et l’on sait que l’animation, le fait de faire se croiser des acteurs très différents, est la pierre angulaire capable de générer des projets. Les POCs sont vus comme le levier des rencontres pour concrétiser le terreau de l’innovation. Les méthodes sont là pour générer de l’efficacité. Reste que cette startupisation de l’innovation semble procéder d’un réductionnisme à une seule et unique forme d’innovation qui pose question (nous y reviendrons dans la seconde partie de ce dossier).

Le levier de l’innovation

Romain Tales (@romaintales), responsable du recensement des données publiques, s’occupe de la dimension data d’Etalab, la mission interministérielle de l’Etat pilotée par le Secrétariat général pour la modernisation de l’action publique (Sgmap). Son travail sur la donnée consiste à l’intégrer au coeur de la réflexion de l’Etat, au même titre que l’usager et le citoyen, afin de rendre les missions de services publics de l’Etat plus efficaces et plus partagées. Si la mission d’Etalab est née avec l’open data (la réutilisation des données publiques), elle s’est diversifiée à la question des données, c’est-à-dire leur circulation et leur traitement – et notamment par le recours de la science des données pour objectiver les politiques publiques via ces données, ce qu’on appelle la data driven policy, c’est-à-dire la politique conduite par les données – et à la question de l’ouverture, en intégrant des enjeux d’open source et d’open government, c’est-à-dire, pour le dire vite, de création de biens communs numériques.

La stratégie d’Etalab autour des données repose sur 3 piliers, rappelle-t-il :

  • la transparence de l’action publique qui permet à tout citoyen de demander des comptes à l’administration et de renforcer ainsi la démocratie. Une transparence qui a permis également de rendre le sujet intelligible par le politique.
  • Créer des ressources pour l’innovation pour développer des services innovants et de la collaboration, à l’image des concours dataconnexions. Des ressources qui permettent de créer de l’appétence pour les données, de construire des indicateurs et de les faire monter en qualité pour y répondre.
  • Enfin, les données permettent de créer un levier d’efficacité de l’action publique, notamment du fait que les administrations soient les premières à les utiliser, à les croiser pour créer par exemple des cartographies pour objectiver la création de services publics, à l’image de la cartographie de la gravité des accidents en France permettant d’améliorer le positionnement des radars.


Image : la stratégie d’Etalab aux frontières de 3 enjeux, extraits de la présentation de Romain Tales.

Pour mener son action, Etalab s’appuie bien sûr sur le cadre légal, notamment via le renouvellement juridique de la loi pour la République numérique promulguée en 2016 qui a entériné le droit d’accès des administrations aux données des autres administrations (qui ne sont plus facturées pour cela, sauf justification de travail à façon), qui a créé un service public de la donnée (via notamment la publication de bases de données très demandées dites données de référence comme la base de données Siren, les données du cadastre, le répertoire national des associations, le répertoire des métiers de Pôle Emploi…) permettant à un très grand nombre d’acteurs d’interagir entre eux. Elle permet également l’ouverture des codes sources et algorithmes des systèmes utilisés par les services publics, à l’image des simulateurs qui permettent de comprendre les modalités de calculs des administrations comme la calculette de l’impôt sur le revenu, ouvert et réutilisable par des tiers. Elle a permis également la publication de données à intérêt social, sanitaire ou environnemental tout comme l’ouverture de données d’énergie, de jurisprudence, de données immobilières, comme de données portant sur les délégations de services publics ou les subventions… obligeant par exemple les délégataires à reverser les données produites dans le cadre de leurs délégations. Elle a permis d’entériner la création de 2 licences : la licence Etalab et la licence ODBL, cette seconde notamment favorisant des conditions de partage à l’identique pour le réutilisateur de données, permettant de se prémunir contre l’appropriation des données. Elle a permis la généralisation de l’initiative « dites le nous une fois » (voir cependant les critiques émises par NextInpact). Elle a permis enfin la mission open data France qui a produit un kit pédagogique et une aide à la normalisation des données ouvertes des collectivités.

Mais le levier d’innovation n’a pas été seulement juridique. Il est aussi technique, à l’image bien sûr de la plateforme data.gouv.fr, qui est à la fois un catalogue de données, mais également une vitrine d’usages de la réutilisation des données publiques ouverte aux contributions. Le code source de la plateforme par exemple est utilisé par le Portugal, le Montenegro et le Luxembourg pour développer leur propre portail de données. Dans les chiffres qui servent à évaluer le succès de la plateforme, on compte bien sûr le nombre de jeux de données mises à disposition (plus de 24 000), mais plus intéressants sont les 1600 réutilisations de données, les 17 000 utilisateurs, les 1100 organisations qui y ont ouvert un compte et les 1200 discussions initiées.


Image : les succès d’Etalab en chiffre.

Reste que le programme d’Etalab ne pouvait en rester à un enjeu technique. Il fallait que la structure puisse accompagner plus avant la réutilisation et l’usage des données. C’est ce qui conduit à développer le programme des startups d’Etat, lancé en décembre 2013 (voir notre article « Mais comment passe-t-on des startups d’Etat à l’Etat plateforme ? »). L’enjeu a été de développer un moyen d’innover pour les projets eux-mêmes, en proposant des modalités différentes du fonctionnement administratif traditionnel, explique Romain Tales. Les startups d’Etats sont des équipes de 2 à 4 personnes financées par une administration et totalement autonomes qui ont pour objectif de répondre à un problème clairement identifié, lié au besoin des usagers. L’initiative a permis de transformer le développement de projets informatiques dans l’Etat. En utilisant bien des méthodes comparables à celles qu’exposait le Numa, l’enjeu est de fournir un POC en 6 mois, puis à chercher à le pérenniser en recherchant une structure administrative d’accueil.

Parmi les emblèmes de ces startups d’Etat, figure bien sûr MesAides, qui propose un formulaire unique pour que les gens en situation de précarité puissent connaître les aides auxquels ils peuvent avoir accès. Une quinzaine d’aides sont aujourd’hui disponibles sur le site. MPS, Marché public simplifié, permet de faciliter la candidature à certains types de marchés publics, via un simple numéro de Siret. La bonne boîte qui indique les entreprises qui recrutent et la bonne formation qui évalue les formations en terme de retour à l’emploi effectif… sont d’autres exemples. 9 startups ont déjà été reprises par des administrations.

Autre exemple d’innovation, le programme d’entrepreneurs d’intérêt général (EIG) : une promotion annuelle de 11 personnes recrutées sur 10 mois pour résoudre des défis d’intérêt général proposés par des administrations, qui identifient en amont des « irritants métiers » ou des objectifs prospectifs. Au menu des défis de la seconde édition de ce programme, on trouve par exemple une demande de la Direction régionale des entreprises, de la concurrence, de la consommation, du travail et de l’emploi de Bourgogne-Franche Comté pour détecter les entreprises en difficulté pour mieux les accompagner… ou un autre proposé par la direction numérique pour l’éducation du ministère de l’Education nationale pour améliorer la réussite et l’orientation avec les données des élèves en apprentissage.

Reste, à ce qu’on en comprend, que tous les projets de l’Etat ne sont pas en mode startups, même s’ils se réfèrent aux méthodes que les startups utilisent. Comme nous le soulignions déjà, la métaphore de la startup est un moyen d’inscrire de nouvelles méthodes dans le panel des actions de l’Etat.

Etalab offre également des ressources en terme d’analyse de données sous forme de prestation pour les administrations qui portent des projets de data science. Ainsi, pour la Direction des services d’achat de l’Etat, Etalab a réalisé une analyse de données sur la consommation énergétique des bâtiments, à partir de données de facturation réelle. L’enjeu était de mieux comprendre la consommation d’énergie pour négocier les achats et détecter des anomalies (comme de fortes consommations le week-end). L’analyse a permis de renégocier les contrats de plusieurs bâtiments et de réaliser 800 000 euros d’économie.


Image : l’analyse de la consommation énergétique des bâtiments de l’Etat.

La méthode Etalab fait école. Le ministère des Affaires sociales a passé au printemps une convention avec le Sgmap pour que ce dernier l’accompagne dans la mise en place de démarches innovantes jusqu’à la création de leur propre incubateur. A l’image des startups de Ville lancés par la Ville de Paris, les incubateurs et les programmes d’accompagnement et d’accélération de projets sont en passe de devenir une méthode qui s’étend des projets privés aux projets publics. Le modèle de l’incubation de projet fait école dans l’administration, dans les agences de l’Etat, dans les collectivités territoriales et jusqu’au niveau européen. Si elle a des côtés stimulants, ce marketing de l’innovation n’est pas sans poser des questions (voir : Mais comment passe-t-on des startups d’Etat à l’Etat plateforme ? et Non, la France n’est pas une start-up !), notamment en regardant les formes d’innovation qu’il délaisse.

C’est que nous tenterons de regarder dans la suite de ce dossier.

Hubert Guillaud

Catégories: Veille et actualités

Tout ce que vous avez toujours voulu savoir sur CRISPR/Cas9

ven, 24/11/2017 - 12:00

CRISPR est sans doute LA grande révolution technologique de ces dernières années, mais ce n’est pas toujours facile de comprendre en quoi elle consiste. La petite vidéo suivante, réalisée par la Singularity University, a le mérite de clarifier les choses en moins de deux minutes. Bien sûr, elle est en anglais, mais il y a des sous-titres (anglais également, mais très aisés à comprendre).

MAJ : Nature a également réalisé une vidéo assez courte pour expliquer CRISPR/Cas9.

Catégories: Veille et actualités

Peut-on créer son propre univers ?

mer, 22/11/2017 - 12:00

Certains cherchent à créer l’intelligence, d’autres, comme les biologistes de synthèse, veulent réaliser de nouvelles formes de vie. Mais pourquoi s’arrêter en si bon chemin ? Pourquoi ne pas créer un univers entier ?

Une idée saugrenue, mais considérée comme envisageable – en théorie – par certains physiciens. La journaliste et écrivain scientifique Zeeya Merali (@littlebangtheor) a enquêté auprès de spécialistes de la mécanique quantique et en a tiré un livre A Big Bang in a Little Room : The Quest to Create New Universes ainsi qu’un article publié récemment dans Big Think (mais qui était auparavant paru dans Aeon).

La théorie a été émise la première fois en 1991 par Andreï Linde, de l’université Stanford, dans un papier intitulé l’art difficile de la création d’univers.

Pour réaliser cet exploit, il faudrait un accélérateur de particules bien plus puissant encore que celui du CERN. Il faudrait ensuite trouver une particule qu’on appelle un monopôle, c’est-à-dire ne possédant qu’une seule charge magnétique.

Si l’on donne suffisamment d’énergie à ce monopôle, explique Merali, ce dernier va grossir, entamer une « inflation » comme celle qui est survenue au début de notre propre cosmos, juste après le Big Bang. Et à partir de cette inflation, comme cela s’est produit chez nous, un nouvel univers pourra voir le jour.

Ce dernier risque-t-il de prendre notre place, de détruire tout sur son passage ? Absolument pas. Il se développera dans son propre espace. De notre côté, nous ne pourrons en percevoir que « l’entrée », un micro trou noir « si petit, nous dit Zeeya Merali, qu’il en sera absolument sans danger ». Et même ce minuscule point de contact finira par s’évaporer et disparaître.

La vidéo ci-dessous illustre la marche à suivre.

Mais du coup, pas la peine d’espérer que notre nouveau créateur d’univers pourra régner sur les créatures qui pourront y voir le jour ! Car une fois créé, l’expérimentateur perdra tout contrôle sur le monde qu’il aura fait naître.

Ce qui pose bien entendu une question éthique. Faut-il jouer à Dieu si on n’a même pas les moyens d’en prendre la responsabilité ?

Zeeya Merali est donc partie poser la question à divers spécialistes. Les avis peuvent être très divergents : pour Eduardo Guendelman, de l’université Ben Gourion en Israël, un chercheur qui travaille sur cette notion de « bébé-univers », c’est comme lorsqu’on décide de faire des enfants, on accepte que leur vie possède son lot de souffrances. Pour Nobuyuki Sakai de l’université Yamaguchi au Japon, l’un des spécialistes des fameux « monopôles », il faudra s’en inquiéter. Mais comme la mise en pratique de ce genre de théorie ne pourra pas se produire avant un avenir lointain, ce n’est pas pour lui le moment de se torturer avec des questions éthiques, cela viendra plus tard. Pour Anders Sandberg de l’Institut pour le futur de l’humanité d’Oxford, la création de formes de vie intelligentes est intrinsèquement positive et s’apparente donc à un impératif moral.

Puis reste l’interrogation théologique. Andreï Linde avait déjà posé la question, en forme de boutade dans son papier de 1991 ; et si notre propre univers avait été créé en laboratoire ? Cela renouvellerait-il l’idée de Dieu ? Pour le physicien chrétien Don Page, de l’université d’Alberta, également interrogé par Merali, il y a une différence fondamentale : Dieu, explique-t-il, aurait créé notre univers ex nihilo, c’est-à-dire à partir de rien du tout, et pas en utilisant un équipement de laboratoire sophistiqué !

Catégories: Veille et actualités

Quelques nouveautés en « computation biologique »

mar, 21/11/2017 - 07:00

Fusionner la biologie et l’informatique est une tendance très forte ces dernières années. Après tout, qu’est-ce que le fameux « deep learning » et ses réseaux de neurones dont on nous rebat les oreilles ces temps-ci, sinon une tentative de créer un modèle (très simplifié) des neurones biologiques au sein d’une machine ?

En gros, il peut exister plusieurs approches différentes de ce qu’on appelle la biologie computationnelle. La première cherche à utiliser le matériel biologique lui-même comme support d’information et de calcul. La seconde consiste à observer des comportements existant dans la nature pour par exemple créer de nouveaux algorithmes.

Dans le premier domaine, des chercheurs ont réussi à créer des systèmes logiques assez complexes au sein d’une cellule, tandis que d’autres utilisaient l’ADN comme support de stockage de l’information. Côté algorithmique, les fourmis restent une source d’inspiration inépuisable.

Vers la « ribocomputation »
Il y a eu pas mal de tentatives ces dernières années pour intégrer divers systèmes computationnels basés sur notre ADN dans la machinerie de nos cellules. Toute l’entreprise des biobricks par exemple se base sur une possible analogie entre le code génétique et un programme d’ordinateur. Mais jusqu’ici, les techniques utilisées n’ont pas donné de résultats très efficaces, pour (au moins) deux raisons : la première était qu’elles fonctionnaient dans un tube à essai, mais pas à l’intérieur d’une cellule. Ensuite, les « circuits logiques » ainsi implémentés étaient bien trop simples.

L’équipe constituée par Alexander Green de l’Institut de biodesign de l’université de Tempe en Arizona, avec des collègues de Harvard, a réussi à surmonter ces deux obstacles explique Nature en procédant d’une manière inédite : justement, en n’utilisant pas l’ADN.

Comme l’explique très bien Singularity Hub, le gros problème, avec l’ADN, c’est qu’il se situe à deux degrés de distance de la fabrication des protéines, sur laquelle on est censé agir.

En effet, au sein de la cellule, les gènes, basés sur les fameuses 4 bases A, C, G, T produisent tout d’abord une macromolécule intermédiaire, l’ARN, basé elle aussi sur un code très proche de l’ADN, avec une différence : à la place de la Thymine (T), on trouve une autre molécule, l’Uracile, notée U. L’ARN est une « simple hélice », en contraste avec la fameuse « double hélice » de l’ADN.

Cet ARN une fois synthétisé par le gène se rend dans un lieu spécial de la cellule, le ribosome, véritable « usine à protéines ». Les molécules d’ARN attirent alors les acides aminés qui forment une protéine. Les protéines sont les véritables briques de la vie.

L’équipe de recherche a donc eu l’idée de travailler directement sur cet ARN. En bidouillant ce dernier, on est plus aisément en mesure de contrôler les choses qu’en agissant sur la molécule « mère ». Ce qui permet de s’assurer qu’il existe moins de risques que le système artificiel conçu se comporte de manière inattendue, et donc rendre plus aisée la création d' »ordinateurs » biologiques un peu complexes.

L’astuce, c’est de pouvoir créer une séquence particulière d’ARN qui ne s’activera qu’à la suite d’un ordre spécifique. Autrement dit, de créer un interrupteur.

L’équipe a commencé par synthétiser une séquence artificielle d’ADN qu’ils ont inséré au sein d’une bactérie E. coli. Le rôle de cet ADN n’est donc pas de générer une protéine, mais de créer un brin d’ARN qui contiendra le « code » nécessaire aux opérations suivantes.

Ce brin d’ARN, nous précise IEEE Spectrum, possède une caractéristique originale. En effet, nous dit le magazine, il ne contient pas uniquement du code pour générer une protéine, mais également des parties « logiques ». Cela signifie que l’ARN n’entrera en fonction que s’il reçoit des « inputs », qui l’autorisent à le faire. Ceux-ci sont d’autres brins d’ARN, qui peuvent être introduits dans la cellule ainsi modifiée.

Cette technique permet de créer des systèmes assez complexes constitués d’une multitude de ces « interrupteurs ». L’équipe de Green a réussi, à l’aide de cette méthode, à faire produire une protéine fluorescente par l’E. coli.

Pour l’instant, a expliqué Green à IEEE Spectrum, on n’a pas encore d’applications pratiques de ce genre de technologie, qu’il nomme la « ribocomputation » mais on peut imaginer pas mal de choses, par exemple : « Vous pourriez télécharger un circuit biologique dans les cellules de votre corps pour vous protéger contre les virus ou empêcher le développement du cancer ». Ainsi, continue la revue, « si le corps acquiert des substances cancéreuses ou virales, les cellules pourraient être programmées pour les stopper, synthétiser un médicament, ou activer le système immunitaire, au lieu de permettre à la maladie de se propager« .

Dans le même ordre d’idées, et encore d’après IEEE Spectrum, une équipe de Harvard s’est essayée à utiliser l’ADN non comme un système computationnel, mais comme un moyen de stocker des données. Ces chercheurs de Harvard ont ainsi réussi (en utilisant l’inévitable CRISPR) à stocker au sein d’un E. coli un petit film composé d’images Gif de 36×26 pixels. Jusqu’ici, on avait déjà réussi à utiliser l’ADN comme support de stockage, mais c’était dans un tube à essai et c’est la première fois en revanche qu’on réussit à placer des données dans un être vivant complet. Quelle utilité ? Selon Seth Shipman, qui a dirigé ce travail, « Pour l’instant, nous donnons à l’ADN des informations que nous connaissons. Nous voulons enregistrer des informations que nous ne connaissons pas ».

En effet pour l’instant les chercheurs fournissent les données, comme dans ce cas, le petit film ; une telle technique pourrait servir à enregistrer « l’historique » des activités d’une cellule, ce qui constituerait une mine de renseignements précieuse.

les fourmis : pas très rapides, mais efficaces
Certains disent que les fourmis seraient peut-être à l’origine du protocole TCP/IP comme nous le racontions dans nos colonnes dans un article sur l’entomologiste Deborah Gordon, qui a d’ailleurs développé le concept d’anternet (internet des fourmis). Deborah Gordon s’est cette fois intéressée à une espèce particulière de fourmis, nommées les céphalotes, ou fourmis-tortues, et dont Physorg nous précise qu’elles possèdent une tête « à la Darth Vador ».

Le travail portait sur une question particulière sur les pistes des fourmis. On sait que celles-ci vont chercher et ramènent la nourriture en suivant des phéromones laissées par leurs congénères. Il existe pas mal de programmes de simulation du phénomène, par exemple en netlogo. Mais elles n’ont pas encore révélé tous leurs mystères et de plus, il existe un très grand nombre d’espèces de fourmis, chacune vivant dans un environnement particulier, et développant, grâce aux contraintes de leur milieu, des réponses spécifiques.

Les céphalotes vivent exclusivement dans les arbres. Elles créent au sein de la canopée un réseau complexe de pistes reliant les nids entre eux, et s’étendant vers l’extérieur pour la recherche de nourriture.

Mais ce monde arboricole est un environnement beaucoup plus aléatoire que la terre ferme.Il arrive que des branches se cassent ou tombent. Comment donc les fourmis se débrouillent-elles pour « réparer » leur réseau ? Pour ce faire, Gordon et son équipe ont observé le comportement des animaux et ont effectué certaines expériences, comme par exemple couper une branche sur un passage fréquenté.

Il est apparu que la fourmi ne cherchait pas à suivre le chemin le plus court. Au contraire elle lui préférait celui qui possédait le moins de croisements, d’interconnexions possibles, afin de minimiser les moments où elle devait prendre une décision. Lorsqu’elle arrive à une interruption, comme une branche cassée, elle retourne simplement à l’interconnexion précédente et emprunte une autre voie. Le réseau étant très complexe et l’environnement très riche, il est possible d’aller d’un point à un autre de manière différente. Les travaux de Deborah Gordon avaient déjà montré que les fourmis tendent toujours un peu à adopter des comportements peu « optimisés » mais extraordinairement résilients. Comme elle l’avait déclaré dans sa conférence Ted : « Quand vous observez les fourmis, vous finissez par vouloir les aider, parce qu’elles ne font jamais rien comme elles devraient le faire selon vous. Donc ces contacts aléatoires ne donnent rien de parfait. Mais ça marche plutôt bien. Les fourmis sont là depuis plusieurs centaines de millions d’années. »

Un tel procédé pourra-t-il s’avérer utile pour nos technologies, par exemple en fournissant un moyen pour des « agents » virtuels ou réels de contourner les failles d’un réseau ? En tout cas, en matière d’algorithmique, la nature a encore beaucoup à nous apprendre !

Rémi Sussan

Catégories: Veille et actualités

Résister à la réduction : un manifeste

ven, 17/11/2017 - 06:00

Joi Ito (@joi), le patron du Media Lab du MIT (voir nos récents articles : « L’avenir est-il à l’antidisciplinarité ? » et « Vers l’intelligence étendue ? ») vient de publier un très intéressant manifeste intitulé « Résister à la réduction ». Pour lui, explique-t-il nous sommes menacés par une réduction de sens et de valeur.

S’inspirant de Norbert Wiener et notamment de Cybernétique et société (dont la traduction littérale du titre originel serait plutôt « L’usage humain des êtres humains »), le paradigme de notre civilisation s’est simplifié tant et si bien qu’il a perdu de vue ses missions d’origines. La valeur et la complexité se sont concentrées de plus en plus sur la priorisation d’une croissance financière exponentielle, menées par des entreprises à but lucratif qui n’ont cessé de gagner autonomie, droits, pouvoir et influences sans aucune régulation. Le comportement de ces entités est devenu un cancer, avance-t-il sans ambages. Alors que les cellules saines régulent leur croissance et répondent à leur environnement, les cellules cancéreuses, elles, optimisent leur croissance sans contrainte et se propagent sans tenir compte de leur fonction ou de leur contexte.

Le monde n’est pas domptable

« L’idée que nous existons pour le bien du progrès et que le progrès exige en retour une croissance sans contrainte et exponentielle est le fouet qui nous fouette. Les entreprises modernes sont le produit naturel du paradigme du marché libre du système capitaliste. Norbert Wiener lui-même d’ailleurs appelle les entreprises des « machines de chair et de sang » et l’automatisation des « machines de métal ». Les nouvelles espèces de méga-entreprises que produit la Silicon Valley – les machines de bits – sont développées et gérées en grande partie par des gens qui croient en une nouvelle religion : la Singularité. Cette nouvelle religion n’est pas un changement fondamental de paradigme, mais plutôt l’évolution naturelle du culte de la croissance exponentielle appliquée au calcul moderne et à la science. Et l’asymptote de la croissance exponentielle du pouvoir du calcul est l’intelligence artificielle.

La notion de Singularité – c’est-à-dire l’idée que l’intelligence artificielle va supplanter les humains par sa croissance exponentielle – est une religion créée par des gens qui ont l’habitude d’utiliser le calcul pour résoudre des problèmes jusqu’à présent considérés comme impossibles à résoudre par des machines complexes. Ils ont trouvé un partenaire idéal avec le calcul numérique – un système de pensée connaissable et contrôlable qui s’améliore sans cesse dans sa capacité à maîtriser et traiter la complexité, conférant richesse et pouvoir à ceux qui la maîtrisent. Dans la Silicon Valley la combinaison de think tank et le succès financier du culte de la technologie ont créé un système de rétroaction positif qui a peu de disposition à la régulation. Alors qu’ils n’aiment pas qu’on compare leurs croyances à une religion et affirment que leurs idées sont basées sur la science et les preuves, ceux qui embrassent la Singularité s’engagent (…) surtout et d’abord à atteindre leur vision.

Les Singularitatiens croient que le monde est connaissable et simulable par ordinateur et que les ordinateurs seront capables de traiter le désordre du monde réel, comme ils résolvent bien d’autres problèmes qu’on ne pensait pas jusqu’à présent pouvoir être résolus par des ordinateurs. Pour eux, ce merveilleux outil, l’ordinateur, a si bien fonctionné qu’il va continuer à fonctionner pour tous les défis que nous lui adresserons, jusqu’à transcender les limites connues et que nous atteignons une sorte de vélocité pour nous extraire de la réalité. L’IA remplace déjà les humains dans la conduite automobile, le diagnostic de cancer ou la recherche de documents judiciaire. Pour eux, l’IA va continuer ses progrès sans fin jusqu’à fusionner avec nos cerveaux et devenir une super-intelligence toute puissante. »

Reste que pour Ito, l’idée qu’une intelligence supérieure sera demain capable de résoudre tous les problèmes est une vision « désespérément naïve ». « Plus de calcul ne nous rend pas plus intelligents, mais seulement plus puissants en terme de capacité de calcul ». Pour que la Singularité ait un résultat positif, il faut croire que, si on lui donne assez de pouvoir, le système saura d’une façon ou d’une autre comment se réguler. Le résultat final serait si complexe que nous humains ne serions pas en mesure de le comprendre, mais qu’il le comprendrait et le résoudrait par lui-même. En fait, cela ressemble un peu à la planification de l’ex-Union soviétique, ironise Ito, mais avec une information totale et un pouvoir illimité, deux conditions qui nous seront difficilement acceptables. Si certains Singularitariens ont une vision plus distribuée de ce futur, reste que tous pensent qu’avec suffisamment de pouvoir et de contrôle le monde est domptable.

Il nous faut refuser le réductionnisme utilitariste

Les Singularitariens croient dans les courbes exponentielles, des courbes de rétroactions positives sans limites. Mais ceux qui ne sont pas dans cette bulle explicative, croient plutôt en des courbes en S, à savoir que le monde s’adapte et s’autorégule. Pour Ito nous sommes là face à un réductionnisme insoutenable. Quand le psychologue BF Skinner a découvert le principe du renforcement, nous avons pu construire de nouvelles formes d’apprentissage depuis ses théories. Mais il a fallu du temps pour comprendre que les approches comportementalistes ne fonctionnent que pour un éventail restreint de formes d’apprentissages. L’eugénisme n’a cessé de simplifier le rôle de la génétique, cherchant toujours à fournir une vision scientifique réductionniste de la génétique, imaginant que nous pourrions « réparer l’humanité » en favorisant la sélection naturelle. Et les échos de l’eugénisme continuent leurs ravages aujourd’hui en tentant sans cesse de lier la génétique avec le tabou de l’intelligence.

Pour Ito, nous devrions apprendre de notre histoire et résister au réductionnisme utilitariste de la science. Einstein disait que « tout devrait être aussi simple que possible, mais pas plus simple ». Et Ito d’en appeler à refuser le réductionnisme du monde. « Nous devons embrasser l’inconnaissable – l’irréductibilité – du monde réel que les artistes, les biologistes et tous ceux qui travaillent dans le monde désordonné des arts et des sciences humaines avec lesquels ils sont familiers, connaissent ».

La cybernétique de Wiener a été écrite à une époque où il était plus facile de croire que les systèmes pourraient être contrôlés et limités. A cette époque, les ingénieurs et les scientifiques pouvaient encore comprendre ce qu’il se passait dans leurs systèmes.

« Il est bien évident aujourd’hui que la plupart de nos problèmes – changement climatique, pauvreté, obésité, maladies chroniques, terrorisme… – ne peuvent être résolus simplement avec plus de ressource ou par un plus grand contrôle. Notamment parce qu’ils sont le résultat de systèmes adaptatifs complexes qui sont eux-mêmes les résultats d’outils utilisés pour résoudre des problèmes du passé, comme la construction d’une productivité sans fin et nos tentatives à contrôler toutes choses »

.

Mais la cybernétique a changé. Aujourd’hui, elle est celle de systèmes complexes auto-adaptatifs, où l’observateur lui-même fait partie du système, comme le dit le chercheur Kevin Slavin (@slavin_fpo), fondateur du programme Playful Systems au Media Lab, en défendant conception comme participation. Nous appartenons à un monde de systèmes interconnectés, complexes, auto-adaptatifs, à différentes échelles et dimensions, intriqués les uns dans les autres et qui rendent inséparable la position de l’observateur et du concepteur. Plus nous introduisons de machines dans le système, plus elles augmenteront les individus, mais aussi – et c’est plus important – augmenteront les systèmes complexes dans leur ensemble. Pour Ito, c’est là que la formulation problématique de l’intelligence artificielle devient évidente, car elle suggère des formes, des buts et des méthodes qui se tiennent en dehors de toute interaction avec d’autres systèmes adaptatifs complexes, plaide -t-il en parlant l’intelligence étendue. « Au lieu d’essayer de contrôler, de concevoir ou même de comprendre les systèmes, il est plus important de concevoir des systèmes qui participent en tant qu’éléments responsables, conscients et robustes de systèmes encore plus complexes. Et nous devons questionner et adapter notre propre but et nos propres sensibilités en tant que concepteurs et composants du système pour une approche beaucoup plus humble : l’humilité plutôt que le contrôle. »

La résilience plutôt que l’optimisation, la diversité plutôt que l’uniformisation

Pour Ito, l’enjeu n’est pas tant l’optimisation des systèmes que de développer leur capacité de résilience. Ito fait référence au livre de l’écologiste Donella Meadow, Thinking in Systems et à un article qu’elle a publié où elle explique comment intervenir dans un système complexe et auto-adaptatif. Elle y pointait les modalités d’interventions dans un système selon leur efficacité.


Image : les modalités d’intervention dans un système dans l’ordre croissant de leur efficacité, par Donella Meadow :
12 : Constantes, paramètres, nombres (comme les subventions, taxes, normes).
11. La taille des tampons et autres stabilisateurs par rapport à leurs débits.
10. La structure des stocks et des flux matériels (tels que les réseaux de transport, les structures d’âge de la population).
9 La longueur des retards par rapport au taux de changement du système.
8. La force des boucles de rétroaction négative par rapport aux impacts qu’elles tentent de corriger.
7. Le gaindes boucles de rétroaction positives.
6. La structure des flux d’informations (qui a ou n’a pas accès à l’information).
5. Les règles du système (comme les incitations, punitions, contraintes).
4. Le pouvoir d’ajouter, de modifier, de faire évoluer ou d’auto-organiser la structure du système.
3. Les objectifs du système.
2. L’état d’esprit ou le paradigme à partir duquel le système (c’est-à-dire ses objectifs, sa structure de pouvoir, ses règles ou sa culture) se pose.
1. Le pouvoir de transcender les paradigmes.

Pour elle, les interventions qui impliquent de modifier les paramètres ou de changer les règles ne sont pas aussi puissantes ou aussi fondamentales que les changements dans les objectifs et les paradigmes d’un système. Pour Ito, cela pointe le fait que la soutenabilité n’est pas tant quelque chose qui doit être résolu dans un monde de progrès spontané où le plus est toujours le mieux et où le plus plus qu’assez n’est jamais le trop. Il nous faut nous intéresser aux valeurs et aux modalités pour examiner si elles sont adaptées et appropriées aux systèmes dont nous participons.

Pour le dire autrement et plus clairement, notre épanouissement dépend moins d’un éventail de mesures capables d’évaluer le succès, dépend moins d’une accumulation de pouvoir et de ressources que d’une diversité et d’une richesse d’expérience. Pour Ito, c’est le changement de paradigme dont nous avons besoin. Nous avons besoin d’une diversité, d’une multitude de modèles technologiques et culturels pour créer une société hautement adaptable. Nous ne pouvons pas penser résoudre notre impact environnemental sans poser des questions sur le sens du bonheur et notre rôle avec la nature. Et de pointer d’ailleurs le cours qu’il dispense au MIT avec le moine bouddhiste Tenzin Priyadarshi, directeur de l’initiative éthique du Media Lab, Principes d’attention, où il enseigne aux étudiants à utiliser une variété de métriques pour mesurer leurs succès et leurs significations, pour les aider à la fois à se débattre de la complexité et à trouver leur place dans un monde complexe. Ainsi que l’initiative de l’IEEE (voir également les publications de ce groupe de travail) pour développer des lignes directrices pour une intelligence artificielle au service du bien-être humain plutôt que de l’optimisation économique. Ou encore les travaux de Peter Seligman, Christopher Filardi et Margarita Mora de l’association Conservation International, qui abordent la préservation en soutenant l’épanouissement des peuples autochtones.

Notre avenir, conclut Ito est de nous épanouir en harmonie avec la nature plutôt que par son contrôle.

Catégories: Veille et actualités

Vers un design de la médiation (2/2) : jouer avec les interfaces

mer, 15/11/2017 - 06:00

Dans la première partie de ce dossier, j’ai tenté de montrer, avec l’aide du remarquable article du journaliste et développeur James Somers, que la manière même de produire du code était en train d’évoluer, que nous passions de l’écriture artisanale à des modèles de programmation qui permettent une compréhension plus globale de ce que le code accomplit. Que la complexité à laquelle le code parvenait nécessitait de nouvelles approches, de nouvelles modalités de conception. De nouveaux outils ouvrent des possibilités pour faciliter cette relation, pour transformer le dialogue entre le code et ce qu’il produit, entre codeurs et codés. De nouvelles formes de médiation entre le code et les développeurs ouvrent la voie à une autre forme de médiation entre les données, les systèmes, les traitements et ceux qu’ils calculent. Une évolution qui, via les interfaces, impacte directement notre rapport aux données et aux traitements qu’ils produisent. Dans la longue histoire des interfaces, une nouvelle étape de la médiation entre systèmes techniques et société semble se dessiner. Des interfaces optimisées et lisibles pour les machines comme le code ou jeux de données, nous glissons vers des interfaces plus accessibles aux humains tout en permettant leur exploitation conjointe par les hommes et les machines. Telle est la promesse du design de la médiation aux données.

Des datavisualisations aux « explications à explorer »

Les datavisualisations (ou visualisations de données) n’ont jamais été uniquement une façon de faire de jolis graphiques depuis des données. Depuis l’origine, elles sont liées à « l’engagement » que le concepteur peut tisser entre le lecteur et les données, même si elles se sont longtemps peu prêtées à manipulation et l’interaction. Reste qu’elles sont devenues peu à peu de moins en moins statiques, permettant de modifier les configurations, d’intervenir sur certains paramètres pour les faire varier, de zoomer ou dézoomer (comme dirait le sociologue Dominique Cardon)… Cette possibilité d’agir sur les données, d’interagir, introduit une forme de jeu qui ouvre à une compréhension nouvelle de ce qu’elles recouvrent.

La mathématicienne Cathy O’Neil ne disait pas autre chose quand elle soulignait, parlant des algorithmes et des systèmes techniques : « vous ne savez pas vraiment ce que fait un modèle tant que vous ne pouvez pas interagir avec lui ». L’interaction a toujours été un moyen de comprendre. La possibilité de manipuler et de changer les modalités par la manipulation est un moyen de saisir concrètement les conséquences de nos actions et donc d’apprendre et de comprendre, comme le suggéraient déjà les psychologues John Dewey et Jean Piaget.

Bret Victor (@worrydream), le développeur qu’évoquait James Somers dans son article a parlé « d’explications à explorer » (Explorable Explanations) pour évoquer de nouveaux modèles d’interactions. Un concept désignant l’engagement dans une lecture active via des documents réactifs, c’est-à-dire des documents permettant de jouer avec des hypothèses et d’en explorer les conséquences, via des procédés interactifs. L’enjeu expliquait-il est de permettre au lecteur de développer « une intuition sur le fonctionnement d’un système ».

« Un lecteur actif pose des questions, considère des alternatives, remet en question des hypothèses et remet même en question la fiabilité de l’auteur. Un lecteur actif tente de généraliser des exemples spécifiques et de concevoir des exemples spécifiques de généralités. Un lecteur actif n’absorbe pas l’information de manière passive, mais utilise l’argument de l’auteur comme un tremplin pour développer sa pensée critique et sa compréhension profonde.

Est-ce que nos environnements de lecture encouragent la lecture active ? Ou s’y opposent-ils totalement ? Un outil de lecture typique, tel qu’un livre ou un site web, affiche l’argument de l’auteur… et rien d’autre. La ligne de pensée du lecteur reste interne et invisible, vague et spéculative. Nous formons des questions, mais nous ne pouvons pas y répondre. Nous considérons des alternatives, mais ne pouvons pas les explorer. Nous remettons en question les hypothèses, mais nous ne pouvons pas les vérifier. Et donc, à la fin, nous faisons confiance aveuglément, ou pas, et nous manquons la compréhension profonde qui vient du dialogue et de l’exploration.

Explorable Explanations est mon projet général d’idées qui permettent et encouragent une lecture vraiment active. Le but est de changer la relation des gens avec le texte. Les gens pensent actuellement que le texte est une information à consommer. Je veux que le texte soit utilisé comme un environnement dans lequel réfléchir. »

Pour lui donc, les contenus ne peuvent pas seulement être les conteneurs d’une information destinée à être consommée, mais doivent être aussi les contenants d’une réflexion pour nous amener à en être acteurs. « Un document réactif permet au lecteur de jouer avec les hypothèses et analyses de l’auteur et d’en voir les conséquences ».

Fort de ce constat, son travail a consisté depuis à produire des documents réactifs et à développer des outils permettant d’interagir avec les concepts depuis les données.

Dans un autre de ses essais interactifs, « En haut et en bas de l’échelle de l’abstraction« , Victor Bret précise par l’exemple son concept d’explications explorables. L’exemple qu’il prend dans cette démonstration est un système de commande d’une simulation automobile permettant à une représentation de voiture de circuler sur une route. Il établit sa démonstration par la programmation de petits jeux interactifs pour aider à comprendre comment créer des règles pour guider la voiture, ajoutant à chaque volet de complexité de son explication toujours un peu plus d’interactivité. Pour lui, explique-t-il, le défi n’est pas tant dans la construction des systèmes que dans leur compréhension : la conception doit permettre d’explorer, de passer d’un niveau d’abstraction à un autre. L’interactivité, les modélisations et les données permettent de comprendre et jouer de concepts et modèles complexes par induction : en déplaçant des curseurs, en modifiant des chiffres, en comprenant la récurrence de schémas… De faire de la pédagogie depuis le jeu et l’interactivité, à l’image de la promesse originelle du multimédia.

Vers des systèmes de visualisation pour manipuler le monde des données

Ses travaux, initiés dès 2011, ont inspiré toute une communauté de développeurs qui ont construit depuis une foule d’outils et de contenus interactifs.

Victor Powell (@vicapow, qui travaille désormais chez Uber) et Lewis Lehe se sont inspirés des travaux de Victor Bret pour créer leur agence Setosa.io, mais surtout « Expliquer visuellement » un site qui agrège des explications visuelles et interactives de concepts mathématiques ou statistiques, via des animations et des graphiques que le lecteur peut manipuler. Jack Schaedler (@jackshaedler) pour sa part a publié tout un site pour expliquer les ondes, les cercles, les sinus et cosinus et les signaux. Mike Bostock (@mbostock) a publié « Visualizing Algorithms », un ensemble d’explications interactives qui permettent de comprendre les règles logiques des algorithmes. Daniel Kunin a développé pour sa part un site pour expliquer les probabilités et les statistiques. Stephanie Yee (@stephaniejyee et Tony Chu (@tonyschu) du studio R2D3 ont créé un cours visuel pour comprendre l’apprentissage automatique.

Les « explications explorables » ne se limitent pas aux mathématiques, rappelle le data journaliste et designer de données Maarten Lambrechts (@maartenzam) dans un remarquable article de synthèse, évoquant le travail de Chaim Gingold (@cgingold) sur Earth Primer (vidéo), une application pour iPad sous forme de manuel interactif pour comprendre des concepts de géologie, d’écologie et de météorologie, en permettant au lecteur de voir les effets de la pluie, des vents ou de la température sur les sols, le relief et la végétation.

Nicky Case (@ncasenmare, blog) s’intéresse plus aux phénomènes sociaux qu’aux questions techniques. Il a réalisé d’incroyables démonstrations « jouables » pour nous permettre de mieux les comprendre, comme Neurones névrotiques qui permet de comprendre le fonctionnement des neurones, la théorie des assemblées de neurones et la thérapie d’exposition, une technique de désensibilisation utilisée en psychothérapie comportementale pour combattre les phobies, le trouble du stress post-traumatique ou d’autres types d’anxiété. La parabole des polygones de Vi Hart et Nicky Case est une histoire interactive qui explique le fonctionnement de la ségrégation dans la société, ou comment un petit biais individuel aboutit-il à une grande ségrégation collective. L’évolution de la confiance est un jeu sur le même principe pour regarder comment la confiance et la coopération se disséminent entre les gens, à partir des théories des jeux.

Les « explications explorables » ont d’ailleurs leur portail (@explorables), maintenu par Maarten Lambrechts et Nicky Case, qui tente de recenser un grand nombre de ces nouveaux objets.

Comme le souligne Victor Bret en conclusion de l’échelle de l’abstraction, pour comprendre un système, il faut pouvoir l’explorer. Et pour l’explorer, il faut pouvoir contrôler et agir sur les paramètres. Pour lui, ce processus dynamique permet de rendre concrète l’expérience d’un système, de « reconstituer progressivement une compréhension pour guider nos décisions ». Pour Maarten Lambrechts, ces dispositifs, qui permettent d’expliquer par l’exploration, sont l’avenir même de l’éducation.

Dans une récente conférence faite pour la Long Now Foundation, Nicky Case explique avec une réelle énergie que face à la complexité, il faut pouvoir voir les systèmes dans leur totalité : il parle d’ailleurs de « systèmes de visualisation », pour évoquer ces nouvelles interfaces ! Pour y parvenir, il est nécessaire de rendre les choses abstraites, concrètes. C’est-à-dire de faire descendre les idées abstraites au niveau de compréhension des gens. Et que pour cela, la visualisation ne suffit pas, il faut pouvoir manipuler le monde des données. Plus que les mots, ces systèmes permettent également de favoriser la communication, notamment parce qu’ils reposent sur de la visualisation qui est plus universellement accessible que le texte. Mais pour lui, c’est l’assemblage des deux – « montrer et dire » – qui prend du sens, car cela nous permet d’être guidé dans notre parcours de compréhension. Comme une carte, qui nous montre un chemin dans un territoire complexe.

Reste que cartographier et rendre accessible un système complexe n’est pas si simple, s’amuse le développeur. Bien souvent, on n’y comprend rien, à l’image de la célèbre cartographie de la stratégie américaine en Afghanistan, qui, comme s’en est amusé un général Américain, permettrait certainement de gagner la guerre pour qui la comprendrait. Trop souvent les cartes, graphiques et visualisations ne donnent aucune ligne directrice, oubliant de permettre de rendre les informations plus simples ou plus accessibles, mais également plus adaptables pour les expérimenter par soi-même. Pour comprendre, il faut aussi que les systèmes favorisent une forme de manipulabilité des paramètres, de jouabilité…

Pour Nicky Case, nos erreurs d’interprétations sont liées au fait qu’on utilise une pensée linéaire pour comprendre des systèmes complexes. Or ceux-ci ne sont pas linéaires, mais reposent sur des boucles de rétroactions qui les renforcent, qui les équilibrent ou créent du chaos. Comprendre la complexité nécessite donc de faire appel à des documents non linéaires. C’est tout l’enjeu de Loopy, un système de cartes mentales (mindmap) dynamiques permettant justement de représenter simplement des interactions entre systèmes, que le développeur a mis au point. Pour Nicky Case, ces systèmes de visualisation jouables doivent avant tout nous permettre de comprendre comment se joue la complexité.

Des systèmes de visualisation aux design de la médiation

Avec ces outils, la visualisation de données est en train d’évoluer. Elle n’est plus seulement un mode de représentation ou de compréhension : elle devient l’interface de gestion des données elles-mêmes. Elle propose de reconcevoir la médiation des systèmes eux-mêmes, en les rendant explorables, manipulables, paramétrables.

Et les perspectives qu’entrouve cette conception peuvent être particulièrement stimulants. Lors d’une conférence de 2014 (vidéo), Victor Bret imaginait que cela pourrait conduire à créer de nouveaux « espaces de création », des espaces qui ne soient pas seulement des moyens d’assembler des pièces entre elles, mais aussi des moyens de comprendre les comportements de systèmes.

Avec le numérique, expliquait-il, nous perdons le lien avec nos outils parce qu’ils ne nous entourent plus, contrairement à ce que nous vivons dans nos cuisines ou dans un atelier où les outils sont à notre disposition tout autour de nous. Pour lui, l’enjeu de nos outils numériques est qu’ils deviennent des espaces de création qui donne de la capacité d’action aux gens. Mais quand on accomplit des projets logiciels ou robotiques, la difficulté n’est pas tant d’assembler les pièces ensembles, mais de comprendre ce qu’elles font et comment leur faire faire ce que nous voulons. Si nous voulons faire se déplacer un petit robot vers une lumière, il faut regarder son code et comprendre ce qu’il voit et comprendre pourquoi il se comporte de la façon dont il se comporte. En fait, les outils de construction à notre disposition n’aident pas beaucoup. Il faudrait plutôt avoir des outils permettant de regarder ce qu’il se passe. Pourtant, certains métiers prennent la visualisation au sérieux, rappelle-t-il en évoquant les salles de contrôle de la Nasa et les tableaux de bord géants des salles de contrôle d’installation critique qui surveillent le trafic routier ou électrique, ou une régie télé. Pour comprendre ce qu’il se passe en temps réel, il faut souvent construire une pièce peuplée d’écrans montrant les résultats en temps réels de multiples capteurs. Pour Bret, c’est ce type de pensée qu’il faut apporter à l’ingénierie numérique. Des outils de ce type, explique-t-il, permettraient de créer des « espaces de visualisation », c’est-à-dire de créer des environnements qui permettent de voir et de comprendre comment se comporte le projet qu’on construit. Et d’imaginer dans sa présentation comment manipuler un robot depuis les données produites et non plus seulement depuis son code. Voir à l’intérieur nécessite de projeter l’information, d’y avoir accès autour de soi, de l’afficher d’une manière accessible dans son environnement et pas seulement à l’intérieur de l’objet. Et bien sûr tout l’enjeu de cet affichage consiste à trouver les moyens de le représenter et de permettre à cette représentation d’être rétroactive, c’est-à-dire de pouvoir la manipuler en retour facilement pour qu’elle agisse sur les objets qu’elle pilote. En déployant les possibilités de l’information jouable, Victor Bret nous permet de comprendre la finalité des interfaces qu’il imagine, comment le jeu sur les paramètres devrait permettre de modifier les comportements des choses avec lesquels on interagit.


Image : un espace de visualisation, tel qu’imaginé par Victor Bret.

Pour lui, si ces perspectives très prospectives qu’il dessine sont importantes, c’est que des systèmes de ce type pourraient permettre de faire le lien entre le bricolage, l’ingénierie et la science. « Si vous ne donnez aux gens que des outils de construction et leurs apprenez à s’en servir, ils en resteront au bricolage. Si vous leur donnez des outils conceptuels et théoriques, ils peuvent atteindre un niveau d’ingénierie. Mais pour aller jusqu’à des outils scientifiques, il faut pouvoir apporter des outils de visualisation, de compréhension », explique-t-il. Pour lui, il nous faut passer des recettes aveugles que nous appliquons à une compréhension pleine et entière. Et c’est tout l’enjeu de ce design de la médiation qu’esquissent les explorations explorables.

De la complexité toujours plus accessible

Ces interfaces ne sont plus le terrain de jeu de quelques développeurs brillants, mais isolés qui produiraient des applications multimédias et interactives réussies. De grands acteurs font des efforts pour rendre leurs outils toujours plus accessibles. C’est notamment le cas de Google, avec Tensor Flow, son outil d’apprentissage automatique en open source, qui a développé des outils pour jouer avec un réseau de neurones et rendu accessible différents projets permettant de tenter de comprendre comment ça fonctionne. L’un des outils les plus accessibles de Google, sa machine à apprendre permet, sans avoir à programmer une ligne de code, d’apprendre à un système à utiliser ce que voit sa caméra pour déclencher des comportements ad hoc. Selon ce que votre caméra regarde et analyse, grâce aux techniques de reconnaissance d’images de Google, vous pouvez très facilement créer une rétroaction quand il détecte que vous riez ou que vous pleurez ou quand il voit passer un chat devant l’écran… par exemple de déclencher un son ou tout autre comportement. Un autre outil, Facets permet d’analyser des données depuis des techniques d’apprentissage automatique en utilisant la visualisation pour faciliter la compréhension et l’analyse (voir les explications de Google). Autant d’exemples et d’outils qui préfigurent un avenir où l’intelligence artificielle serait demain accessible à tous.

Mais Google n’est pas le seul acteur à tenter de rendre accessible l’apprentissage automatique. Uber a construit une plateforme de machine learning comme service, proposant là encore des outils de visualisation ad hoc : Michelangelo. Cet outil développé en interne pour ses équipes d’ingénieurs et de scientifiques de données a permis que tout le monde travaille avec des outils comparables, de stocker et comparer des résultats, et surtout de mettre en production de nouveaux services basés sur l’analyse de données permettant à Uber d’exploiter des systèmes de machine learning à grande échelle. L’un des exemples qu’évoque Uber a été l’utilisation de cette plateforme pour produire des modèles de prédictions pour optimiser Uber Eats, le système de gestion de livraison de repas.

Fast Forward Labs, une société de conseil spécialisée dans le machine learning, a publié cet été un prototype d’algorithme qui favorise l’interprétabilité. Pour l’instant, il y a une tension dans les systèmes d’apprentissage automatique : l’exactitude de la prédiction de certaines techniques est inversement proportionnelle à leur explicabilité. Fast Forward Labs se propose de résoudre cette tension, avec des algorithmes qui améliorent leur exactitude tout en garantissant leur interprétabilité… Tant et si bien que ses promoteurs estiment que demain nous ne parlerons plus de boîtes noires algorithmiques, mais bien plutôt de boîtes blanches capables d’expliquer ce qu’elles font à ceux qu’elles calculent. L’équipe de la plateforme de Deep Learning H2O.ai a publié, elle, cette année, une vidéo qui montre plusieurs approches pour développer l’interprétabilité des systèmes d’apprentissage automatique.

Bon, toutes ces initiatives ne s’adressent pas encore tout à fait à chacun d’entre nous. Retenons néanmoins que les programmes d’intelligence artificielle cherchent à se rendre toujours plus accessibles. De là à dire que demain tout a chacun pourra les utiliser, il y a peut-être un pas qui semble encore difficile à envisager. C’est pourtant bien, semble-t-il, l’objectif qui se dessine. La conception d’interfaces s’insinue toujours plus loin pour nous permettre de jouer avec les données et les traitements, quitte à faire disparaître le code lui-même sans réduire ce qu’il permet de faire.

De la jouabilité des systèmes

Dans une remarquable tribune pour Linkedin, Benoît Vidal, cofondateur de Dataveyes (@dataveyes), un studio de développement de projets spécialisé dans l’interaction hommes-données, invite à créer des « interfaces de médiation avec les algorithmes », comme les informaticiens ont créé des interfaces de médiation avec le code. Benoît Vidal parle de HDI (pour Human Data Interactions ou “interactions homme-données”) pour parler d’interfaces permettant de favoriser la discussion entre les données, leurs traitements et leurs utilisateurs.

« Les hommes et les machines doivent être chacun en charge de répondre à des besoins de natures et de complexités différentes : aux systèmes d’IA la responsabilité d’apprendre, de calculer, de classer, etc. Et aux humains la responsabilité de comprendre, d’analyser, de ressentir ou encore d’éprouver la réalité. Les deux devraient donc plutôt travailler de pair, en confiance. » Le but des HDI est d’apporter de la compréhension face aux systèmes riches en données par le biais d’interfaces qui misent non seulement sur la visualisation de données, mais aussi sur l’interactivité. La jeune pousse créée, inspirée par le travail sur les systèmes de datavisualisation, des systèmes d’interfaces pour interagir avec des données que ce soit dans le domaine des ressources humaines ou de l’énergie par exemple.

« De telles interfaces ne cherchent pas à nous apprendre à lire les formules mathématiques des algorithmes, mais elles nous montrent comment les algorithmes transforment les données, elles nous aident à appréhender ce que produisent ces algorithmes, à déduire le fonctionnement du système, en nous figurant visuellement les structures, les groupes, les hiérarchies, la distribution, les relations et les corrélations dans un jeu de données.

Souvent ces interfaces possèdent des filtres, des zooms, des curseurs à déplacer, des boutons à actionner, etc. Car un aspect important des interactions hommes-données se situe dans l’interactivité. Lorsqu’une visualisation simule des données qui évoluent au cours du temps, ou bien lorsqu’elle nous permet de faire varier des paramètres, elle nous donne à voir l’influence de variables d’entrée sur des variables de sortie. L’interface nous fait toucher du doigt la sensibilité des données, et nous donne une image mentale de leurs liens de dépendance. »

Tout l’enjeu est de produire non plus seulement des représentations (comme le faisait la datavisualisation), mais des systèmes permettant de moduler les représentations selon les données et les traitements. Une conception de la médiation entre données et humains.

L’enjeu n’est plus de produire seulement des visualisations de données, mais des systèmes qui permettent d’interagir avec les données et les traitements, qui permettent de comprendre les fonctionnements. L’enjeu n’est plus seulement de traiter les données, mais d’apporter des outils plus accessibles pour comprendre leurs fonctionnements, les traitements que les systèmes accomplissent et jouer avec leurs paramètres. Bref, de faire descendre des problématiques de gouvernance des données jusque dans le matériel qui permet de les traiter.

Au carrefour de la médiation, de l’explication et du jeu, ce design de la médiation entre les données, les calculs et les utilisateurs n’est certes pas nouveau, mais ses évolutions récentes dont nous avons tenté de rendre compte ici, montrent le rôle et l’importance de la jouabilité des systèmes techniques que nous évoquions dans les conclusions du groupe de travail Nos Systèmes de la Fing. L’enjeu de la jouabilité n’est pas seulement une façon de comprendre, mais bien une façon d’exploiter, d’utiliser et d’élargir le nombre de ceux qui seront capables d’exploiter les systèmes techniques aussi complexes soient-ils. A l’aune de ses premiers résultats en tout cas, le design de la médiation qui se structure peu à peu paraît être un puissant levier pour organiser le dialogue entre les données et la société. Il faudra assurément en suivre les développements.

Hubert Guillaud

Catégories: Veille et actualités

Homo Deus : la technologie, cette religion performative !

mar, 14/11/2017 - 06:00

Sapiens (voir également « D’Homo Sapiens au transhumain : qu’est-ce qu’être humains ? »), le précédent livre de l’historien Yuval Harari (Wikipédia, @harari_yuval), cette grande fresque de l’humanité a permis à des millions de lecteurs de se sentir intelligents, de comprendre notre aventure humaine sur plus de 300 000 ans, de s’ouvrir à une autre échelle de temps pour éprouver notre humanité, comme l’avaient fait avant lui, dans des styles différents, des historiens comme Arnold Toynbee ou Jared Diamond par exemple. En magicien de la vulgarisation, Harari nous avait fait comprendre que ce qui nous a distingué des singes, c’est notre capacité à raconter des histoires (comme les religions, les États, l’argent ou la loi) nous permettant de coopérer à vaste échelle, ce que les groupes de singes sont encore incapables. Chaque lecteur s’est régalé de cette vision holistique, de ses formules saisissantes, des points de vue décalés, des exemples truculents et toujours pertinents qu’use l’historien. Que ses fans se rassurent, ils retrouveront tout cela dans son nouvel ouvrage, Homo Deus. Yuval est toujours un formidable conteur, passionnant de bout en bout !

Pourtant, en utilisant les mêmes ficelles, cette suite est beaucoup moins réussie. D’abord, parce que si Sapiens se terminait sobrement, prophétisant la possible fin de l’humanité, cette suite prend un tout autre chemin : celui d’envisager notre propre dépassement en tant qu’espèce. Reprenant une vulgate commune, Harari estime que la technologie va nous permettre de nous affranchir de toutes nos limites, oubliant peut-être trop rapidement que notre domination du monde ne repose pas sûr le dépassement de nos seules limites, mais aussi sur le dépassement des limites de notre environnement tout entier. En extrapolant des tendances à la manière d’un Hari Seldon, célèbre psychohistorien de science-fiction capable de prédire l’avenir de l’humanité sur des milliers d’années, Harari signe un essai de science-fiction où il pousse ses propres biais jusqu’à leur caricature. En appliquant son stimulant schéma d’explication du monde à l’avenir, Harari en éprouve les limites, celles d’un gênant réductionnisme, souvent très schématique et parfaitement libéral.

L’hubris de la techno, par nature, consiste à dépasser toutes les limites. Surtout les plus fondamentales, celles du temps, de la vie, de l’espace et de la matière. Pourtant, avons-nous vraiment dépassé l’une d’entre elles comme nous le racontent les prophètes des technosciences ? Si nous avons repoussé la mort, nous n’avons pas dépassé la durée de vie naturelle de notre espèce et pour l’instant, malgré des décennies d’annonces, rien ne nous assure que nous y parviendrons vraiment. Nous sommes certes allés dans l’espace, mais nous sommes parfaitement incapables d’envisager les seuls voyages importants, les voyages interstellaires, permettant de nous conduire sur d’autres mondes habitables à des milliers d’années de notre planète. Nous ne savons toujours pas créer de la matière depuis des éléments fondamentaux. Et nous n’avons découvert aucune prise sur le temps.

Ces échecs n’empêchent pas Yuval Harari de faire sien le prophétisme technologique, qui ne cesse d’annoncer ces réalisations à venir, soulignant combien l’imaginaire transhumaniste nous éblouit. Après l’avoir rejeté, nous voulons désormais dépasser notre condition pour réaliser nos rêves. Le récit qui nous projette dans un dépassement de nous-mêmes en tant qu’espèce semble si puissant qu’il permet de croire qu’on sera capable de le réaliser. Ce serait peut-être possible, si nous n’avions pas déclenché un compte à rebours qui éloigne l’objectif à mesure qu’on cherche à s’en rapprocher.

Comme le dit Yuval Harari, nos constructions conceptuelles contemporaines sont encore plus puissantes que les religions et c’est pour cela qu’elles les détrônent. La technologie notamment va plus loin encore. C’est une religion performative, qui tente d’accomplir ce qu’elle annonce. En cela elle est toute puissante. Le risque est d’oublier que malgré sa puissance, la technologie est aussi et avant tout un moteur de notre imaginaire, une représentation, une manière de nous convaincre de notre puissance sans limites. La réalité montre plutôt que nos rêves vont être très difficiles à réaliser. La limite intrinsèque des ressources naturelles de la planète ou le défi climatique viennent réclamer leur dû. Nous allons avoir du mal à abandonner notre condition d’autant plus quand ce que nous avons saccagé se rappelle à nous. Non seulement nous avons été incapables de penser notre environnement jusqu’à le détruire, mais nous avons été aussi incapables de nous penser en tant qu’espèce, de dépasser nos récits coopératifs pour prendre en compte le temps, la matière, l’espace et la vie.

En soulignant combien dieu est une récit dépassé, régénérer cette perspective en faisant de l’homme un dieu, comme nous y invite Homo Deus, n’est-il pas une perspective vouée à l’échec ? Si dieu n’existe pas, comment l’homme pourrait-il en devenir un ?, pourrait-on répondre à Harari.

Comme bien des technoprophètes, Harari fait de la science une fiction. Son défaut si commun est une sur-rationalisation, sans voir combien cette logique de l’efficience parfaite, absolue, produit pourtant des absurdités… Chez Harari, la notion de progrès semble n’avoir connu aucune critique : il est toujours infini. En projetant des régularités passées sur l’avenir, il déduit des progrès linéaires de la science des percées à venir exponentielles. C’est ainsi que de constats justes on dresse des perspectives fausses. À nouveau, la disparition des ressources, la grande extinction, le réchauffement climatique qui pourraient conduire à la disparition même de la vie sur Terre, semblent des perspectives peu importantes pour les dieux que nous sommes appelés à devenir. Reste que ces considérations-là pourraient bien pourtant nous empêcher d’atteindre un quelconque Olympe.

Au final, Harari brode son récit d’un avenir qui ne fait rêver personne, sans poser vraiment la question de la finalité : voulons-nous vraiment vivre 1000 ans ? Voulons-nous vraiment quitter notre condition – ce qui implique notamment de ne plus faire des enfants comme nous les faisons puisque ce n’est pas la manière la plus optimale ? Voulons-nous vraiment la société inégalitaire et de contrôle total que cela implique ? Comment être heureux si nous nous coupons de la seule chose qui finalement nous rend heureux : « les sensations agréables » ?

Comme le dit Harari, la plus grande découverte scientifique a été celle de l’ignorance, car elle nous a permis de partir à la recherche de la connaissance. Il est peut-être temps de se souvenir de ses vertus, plutôt que de chercher à nous faire croire que tout est résolu ou que tout va l’être.

Hubert Guillaud

Cette critique de l’ouvrage de Yuval Harari est extraite d’Idées, une nouvelle revue lancée par Lemieux éditeur dont le premier numéro vient de paraître (Emmanuel Lemieux avait lancé L’annuel des idées puis la revue Le Panorama des idées auxquels InternetActu.net avait également contribué). Cette revue livrera tous les deux mois un aperçu des meilleures publications dans le domaine des essais et des critiques argumentées pour aider chacun à naviguer dans le foisonnant paysage des publications du monde des idées. Abonnez-vous !

Catégories: Veille et actualités

Femme et pouvoir, un manifeste

lun, 13/11/2017 - 11:38

Rachel Cooke (@msrachelcooke) pour le Guardian livre une passionnante critique du dernier livre de Mary Beard (Wikipédia, @wmarybeard), Women & Power : a manifesto. Universitaire, professeure d’humanités à l’université de Cambridge, elle est l’une des personnalités féministes les plus connues de Grande-Bretagne. Dans son nouveau livre, elle s’intéresse au silence des femmes, c’est-à-dire à la façon dont les femmes ont été contraintes au silence dans la prise de parole et le débat public.

« Quand il s’agit de rendre silencieuse la parole des femmes, notre culture occidentale a des centaines d’années de pratique », lance Beard en introduction de son livre. Pour elle, le diagnostic de la misogynie de nos sociétés est paresseux et ne suffit pas à expliquer ses racines. Suite à la prise de parole féminine dans le sillage du scandale Harvey Weinstein, « le silence des femmes, la brutalité des hommes, la honte comme mécanisme de contrôle, l’androgynie et l’évitement comme stratégie de survie », sont des mécanismes que l’on retrouve depuis les mythes antiques jusqu’à aujourd’hui dans le rapport des femmes à la sphère publique. Un constat plus pertinent que jamais. A l’image de Télémaque qui disait à sa mère de se taire, ou de la déesse Athéna qui incarnait l’autorité au prix du refoulement de ses attributs féminins, elle souligne, en regardant la place des femmes dans la littérature classique, que le silence des femmes était un élément essentiel du pouvoir des hommes. L’exclusion des femmes du discours public était réel. Les voix des femmes étaient subversives, menaçantes. Pour Beard, aujourd’hui encore, personne n’entend les femmes même quand elles parlent.

Dans son livre, elle s’intéresse aussi à la misogynie de Twitter et souligne que les abus sont le résultat de la fausse promesse que nos outils font de mettre les gens en contact direct avec ceux qui détiennent le pouvoir. Les femmes ne sont pas les seules à se sentir sans voix sur les réseaux sociaux. Le sociologue Antonio Casilli ne disait pas autre chose quand il soulignait que la radicalité des trolls était une réponse aux blocages des formes d’expression publiques. Dans The Atlantic, l’ingénieur et designer Debbie Chachra @debcha) évoquant le récent boycott de Twitter par un grand nombre de femmes qui y sont harcelées, s’en réfère également aux propos de Mary Beard. Rappelant que depuis l’Antiquité, les voix des femmes sont toujours considérées comme illégitimes dans la sphère publique, y compris les nouveaux espaces des médias sociaux.

Mais Beard ne se contente pas du constat, souligne Cooke. Elle se demande aussi comment les femmes peuvent être entendues. « Si les femmes ne sont pas perçues comme étant totalement intégrées dans les structures du pouvoir, n’est-ce pas plutôt le signe qu’il faut redéfinir le pouvoir plutôt que les femmes ? », interroge Mary Beard avant d’en appeler à découpler les structures de pouvoir. Les femmes ne doivent pas seulement être resituées à l’intérieur du pouvoir, mais le pouvoir lui-même doit être redéfini. Pour Mary Beard, il est nécessaire de découpler pouvoir et prestige, de penser le pouvoir comme un attribut plutôt que comme une possession. De redonner du pouvoir aux partisans plus qu’aux leaders, pour redonner de la puissance à tous ceux qui se sentent « sans voix » dans la société, et pas seulement les femmes. Et cela passe assurément par nous défaire de la figure du leader… que magnifie les nouvelles technos.

Catégories: Veille et actualités

La conscience, un phénomène historique ?

jeu, 09/11/2017 - 06:00

La conscience de soi nous apparaît comme une donnée essentielle de notre humanité, comme le fait d’avoir des bras et des jambes. Et si c’était un phénomène culturel, changeant ? Et si la conception du « soi » avait fluctué selon les époques ?
Dans The Atlantic, la journaliste Sigal Samuel interroge le spécialiste de la bible James Kugel, qui dans son dernier livre The Great Shift s’interroge sur la notion que les anciens Hébreux avaient des limites de leur individualité – et comment cela pourrait expliquer un phénomène comme le prophétisme.

Pour Kugel en effet, le moi des personnages de la Bible était « semi-perméable » autrement dit, il était en mesure d’être « envahi » par des entités extérieures (Dieu, dans le cas des prophètes, mais il y avait aussi des anges et des démons), et ils pouvaient alors « entendre des voix » leur disant quels actes accomplir. « Ainsi, quand la Bible dit que Dieu est apparu à Abraham en dehors de sa tente ou a parlé à Moïse depuis un buisson ardent, nous sommes portés à rejeter ces choses comme une sorte de langage figuratif, ou bien nous les ignorons. De telles choses se sont produites dans le passé, mais ne le font plus aujourd’hui. »

Les anciens avaient-ils deux esprits ?
Comme le souligne Deric Bownds dans son court post de blog sur cette interview, à aucun moment ni le journaliste ni Kugel ne mentionnent les théories de Julian Jaynes. Ce qui est étonnant, car Julian Jaynes, depuis la sortie de son livre en 1976, The Origin of Consciousness in the Breakdown of the Bicameral Mind (traduit en 1994 en français sous le titre La naissance de la conscience dans l’effondrement de l’esprit, la suppression du mot « bicaméral » rendant le titre incompréhensible), est considéré comme le géniteur de cette théorie du caractère historique de la conscience de soi.

Jaynes, lui n’a pas commencé ses recherches sur la Bible, mais sur le texte d’Homère, l’Iliade. Dans cette épopée il n’est pas rare non seulement pour les dieux d’apparaître aux différents protagonistes de l’histoire, mais aussi et surtout, d’inspirer les héros, de les pousser à commettre des actes dont certains auront d’ailleurs des conséquences catastrophiques. Pour employer le néologisme de Kugel, leur individualité était « semi-perméable ».

L’origine de cette caractéristique psychologique était, selon Jaynes, le caractère « bicaméral » de notre cerveau. Ce n’est plus un secret pour grand monde que notre cortex est divisé en deux hémisphères, le droit et le gauche. Mais, observe Jaynes dans son livre, alors qu’un bon nombre de fonctions mentales sont bilatéralisées, les aires du langage (celles de Wernicke et de Broca) se trouvent toutes les deux dans la partie gauche. Et ce, bien que rien n’empêcherait théoriquement d’avoir leur équivalent dans la partie droite. Il observe en effet qu’un enfant ayant une lésion de l’aire de Wernicke développera un remplacement dans l’hémisphère droit de son cerveau. Pourquoi donc, se demande-t-il, le langage ne s’est-il développé que dans la partie gauche ? A quoi servent les zones de l’hémisphère droit qui normalement auraient dû servir à la maîtrise du langage ?
Pour Jaynes : « Les pressions sélectives de l’évolution qui auraient pu produire un si puissant résultat sont celles exercées par les civilisations bicamérales. Le langage des hommes n’a été développé que dans un seul hémisphère pour laisser l’autre libre pour le langage des dieux. »

Le héros homérique n’a donc aucune volonté propre, aucune conscience de soi. Selon Jaynes, à part quelques passages interpolés tardivement, L’Iliade ne possède pas de référence à des concepts qui traduisent l’unité de l’être humain. Par exemple, le mot grec « psyche » qui par la suite en viendra à désigner l’âme, n’est employé que pour décrire des substances vitales comme le souffle ou le sang. Par exemple un guerrier agonisant est en train de perdre sa psyche qui se répand sur le sol. Mais, et c’est encore plus surprenant, pas de référence non plus au corps comme une unité unique et autonome. Le mot « soma » (corps) est employé exclusivement pour parler des cadavres. Homère ne mentionne que des parties du corps, les mains, les bras les jambes, etc., mais jamais le corps dans son ensemble.

Pour Jaynes les héros grecs étaient exempts de vie intérieure et étaient menés par les commandements des dieux, ces hallucinations auditives en provenance de leur cerveau droit. « C’étaient de nobles automates qui ne savaient pas ce qu’ils faisaient. »

Mais comment est-on passé de ce monde sans conscience de soi à l’esprit humain tel que nous le connaissons aujourd’hui ? Selon Jaynes, c’est parce qu’il s’est produit un « effondrement » de l’esprit bicaméral qui a marqué la naissance de l’individualité telle que nous la connaissons. Tant que les humains vivaient dans de petites communautés agricoles (Jaynes ne s’occupe pas des sociétés de chasseurs-cueilleurs), ce système fonctionnait à merveille. Chacun possédait un « leader intérieur », un Dieu ou un ancêtre puissant, qui lui disait à chaque instant comment agir. Mais lorsque les communautés se sont agrandies, que les premières cités et empires sont apparus, les prises de décisions sont devenues de plus en plus complexes et il a fallu développer une nouvelle forme de pensée, dans laquelle chaque individu était tenu de prendre des responsabilités personnelles. L’Odyssée, également attribuée à Homère, mais plus tardive que l’Iliade, nous montre des personnages dotés d’une conscience de soi déjà « moderne ».

Une théorie contestée, mais « pop »
Quel a été l’impact de la théorie de Jaynes ? Comme le dit Vaughan Bell sur Mind Hacks : « sa théorie de la conscience est très probablement fausse, mais si terriblement originale qu’elle est largement admirée ». De fait, quelqu’un comme le biologiste Richard Dawkins a dit du livre de Jaynes qu’il était « soit du grand n’importe quoi, soit une œuvre de pur génie ». Le philosophe Daniel Dennett s’est aussi intéressé aux thèses de Jaynes et a même écrit un article assez long sur le sujet (.pdf). Il est intéressant de voir que deux des grands hérauts du « nouvel athéisme » et de l’hyperrationalisme ont une attitude prudente et plutôt sympathique envers les thèses de Jaynes, qui pourraient paraître joyeusement délirantes.

De fait, la thèse de Jaynes n’a jamais été véritablement réfutée, elle a tout simplement été ignorée, note Marcel Kuijsten le directeur de la Julian Jaynes Society, dans une interview pour Inverse.

En fait l’impression générale est que la thèse de Jaynes séduit beaucoup de monde, mais qu’elle est trop excentrique, trop extrême pour être réellement soutenue.

En tout cas, si cette thèse reste assez marginale dans la psychologie aujourd’hui, elle a fait son chemin dans la pop culture.

Dans le comics Uncanny x-men, écrit par Chris Claremont au début des années 80, l’un des mutants, la Bête, se réjouit de lire le livre de Jaynes et se demande quand sortira le film. De fait, il y a bien aujourd’hui un film, ou plus exactement une série, puisque la théorie de l’esprit bicaméral se trouve au coeur d’une récente série de HBO, Westworld.

Westworld nous présente l’histoire d’un parc d’attractions futuriste construit à l’image du Far West, peuplés par des robots jouant de manière indéfiniment répétée leur rôle dans des scénarios interactifs de western à destination des visiteurs. Puis, comme toujours avec les robots, tout se détraque. Mais Westworld est plus fin et plus subtil que la plupart des « révoltes de robots » auxquelles la science-fiction nous a habitués (et certainement plus sophistiqué que le film de 1973 dont la série est tirée). C’est l’accession à la conscience qui est au coeur des épisodes.

La théorie de l’esprit bicaméral est mentionnée de façon explicite à plusieurs reprises lors de la première saison (« the bicameral mind » est même le titre de l’épisode final).

L’intrigue de Westworld repose sur une idée particulièrement importante de Jaynes. Ce serait le développement de notre langage et notre capacité à la métaphore qui aurait généré un « espace intérieur » propice au développement de la conscience de soi. Le langage serait donc un prérequis à l’acquisition de la conscience.

Selon le journaliste d’Inverse, Andrew Burmon : « En présentant le concept, les auteurs de Westworld montrent clairement que les robots dotés d’IA de la série ne sortent pas de la servitude préprogrammée à cause d’un pépin ou d’un virus – comme c’était le cas dans le film original. Ils se détraquent à cause de leur exposition à un langage de plus en plus complexe. »

Marcel Kuijsten, dans son interview avec Burmon, précise que « lorsque nous parlons de l’esprit bicaméral, nous parlons de cette période suivant le développement du langage, mais avant que nous apprenions la conscience. Au lieu d’un esprit-espace introspectif, nous entendions une voix dominante lorsque nous avions des décisions à prendre. À mesure que le langage s’est complexifié à travers la métaphore, nous avons développé la capacité d’introspection et, petit à petit, les hallucinations ont disparu. »

Une longue vidéo (en anglais, mais avec des sous-titres) dégottée par Io9, nous donne encore quelques clés supplémentaires pour comprendre la façon dont Westworld s’inspire des thèses de Jaynes.

Pour l’auteur de ce petit film (attention spoilers !), en dehors du langage et de la métaphore, c’est une autre caractéristique de la conscience qui est mise en lumière par la série : la possibilité de créer des narrations avec nous-mêmes au centre. La conscience serait donc peut-être aussi la capacité de nous raconter nos propres histoires.

Entendre des voix, c’est normal, docteur ?
La thèse de Jaynes est elle convaincante ? A mon humble avis, pas toujours. Ce genre d’hypothèse repose souvent sur des présupposés interprétatifs qui sont difficiles à réfuter ou valider de façon certaine. Autrement dit, le biais de confirmation fonctionne à plein : si vous croyez aux idées de Jaynes, vous verrez le cerveau bicaméral partout. Si vous êtes sceptiques, rien ne pourra véritablement vous convaincre.

Ce qui est sûr, c’est que les civilisations non occidentales ont pour la plupart abrité dans leur sein des « spécialistes » qui recevaient des messages des « dieux » ou des esprits : shamans dans les groupes de chasseurs cueilleurs, « possédés » ou « oracles » dans les sociétés agricoles. Et il est certain que la parole de ces personnes était considérée avec le plus grand sérieux, et que ce comportement était donc encouragé, alors que dans notre civilisation, il serait rejeté comme hallucinatoire et pathologique. Faut il pour autant en déduire que TOUTE la population était sujette à de genre d’hallucination ?

Dans son interview avec Andrew Burmon, Marcel Kuijsten explique que beaucoup de gens critiquent l’idée de l’esprit bicaméral parce qu’elle implique une évolution bien trop rapide du cerveau, quelque chose que la théorie darwinienne ne peut justifier. Mais précise-t-il, « Jaynes n’affirme jamais qu’il s’agit d’un changement biologique et évolutif. Il parle d’un processus appris. Daniel Dennett, le professeur de philosophie, utilise une métaphore : c’est un changement de logiciel, pas un changement de matériel. C’est comme un nouveau système d’exploitation. »

Sans doute, mais un changement au sein de la société et de nouvelles normes sur les comportements provoqueraient sans doute une transition encore plus rapide que le changement d’un « système d’exploitation psychologique » touchant tous les individus.

Cela semble être la différence entre le récent travail de Kugel et la théorie de Jaynes. Si l’on suit son interview de The Atlantic, selon Kugel, le fait « d’entendre des voix » est toujours d’actualité dans de nombreux pays :

« Il cite… une récente étude interculturelle lors de laquelle des chercheurs ont interviewé des auditeurs aux États-Unis, au Ghana et en Inde. Les chercheurs ont enregistré des «différences frappantes» dans la façon dont les différents groupes de personnes ressentaient les voix qu’ils entendaient : Au Ghana et en Inde, de nombreux participants ont insisté sur le fait que leur expérience prédominante ou même unique était positive. … Cela n’a été le cas pour aucun américain. »
« Ces résultats », conclut Kugel, « suggèrent que les » données « d’une société ont beaucoup à voir avec la manière dont l’audition vocale est interprétée. »

Toujours selon Kugel, il existe aujourd’hui 15 % de personnes qui ont entendu des voix au moins une fois dans leur existence (aux Etats-Unis, ils ont même une association). Reporté à l’antiquité biblique, et sans aller chercher un nouveau type de conscience, cela aurait fait 15 % de prophètes, ce qui aurait été largement suffisant (et peut-être même un peu trop).

Évidemment, si la conscience de soi, n’est ni un phénomène biologique, ni même psychologique, mais repose avant tout sur un système de normes, cela veut dire que l’esprit bicaméral ne s’est jamais « effondré ». Et il peut toujours redevenir d’actualité en cas de changement ou de crise de notre logiciel social.

Rémi Sussan

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

mer, 08/11/2017 - 06:00

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.


Image : Comme IFTTT, Yahoo Pipes, l’outil développé par Yahoo et fermé en 2015, pourrait certainement figurer dans cette liste d’outils qui rendent le code plus accessible, puisqu’il permettait, assez simplement, de combiner des données et des actions, de créer des chaînes d’instructions depuis différents services web, sans avoir à les programmer. Un clone du service, Pipes.digital a récemment relancé le service. Via Korben. .

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !


Vidéo : la conférence de Victor Bret, « inventer sur le principe ».

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé (voir Ce n’est pas le code qui importe, c’est le modèle ! »). C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier (@schneierblog), proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

mar, 07/11/2017 - 08:21

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé. C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier, proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Quel « nootropique » pour quel génome ?

lun, 06/11/2017 - 06:00

Les utilisateurs de nootropiques s’intéressent aujourd’hui à la génomique personnelle, nous apprend Motherboard. Comme le définit l’article, un nootropique est « une certaine quantité de vitamines, de nutriments et de médicaments que les personnes combinent en cocktails… dans le but d’améliorer leur fonction cognitive, leur bien-être quotidien et leur santé à long terme ». Il ne s’agit donc pas (forcément) de « smart drugs » comme la ritaline ou le modafinil…, plutôt ici de compléments et restrictions alimentaires.

Mais comment en effet savoir si un « nootropique » possède les qualités nécessaires à ce qu’on attend et ne provoquera pas d’effets secondaires ? A cette fin, les adeptes se tournent aujourd’hui vers la génomique personnelle.

Pour cela, il faut passer bien sûr par un site d’analyse d’ADN comme, le plus célèbre d’entre eux 23andme, puis ensuite le soumettre à d’autres sites, comme Promethease, Nutrahacker ou DNAFit, qui effectueront une analyse plus spécifique des gènes. Selon Mensal Denton, qui tient le site nootropedia, « Ce n’est qu’avec ces autres outils que les données de 23andMe deviennent réellement utiles, c’est donc un phénomène relativement nouveau », à l’image des nouvelles applications que propose Helix avec sa plateforme d’analyse d’ADN que nous avions récemment évoqué.

Par exemple, cela peut permettre de détecter la présence de gènes provoquant une déficience en vitamine D, ce qui peut amener à conseiller de prendre des suppléments… On peut également apprendre comment son corps métabolise la caféine, et agir en conséquence… Quelqu’un qui la métabolise lentement peut réaliser que la caféine le rend anxieux ou qu’elle peut augmenter son risque cardiovasculaire par exemple.

Des sites comme Vinome proposent ainsi de vous conseiller du vin selon vos particularités génomiques. DNAFit a fait un partenariat avec la chaîne de restaurants britannique Vita Mojo pour proposer des menus personnalisés et adaptés aux résultats délivrés par les tests génétiques.

Est-ce sérieux ? Le professeur Nathaniel Comfort a expliqué au journaliste de Motherboard que : « Si cela permet d’économiser de l’argent en signalant qu’il est inutile pour une certaine personne d’utiliser un supplément particulier, par exemple, je n’y vois aucun inconvénient. Mais dissimulée en arrière-plan, il y a toujours cette idée que vous êtes votre génome. Ce type de pop-science suppose inévitablement plus de certitudes que nous n’en possédons vraiment, car l’environnement, l’humeur, le régime alimentaire et le reste de votre génome affectent tous ces types d’effets métaboliques. »

Ce à quoi Denton réplique que ce genre de service n’est qu’une ressource supplémentaire, à utiliser parmi d’autres…

L’un comme l’autre semblant oublier que ces systèmes favorisent la dissémination d’informations génomiques, donc éminemment personnelles, de service en service. Ainsi que le fait que ces services semblent nous faire glisser, insidieusement, de la gestion du risque à l’injonction comportementale. Pourrons-nous demain manger autre chose que ce qui nous est recommandé ?

Catégories: Veille et actualités

Que devient Second Life ?

ven, 03/11/2017 - 08:51

Ars Technica revient sur la plate-forme qui a fait le buzz il y a environ 10 ans. Eh oui, Second Life existe encore, et, selon l’auteur de l’article, elle serait même prospère ! Du moins selon les dirigeants de la société mère, Linden Labs. Côté utilisateurs, continue la revue, les choses sont plus ambiguës.

Question fréquentation, il semblerait que le nombre d’aficionados du monde virtuel n’ait que légèrement diminué par rapport à la grande époque : il y aurait environ aujourd’hui entre 800 000 et 900 000 « utilisateurs actifs ».

Ensuite, en tant que plate-forme de commerce, spécialisée dans la vente de « biens virtuels » (objets 3D, etc.), Second Life marche toujours plutôt bien. Mais le marché s’est professionnalisé, et les amateurs de 2007 ont cédé la place à des professionnels plus aguerris. Comme l’a confié un utilisateur à l’auteur de l’article :
« Auparavant, il n’était pas trop difficile d’être capable de construire, par exemple, une maison qui aurait eu l’air d’être aussi bien modélisée qu’une autre achetée dans un magasin… Vous pouvez toujours continuer à faire les choses à l’ancienne, mais comme les résultats auront manifestement l’air vieillots et moins impressionnants que ceux obtenus avec les moyens actuels, vous êtes découragés de le faire. »

Autre transformation, toujours liée au commerce. Dans les premières années, il y avait des tas de boutiques virtuelles, qu’on pouvait découvrir en parcourant Second Life avec son avatar. Aujourd’hui, une très grosse partie des ventes se fait via un système de transaction web géré par Linden Labs, ce que la revue appelle avec beaucoup de justesse une « amazonification » de Second Life.

En conclusion, nous dit Ars Technica « la découverte et la navigation sont devenues difficiles aujourd’hui sur Second Life ».

Un avis confirmé par une utilisatrice, qui a expliqué qu’ « aujourd’hui les gens achètent leur terrain et restent sur leur territoire. C’est devenu une expérience bien plus solitaire ».

Catégories: Veille et actualités

Le dual n-back augmente bien la mémoire de travail

jeu, 02/11/2017 - 11:30

Cela fait maintenant plusieurs années qu’un exercice cognitif, le dual n-back – qui consiste à être soumis à des stimulis visuels et auditifs pour voir s’ils se répètent – possède la réputation d’être le seul type d’entraînement capable de réellement augmenter certaines capacités cognitives. Cela a même été confirmé chez des enfants… Et la nouvelle étude de la John Hopkins University va dans le même sens…

Dans cette expérience, les chercheurs ont avant tout cherché à comparer deux exercices d’amélioration cognitive bien connus : d’un côté le dual n-back, donc, et de l’autre le « complex span », une tâche qui consiste à se rappeler de différents éléments alors que des distractions empêchent le joueur de se concentrer.

Les chercheurs ont donc utilisé trois groupes : l’un utilisant le dual n-back, le second le « complex span » et le troisième bien sûr faisant office de groupe témoin et n’ayant rien à faire de spécial.
L’équipe a tout d’abord mesuré, grâce à des tests cognitifs et l’EEG, les caractéristiques mentales de chacun des participants. Ensuite, ceux-ci ont eu un mois pour s’entraîner avec la tâche qui leur avait été assignée, à raison d’une séance de 30 minutes 5 fois par semaine.

Le résultat a été largement en faveur du dual n-back : les participants ont montré une augmentation de 30 % de leur mémoire de travail, par rapport à ceux qui avaient pratiqué le « complex span ». De plus, les usagers du n-back ont montré un accroissement de l’activité du cortex préfrontal après ce mois d’entraînement. Le cortex préfrontal est corrélé à nos capacités de décision et de planification.

Reste à comprendre ce qui se passe vraiment, et pourquoi cela marche. Sur ce point, on est encore largement dans le noir.

Pour le docteur Susan Courtney, co-auteure de l’étude :
« La plus grande leçon à retenir, c’est que l’entraînement intensif renforce la cognition et le cerveau, mais nous ne comprenons toujours pas pourquoi ni comment… nous ne pouvons pas nous précipiter sur un jeu vidéo et espérer que cela guérira tous nos problèmes cognitifs. Nous avons besoin d’interventions plus ciblées. »

Catégories: Veille et actualités

Facebook est-il devenu incontrôlable ?

jeu, 02/11/2017 - 06:00

Courrier international (@courrierinter) a eu la bonne idée de traduire l’excellent article de Max Read (@max_read) pour le New York Magazine (@NYMag) qui montre comment FB échappe à son créateur. A l’heure où FB est sommé de s’expliquer devant le Congrès américain sur les ingérences publicitaires russes dans l’élection de Donald Trump, Read décortique les publications de Mark Zuckerberg où il a présenté les enjeux de FB pour mieux en souligner les contradictions. Ainsi, remarque-t-il, quand Zuckerberg annonce qu’il va rendre les publicités politiques plus transparentes, l’entreprise présente ses nouveaux outils marketing permettant de cibler les utilisateurs de FB passant en magasin pour mieux les harceler de publicités.

Read pointe une à une les contradictions de l’ogre FB, qui assure, désormais, comme le ferait un État ou une Organisation non gouvernementale, « veiller à garantir l’intégrité des élections ». John Lanchester pour la London Review of Books (LRB) rappelait très bien dans un article au vitriol, que derrière les belles annonces promotionnelles visant à « connecter le monde entier », FB était d’abord conçu pour récupérer des données sur les utilisateurs et les vendre à des annonceurs. Pour Lanchester, Facebook est « sans boussole morale ».

Pour Read, la tournée de Zuckerberg à travers les États-Unis ressemble plus à une introspection qu’à une précampagne présidentielle : elle reflète plus les hésitations de Zuckerberg face au fléau des Fake News et à la démultiplication des dénonciations de l’inaction de FB face aux problèmes qui minent le réseau social. L’un des rares engagements de FB pour contrer la désinformation, à savoir le lancement d’un outil de vérification des faits, lancé en mars 2017 à titre expérimental avec des médias, présenté comme une arme décisive dans cette lutte, se révèle inutile. C’est en tout cas ce que souligne une étude de l’université de Yale, relayée par Policito qui montre que pour les utilisateurs, tout ce qui ne serait pas tagué comme fausse information serait par défaut véridique. Pas sûr que ce soit une solution pour améliorer le discernement effectivement (voir « Bulle de filtre et désinformation : Facebook, une entreprise politique ? » et « Peut-on répondre à la désinformation ? »).

L’échec de cette tentative d’autorégulation, redonne de la valeur au fait d’agir sur le modèle économique même de FB pour remédier au problème, comme le soulignait Quartz.

L’enquête du Congrès en tout cas change la donne. Non pas que les 100 000 dollars de publicités achetés par le gouvernement russe aient vraiment pu changer la donne (cela aurait été circonscrit à 3000 annonces ayant touché environ 10 millions d’Américains – bien moins que les millions de dollars dépensés par les candidats Américains eux-mêmes en publicité sur les réseaux sociaux), mais elles montrent que l’autorégulation dont se glorifiait FB ne fonctionne pas. Read rappelle que FB a d’abord nié avoir vendu de la publicité aux Russes, avant de le reconnaître, puis de dire au Congrès qu’il ne pouvait pas révéler plus d’information, avant d’obtempérer et de livrer des données face à la menace d’un mandat de perquisition. Pour Tim Wu (@superwuster), professeur de droit à l’université de Columbia et auteur des Marchands d’attention, la solution est d’obliger FB à lever le voile sur ses pratiques publicitaires et d’interdire l’achat de publicité à caractère politique par un gouvernement étranger. Au Congrès, les démocrates souhaitent que les publicités en ligne soient désormais encadrées. D’autres aimeraient même imaginer un démantèlement sur le modèle de Bell, sans savoir très bien comment diviser l’empire FB. Ce qui est sûr, souligne Tim Wu, c’est que FB profite d’un environnement très très peu réglementé.

Et Read de conclure en rappelant un épisode assez oublié de FB : celui où, entre 2009 et 2012, les internautes pouvaient voter pour faire évoluer la politique du site. Peu le faisaient, le système favorisait plutôt la quantité que la qualité des contributions… ce qui explique que FB l’a donc abandonné. Reste que c’était peut-être encore une époque où FB était à l’écoute de ses utilisateurs. « FB était devenu trop grand, et ses membres trop complaisants, pour la démocratie », conclut Max Read.

En attendant, devant la commission du Congrès, FB a concédé qu’elle devait faire des efforts pour mieux identifier les annonceurs, ses vrais clients, ceux dont nous sommes le produit, rapporte Le Monde.


Image : Buzzfeed vient de publier une infographie montrant comment FB divisait ses utilisateurs Américains en 14 segments politiques issus de 5 grandes tendances, pour les proposer aux annonceurs politiques (une segmentation qui ne serait plus disponible aux annonceurs actuellement, mais qui l’a été durant la campagne présidentielle américaine).

MAJ : Le New York Times, quant à lui, a invité plusieurs experts à donner leur avis sur comment réparer FB. Pour Jonathan Albright, directeur de la recherche du Tow Center for Digital Journalism de l’université de Columbia, FB ne devrait pas prioriser les réactions dans le fil d’information et limiter la recommandation émotionnelle. Pour Eli Pariser, l’auteur de la Bulle de filtre, Fb devrait s’ouvrir aux chercheurs et changer ses critères de mesure pour mieux prendre en compte l’impact de l’information sur le temps long. Ellen Pao de Reddit, elle invite les dirigeants de FB à introduire de la diversité dans son équipe et à se doter de principes d’ordre journalistique. Quant à Tim Wu, il invite FB à devenir une ONG.

Catégories: Veille et actualités

Pages