Internet Actu

S'abonner à flux Internet Actu
Pour comprendre ce que notre rapport à la technologie transforme
Mis à jour : il y a 2 heures 50 min

Peut-on faire fonctionner une société moderne seulement avec l’énergie produite par la force de l’homme ?

mer, 20/09/2017 - 07:00

Contrairement à l’énergie solaire ou éolienne, l’énergie produite par la force humaine est toujours disponible. Propre d’un point de vue environnementale, son potentiel ne cesse d’augmenter avec la croissance démographique (alors que les ressources énergétiques finies, elles, doivent elles être partagées entre un nombre toujours croissant de personnes). Mais est-elle suffisante pour faire fonctionner une société moderne ? C’est la question à laquelle ont tenté de répondre Kris de Decker de Low Tech Magazine (@lowtechmag) et l’artiste Melle Smets avec leur projet de Centrale électrique humaine.


Image : les différents éléments de la centrale électrique humaine hydro-pneumatique.

Ce projet, né à l’invitation du Science Park de l’université d’Utrecht, qui a invité une douzaine d’artistes à imaginer un Campus parfaitement soutenable, est actuellement présenté dans une exposition itinérante. Le projet de centrale électrique humaine consiste à imaginer le fonctionnement autonome d’un immeuble du campus. Un immeuble de 22 étages accueillant 750 étudiants, dont toute l’énergie proviendrait des efforts physiques de cette communauté. Mais le projet ne se limite à l’imaginer : leurs promoteurs ont également travaillé à des prototypes fonctionnels.

Comme le rappelle Kris de Decker sur son blog, la centrale électrique humaine est à la fois un défi technique et social. Technique, parce qu’il n’y a pas beaucoup de recherche sur l’énergie cinétique. Social, parce que l’enjeu est aussi des trouver des solutions pour motiver des centaines d’étudiants à produire leur propre énergie.

La force musculaire humaine (alliée à la force animale et à l’énergie naturelle des moulins à vent et à eau) a transformé la planète pendant des siècles, rappelle Kris de Decker, en évoquant par exemple le canal de Panama creusé à la pioche. Mais, à l’heure de l’automatisation et de la motorisation, elle a presque complètement disparu : il n’y a pas jusqu’aux plus simples efforts physiques qui ne soient désormais accomplis avec l’aide de la motorisation. L’enjeu du projet de centrale électrique humaine est de restaurer la connexion entre la demande énergétique et sa production humaine.

Un humain peut générer autant d’énergie qu’un panneau solaire d’un mètre carré un jour de soleil, estime de Decker. Si c’est insuffisant pour beaucoup d’usages, l’utilisation domestique est néanmoins envisageable, d’autant que la technologie moderne a grandement amélioré le potentiel de production d’énergie de la force humaine et que la consommation électrique de nombre d’appareils s’est considérablement réduite. La puissance produite par un humain est déterminée par la personne, la durée de l’effort et le dispositif mécanique utilisé pour convertir la puissance humaine en énergie utile. « Nos jambes sont environ 4 fois plus fortes que nos bras, un vélo stationnaire peut produire une puissance de 75 à 100 watts contre 10 à 30 watts pour un homme qui utiliserait une manivelle manuelle ». Mais cette puissance peut augmenter lors d’efforts courts et les athlètes peuvent produire plus d’énergie que des humains moins entraînés ou plus âgés…

Pour leurs recherches, Kriss de Decker et Melle Smets se sont d’ailleurs mis au sport. Ils ont constaté plusieurs choses : que nous n’avions pas les mêmes performances, capacités et compétences… et que la plupart des machines d’une salle de gym peuvent potentiellement produire de l’énergie. Une séance d’entraînement de cinq minutes (incluant deux pauses d’une minute chacune) peut fournir plus de 15 Wh d’électricité, assez pour charger un quart de la batterie d’un ordinateur portable ou alimenter une lampe de bureau pendant 3 heures.

Ce qu’ils ont découvert aussi, c’est que les salles de gyms ne sont pas des lieux très amusants. Cela montre l’importance de travailler à la motivation pour assurer la production d’énergie humaine. Comparativement aux prix actuels de l’énergie, une personne qui produirait de l’électricité ne gagnerait que 0,015 euro de l’heure : un prix si bas qu’il pose la question des moyens que les gens auraient pour faire produire leur électricité par d’autres, comme du temps de l’esclavage. Pour éviter cela, l’enjeu est donc de rendre la production d’énergie humaine plus amusante, sociale et excitante. Or, les rares produits qui reposent sur la production d’énergie humaine insistent tous sur l’efficacité, rarement sur l’amusement ou la motivation. Ils sont souvent conçus pour des buts d’urgence, pas pour des utilisations régulières, quotidiennes et prolongées. Ainsi, beaucoup d’appareils pour produire de la lumière ou de l’énergie avec une manivelle sont imaginés pour être compacts, alors que plus grands, ils pourraient être d’un usage bien plus confortable.

Ces constats n’ont pas été sans impacts sur les prototypes mis au point par Kris de Decker et Melle Smets. Leurs dispositifs se font face pour permettre aux utilisateurs de se parler. Au centre est disposé un jacuzzi à la fois pour la convivialité et à la fois pour une raison technique : en effet, le choix d’une solution hydro-pneumatique nécessitait de pouvoir déverser certains trop plein du circuit fermé d’eau sous-pression produite par l’énergie cinétique des appareils de gym. Le but également de ces circuits hydrauliques : rendre l’énergie produite visible et produire l’électricité la plus écologique possible.


Image : le schéma du circuit hydro-pneumatique de la centrale électrique humaine.

Sur le campus, chaque étudiant est responsable de la production de l’électricité utilisée dans sa chambre et une part de l’énergie produite est utilisée par les parties communes. Un complément de production d’énergie est fourni par une usine de méthanisation depuis les déchets alimentaires des repas des étudiants. Un agenda indique à chacun quand il doit utiliser les appareils et les tâches ménagères collectives s’organisént selon un programme communautaire. Selon les premiers calculs, chaque étudiant devrait produire de l’énergie pendant 2 à 6 heures par jour, selon la saison et leurs préférences individuelles et collectives (ce qui fait tout de même beaucoup). Pour aider à réduire la consommation d’énergie, la communauté est bien sûr invitée à avoir recours à des solutions de basses technologies : cuisinières sans feu, sous-vêtements thermiques, douches à échanges de chaleur et des machines à laver cinétiques

Visiblement, la centrale électrique humaine est un programme qui tente d’appliquer tout ce que Kris de Decker évoque depuis plusieurs années sur Low Tech Mag. Forcément intéressant…

Hubert Guillaud

Si la question des « basses technologies » vous intéresse, je vous signale la publication du numéro annuel de Techniques et Culture consacré à la low tech paru aux éditions de l’EHESS. Un numéro d’anthropologie culturelle qui tente de montrer la grande diversité de cette innovation alternative. Plus qu’une innovation marginale, les technologies du bricolage et de faible intensité sont peut-être une solution pour dépasser le dualisme entre technophobie et technolâtrie, estiment Pierre-Olivier Dittmar et Yann Philippe Tastevin coordinateurs du numéro. En montrant comment les gens composent, recombinent, réassemblent la technologie et se la réapproprient dans un bricolage permanent… se dessine une perspective pour la recontraindre, comme le soulignait le designer James Auger, qui permet également de se défaire des perspectives industrielles et de leur pur consumérisme. Une « disnovation » pour défaire l’idéologie de l’innovation, comme conclut Jean-Paul Fourmentraux dans ce numéro. Plus qu’une perturbation marginale, la low tech est assurément une perspective critique de la technologie industrielle qui semble offrir ce que l’innovation peine à apporter aux utilisateurs : de l’autonomie, de la maîtrise, du pouvoir… de la possibilité d’agir à nouveau sur le monde.

Catégories: Veille et actualités

Langues artificielles (1/2) : une émanation de la culture Internet ?

mar, 19/09/2017 - 07:00

Pourquoi se lancer dans l’entreprise folle de créer une langue de toute pièce ? Cet étrange passe-temps peut avoir des motivations philosophiques, voire politiques (comme ce fut le cas avec l’espéranto)… mais depuis l’avènement de la fantasy, des jeux de rôles, ce peut être aussi une pure activité ludique. Récemment, avec le succès de films et séries télévisées comme Game of Thrones ou Premier Contact, c’est même devenu un job assez lucratif !

David Peterson (@dedalvs, Wikipédia) est l’une des figures les plus en vue de cette communauté de créateurs de « conlangs », (pour constructed languages) comme on les appelle. Il est le créateur du Dothraki et du Haut Valyrien pour Game of Thrones (signalons que Le Dothraki facile, guide de conversation, vient de paraître en français). Dans son livre The art of language invention, il donne les clés de son travail, mais se penche également, dès l’introduction, sur l’histoire de la communauté des « conlangers » et notamment sur le rôle d’internet dans sa genèse.

Le rôle des communautés en ligne

Bien entendu, J.R.R Tolkien, l’inventeur du conlang moderne, vivait bien avant la naissance du Réseau. Mais son travail restait peu connu et marginal. Outre Tolkien, il existe quelques autres exemples de conlangs élaborés lors des années pré-internet comme le klingon, créé au début des années 80 par le linguiste Marc Okrand dans le cadre du film Star Trek 3 : à la recherche de Spock. Mais jusqu’à récemment, la plupart des oeuvres de fantasy ou de SF se contentaient d’aligner des borborygmes sans structure et les faire passer pour un langage. Peterson cite à ce sujet l’exemple du dialogue entre Leia et Jabba dans le retour du Jedi : »Yaté. Yaté. Yotó », ce qui signifie, selon les sous-titres : « Je suis venue pour la prime sur ce wookie ». Ce à quoi Jabba lui répond qu’il sera prêt à lui en donner 25000 unités. Leia lui répond alors : « Yotó, Yotó », soit à peu près la même chose que précédemment, mais cette fois pour lui signifier « 50 000, pas moins« . Et la conversation de se continuer à coup de Yaté, yotó…

Les choses commencent à évoluer vers 1974, avec la série Land of the lost et la création d’une langue originale, le paku, imaginé par une linguiste de l’UCLA, Victoria Fromkin, qui devint ainsi la première « conlangueuse » rémunérée pour ce travail !

Mais c’est l’internet qui allait donner le coup d’envoi à l’essor du conlang : en 1991 la première mailing-list Conlang listserv, est mise en place pour réunir des adeptes qui se sont rencontrés auparavant sur Usenet. Comme l’explique Peterson : « Bien que les membres de la liste originale ne l’aient probablement pas réalisé à l’époque, la fondation de Conlang Listserv (…) a été un événement important dans l’histoire de la création de langage (…). Il n’y avait jamais eu auparavant dans l’histoire un lieu où des créateurs de langues pouvaient discuter de leurs stratégies. Pour la première fois, ceux-ci pouvaient comparer leur travail à autre chose que les langues de Tolkien ou l’espéranto et ses nombreux imitateurs. »

Pour la nouvelle génération de conlangers, dont Peterson faisait partie, cette nouvelle communauté changea complètement la nature de l’activité de création. Jusqu’à la naissance de la mailing-list, en effet, chacun travaillait dans son coin en ignorant totalement le travail des autres.

« Imaginez : quel artiste ne regarde jamais que ses propres peintures ? Quel musicien n’écoute jamais que la musique qu’il a composée ? Pourtant, c’était précisément ce que faisaient les conlangers avant 1991. Certains avaient entendu parler de l’espéranto, de Tolkien ou du klingon, mais une majorité croyait être les premiers à créer une langue. Par exemple, je pensais être le premier à imaginer une langue à des fins autres que la communication internationale – et c’était en 2000″.

Attention aux erreurs !

Si le Réseau a contribué à l’essor de la création de conlangs, Peterson insiste aussi sur un autre rôle joué par les réseaux sociaux : la montée de l’exigence du public. Pourquoi en effet se payer le luxe de créer des dialectes sophistiqués pour les employer dans des séries comme Game of Thrones ? Ça coûte du temps et de l’argent, et après tout Leia s’en sortait très bien avec ses yaté yotó, non ?

Le plus drôle c’est que même les commanditaires semblent avoir du mal à comprendre l’importance de la tâche, ainsi que le raconte Peterson à propos d’une séquence de Game of Thrones. En effet, lors du premier épisode de la série, lorsqu’est prononcée la première phrase en Dothraki, Peterson a constaté une terrible erreur ! Alors que le personnage aurait dû dire « Athchomar chomakea », c’est-à-dire « bienvenue » adressé à plusieurs personnes, il a dit : « Athchomar chomakaan », c’est-à-dire « bienvenue » si on s’adresse à une seule personne. Devant la mine déconfite de Peterson, David Beniof, l’un des deux showrunners de la série le consola en lui disant : « si un acteur fait une erreur, qui le saura, à part vous ? ».

Mais pour Peterson, justement, cela n’est pas dit. Tout d’abord, la façon dont nous consommons des médias a changé. On peut regarder une série deux, trois quatre fois ou plus ; des inconsistances non repérables au premier abord peuvent alors apparaître. Ensuite, internet constitue une formidable caisse de résonance.

« Si les acteurs parlant Dothraki, Haut Valyrien, Castithan ou autre, font une erreur, qui le saurait à part le créateur ? Qui s’en soucie ? La vérité est probablement qu’une personne sur mille le remarquera, et parmi celles-ci, peut-être un quart s’en préoccupera. Dans les années 1980, cela ne représentait rien. Dans le nouveau millénaire, cependant, un quart des 0,001 % peut constituer une minorité importante sur Twitter. Ou sur Tumblr. Ou Facebook. Ou Reddit. »

Et d’enfoncer le clou :
« L’un des aspects les plus significatifs de notre nouveau monde interconnecté est qu’internet peut amplifier une voix minoritaire de façon exponentielle. Oui, peu de gens, comparativement parlant, se soucieraient si un acteur commet une erreur lors d’une réplique en conlang. Mais grâce à internet, ces quelques personnes se rencontreront, et quand elles le feront, elles seront capables de faire un bruit énorme. »

Qui possède un langage ?

L’histoire des langages artificiels présente une autre problématique qui nous fait penser à l’internet : celui du rôle de la collaboration, de l’oeuvre collective et les problèmes de propriétés intellectuelles qui y sont inévitablement associés. Et ces questions datent, dans ce domaine, déjà d’un bon siècle. Ainsi, avant l’espéranto, il y avait le volapük, créé en 1879 par Johann Schleyer, un prêtre, qui en aurait eu l’idée lors d’une vision divine dans son sommeil. Le volapük connut un grand succès alors que l’espéranto n’en était qu’à ses débuts. Mais tout se gâta lorsque des utilisateurs, commençant à voir des limites à la création originale, demandèrent à Schleyer d’effectuer des modifications, ce qu’il refusa. Les choses empirèrent lorsque l’académie Volapük dénia à Schleyer le droit de refuser les évolutions du langage. Au final, le volapük se divisa en une série de « dialectes » chacun présentant sa propre version des améliorations. Au contraire, le créateur de l’espéranto, Ludwik Lejzer Zamenhof, offrit son langage à la communauté des utilisateurs, qui par consensus évita la dislocation qui a marqué la disparition du volapük.

Retour au XXe siècle avec l’invention du loglan, le « langage logique » sur lequel James Cook Brown travailla dès 1955 (mais il n’en publia le manuel qu’en 1975) dans le but de tester la valeur de l’hypothèse Sapir-Whorf. Lui aussi voulut conserver les droits sur son idiome, ce qui amena les utilisateurs à en créer une version « open source », le lojban.

Le dernier incident est tout récent et concerne l’un des plus fameux conlangs, le klingon. Or la marque Star Trek est détenue par Paramount, qui s’est montrée très soucieuse de faire respecter sa propriété dans tous les aspects liés à cet univers. En 2014, Alec Peters réalisa, après un financement sur Kickstarter, un film « alternatif » de Star Trek, Prelude To Axanar, ce qui entraîna un procès de la part de Paramount, qui accusa les créateurs du film d’atteinte au copyright sur différents domaines, comme les oreilles pointues des vulcains, le logo de la Fédération… et le klingon.

Problème, cela fait des années que le klingon est lu, écrit, parlé par les geeks de la planète entière. En janvier 2017, la cour de justice estima que le langage n’entrait pas dans le cadre du procès, ce qui fait que son statut reste inchangé (et ambigu) pour l’instant.

Dernier point sur lequel la création de conlang me paraît liée à la culture internet, c’est qu’il s’agit au fond d’une application de l’esprit du DIY. Lorsqu’on lit le livre de Peterson sur l’invention des langages, on découvre qu’il s’agit tout simplement d’un manuel de linguistique, mais présenté de façon ludique et amusante. Cela me semble tout à fait le genre de production que pourrait apprécier un « hacker du langage », soucieux d’apprendre le domaine comme le ferait adepte de la DIYbiology pour le vivant, ou un « maker » pour les objets. Traditionnellement la grammaire est un domaine plutôt austère. Vous souvenez-vous des cours à l’école, ou pire, lorsqu’il a fallu vous pencher sur ceux de vos enfants – parce qu’entre votre scolarité et la leur, toute la nomenclature avait changé, évidemment ? La pratique du conlang me paraît un moyen idéal de pénétrer un univers qui jusqu’ici évoquait souvent l’ennui, pour en faire un hobby passionnant.

Rémi Sussan

Catégories: Veille et actualités

Quelle éthique pour le design ?

lun, 18/09/2017 - 14:00

Le designer Gauthier Roussilhe (blog) est parti à la rencontre de 12 designers à travers l’Europe pour parler d’éthique appliquée à leur métier. Il en a ramené un documentaire (également disponible sur Vimeo), qui pose des questions sur le sens du design. A quoi sert le designer ? Comment faire pour qu’il travaille pour le bien de tous ? Quelles vertus doit-il porter, défendre ?

Recontraindre le design ?

On entend notamment James Auger (@crapfutures), professeur associé au M-ITI à Madère, adepte d’un design critique, qui utilise les objets pour interroger notre rapport à la technologie (voir notamment la conférence qu’il donna à Lift en 2009). Auger évoque longuement sa « pile à gravité » (vidéo), un moyen pour stocker l’énergie intermittente d’une manière totalement naturelle, via une batterie qui utilise l’énergie cinétique pour se charger et se décharger quand on en a besoin. Une pile écologique inspirée par la topologie même de Madère, ses falaises, où James Auger vit. Un projet dont l’objectif principal est de fournir des fins similaires à la batterie de Tesla, mais selon des moyens différents : d’abord en se démarquant des impacts environnementaux des batteries lithium-ion de Tesla, ensuite et surtout, en imaginant une batterie qui permette aux gens de reprendre le contrôle.

La pile à gravité de James Auger est une parfaite illustration des principes qu’il a publiés récemment (avec Julian Hanna et Enrique Encinas) dans un manifeste pour « recontraindre le design » (.pdf), qui se présente plus comme un anti-manifeste qu’autre chose. Parmi les défis qu’il pointe, le manifeste souligne qu’il faut arrêter d’être obsédé par les fins, mais permettre aux gens de récupérer les moyens, c’est-à-dire leur permettre d’avoir accès à des leviers sur le monde plutôt que de chercher à les contraindre. Un autre défi de ce manifeste estime qu’à l’heure où les choses deviennent de plus en plus automatisées, il faut faciliter l’action plutôt que l’apathie.


Image : les propositions iconoclastes du manifeste pour recontraindre le design.

A l’image de James Auger, la plupart des designers que l’on croise dans ce reportage sont très critiques sur leur profession. Pour le graphiste et designer de caractères, Peter Bil’ak, fondateur de la Typothèque et éditeur de Works that Work (@worksthatwork), un magazine sur le design, mais qui ne s’adresse pas aux designers, il y a une contradiction dans le fait que les designers pensent que leur travail peut changer le monde, alors que la discussion sur le design demeure souvent confinée aux seuls designers. Nombre des designers qu’on croise dans ce reportage cherchent à retisser un lien avec la société par une approche critique. Pour Alain Findeli, du laboratoire Projekt à Nimes, si « le design a pour fonction d’améliorer l’habitabilité du monde », cela n’empêche pas le design d’être confronté à des dérives. Pour Geoffrey Dorne (blog, @geoffreydorne), de Design&Human), auteur notamment de l’application Refugeye, le risque du design est de verser dans un human washing, où le geste du designer reconsidéré par le marketing, transformerait tout produit/objet/service en principe éthique, social, engagé, solidaire… Où le design ne deviendrait rien d’autre qu’une « arme de manipulation ». Comme le pointe le designer Nicolas Nova (@nicolasnova) du Near Future laboratory, finalement, la créativité du designer oublie trop souvent les gens. Pour James Auger, pratiquer un design responsable consiste à comprendre la complexité du monde plutôt que de chercher à la réduire. Il est facile de faire de bons produits… mais il est surtout très facile de définir trop simplement ce qui est bien, ce qui est préférable… pour les gens et à leur place.

L’éthique : un processus ?

L’éthique est une réflexion sur ce que signifie bien agir pour soi et pour les autres, rappelle Gauthier Roussilhe dans son reportage. Mais cette notion a plusieurs sens : l’éthique de la vertu propose de définir l’éthique à partir de caractéristiques vertueuses, comme l’honnêteté, la sagesse ou le courage… De bonnes intentions suffiraient donc à se comporter de manière éthique. La déontologie, elle, consiste à suivre ses responsabilités et ses devoirs professionnels… indépendamment de leurs conséquences. En médecine par exemple, elle oblige le médecin à soigner tout malade… quitte à s’acharner sur eux. A l’inverse, le conséquentialisme propose lui de déterminer si un acte est éthique en évaluant ses conséquences.

Pour le cofondateur du Time Well Spent, James Williams, l’éthique, comme le design, est un processus. « Mais le design nous dit ce que nous pouvons faire, pas ce que nous devons faire ».

Pour Flora Fischer, chercheuse en éthique au Cigref, un bon programme informatique est un programme qui exécute correctement son code, qui ne bogue pas… mais sait-on évaluer d’un point de vue moral, un bon programme informatique ? Quels seraient les critères techniques qui favoriseraient le bien-être, l’ouverture d’esprit, la créativité ou l’autonomie de l’utilisateur ? Les objets techniques prescrivent nos comportements rappelle-t-elle en faisant référence à Bruno Latour : il y a les objets qui forcent nos comportements comme les tourniquets de métro, ceux qui nous persuadent de modifier nos comportements, comme les radars, ceux qui nous séduisent et nous influencent… comme une longue ligne droite qui nous invite insensiblement à rouler plus vite.

Pour Peter Bil’ak, le design demeure un service pour stimuler les affaires. Les designers ont surtout servi à encourager le consumérisme, à développer « l’obsolescence psychologique » des objets. James Williams fait le même constat : quand il était chez Google, il était entouré de technologies, mais cela ne l’a pas vraiment aidé à faire ce qu’il voulait vraiment, à accomplir ses objectifs, à vivre selon ses valeurs… Au contraire. Et Sarah Gold, fondatrice d’IF à Londres, de regretter le développement d’un design prédateur de l’attention des gens. Ce sont des designers qui conçoivent nos interfaces, les likes, le scrolling… ces technologies attentionnelles sur lesquels nous nous penchons toute la journée. Ces interfaces ont été approuvées par des dirigeants, testées avec des utilisateurs… Elles ont été conçues en connaissance de cause, en sachant les effets qu’elles ont sur les gens. Pour elle, les designers devraient refuser de travailler pour une technologie du soi, du solipsisme, une technologie où les gens n’ont ni maîtrise ni impact.

Les designers peuvent-ils devenir meilleurs ?

Confrontés aux commandes qui leur sont faites, tous les designers n’ont pas la même liberté de réponse. Il y a effectivement des designers qui conçoivent des bancs anti-SDF, rappelle Nicolas Nova. « Chaque choix que l’on fait a des conséquences », rappelle Peter Bil’ak. « Et si vous faites quelque chose qui ne vous convient pas, le risque que vous prenez est qu’on vous redemande de le faire » encore et encore.

Le design bien souvent se fait dans une bulle, un vide dans le cerveau du designer qui pense à la forme, à la matérialité, à la fonction, à l’usage estime James Auger. Une bulle trop souvent décorrélée de la réalité du monde, de celle où les gens vivent vraiment. Nous devons faire attention au monde où vivent nos produits. Pour lui, le danger du design est de croire en l’excellence des produits qu’il conçoit, alors que, trop souvent, nous ne voyons qu’une partie de leurs effets, de l’échelle à laquelle ils oeuvrent. Pour Nicolas Nova, l’histoire des technologies ou l’anthropologie qui permet de regarder d’autres usages des technologies sont des moyens de prendre du recul. La mise en avant de la créativité du designer oublie trop souvent les gens. Pour James Auger, à l’image de sa batterie, il nous faut faire du design localement, en utilisant des matériaux, des artisans locaux… C’est le meilleur moyen de mettre en pratique les valeurs et les idées qui sont nées du partage, de l’open source, du mouvement DIY…

Pour James Williams, le design doit prendre en compte et regarder ses externalités. Mais comme les designers ne les mesurent pas, ils n’ont pas de prise sur celles-ci, à l’image de la distraction que les designers d’applications encouragent. C’est un peu comme la pollution : tant qu’on ne la quantifie pas, on ne peut pas la prendre en compte. Il faut passer de la notion vague que quelque chose ne va pas, à sa prise de conscience précise. « Il nous faut porter à notre environnement mental la même attention que nous avons développée pour notre environnement physique ». Et cette prise en compte nécessite de nouvelles responsabilités et de nouvelles valeurs.

Pour Alain Findeli, l’éthique des vertus nécessite de se poser la question des qualités qu’un designer devrait intégrer, maîtriser et pratiquer, outre la vertu de compétence, qui n’est pas suffisante. Pour Peter Bil’ak, la principale vertu est d’être toujours critique, sceptique. Pour Laura Pandelle (@laurapandelle), designer à la 27e Région, le designer doit rester curieux : « le design demeure une discipline expérimentale ». Pour James Williams, sa principale vertu consiste à porter attention au monde, à l’utilisateur… « L’éthique n’est pas une pédale de frein sur l’innovation, mais un gouvernail ». On ne saurait être plus clair !

Hubert Guillaud

Catégories: Veille et actualités

L’Institut pour l’innovation et l’intérêt public

mer, 13/09/2017 - 07:00

La spécialiste de l’innovation publique, Mariana Mazzucatato (Wikipédia, @MazzucatoM), auteure de l’Etat entrepreneurial, a lancé fin juin un Institut pour l’innovation et l’intérêt public (Institute for Innovation and Public Purpose, IIPP, @IIPP_UCL accueillit à l’University College de Londres) pour repenser la manière dont est « créée, nourrie et évaluée la valeur publique ». L’action du secteur public ne peut se limiter à corriger les défaillances du marché, mais doit les façonner pour aider secteur public, privé et tiers secteur à atteindre les objectifs sociétaux qui s’annoncent. L’enjeu du think tank est de poser la question de la production de l’intérêt général : comment ces secteurs peuvent-ils travailler de manière collaborative pour produire des biens et une valeur publics ? Comment mieux comprendre l’intérêt général et produire des objectifs d’intérêts général ? Quelles structures sont les plus à mêmes de produit de la valeur publique ? Les nouvelles technologies peuvent-elles avoir un but « public » ? Comment la valeur produite collectivement peut-elle être mieux partagée de manière inclusive ?…

Dans ses objectifs (.pdf), l’IIPP a notamment pour vocation de construire un nouveau vocabulaire pour l’action publique afin de produire « un récit alternatif » pour l’élaboration de politiques qui soient moins axées sur le désendettement ou la réduction des dépenses, mais plutôt sur l’évolution dynamique, l’expérimentation et la construction stratégique… Une initiative assurément à suivre.

Catégories: Veille et actualités

Watson, une révolution pour lutter contre le cancer ? Nous en sommes loin !

mar, 12/09/2017 - 12:00

L’une des applications phares de Watson, le système d’intelligence artificielle d’IBM a longtemps été la fouille de données médicales et l’analyse des corpus d’articles de recherche sur le cancer. Force est pourtant de constater que les résultats annoncés ne sont pas au rendez-vous estime une remarquable enquête de Stat News (@statnews) menée par Casey Ross (@byCaseyRoss), leur spécialiste santé, et Ike Swetlitz (@ikeswetlitz), leur spécialiste des questions politiques.

En fait, soulignent les journalistes, si Watson semble toujours prometteur, la plateforme d’intelligence artificielle d’IBM consacrée à la recherche médicale contre le cancer, 3 ans après son lancement, en est encore à tenter de distinguer les différentes formes de cancer. La cinquantaine d’hôpitaux à travers le monde qui ont adopté le système sont loin d’avoir permis à IBM de dominer le marché. Et dans les hôpitaux étrangers, les médecins se plaignent des biais du système. IBM n’a d’ailleurs publié aucun article scientifique démontrant l’impact de Watson. En fait, les journalistes estiment que, contrairement aux promesses, Watson n’a pas créé de nouvelles connaissances. Pire, il aurait même du mal à s’adapter aux nouvelles connaissances : sa grille d’analyse de contenus le poussant plutôt vers des conclusions prenant en compte beaucoup de données plutôt que les plus à jour. Pire encore, soulignent-ils, malgré son utilisation dans nombres d’industries, Watson n’a pas réussi à inverser la baisse de revenus d’IBM depuis 21 trimestres d’affilés (au dernier trimestre, les revenus de la division solutions cognitives d’IBM, construite autour de Watson et qui est censée être l’avenir des activités de l’entreprise, ont eux-mêmes diminué par rapport à l’an dernier rapportent-ils).

L’article de StatNews est riche d’exemples et de retours de praticiens qui l’utilisent. Il évoque par exemple les réponses de Watson sur les données d’un patient recommandant une chimiothérapie que les oncologues avaient déjà recommandé. Si le système a indiqué des articles de recherche pertinents, il n’a pas aidé à prendre une décision ni n’a proposé d’informations que les médecins ne connaissaient pas. Bien sûr, tout le long de l’enquête, IBM qui a visiblement été invité à réagir aux attaques se défend en soulignant que Watson en est encore à un stade d’apprentissage et qu’il a besoin de plus de données pour s’améliorer… un argument de légitimation on ne peut plus classique.

Plusieurs médecins soulignent que le manque d’évaluation scientifique de l’efficacité de Watson pose problème. Certes, Watson – sur la gamme de cancers parmi les plus courants qu’il sait analyser – donne des recommandations de soins souvent assez proches des méthodes existantes, les mêmes que celles que recommandent les médecins. Mais pas tout le temps. A nouveau, s’il est compétent pour appliquer des méthodes reconnues, pour l’instant, le système n’a pas fait la démonstration de sa capacité à les améliorer comme l’a promis IBM. Le problème, soulignent les praticiens, n’est pas tant la première recommandation d’un scénario clinique que les suivantes, et notamment les cas de traitements secondaires, après que la première recommandation ait échoué, comme c’est le cas par exemple après l’échec d’une chimiothérapie particulière. Le système a alors bien plus de mal à faire une recommandation – tout comme le consensus entre professionnels qui est d’ailleurs beaucoup moins marqué. Au Danemark, les oncologues d’un hôpital ont déclaré avoir abandonné le projet d’avoir recours à Watson après avoir constaté que les médecins locaux n’étaient d’accord avec Watson que seulement dans 33 % des cas.

Ceux qui ont travaillé avec Watson expliquent également que le système a beaucoup de mal à comprendre les dossiers médicaux des patients : qu’il faut passer du temps pour détailler les acronymes, corriger les erreurs, les phrases abrégées… bref, mettre en forme l’information pour que la machine puisse les interpréter sans erreurs. Hors des Etats-Unis, plusieurs médecins se plaignent du fait que Watson privilégie les études et recommandations américaines (et notamment celles du Centre contre le cancer du Memorial Sloan Kettering, qui est l’établissement majeur avec lequel travaille Watson) sans que les utilisateurs d’autres pays puissent apporter des corrections par exemple sur les doses plus faibles de médicaments que beaucoup recommandent pour minimiser les effets secondaires – ainsi que parfois pour des raisons de moyens. En Corée du Sud par exemple, les chercheurs ont indiqué que le traitement que Watson recommandait le plus souvent pour les patients atteints de cancer du sein n’était tout simplement pas couvert par le système d’assurance national… Un autre oncologue souligne que si Watson fournit des preuves à l’appui de ses recommandations (notamment des études), il n’explique pas comment ni pourquoi il recommande un traitement particulier à un patient particulier. Et l’oncologue d’évoquer l’exemple où Watson a recommandé une certaine chimiothérapie pour un cancer qui ne s’est pas propagé à des ganglions lymphatiques en s’appuyant sur une étude qui montre l’efficacité dudit traitement chez les patients dont le cancer s’est propagé aux ganglions lymphatiques… Faut-il voir là une approximation ou une recommandation ? Et comment les médecins peuvent-ils en juger ?

Reste que Watson n’a pas que des défauts. Plusieurs utilisateurs interrogés par le StatNews signalent que le système fournit bien souvent les meilleures données de la littérature scientifique sur les traitements. Il permet également de mieux discuter des options possibles avec les patients et entre médecins, leur fournissant du matériel pour discuter en connaissance de cause des différentes options qui s’offrent à eux, des taux de réussites probables… Mais le système est loin d’être aussi parfait et infaillible que ne le vend le marketing d’IBM.

En lisant en détail les critiques de StatNews, on constate en tout cas combien ce programme, du fait des enjeux qu’il porte, demeure très encadré, très interrogé, accompagné et très surveillé… Comme le concluent les auteurs de l’enquête, l’accompagnement de l’IA est et demeure primordial. Nous sommes loin d’un système expert infaillible et que faire parler des données hétérogènes ne produit pas nécessairement facilement de nouvelles connaissances. La Watsonisation de la santé n’est pas si simple… Et IBM pourrait devenir la première victime du succès marketing de Watson, c’est-à-dire des attentes un peu irréalistes que la firme a fait naître chez ses clients.

Pour le consultant Peter Greulich, ancien responsable d’IBM et auteur de plusieurs ouvrages sur l’histoire d’IBM, IBM s’est fait dépasser par son marketing autour de Watson, sans parvenir à contrôler et à construire son produit. Pour lui, l’investissement d’IBM dans Watson est insuffisant. Dans les années 60, ses investissements en R&D étaient bien plus élevés qu’ils ne le sont aujourd’hui avec Watson. Par rapport à ses concurrents (Amazon, DeepMind de Google, Microsoft, ou Optum de UnitedHealth…) IBM perd du terrain sur la question de l’IA rappelle également, dans un article au vitriol, Jennings Brown pour Gizmodo.

A l’heure où la firme tente de diversifier les champs d’expertise de Watson, force est de constater que l’article de StatNews pointe bien des limites, qui ne sont d’ailleurs pas propres à Watson. Bien des critiques qui sont faites à Watson ressemblent à celles qu’on entend ailleurs : pointant des questions de compréhension du fonctionnement des systèmes, d’intelligibilité, de symétrie d’information, d’ouverture et d’accès aux paramètres.

Comme nous le pointions dans les pistes d’innovation du groupe de travail NosSystèmes de la Fing, Watson, pas plus que d’autres systèmes d’IA, n’en fera visiblement l’économie.

Catégories: Veille et actualités

Thomas Piketty : « Repenser le code du capital »

mar, 12/09/2017 - 07:00

L’économiste Thomas Piketty (blog), dans une tribune pour Le Monde, regrette que la réforme du Code du travail ne s’accompagne pas d’une évolution de la gouvernance des entreprises. La réforme du Code du travail du gouvernement augmente le pouvoir des employeurs sans réelles contreparties. Elle porte une vision conflictuelle et hiérarchique du monde du travail et ne propose aucune avancée vers la démocratisation du pouvoir dans l’entreprise. Or, contrairement à la France, depuis les années 50, l’Allemagne ou la Suède notamment, ont renforcé la codétermination, c’est-à-dire, la participation des salariés aux décisions, notamment en augmentant le nombre de sièges attribués aux salariés dans les Conseils d’administration des entreprises.

Piketty pointe notamment vers les travaux des juristes Ewan McGaughey (@ewanmcg), de Isabelle Ferreras (qui publie prochainement Entreprises comme entités politiques) et Julia Cagé qui réfléchissent à des modalités pour faire entrer les salariés dans la gouvernance des entreprises. Il y a effectivement là un chantier à ouvrir qui permettrait certainement d’aller au-delà des Coopératives et des entreprises libérées.

Catégories: Veille et actualités

L’imaginaire du Bitcoin (2/2) : utopies pirates et théorie du tout

lun, 11/09/2017 - 07:00

Le bitcoin est sans aucun doute une émanation de l’idéologie libertarienne qui vise à l’obsolescence de l’État et au règne absolu du marché. Pourtant les choses sont plutôt ambiguës. Dans un article précédent, je mentionnais les propos de Stan Latimer, affirmant que, dans une Dac (Distributed Autonomous Corporations, ou Entreprises autonomes distribuées), les changements d’orientation de la corporation ne pourraient pas venir d’actionnaires externes, mais de ses employés, comme les « mineurs » dans le cas du bitcoin. J’y soulignais alors la confluence entre l’esprit anarcho-capitaliste et les vieilles utopies autogestionnaires. En fait, l’anarchisme est l’équivalent politique d’une « Singularité » technologique. On ne peut pas prévoir ce qu’il y a derrière, ce qu’il se passera après la destruction des institutions étatiques. La société pourra adopter un marché dérégulé, un communisme complet, ou n’importe quelle forme entre les deux, y compris, pourquoi pas, la bonne vieille féodalité ou (plus probablement) la reconstitution d’une nouvelle forme d’État…

De l’île de la tortue aux utopies numériques
De fait, le libertarianisme est une idéologie ambiguë, revendiquée par des courants de pensée très différents, voire carrément opposés. On trouve en effet des tendances « libertariennes » au sein bien sûr de la droite américaine, chrétienne ou non, mais également chez des représentants de la « contre-culture » issue du mouvement hippie. Si les membres du Tea Party souhaitent la disparition de l’État pour avoir la liberté de créer des communautés fermées vivant selon les principes des puritains du XVIIe siècle, d’autres revendiquent la même idéologie pour fumer toute la dope qu’ils veulent. Comme l’a dit une fois Tim Moen, un libertarien canadien : « Je veux que les couples gays mariés puissent défendre leurs plants de marijuana avec des armes. »

Lors de l’explosion du mouvement hippie dans le Haight-Ashbury lors des années 60, les Diggers faisaient la promotion d’une culture de la gratuité pas si éloignée des mouvements open source des années post-internet (rappelons que John Barlow, cofondateur de l’Electronic Frontier Foundation et auteur de la célèbre formule « l’information veut être libre » a également été parolier au sein du plus célèbre des groupes hippies, le Grateful Dead). Une idéologie qui pouvait davantage se rapprocher de l’anarchisme communautaire classique connu en Europe que du libertarianisme effréné. Pourtant, des versions plus « capitalistes » ne vont pas tarder à apparaître, au sein de ce mouvement.

Le roman Illuminatus !, écrit par Robert Anton Wilson et Robert Shea, et publié en 1975, fait sans doute le lien entre la contre-culture hippie des années 60 et ce qui deviendra au fil des années la « cyberculture » internet. C’est également un ouvrage qui exprime très bien la porosité mentionnée plus haut entre les deux formes d’anarchisme, capitaliste et communiste.

Le roman est une parodie des théories de la conspiration en cours aux Etats-Unis (eh oui, en 1975, il y avait déjà des gens obsédés par les illuminati, et depuis longtemps !). Il met en vedette deux personnages entraînés dans une relation d’amour-haine ; l’un d’eux, Simon Moon, est un anarchiste traditionnel qui vise à destruction de la propriété tandis que l’autre, Hagbard Celine, une espèce de savant fou vivant dans son sous-marin (jaune évidemment), se base sur la théorie libertarienne de l’anarchisme individualiste et affirme que la propriété n’est pas le vol, mais « la liberté ». Illuminatus cherche à démontrer que les deux anarchismes, opposés en apparence, sont en réalité les deux faces d’une même réalité.

Par bien des côtés, Hagbard Celine est le prototype du « hacker », l’archétype qui va dominer la culture deux décennies plus tard. En tout cas, l’influence d’Illuminatus sera profonde (pour seul exemple, le groupe KLF, qui fut l’un des principaux promoteurs de la musique techno en Angleterre, a multiplié les références à ce livre).

Dans la nouvelle « Visit Port Watson » (disponible ici) écrite par un anonyme et publiée dans la revue Semiotext(e) (elle serait d’abord parue en 1985 dans un fanzine nommé « libertarian horizons : a journal for the free traveler ») l’influence de Shea et Wilson se combine avec celle d’un autre Wilson, Peter Lamborn Wilson, également connu sous le pseudonyme de Hakim Bey et inventeur du concept anarchiste très en vogue dans les années 90 de « zone d’autonomie temporaire » (et qui peut être vu comme l’inspiration principale du « Burning Man »). Semiotext(e) est préfacé à la fois par Robert Anton Wilson et Peter Lamborn Wilson, et je ne serais pas étonné qu’en fait l’un des deux Wilson soit l’auteur de « Visit Port Watson ».

L’originalité de ce court récit est de présenter une utopie anarcho-capitaliste basée sur la « perversion » du système capitaliste. Port Watson vit en effet des fonds fournis par une banque spécialisée dans toutes les opérations financières les plus douteuses. Comme dans Illuminatus, la technologie est omniprésente. Cette banque ne possède que peu de réelles richesses, « sa richesse se trouve essentiellement dans la mémoire de ses ordinateurs ». De même, si les citoyens peuvent utiliser n’importe quelle monnaie étrangère pour des petites transactions comme l’achat de nourriture, les plus grosses dépenses s’effectuent essentiellement par le biais de l’informatique.

Cette idée d’utopie libertarienne trouve ses références dans les « utopies pirates », ces enclaves qui auraient été implantées aux Caraïbes par des flibustiers soucieux de vivre loin de toute forme d’autorité. Hakim Bey en fait souvent mention dans ses écrits et il en a peut-être trouvé la source dans les œuvres du célèbre écrivain beat William S. Burroughs, qui en fait grand cas dans son roman Les Cités de la nuit écarlate.

Bien sûr, le bitcoin n’est pas une « utopie pirate », bien que certains pointeraient avec malice la ressemblance entre l’économie de Port Watson et des plates-formes comme Silk Road, l’un des marchés noirs du Darknet. Mais des systèmes comme Bitcoin et et Ethereum ont pour caractéristique de court-circuiter les régulations légales et étatiques aux échanges commerciaux. Une autre idée qui court dans des fictions comme Port Watson ou Illuminatus est que l’anarchisme ne résulte pas d’un usage moindre de la technologie, mais au contraire de son exacerbation.

Une vision du monde ?
Pourquoi cette passion des « futuristes » pour l’anarcho-capitalisme ? Se contenter de dire « c’est à cause de la Silicon Valley » est une réponse plutôt simpliste, pour deux raisons. Tout d’abord, un capitalisme industriel existe depuis deux bons siècles sans jamais avoir encouragé les opinions libertariennes, bien au contraire. Ensuite, les « anarcho-capitalistes » extropiens existent depuis les années 80, à une époque où la Silicon Valley était encore embryonnaire. J’ajouterais à cela que la plupart de ceux qui souscrivent à ces idées ne sont pas des entrepreneurs millionnaires, loin s’en faut.

Si l’anarchisme (surtout dans sa version libertarienne) a tant séduit les milieux futuristes et technophiles, c’est peut-être parce qu’il repose sur une conception du monde complète, celle du « bottom-up » : autrement dit l’idée que les systèmes complexes ne se « décident » pas d’en haut, mais émergent par l’interaction de multiples agents. Un tel processus serait à l’origine de la vie, de l’intelligence et même de l’univers entier. C’est la notion d’ « ordre spontané« , popularisée par l’économiste Friedrich Hayek, qui s’applique tant aux écosystèmes qu’aux cerveaux humains, et bien sûr à l’économie.

Le manifeste de cette pensée « bottom-up » au début des années 90 fut sans doute le premier livre de Kevin Kelly, Out of Control, qui cherche à présenter cette nouvelle conception des choses ou, comme le dit le sous-titre du livre, cette « nouvelle biologie des machines, des systèmes sociaux et du monde économique« .
C’est cette idée fondamentale qui nourrit des technologies comme la vie artificielle ou les systèmes multi-agents, dont nous avons fréquemment parlé dans nos colonnes. Elle nourrit aussi les espoirs de la future nanotechnologie, permettant d’envisager de créer des « collectifs de nanorobots » et l’autoassemblage.

Cette idée est naturellement au cœur de l’idéologie libérale, puisqu’on la retrouve déjà formulée par Adam Smith avec sa théorie de la « main invisible ».

Naturellement tout l’internet – et pas seulement le bitcoin – est dominé par cette notion de « l’ordre spontané ». A noter d’ailleursle caractère autoréférentiel de l’article de la Wikipedia sur le sujet, puisque parmi les exemples d’ordres spontanés est citée… la Wikipedia ! Mais justement, le bitcoin n’est autre que l’aboutissement de la vieille conception de l’internet et la continuation des projets P2P des années 90.

Cette vision « bottom-up » du monde est-elle purement idéologique ? Il me semble bien difficile de renoncer à tous ses triomphes conceptuels, que ce soit dans le domaine des sciences du cerveau, de l’écologie et même de la physique… D’un autre côté, il est vrai que son application aux sociétés, où même à la psychologie (qui est différente de la neuroscience !) n’arrivent pas à être complètement convaincante. Mais par quoi par la remplacer ? Par l’ancienne vision hiérarchique, top-down ?
Même si on reconnait l’efficacité des systèmes « bottom-up », il ne faut pas oublier que l’efficacité est un concept relatif (efficacité pour qui ? Pour le système global ? Pour chacun des individus qui le composent ?) et qu’il existe bon nombre de systèmes « bottom-up » très « efficaces » reposant sur l’élimination des plus faibles ou sur des réflexes prédateurs, comme c’est le cas au sein des essaims de sauterelles où c’est le cannibalisme qui assure la cohésion du groupe. On peut également citer le programme « Sugarscape » un outil de simulation, de « marché libre » qui aboutit à une inégalité croissante entre les agents qui le constituent… On est passé en quelques années d’une pensée exclusivement hiérarchique et « top-down » à une quasi-idolâtrie du « bottom-up », de la « complexité » et de l' »émergence », alors même qu’on se sait pas toujours exactement ce que ces termes recouvrent. Peut-être faut-ils sortir d’un dualisme naïf opposant le « top-down » et le « bottom-up » et partir en quête d’un nouveau paradigme. Mais lequel ?

Rémi Sussan

Catégories: Veille et actualités

Le bon poids des bons arguments

ven, 08/09/2017 - 12:00

Les toujours intéressantes actualités scientifiques du CNRS, signalaient récemment une publication scientifique de l’Institut de recherche en informatique de Toulouse et du Centre de recherche en informatique de Lens pour trouver une méthode optimale pour évaluer et pondérer des arguments.

Les chercheurs ont tenté d’évaluer les méthodes de pondération des arguments d’un débat selon leur poids théorique (à savoir l’expertise de ceux qui les émettent, le nombre d’attaques et le poids des contradicteurs, etc.). Un exercice théorique qui visait à comprendre comment optimiser l’évaluation argumentative, pour dessiner par exemple une cartographie des controverses qui prenne en compte le poids relatif des arguments selon une grande diversité de critères. Au final, leur étude leur a permis de développer 3 nouvelles méthodes permettant de satisfaire la plupart des critères.

Assurément, il y a là matière à faire évoluer les cartographies de controverses, les cartes heuristiques, voir l’analyse des débats en ligne comme ceux proposés par Cap Collectif. Les chercheurs ont d’ailleurs annoncé vouloir travailler à créer depuis ces méthodes d’analyse des outils d’aide à la décision et de synthèse.

Catégories: Veille et actualités

Comment repérer une IA « consciente » ?

ven, 08/09/2017 - 07:00

Peut-on tester le degré de conscience d’une IA ? C’est la question que se posent la philosophe Susan Schneider et l’astrophysicien Edwin Turner dans un article diffusé sur le blog de Ray Kurzweil, mais originellement paru dans Scientific American.

Le problème est qu’on ne sait pas bien définir la conscience ! Comment peut-on alors tester quelque chose d’aussi imprécis ? Pour les auteurs, une telle connaissance imparfaite n’est pas un problème insurmontable : « Nous pensons que nous n’avons pas besoin de définir formellement la conscience, de comprendre sa nature philosophique ou de connaître sa structure neurale pour reconnaître des signes de la conscience au sein d’une IA. Chacun d’entre nous peut saisir quelque chose d’essentiel sur la conscience, juste par l’introspection : nous pouvons tous expérimenter de l’intérieur ce que cela fait d’exister. »

Il faut donc, à l’instar du mythique test de Turing destiné à vérifier l’intelligence d’une machine, mettre au point un test de conscience qu’ils nomment ACT (pour AI Consciousness Test). Ce test ressemblerait formellement à celui de Turing : il s’agirait d’un ensemble de questions/réponses, mais la similitude s’arrêterait là. En fait, nous disent les deux auteurs, l’ACT ferait précisément le contraire du test de Turing. Ce dernier considère en en effet les états internes de la machine interrogée comme une « boite noire », où l’important est de découvrir si cette dernière est capable de se comporter exactement comme un humain. Au contraire, l’ACT cherchera dans les réponses de l’IA la trace de ce qui se passe à l’intérieur, ce qu’elle « ressent », comment elle se perçoit…

Quelle serait la nature des questions à lui poser ? Pour les deux auteurs, elles tourneraient autour de certains concepts bien précis :

« L’une des indications les plus convaincantes que des adultes normalement constitués font l’expérience de la conscience (bien que cela ne soit pas souvent noté) est le fait que presque tous peuvent rapidement et facilement saisir des concepts basés sur le ressenti de cette conscience. De telles idées incluent des scénarios comme l’échange de corps entre esprits (comme dans le film Freaky Friday), la vie après la mort (y compris la réincarnation), et les esprits qui quittent leur «corps» (par exemple, dans le cas de la projection astrale ou des fantômes). Que ces scénarios aient ou non une réalité, ils seraient extrêmement difficiles à comprendre pour une entité qui n’aurait aucune expérience consciente. Ce serait comme s’attendre à ce qu’un sourd de naissance apprécie un concerto de Bach. »

Une IA consciente serait donc capable de comprendre instantanément ces concepts (ce qui ne veut pas dire : y croire !).

J’avoue que c’est le point qui me paraît le plus intéressant du papier : les preuves les plus simples de l’existence d’une conscience appartiennent toutes au domaine du paranormal ou du religieux ! Cela mériterait des investigations et des réflexions supplémentaires, mais ce n’est pas le sujet abordé par les deux auteurs.

Ceux-ci préfèrent plutôt se pencher sur des questions typiques des interrogations actuelles sur l’IA, telle notamment l’idée d’une « superintelligence » non consciente qui serait capable « d’imiter » la compréhension humaine de ces sujets, sans pour réellement « ressentir » la conscience. Il faudrait peut-être bloquer l’accès Internet à la machine testée pour éviter qu’elle n’aille chercher les infos permettant une telle simulation, mais les auteurs rajoutent, dans la lignée de ce qu’écrit Nick Bostrom dans son livre Superintelligence, qu’une telle entité ne se laisserait pas isoler du réseau si facilement…

Reste que, comme le rappellent les auteurs, de telles inquiétudes ne sont pas pour demain. En fait aujourd’hui, la question serait plutôt inverse : qu’une machine consciente ne soit pas assez intelligente pour répondre correctement à l’ACT. « Une IA pourrait manquer de la capacité linguistique ou conceptuelle nécessaire pour passer le test, comme ce serait le cas avec un animal non humain ou un nourrisson, mais serait néanmoins capable d’éprouver une expérience. Ainsi, réussir un ACT est une preuve suffisante mais non nécessaire pour établir l’existence de la conscience au sein de l’IA – bien que ce soit le mieux que nous puissions faire pour l’instant. »

Catégories: Veille et actualités

Une plateforme pour la génomique personnelle

jeu, 07/09/2017 - 12:00

23andMe a-t-il du souci à se faire ? Une nouvelle génération d’entreprises se consacrant à la génomique personnelle est en train de voir le jour, et parmi elles Helix, à laquelle la Technology Review a consacré un récent article. Helix utilise une technique de « vrai » séquençage de l’ADN, et non de génotypage comme le fait aujourd’hui 23andMe, et se montre en mesure de fournir, pour 80$, une lecture de l’exome, c’est-à-dire une portion de l’ADN bien plus importante que celle proposée aujourd’hui par la société d’Anne Wojcicki. Mais pour la revue du MIT, l’originalité d’Helix tient à ce qu’elle appelle un App store pour l’ADN. En effet, explique l’article, les compagnies de génomique classique fonctionnent en une seule étape. On envoie sa salive, puis on reçoit les résultats une bonne fois pour toutes. Helix se veut une plateforme ouverte à des développeurs externes qui fabriqueront des applications susceptibles de donner certaines informations précises sur le contenu de notre génome. Par exemple, la société Exploragen se propose d’analyser les rythmes de sommeil. Insitome de son côté va découvrir la proportion de gènes néandertaliens au sein d’un ADN…

Évidemment, comme tout ce qui touche à ce domaine très controversé, des questions d’éthique et de risque se posent (comme le fait de devoir payer un loyer à vie pour pouvoir accéder à notre propre code génétique et bénéficier des avancées de la médecine, comme s’en inquiète le professeur de marketing, Christophe Benavent sur son blog). Lorsque tous les résultats sont concentrés au sein d’une même société, on peut à la limite tenter d’avoir un peu de contrôle. Mais dans un système décentralisé, qui va vérifier le sérieux des applications ?

Catégories: Veille et actualités

Applications : voici venu le temps de l’abonnement !

jeu, 07/09/2017 - 07:00

Sur Hackernoon, Alan Marsden revient sur la montée du modèle de l’abonnement pour les applications. Après avoir été payantes, puis après être devenues de plus en plus souvent gratuites pour pallier au désintérêt et à leur multiplication, voilà que désormais, les applications se lancent dans l’abonnement, à l’image d’Ulysses, ce très bon éditeur de texte, comme le soulignait avec un certain désappointement l’écrivain Thierry Crouzet cet été. Pour Marsden, l’abonnement n’est pas une mauvaise option, mais elle est souvent surévaluée et sa généralisation pose un problème d’accès et de découverte, dans un monde où 80 % des utilisateurs abandonnent les applications qu’ils ont installées dans l’année. Pour l’instant, le modèle de l’abonnement est encouragé par Apple qui a réduit sa commission sur ces formules depuis juin 2016. Android a suivi. Le problème est que la généralisation de ce modèle n’est pas soutenable pour l’utilisateur. Marsden a calculé que, rien qu’en gardant une quinzaine de ses applications préférées, il en aurait pour 91 euros par mois, sans compter son abonnement téléphonique… Les commentaires dans les magasins d’applications de celles qui ont basculé vers l’abonnement sont tranchés, entre utilisateurs ravis et mécontents de ce changement de contrat.

Le développeur Lynn Fredricks estime que le modèle de l’abonnement a aussi besoin d’évoluer. Quand vous arrêtez votre abonnement à un magazine, personne ne vient vous reprendre vos anciens numéros !, rappelle-t-il. Or, beaucoup de produits logiciels ne fonctionnent plus dès que vous arrêtez votre abonnement. Ne serait-il pas possible d’imaginer que vous puissiez continuer d’accéder à la version à laquelle vous avez souscrit (ou accéder aux contenus d’un média) jusqu’à la date de fin de votre abonnement par exemple (ou à ceux auxquels vous avez déjà eu accès). Ce modèle vertueux – il parle « d’abonnement équitable » – inciterait également les développeurs à faire des améliorations continues, ce qui n’est pas toujours le cas des versions applicatives qui promettent plus d’améliorations parfois qu’elles n’en réalisent vraiment. Bien souvent, rappelle le développeur, la principale raison avancée pour légitimer l’abonnement repose sur la lutte contre le développement de versions pirates (ce qui est justement le cas dans le monde des applications souligne un récent article des Echos), mais cette raison n’apporte le plus souvent aucun bénéfice au consommateur. Les entreprises qui ont le plus réussi leur conversion vers des modèles par abonnement sont aussi celles qui connaissent peu de concurrents. Pas sûr que cela demeure le cas longtemps pour les plus profitables d’entre elles…

Guise Bule rappelle quant à lui que « nous nous abonnons à quelque chose parce que cela nous permet d’économiser de l’argent à long terme ou parce que c’est commode ou que cela nous fait gagner du temps ». Par contre, l’abonnement est beaucoup moins bien vécu par le consommateur quand il sent que c’est juste un moyen pour le service de s’assurer des revenus récurrents, ou quand il sent que la location lui coûte bien plus que l’achat. Est-ce à croire que bien souvent l’abonnement est un recours pour les développeurs qui ne mettent pas suffisamment à jour leurs logiciels et qui se retrouvent alors en concurrence avec le manque d’évolution de leur propre produit ? Force est de constater que bien des améliorations ne sont pas à la hauteur de l’abonnement et ce d’autant que les améliorations ne peuvent être continues sauf à transformer la proposition initiale en tout à fait autre chose (imaginez ce que deviendrait un logiciel comme Ulysses qui ne cesserait d’évoluer pendant 5 ans ? Certainement bien autre chose que l’épure qui fait ses qualités).

Le problème, pointe-t-il également, c’est que l’utilisateur est bien souvent dépendant de modalités d’abonnement qu’il ne maîtrise pas : ni dans ses changements, ni dans la promesse qui est faite (combien de nouveautés et lesquelles seront mises en oeuvre ou produites ?), ni en terme de recours. En fait, rappelle Guise Bule en conclusion, si vous ne voulez pas vous soumettre à l’abonnement, rappelez-vous qu’il existe certainement une alternative. Effectivement, dans le foisonnement applicatif, il y a souvent un service concurrent… prêt à récupérer ceux qui ne voudront pas s’abonner.

Catégories: Veille et actualités

L’imaginaire du Bitcoin (1/2) : économies futures et posthumaines

mer, 06/09/2017 - 07:00

Le mot économie se voit rarement associé à celui d’imaginaire. Pourtant, le domaine n’a pas été épargné par les folles spéculations. Ainsi, au cours des dernières décennies, on a pu voir, derrière un phénomène comme le bitcoin, se développer tout un ensemble de thèmes futuristes. La nouvelle monnaie se trouve ainsi au confluent de trois idéologies qui dépassent largement le thème de l’économie. D’abord, une eschatologie, le « futurisme extrême » dont le transhumanisme et le singularitarisme sont les deux aspects les plus connus, ensuite une utopie politique, l’anarchisme, et enfin une cosmologie, une « théorie du tout » : celle de l’ordre spontané.

L’économie et la SF
Lorsqu’on se penche sur les imaginaires du futur, on pense tout de suite à la science-fiction, et force est de constater que, dans le domaine économique, les auteurs ne sont guère montrés innovants, du moins jusqu’à récemment. Notons quand même le curieux Chaîne autour du Soleil (1953) de Clifford D. Simak, qui se penche sur les conséquences de la gratuité universelle. En fait, c’est avec les cyberpunks des années 80 que les écrivains prêtent davantage d’attention aux aspects économiques de leurs mondes imaginés, mais de manière bien timide. Bruce Sterling met en œuvre, dans La Schismatrice, une multitude de systèmes d’échange divers et varié : si la monnaie « officielle » est le kilowatt, les différents groupes marginaux ou criminels du système solaire utilisent d’autres étalons économiques, par exemple des « heures de service sexuel », des drogues ou des composants d’ordinateurs…

Les choses deviennent plus sérieuses avec Neal Stephenson, un des rares auteurs de SF réellement impliqué dans les technologies numériques, qui mentionne, lui, une monnaie virtuelle dans son ouvrage Cryptonomicon. Mais c’est peut-être Charles Stross qui, dans son roman Accelerando, se montre le plus audacieux dans la description d’une économie entièrement dirigée par des algorithmes.

Il semble ainsi prévoir l’existence de compagnies entièrement robotiques, préfiguration des DACs (Digital Autonomous Corporations) contemporaines, ces entreprises « robotiques » fonctionnant indépendamment de l’intervention humaine :

« Chacune de ces entreprises – et il en existe actuellement plus de seize mille, même si ce nombre croît de jour en jour – possède trois directeurs, chacun dirigeant à son tour trois autres compagnies. Chacun d’eux exécute un script rédigé dans un langage fonctionnel inventé par Manfred ; les directeurs donnent leurs instructions à leur compagnie, instructions qui incluent l’ordre de transmettre celles-ci à leurs enfants. Concrètement, il s’agit d’un troupeau d’automates cellulaires, comme les cellules du Jeu de la vie de Conway, juste en plus complexe et avec plus de puissance de calcul. »

Pourtant, au fur et à mesure que le roman avance, cette économie algorithmique devient de plus en plus complexe et difficile à comprendre : c’est l’économie 2.0, « un ensemble d’algorithmes d’allocations de ressources déterministes de qualité supérieure », qui dépasse vite les compréhensions d’un être humain non augmenté. Et encore, peut-il encore s’agir d’un être humain ?

« Prenez un être humain, fixez-lui dessus des extensions qui lui permettent de tirer pleinement partie de l’Économie 2.0 et la conséquence immédiate est de briser la chaîne narrative de leur conscience, remplacée par un simple fichier journal listant requêtes et transactions entre divers agents ; le processus est incroyablement efficace et souple, mais cela ne correspond plus vraiment à la définition généralement admise d’un être humain conscient. »

Economies posthumaines
Stross n’a pas fait mystère de ses sources d’inspiration pour Accelerando : « La plupart des idées d’Accelerando étaient des sujets fréquents sur la liste de discussion EXTROPY-L mailserv, et certaines sont même plus anciennes », écrit-il dans un commentaire d’un de ses posts de blog (Cela dit, Stross ne se considère absolument pas comme un extropien ou un singularitarien, et ses écrits sur l’économie 2.0 ne l’ont guère amené à une attitude bienveillante envers le bitcoin, qu’il déteste).

C’est sur la liste de discussion extropienne que se sont en effet développées les idées transhumanistes au cours des années 90. Si le transhumanisme fait beaucoup parler aujourd’hui, l’idéologie ne date pas d’hier ; sa forme actuelle date probablement de 1973, lorsque le philosophe irano-américain F.M. Esfandiary écrivit Upwingers : A Futurist Manifesto (.pdf), ouvrage qui séduisit, entre autres, des auteurs comme Timothy Leary et Robert Anton Wilson.

Si aujourd’hui, le transhumanisme se concentre essentiellement sur les rapports homme-machine, l’IA et la médecine, ce ne fut pas le cas dans le courant des années 90, où sous cette bannière se mêlaient une multitude d’idées, et où des thèmes bien plus variés étaient discutés, comme la conquête spatiale, ou… l’économie. Le plus fameux de ces courants futuristes était sans doute l’extropianisme, connu pour combiner les idées transhumanistes et les thèses libertariennes (pas officiellement, d’ailleurs, l’Extropy Institute a toujours affirmé ne pas promouvoir d’idéologie politique particulière ; cependant, guère de doute que ces idées anarcho-capitalistes étaient très présentes sur les listes de discussion extropiennes).

Peut-être, dans sa vision de l’économie 2.0, Stross a-t-il été influencé par un papier abondamment discuté par les extropiens à l’époque, « If Uploads Come First », écrit par Robin Hanson en 1994. Celui-ci a d’ailleurs sorti en 2016 un livre, The Age of Ems, qui reprend bon nombre des idées de ce premier texte. La thèse de Hanson est que les premières formes de posthumanité seront constituées d’esprits « uploadés », téléchargés à l’intérieur d’un ordinateur. Mais Hanson s’intéresse de près à l’économie « posthumaine » qui régira la vie des uploads (ou, comme il les appelle aujourd’hui, les « Ems » raccourci pour « Brain EMulation »). Et le moins qu’on puisse dire, c’est que la vie ne sera pas forcément rose pour bon nombre d’entre eux. En effet, explique-t-il, vivre dans un paradis virtuel n’est pas si simple : il faut payer la facture d’électricité, la bande passante, etc., pour continuer à vivre correctement, c’est-à-dire accéder au maximum de ressources computationnelles. De plus, il faudra compter avec une explosion de la population virtuelle, les uploads n’hésitant pas à se copier plusieurs fois pour réaliser différentes tâches. Au final, il y aura des riches, disposant d’une plus grande puissance de calcul et donc capables de vivre leur vie virtuelle bien plus rapidement, tandis que des « pauvres », beaucoup plus lents, se trouveront de plus en plus éloignés des centres d’activité de la société…

Tout cela paraît très éloigné de nos préoccupations courantes comme le bitcoin ou Ethereum mais c’est bel et bien au sein de la mailing liste extropienne que se sont développées les premières spéculations menant à ces nouveaux concepts. De fait, dès la fin des années 90, les thèses de Nick Szabo sur les « smart contracts » sont abondamment discutées au sein des milieux futuristes et extropiens. Du reste, comme le rappelle Giulio Prisco dans un article sur « les racines extropiennes du bitcoin », Nick Szabo lui-même participa à une conférence de l’Extropy Institute.

Un des participants les plus actifs des listes à l’époque se nommait Hal Finney. C’est ce même Hal Finney qui allait être le « bénéficiaire » de la première transaction bitcoin effectuée par Satoshi Nakamoto. De là à supposer que le mystérieux créateur du bitcoin était lui-même membre du mouvement extropien il y a un pas, qu’il nous est malheureusement impossible de franchir ! Finney lui-même a été soupçonné d’être Satoshi Nakamoto, ce qu’il a toujours nié. Et on n’en saura pas plus, car malheureusement Hal Finney est décédé en 2014 de la maladie de Charcot. Son corps a été cryogénisé par la société Alcor.

Rémi Sussan

Catégories: Veille et actualités

De la matérialisation des données

mar, 05/09/2017 - 07:00

Paul Dourish (Wikipedia, @dourish) a signé au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une manière un peu cavalière par « La substance de l’information »), un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? Pour le professeur d’informatique et anthropologue, les arrangements matériels de l’information, c’est-à-dire la manière dont elle est représentée, dont elle est façonnée, dont on peut l’utiliser, ont une importance significative dans notre rapport à l’information. Comme le soulignait le philosophe Donald Schön, le design reflète notre conversation avec les matériaux. Dourish regarde comment le numérique impacte désormais nos modalités d’usage. Pour lui, « les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit ». A la suite par exemple de Lev Manovich, il souligne combien la base de données est devenue la forme culturelle majeure du XXIe siècle (après le roman au XIXe et le film au XXe siècle).

Dourish prend de nombreux exemples pour explorer son idée. Il développe longuement par exemple les différentes façons de représenter une même image au format numérique, en observant les multiples manières de la coder : une image peut-être effectivement une image, mais également peut-être produite par un programme ou une itération. Reste que même dans le programme, des choses échappent à la représentation, comme ce peut-être le cas par exemple de la vitesse d’exécution d’un programme pour représenter cette image ou de la taille de la mémoire de l’ordinateur utilisé. Un programme est une série d’instructions, mais l’expérience qui résulte de son exécution, elle, n’est pas spécifiée par le programme. Or, bien sûr, la manipulation de cette image sera très différente selon la manière dont elle est codée. C’est bien à cette relation entre les formes et les possibilités que permettent les matériaux numériques que s’intéresse Dourish. Comment leurs affordances, c’est-à-dire leurs propriétés relationnelles, façonnent-elles nos pratiques ?

Du rôle du tableur dans les organisations

Dans son livre Dourish évoque longuement un exemple significatif qui permet de mieux saisir là où il souhaite nous emmener, ce qu’il estime qu’il nous faut désormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events » des réunions organisées autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events », plus anciens et plus documentés, qui sont des rencontres organisées autour de la présentation de documents projetés qui forment l’essentiel des réunions ou des conférences professionnelles – voir notamment « Les transformations de l’écosystème de l’information dans le monde du travail » ou « PowerPoint, voilà l’ennemi ! »).


Image : Exemple d’un « spreadsheet event » tiré d’un blog local américain – qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.

Les réunions spreadsheet ne sont pas vraiment des réunions Tupperware : ce sont des réunions de travail autour d’un écran qui projette un tableur dont l’accès est parfois partagé. Souvent utilisé pour travailler de manière collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer récemment Bjarte Bogsnes), le tableur est utilisé pour une multitude de raisons. C’est à la fois un artefact de coordination et d’archivage des décisions prises lors de l’événement. Dourish rappelle d’ailleurs l’importance de l’enchevêtrement des organisations et de leurs systèmes d’information : combien les « workflows » encodent les procédures, les processus et les règles d’organisation. Cet exemple permet à Dourish de poser des questions sur comment nos outils façonnent nos usages. « Comment la matérialité d’un spreadsheet – à la fois outils interactifs et systèmes de représentation – modèle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de règles, de limites, de possibilité ou d’opportunités ? » Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?

Dourish souligne d’ailleurs la complexité d’action que permettent ces tableurs qui sont à la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-à-dire que certains contenus ne sont pas fixés, mais calculés selon des formules via des données pouvant provenir d’autres cellules ou d’autres tableurs ou bases de données. C’est en cela que, malgré leur sécheresse apparente (des listes de chiffres le plus souvent), ces outils se révèlent commodes pour rendre visibles de la complexité comme du détail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des données ne sont pas calculées), ils permettent, alors qu’ils ne sont pas conçus pour cela, de générer de la planification d’activité ou de la priorisation d’activité, tout en facilitant le partage et d’information et de données.

Dourish insiste également sur les limites de ces outils (par exemple, la difficulté à manipuler des blocs non contigus) ou leur potentiel (la possibilité d’ajouter des données et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide à la réunion : il révèle l’organisation elle-même, les participants discutant des données cellule après cellule, colonne après colonne… Le tableau spécifie ce qui est à l’ordre du jour et écarte tout ce qui n’apparaît pas sur le tableur. La distinction entre les données joue souvent comme une séparation des responsabilités – ce qui pose d’ailleurs des questions sur les responsabilités qui relèvent de ce qui n’est pas sur le tableur ou de ce qui est à l’intersection des données ou de leur calcul.

Dourish souligne aussi qu’il faut distinguer différents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnée est une donnée directe – inscrite – ou dérivée, c’est-à-dire calculée – c’est-à-dire si un chiffre est un nombre ou le résultat d’une formule. Si le rôle du tableur semble de faire ressembler les données à un document papier où toutes les valeurs auraient le même statut, il faut saisir que ce n’est pas le cas, puisque ces données sont éditables et calculables, recomposables… Il souligne par là comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas été conçu pour être le pilote de réunions. Si le côté dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalités, comme le fait de ne pas pouvoir faire de recherche sur une donnée résultant d’un calcul dans un très grand tableau.

Enfin, il montre également que cet enregistrement d’activité est également un enregistrement d’accord : l’important devient ce qui est noté dans le tableau et non pas la discussion ou le calcul qui conduit à inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgétisation s’impose par reproduction. « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. » Ces outils encodent et fixent des relations à la fois dans le tableur lui-même (cette cellule doit toujours être la moyenne des chiffres de cette colonne) comme entre les entités que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours être le résultat de tel autre…).

Le développement de l’usage de ces outils, malgré leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les données d’être toujours à jour et de réaliser ce qu’ils énoncent. « L’usage de formules est une façon de montrer que le tableur continuera à faire son travail, même si son contenu change : c’est un moyen de produire de la stabilité dans une forme qui ne l’est pas. » Ces réunions qui consistent à éditer et mettre à jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’être les réunions powerpoint, mais bien de la délibération et que le document qui fixe la réunion n’est pas seulement produit, mais transformé par la réunion elle-même. Si les tableurs détrônent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexité des données et des interactions entre elles. S’ils détrônent le tableau blanc, c’est parce que les tableurs ont une vie avant et après la réunion, d’une certaine manière qu’ils doivent être vivants, dynamiques… Enfin, note encore Dourish, contrairement à ce qu’on pourrait penser, la plupart de ces séances utilisent un tableur non connecté à l’internet. Alors qu’un document partagé en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrôle qu’une seule personne ajuste selon les discussions.

Des conséquences de la matérialité du numérique sur nos usages

Cet exemple illustre assez bien l’ambition de Dourish. « Explorer comment le calcul devient un objet avec lequel les gens doivent lutter »… Comment le calcul façonne la forme des objets numériques, contraint nos interactions humaines elles-mêmes et créent de nouvelles structures d’interaction qui ne sont pas seulement numérique ou qui rétroagissent au-delà de leur caractère numérique ? L’exemple des tableurs et des bases de données pour la coordination de groupe montre comment les organisations passent d’une forme linéaire, narrative, à des formes profondément relationnelles. « La base de données est à la fois une forme de représentation et une forme effective ».

Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment à cerner les enjeux de la matérialité de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour être facilement compréhensibles.

Reste que l’analyse qu’il livre sur comment les bases de données façonnent désormais le monde matériel – et inversement – pointe bien sûr leurs limites : « Si les organisations ne peuvent agir que sur les données dont elles disposent, alors les limites de leurs bases de données deviennent leurs contraintes d’action sur le monde. » Or, dans ce qui est projeté lors de ce type de réunion, les bases de données et les données demeurent bien souvent l’objet caché… La matérialité du numérique a donc des conséquences sur la façon même dont on communique, on partage et se connecte.

Comme il le souligne en conclusion, « les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres…(…) tout comme les systèmes numériques indo-arabes et romains, différentes représentations impliquent différentes conséquences pour les sortes de choses que l’on peut faire avec. » La rhétorique du « virtuel » suggère que le numérique serait indépendant des configurations et contraintes matérielles qui pèsent sur lui. Or, si le numérique dépend de grandes infrastructures matérielles, le numérique impose en retour des contraintes matérielles à ceux qui les utilisent. Les objets numériques ont des particularités propres et les systèmes de représentation qu’ils déterminent ont des manifestations directement matérielles. Et Dourish d’en appeler à mieux comprendre à la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier à le dire, à signaler les limites des intentions dans la production des systèmes numériques et leurs détournements ou leurs bricolages. Pour lui, il est nécessaire de prendre au sérieux la matérialité du numérique. Cette matérialité explique-t-il encore relève le plus souvent d’une « traduction », du passage d’une représentation à une autre. Bien souvent, on néglige l’aspect matériel de ces transformations, alors qu’elles sont éminemment importantes, comme le soulignait déjà Frédéric Kaplan en s’intéressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue à une autre. Il invite d’ailleurs à parler plutôt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformée en signal électrique par l’usage du téléphone et réassemblé en sons à la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indépendant de ses manifestations matérielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur désormais que l’astronomie ne concerne les télescopes« , disait le mathématicien Edsger Dijkstra), qui invite à refonder la science informatique en s’inspirant du Manifeste pour la pensée computationnelle (.pdf) de Jeanette Wing qui invitait déjà à changer de mode de pensée. Une conclusion hélas un peu convenue.

On aurait aimé que Dourish, plutôt que de se perdre parfois dans la dissection de la matérialité du réseau, évoque les succédanés de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systèmes de visualisation de données, prolongent les effets qu’il pointe avec les « spreadsheets events ». On aurait aimé qu’il souligne d’autres exemples de simulations numériques, de virtualisation de la réalité (à l’image des bombes nucléaires américaines qui continuent d’évoluer alors qu’aucune n’est testée en situation réelle, mais uniquement par simulation numérique ce qui implique que leurs limites reposent désormais plus sur les capacités de calcul que sur leur niveau de radioactivité) en s’intéressant par exemple plus avant aux contraintes qu’imposent les formes de modélisation à la réalité. La conception d’armes nucléaires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingénieur. La réalité est façonnée par la modélisation que nous faisons du monde. D’où la nécessité de s’y intéresser toujours plus avant. De regarder toujours avec acuité l’enchevêtrement toujours plus complexe du numérique au reste du monde et sa matérialisation.

Hubert Guillaud

La question du rôle de la donnée, de son potentiel et de nos interactions avec elle sera au cœur de la 2e édition de la Data Literacy Conference organisée par la Fing – éditeur d’InternetActu.net – les 22 et 23 septembre 2017 à Aix-en-Provence. Paul Dourish ne fait pas parti des invités… mais bien des sujets qui y seront abordés permettront de mieux comprendre ce que façonne notre nouveau rapport aux données. Inscrivez-vous !

Catégories: Veille et actualités

Pages