Internet Actu

S'abonner à flux Internet Actu
Pour comprendre ce que notre rapport à la technologie transforme
Mis à jour : il y a 18 min 52 sec

Le dual n-back augmente bien la mémoire de travail

jeu, 02/11/2017 - 11:30

Cela fait maintenant plusieurs années qu’un exercice cognitif, le dual n-back – qui consiste à être soumis à des stimulis visuels et auditifs pour voir s’ils se répètent – possède la réputation d’être le seul type d’entraînement capable de réellement augmenter certaines capacités cognitives. Cela a même été confirmé chez des enfants… Et la nouvelle étude de la John Hopkins University va dans le même sens…

Dans cette expérience, les chercheurs ont avant tout cherché à comparer deux exercices d’amélioration cognitive bien connus : d’un côté le dual n-back, donc, et de l’autre le « complex span », une tâche qui consiste à se rappeler de différents éléments alors que des distractions empêchent le joueur de se concentrer.

Les chercheurs ont donc utilisé trois groupes : l’un utilisant le dual n-back, le second le « complex span » et le troisième bien sûr faisant office de groupe témoin et n’ayant rien à faire de spécial.
L’équipe a tout d’abord mesuré, grâce à des tests cognitifs et l’EEG, les caractéristiques mentales de chacun des participants. Ensuite, ceux-ci ont eu un mois pour s’entraîner avec la tâche qui leur avait été assignée, à raison d’une séance de 30 minutes 5 fois par semaine.

Le résultat a été largement en faveur du dual n-back : les participants ont montré une augmentation de 30 % de leur mémoire de travail, par rapport à ceux qui avaient pratiqué le « complex span ». De plus, les usagers du n-back ont montré un accroissement de l’activité du cortex préfrontal après ce mois d’entraînement. Le cortex préfrontal est corrélé à nos capacités de décision et de planification.

Reste à comprendre ce qui se passe vraiment, et pourquoi cela marche. Sur ce point, on est encore largement dans le noir.

Pour le docteur Susan Courtney, co-auteure de l’étude :
« La plus grande leçon à retenir, c’est que l’entraînement intensif renforce la cognition et le cerveau, mais nous ne comprenons toujours pas pourquoi ni comment… nous ne pouvons pas nous précipiter sur un jeu vidéo et espérer que cela guérira tous nos problèmes cognitifs. Nous avons besoin d’interventions plus ciblées. »

Catégories: Veille et actualités

Facebook est-il devenu incontrôlable ?

jeu, 02/11/2017 - 06:00

Courrier international (@courrierinter) a eu la bonne idée de traduire l’excellent article de Max Read (@max_read) pour le New York Magazine (@NYMag) qui montre comment FB échappe à son créateur. A l’heure où FB est sommé de s’expliquer devant le Congrès américain sur les ingérences publicitaires russes dans l’élection de Donald Trump, Read décortique les publications de Mark Zuckerberg où il a présenté les enjeux de FB pour mieux en souligner les contradictions. Ainsi, remarque-t-il, quand Zuckerberg annonce qu’il va rendre les publicités politiques plus transparentes, l’entreprise présente ses nouveaux outils marketing permettant de cibler les utilisateurs de FB passant en magasin pour mieux les harceler de publicités.

Read pointe une à une les contradictions de l’ogre FB, qui assure, désormais, comme le ferait un État ou une Organisation non gouvernementale, « veiller à garantir l’intégrité des élections ». John Lanchester pour la London Review of Books (LRB) rappelait très bien dans un article au vitriol, que derrière les belles annonces promotionnelles visant à « connecter le monde entier », FB était d’abord conçu pour récupérer des données sur les utilisateurs et les vendre à des annonceurs. Pour Lanchester, Facebook est « sans boussole morale ».

Pour Read, la tournée de Zuckerberg à travers les États-Unis ressemble plus à une introspection qu’à une précampagne présidentielle : elle reflète plus les hésitations de Zuckerberg face au fléau des Fake News et à la démultiplication des dénonciations de l’inaction de FB face aux problèmes qui minent le réseau social. L’un des rares engagements de FB pour contrer la désinformation, à savoir le lancement d’un outil de vérification des faits, lancé en mars 2017 à titre expérimental avec des médias, présenté comme une arme décisive dans cette lutte, se révèle inutile. C’est en tout cas ce que souligne une étude de l’université de Yale, relayée par Policito qui montre que pour les utilisateurs, tout ce qui ne serait pas tagué comme fausse information serait par défaut véridique. Pas sûr que ce soit une solution pour améliorer le discernement effectivement (voir « Bulle de filtre et désinformation : Facebook, une entreprise politique ? » et « Peut-on répondre à la désinformation ? »).

L’échec de cette tentative d’autorégulation, redonne de la valeur au fait d’agir sur le modèle économique même de FB pour remédier au problème, comme le soulignait Quartz.

L’enquête du Congrès en tout cas change la donne. Non pas que les 100 000 dollars de publicités achetés par le gouvernement russe aient vraiment pu changer la donne (cela aurait été circonscrit à 3000 annonces ayant touché environ 10 millions d’Américains – bien moins que les millions de dollars dépensés par les candidats Américains eux-mêmes en publicité sur les réseaux sociaux), mais elles montrent que l’autorégulation dont se glorifiait FB ne fonctionne pas. Read rappelle que FB a d’abord nié avoir vendu de la publicité aux Russes, avant de le reconnaître, puis de dire au Congrès qu’il ne pouvait pas révéler plus d’information, avant d’obtempérer et de livrer des données face à la menace d’un mandat de perquisition. Pour Tim Wu (@superwuster), professeur de droit à l’université de Columbia et auteur des Marchands d’attention, la solution est d’obliger FB à lever le voile sur ses pratiques publicitaires et d’interdire l’achat de publicité à caractère politique par un gouvernement étranger. Au Congrès, les démocrates souhaitent que les publicités en ligne soient désormais encadrées. D’autres aimeraient même imaginer un démantèlement sur le modèle de Bell, sans savoir très bien comment diviser l’empire FB. Ce qui est sûr, souligne Tim Wu, c’est que FB profite d’un environnement très très peu réglementé.

Et Read de conclure en rappelant un épisode assez oublié de FB : celui où, entre 2009 et 2012, les internautes pouvaient voter pour faire évoluer la politique du site. Peu le faisaient, le système favorisait plutôt la quantité que la qualité des contributions… ce qui explique que FB l’a donc abandonné. Reste que c’était peut-être encore une époque où FB était à l’écoute de ses utilisateurs. « FB était devenu trop grand, et ses membres trop complaisants, pour la démocratie », conclut Max Read.

En attendant, devant la commission du Congrès, FB a concédé qu’elle devait faire des efforts pour mieux identifier les annonceurs, ses vrais clients, ceux dont nous sommes le produit, rapporte Le Monde.


Image : Buzzfeed vient de publier une infographie montrant comment FB divisait ses utilisateurs Américains en 14 segments politiques issus de 5 grandes tendances, pour les proposer aux annonceurs politiques (une segmentation qui ne serait plus disponible aux annonceurs actuellement, mais qui l’a été durant la campagne présidentielle américaine).

MAJ : Le New York Times, quant à lui, a invité plusieurs experts à donner leur avis sur comment réparer FB. Pour Jonathan Albright, directeur de la recherche du Tow Center for Digital Journalism de l’université de Columbia, FB ne devrait pas prioriser les réactions dans le fil d’information et limiter la recommandation émotionnelle. Pour Eli Pariser, l’auteur de la Bulle de filtre, Fb devrait s’ouvrir aux chercheurs et changer ses critères de mesure pour mieux prendre en compte l’impact de l’information sur le temps long. Ellen Pao de Reddit, elle invite les dirigeants de FB à introduire de la diversité dans son équipe et à se doter de principes d’ordre journalistique. Quant à Tim Wu, il invite FB à devenir une ONG.

Catégories: Veille et actualités

L’art de la mémoire : de la technique mnémonique à la création du fantastique ?

mar, 31/10/2017 - 06:00

On a déjà parlé plusieurs fois de l’art de la mémoire dans nos colonnes : ne s’agit-il pas de la première technique d’amélioration mentale ? Officiellement, l’art de la mémoire est né au sein de la civilisation gréco-romaine. Mais cette vision est peut-être bien trop eurocentrique… Dans un article fascinant pour la revue Aeon, Lynne Kelly (blog, @lynne_kelly) nous présente quelques techniques « d’art de la mémoire » utilisées par les populations de chasseurs-cueilleurs du monde entier. Cet article reprend bon nombre d’idées qu’elle expose dans sont récent et passionnant ouvrage, The Memory Code.

L’incroyable mémoire des Anciens

Ce qui caractérise un grand nombre de civilisations traditionnelles, explique-t-elle, est la prodigieuse mémoire possédée par leurs Anciens. Ainsi, nous rappelle-t-elle, les Navajos sont-ils capables de se remémorer jusqu’à 700 insectes avec leur aspect, habitat, leur comportement… et les Mangyans des Philippines seraient en mesure de reconnaître 1625 plantes différentes, dont certaines inconnues de la science occidentale.

Et bien entendu, leurs connaissances vont bien au-delà des insectes ou des plantes. Les Anciens de ces peuples seraient capables d’accomplir les mêmes exploits de mémoire dans tous les domaines de leur environnement…

Mais l’art de la mémoire des peuples premiers est assez différent – et plus complexe – que celui des orateurs de l’Antiquité ou des penseurs de la Renaissance. D’abord, il est multimédia : il implique chant, danses et histoires mythiques variées. Ensuite, le « palais de mémoire » n’est autre que l’environnement dans lequel vivent ces populations. C’est en se déplaçant au sein de leur milieu naturel que les « anciens » de ces tribus sont capables de réactiver leurs connaissances liées à des lieux précis. C’est ainsi que procèdent les aborigènes avec leurs « pistes de chant ».

« Une piste de chants, nous dit Kelly, est une séquence d’emplacements, pouvant, par exemple, inclure les roches qui fournissent les meilleurs matériaux pour les outils, ou un arbre important ou un trou d’eau. Ces pistes sont beaucoup plus qu’une aide à la navigation. À chaque emplacement, un chant, une histoire, une danse ou une cérémonie sont exécutés, et seront toujours associés à cet emplacement particulier, physiquement et en mémoire. Une piste de chants constitue donc une table des matières pour l’ensemble d’un système de connaissances, qui peut être consultée en mémoire et physiquement. »

Certaines de ces pistes de chant peuvent couvrir des distances de plus de 800 kilomètres…

Il existe, grosso modo deux espèces de « palais de mémoire ». Les grands, qui reposent sur des lieux, et des « micro-espaces », de petits objets qui reproduisent de manière miniaturisée les plus grands palais… En Afrique, on trouve le lukasa, une planchette de bois incrustée de petits objets, auxquels l’utilisateur associe diverses informations, comme souvent les noms des grands rois et dynasties. Selon Kelly, « Des chercheurs ont affirmé que les « hommes de mémoire » de la société Mbudye passaient des années à apprendre un vaste corpus d’histoires, de danses et de chansons associées aux perles et coquillages attachés à un morceau de bois sculpté ».

Un tel savoir n’était pas seulement utile, il était politique, nous explique Lynne Kelly dans son livre. Dans les petits groupes de chasseurs-cueilleurs, la distinction par la richesse ou le leadership par la force physique n’existent pas. Tous les membres de la tribu sont à peu près à égalité. Les seuls à détenir une vraie forme de pouvoir, ce sont les Anciens qui par leurs chants, leurs mythes connaissent les méthodes de survie du groupe. C’est d’ailleurs le titre de sa thèse : When Knowledge Was Power (Quand la connaissance était le pouvoir).

La connaissance des chants était un savoir ésotérique, transmis à peu d’individus, explique-t-elle. La raison en est double. Tout d’abord, cela permet bien sûr de conserver le pouvoir entre quelques mains, mais surtout, les histoires ne peuvent subir aucune déformation ou perdre des informations qui pourraient s’avérer vitales. Il et amusant de constater que la fameuse société de la connaissance, envisagée par certains comme un objectif de notre civilisation technique, aurait déjà existé dans un lointain passé !

Le monde dans son jardin

Les performances des Anciens nous paraissent incroyables. Lynne Kelly a voulu passer à la pratique. Ce qu’elle raconte dans son livre The Memory Code.

Elle a utilisé comme théâtre de ses pistes de chants sa propre maison, son jardin et l’environnement immédiat. Elle y a stocké diverses formes d’information, par exemple la liste des pays, classés par ordre de population. Les 120 premiers pays sont « placés » dans sa maison et son jardin ; les autres sur la route qu’elle prend quotidiennement pour se rendre à la boulangerie. Elle a également fabriqué des « micro-espaces de mémoire », un à la semblance d’un lukasa, d’autres étant des jeux de cartes ou de tarots.

Au final, elle a été convaincue par l’efficacité de ces pratiques. Elle n’était pas satisfaite des ouvrages contemporains de mnémotechniques, qui vous apprennent comment mémoriser les décimales de pi, ou l’ordre des cartes dans un jeu… Elle cherchait quelque chose de plus fondamental, des « méthodes pour mémoriser l’information qui me donneraient, écrit-elle dans The Memory Code, la capacité d’avoir une plus large représentation du monde qui m’entoure…Je voulais mémoriser des connaissances d’une manière qui améliorerait la vie quotidienne ».

Un souhait que la mise en pratique des ces techniques « archaïques » lui a permis de réaliser :
« Les diverses techniques s’intègrent et se mélangent entre elles, et se nourrissent mutuellement, créant un moyen incroyable de mémoriser pratiquement n’importe quoi. Ma pensée devient plus dépendante des images et des émotions et moins des mots. » Lynne Kelly précise aussi à plusieurs reprises qu’un tel mode de connaissance, non linéaire, est très difficile à décrire aux esprits contemporains, ce qui explique que les représentants de ces peuples chasseurs-cueilleurs aient eu du mal à présenter leur méthode aux visiteurs occidentaux, qui souvent ne saisissaient pas le caractère hautement utile et pragmatique de ces chants, danses, ou cérémonies.

La génération du fantastique

C’est une pratique qui était déjà décrite par les artistes mémoriels de l’Antiquité et de la Renaissance : pour frapper l’esprit, les images mentales utilisées pour se souvenir gagnent à être grotesques, inquiétantes, érotiques, etc. C’est pourquoi l’art de la mémoire est associé à la culture de l’imagination. La production d’univers surréalistes est la conséquence directe de cette pratique. La chose a déjà été remarquée par la grande spécialiste du sujet, Frances Yates, et surtout par l’historien des religions Ioan Couliano, auteur de Eros et magie à la Renaissance, qui établit directement un lien entre les techniques mnémotechniques et les croyances magiques et alchimiques.

Cette intrusion du fantastique, du mythologique, Lynne Kelly a pu aussi le constater. Elle a par exemple essayé de retenir les noms de l’ensemble des oiseaux vivant dans sa région. Pour ce faire, elle a créé des images et des pistes de chants, dans lesquelles lesdits oiseaux prenaient souvent des formes humanoïdes possédant certaines caractéristiques propres aux animaux qu’ils étaient censés représenter.

« J’ai découvert que les personnages de mes histoires, bien que possédant des noms d’oiseaux, restaient très humains et très peu aviaires, tant que je n’avais pas observé des spécimens en liberté. Puis les personnages commencèrent à devenir en partie oiseaux, en partie humains, comme c’est souvent le cas avec les personnages des histoires indigènes. Le Chevalier stagnatile se remarque par de longues jambes, c’est pourquoi Marsha (jeu de mots sur le nom anglais de l’oiseau, « marsh sandpiper », ndt) est devenue une superbe fille aux longues jambes ».

« Au final, affirme-t-elle, mes histoires devinrent de plus en plus mythologiques, mais l’information dont j’ai besoin est toujours restée disponible… Parfois elles pénètrent dans mes rêves. Tout cela est arrivé naturellement. Je ne l’ai pas planifié. Mes histoires se sont mises spontanément à rappeler les nombreux récits indigènes que j’avais lus ».

La production d’images étranges peut également être générée par la superposition, au sein d’un même espace de mémoire, de plusieurs catégories de connaissances diverses. C’est d’ailleurs une question qu’on se pose spontanément, lorsqu’on entend parler d’art de la mémoire. Peut-on utiliser un même palais plusieurs fois ? Ne risque-t-on pas de s’emmêler les pinceaux ? Autrement dit, lorsque Lynne Kelly utilise sa maison et son jardin pour « enregistrer » les pays par ordre de population, peut-elle utiliser ces emplacements à d’autres fins ou ces lieux sont-ils « grillés » ? En fait, elle l’a fait et non, cela ne l’a pas embrouillé. Cela a même renforcé la force des images. Dans un de ses « micro-espaces de mémoire » elle a stocké sur un même jeu de cartes les « Ancêtres » (c’est-à-dire des personnages célèbres de l’histoire) et divers sites archéologiques. Ainsi, une même carte en est venue à représenter à la fois Sigmund Freud et la grotte de Lascaux. Ce qui a fait naître dans l’esprit de Lynne Kelly l’image d’un Freud psychanalysant les artistes anonymes de Lascaux. « Je ne confonds jamais les images de Lascaux et celles d’Altamira, explique-t-elle, car seul l’art pariétal de Lascaux a pour guide Sigmund Freud ».

Si cet aspect « fantastique » de l’art de la mémoire a souvent été souligné, Lynne Kelly est peut-être celle qui en fait le compte-rendu le plus précis, le plus convaincant. Et ce d’autant plus que Kelly (contrairement à une Frances Yates ou un Ioan Couliano) ne se passionne guère pour les aspects « religieux » ou mystiques de ce genre de pratique ! C’est une pure pragmatique, qui s’interdit, dans son livre comme dans sa thèse de faire référence à des concepts comme le chamanisme, ou à des éléments de croyances religieuses ; elle est intéressée avant tout par la manière de stocker et communiquer des informations indispensables à la survie. Et pourtant, dans sa pratique, sans qu’elle l’ait cherché, des éléments de fantastique, de mythologique, se produisent spontanément, et une nouvelle approche cognitive du monde se déploie.

La grande hypothèse de Lynne Kelly, qui dépasse largement le cadre de cet article, serait que ces « palais de mémoire » seraient à l’origine d’un bon nombre de monuments du lointain passé, comme les grands complexes mégalithiques des pays celtiques, les statues de l’île de Pâques ou les lignes de la Nazca. Ces structures qu’on a trop souvent l’habitude de désigner simplement comme des « lieux sacrés » sans chercher d’explication supplémentaire, auraient été construites par des peuples en voie de sédentarisation, quittant le mode de vie nomade chasseur-cueilleur pour celui des agriculteurs et des éleveurs. Ces gens auraient alors codé dans ces structures monumentales le savoir qui autrefois était associé à des points précis de leur territoire de chasse et de migration, afin d’assurer sa pérennité.

Je n’ai pas les compétences pour avoir un avis sur cette hypothèse. Mais de toute façon, simplement par la présentation des techniques anciennes de mémoire et la mise en valeur d’un autre mode d’acquisition des connaissances, plus émotionnel, imaginatif et moins verbal, The Memory Code m’apparaît comme un nouveau classique sur ce sujet, à mettre aux côtés du fameux livre de Frances Yates sur l’Art de la mémoire, qu’il complète admirablement.

Rémi Sussan

Catégories: Veille et actualités

« Tout est recommandation » : comment Netflix s’est transformé

mer, 25/10/2017 - 07:00

En quelques années, Netflix est devenue la plus grande plateforme de vidéo en streaming par abonnement. Non seulement, elle croule sous les succès (en terme d’abonnements), mais elle ne cesse d’investir sans compter dans des productions originales pour se démarquer des concurrents (les chaînes câblées américaines notamment). Des productions dont la particularité est que leurs modalités ont souvent été imaginées depuis les préférences des utilisateurs de la plateforme. Plus que jamais, Netflix semble faire corps avec son moto : « Tout est recommandation ».

Pourtant, quand on s’intéresse au fonctionnement de la recommandation chez Netflix, force est de constater qu’on n’en sait pas grand-chose. Comme tous les acteurs du numérique : le silence est d’or. La complexité et les modifications incessantes des systèmes rendent l’opacité des fonctionnements de Netflix toujours plus étrangers à l’utilisateur.

En décembre 2015, Carlos Gomez Uribe, alors responsable de la personnalisation algorithmique chez Netflix (il est désormais responsable de l’intégrité de l’algorithme du fil d’information de Facebook) et Neil Hunt responsable produit chez Netflix, ont publié l’un des rares articles de recherche disponible sur le fonctionnement de la recommandation chez Netflix. Sans dévoiler les secrets industriels des algorithmes de Netflix ni évoquer tous les systèmes qu’utilise la plateforme, l’article montre néanmoins la complexité et l’intrication algorithmique à l’oeuvre.

De la valeur commerciale des algorithmes : retenir l’abonné

Dans leur article, les deux responsables de Netflix soulignent que le temps de séduction est compté : les utilisateurs perdent intérêts dès qu’ils dépassent 60 à 90 secondes à choisir un film, c’est-à-dire dès qu’ils dépassent les 10 à 20 titres proposés (et ce alors que nous avons beaucoup de mal à choisir un film). Et le risque bien sûr, est que si les utilisateurs ne lancent pas un film, ils abandonnent le service. L’article souligne très bien que la rétention de l’abonné est l’obsession des ingénieurs et que le système de recommandation est entièrement dédié à ce seul objectif.

Quand, en 2006, Netflix avait lancé un concours pour améliorer son moteur de recommandation (voir également « Comment améliorer les moteurs de recommandation »), Netflix était encore majoritairement un système qui envoyait des DVD par la poste, et son algorithme de recommandation reposait essentiellement sur les notes que les utilisateurs donnaient aux films. Ce système d’étoiles qui était devenu non plus une notation moyenne, mais une prédiction de l’intérêt que chacun trouverait à un film a d’ailleurs disparu en avril au profit de simples pouces levés ou abaissés, à la Facebook, rapporte Business Insider. Plutôt que de montrer une évaluation entre 1 et 5 étoiles, Netflix propose désormais un pourcentage qui représente la probabilité que vous appréciiez le contenu que Netflix suggère. Reste, comme le pointe Dave Smith de Business Insider, que ce système semble très perfectible, suggérant des contenus pas toujours en phase avec l’utilisateur. Un système binaire ne permettant pas de mettre beaucoup de nuances dans ce qu’apprécient les utilisateurs.

Désormais, Netflix sait tout de ses utilisateurs : ce qu’ils regardent, quand, la manière dont ils le regardent, l’intensité de ce qu’ils regardent… Et surtout la façon dont les utilisateurs trouvent ce qu’ils regardent. Autant de données qui ont permis d’améliorer le système de recommandation qui semble ne plus du tout reposer sur les films qui sont les mieux notés par les utilisateurs, mais plutôt sur de nouvelles métriques comme « l’efficient catalog size » qui tente de mesurer la quantité de visionnage que produit chaque vidéo du catalogue.

Reste que depuis le concours pour améliorer son moteur de recommandation, Netflix n’avait pas divulgué grand-chose de son fonctionnement. On avait appris au détour d’une enquête réalisée par The Atlantic que Netflix produisait des dizaines de milliers de catégories, quasiment à la volée, pour classer ses contenus et affiner sa recommandation (voir également « Les algorithmes sont-ils notre nouvelle culture »). Par exemple : « documentaire criminel afro-américain » ou « romances acclamées par la critique ».

En fait, expliquent les deux ingénieurs de Netflix, le site de vidéo sur abonnement utilise une grande variété d’algorithmes adaptés aux supports des utilisateurs et aux thèmes qu’ils préfèrent.

Les algorithmes de Netflix

Il y a le Personalized Video Ranker (PVR, pour classement vidéo personnalisé) qui commande pour chaque profil un classement personnalisé selon les catégories… et la popularité des contenus (qui, elle, n’est pas personnalisée). Un autre algorithme qui détermine la recommandation et la page d’accueil du service est le Top-N Video Ranker, qui vise à fournir les meilleures recommandations pour chaque profil en se concentrant uniquement les vidéos les mieux classées, valorisant une « tête » de catalogue, c’est-à-dire d’une certaine manière les plus vues. Se combine aussi un autre algorithme de « tendances récentes », car les tendances à court terme sont un autre prédicteur puissant du visionnage. C’est un algorithme qui permet de faire entrer de la considération sociale dans les recommandations, liée à l’actualité par exemple. Un autre algorithme est le Continue watching qui consiste à recommander du contenu selon ce qui a déjà été visionné en prenant en compte le temps écoulé depuis le visionnage d’un épisode ou le point d’abandon des séries… L’algorithme « de similitude vidéo à vidéo », lui, active une recommandation du type : « parce que vous avez regardé » qui fait une recommandation depuis une des vidéos visionnées par un utilisateur. Celui-ci est un algorithme non personnalisé qui pointe vers des vidéos semblables calculées pour chaque vidéo du catalogue. Un autre algorithme encore assure la diversité de la page d’accueil et de la recommandation.


Image : la page d’accueil de Netflix, une orchestration de recommandation algorithmique.

Ces 6 algorithmes forment l’algorithme de recommandation de Netflix, précisent leurs concepteurs, tout en soulignant que bien d’autres encore entrent en compte, comme des algorithmes qui caractérisent la « sélection évidente », c’est-à-dire ceux qui tentent de déterminer ce que l’utilisateur veut vraiment… et qui prend en compte la côte des films, leurs métadonnées (les réalisateurs, acteurs, année de réalisation, prix qu’a remporté un film…) ou celui qui génère des images adaptées de chaque film qui peuvent être différentes selon ces croisements d’informations, afin d’améliorer le lancement d’un visionnage. Enfin, il y a les algorithmes liés au moteur de recommandation (qui compte pour 20 % des recommandations, quand la page d’accueil traite 80 % de celles-ci !). La spécificité de celui-ci, outre le fait de prendre en compte les algorithmes précédents, repose sur sa capacité à faire des recommandations adaptées quand les utilisateurs cherchent des films qui ne sont pas dans le catalogue. Sa spécificité également est qu’il peut faire des suggestions adaptées depuis quelques lettres seulement… Tapez « Fra » et le moteur recommande des films français par exemple.

Tous ces algorithmes reposent sur l’apprentissage machine et l’apprentissage statistique, à la fois supervisé (notamment pour la classification) et non supervisé, soulignent les ingénieurs de Netflix.

De la finalité de la recommandation

La recommandation est au coeur du business modèle de Netflix. Celle-ci a aussi pour but d’aider le système à trouver un public même pour des vidéos de niches. Pour cela, Netflix introduit encore des nouvelles métriques, on l’a vu, comme l’efficient catalog size qui tente de mesurer la quantité de visionnage que produit chaque vidéo du catalogue. Une espèce de time watch à la Youtube qui produit des recommandations liées à chaque film. La personnalisation (PVR) permet de générer une multitude de recommandations et d’éviter que tout le monde se voie recommander les mêmes vidéos, se défendent Carlos Gomez Uribe et Neil Hunt. Elle permet de maximiser l’exploration du catalogue et améliore significativement la recommandation par rapport à une recommandation aléatoire. Mais cette insistance sur la personnalisation semble minimiser le rôle de la popularité des contenus. Selon eux, le « taux de prise », c’est-à-dire le calcul des recommandations qui donnent lieu à un visionnage effectif est nettement amélioré par la personnalisation (PVR) par rapport à la seule popularité des vidéos. Reste qu’elle semble malgré tout limitée. A ce qu’on en comprend, la personnalisation active surtout les multiples catégories, mais pas la popularité des films. Au final, House of cards, l’une des séries phares de Netflix, demeure un des produits les plus recommandés, comme bien des productions maison.

En fait, soulignent les ingénieurs de Netflix, les recommandations améliorées par ces systèmes entraînent une augmentation significative de l’engagement global à l’égard du produit et réduisent les taux d’annulation d’abonnement. Le taux de désabonnement est inférieur à 10 % et une grande partie de ces désabonnements est plutôt liée à des défauts de paiement qu’à un choix volontaire. Pour les chercheurs, l’enjeu de Netflix a été de faire fortement diminuer ces dernières années ce taux de désabonnement. La finalité des algorithmes de Netflix est bien avant tout de retenir le client.

Carlos Gomez Uribe et Neil Hunt estiment encore que ceux qui développent des algorithmes doivent apprendre à faire la part des choses. D’un côté, les clients demandent du choix et des outils de recherche et de navigation exhaustifs, mais de l’autre, cette grande liberté n’est pas nécessairement ce qui fonctionne le mieux. Il est toujours difficile de trouver la meilleure variante d’un algorithme de recommandation et la pertinence apparente n’est pas toujours évidente quand on la confronte à la mesure des résultats. Au final, comme bien des moteurs de recommandation (celui d’Amazon notamment), Netflix cède la pertinence à l’efficacité et à la popularité.


Image : exemple de recommandation liée à House of Cards. La recommandation de la ligne inférieure est plus pertinente, mais elle produit moins de résultats effectifs, c’est-à-dire de visionnages, que de montrer des vidéos qui ont une popularité plus forte, comme c’est le cas de la ligne de recommandation supérieure.

Les deux ingénieurs soulignent que Netflix ne cesse de s’améliorer. En conclusion de leur article, ils pointent une feuille de route de critères à améliorer. Par exemple parvenir à mieux équilibrer les recommandations de contenus selon les formes courtes et longues, alors qu’aujourd’hui, l’algorithme semble plutôt favoriser les séries. Autre objectif : améliorer les recommandations nationales (visiblement, Netflix duplique ses algorithmes par pays où il est présent), notamment dans les pays où un nombre insuffisant de clients rend la recommandation plus difficile, où les langues et sous-titres disponibles ne sont pas toujours dans la langue vernaculaire du pays. Parmi les autres défis à résoudre, les chercheurs estiment qu’il leur faut améliorer les recommandations pour ceux qui découvrent Netflix durant le premier mois gratuit, et ce alors que le système ne les connaît pas. Dans leur article, ils soulignent également des enjeux pour améliorer encore la page d’accueil, mais également la distinction des profils dans les abonnements familiaux (afin que le fait de jouer une vidéo pour son enfant ne vienne pas « polluer » la recommandation pour les parents). Et aussi améliorer la recommandation destinée aux enfants, notamment en prenant en compte d’une manière prédictive leurs changements de goûts avec l’âge.

Un tableau bien incomplet des capacités algorithmiques de Netflix

Si l’article est intéressant, il l’est plus encore par les silences et les non-dits. Rien ne nous est dit par exemple sur le fait que l’algorithme de recommandation de Netflix favoriserait certains films de niches (qui coûtent moins cher à négocier) ou optimiserait ses propres productions plutôt que les blockbusters qu’il achète auprès d’autres diffuseurs et producteurs. On voit bien également que la personnalisation demeure au service des intérêts de l’entreprise : elle reste liée à la popularité et son but, unique, n’est pas tant de vous faire des recommandations pertinentes que de vous faire apprécier le service et y rester.

Au final, Netflix semble en fait assez peu favoriser les films de niche. Zach Sonfeld pour Newsweek se désolait il y a peu de l’inexistence de films classiques dans le catalogue de Netflix. Au moment de son enquête, il n’a compté qu’une quarantaine de films qui datait d’avant les années 70 (le catalogue de Netflix évolue sans arrêt au grès des accords et achats). Alors que le Netflix qui envoyait des DVD était le paradis du cinéphile, le Netflix du streaming, lui, ne l’est plus. Qu’importe si, la conséquence est que ce qui n’est pas accessible en streaming n’existe plus. Par contre, ses algorithmes cherchent assurément à favoriser ses contenus comme le soulignait Wired (voire la traduction de Usbek et Rica) cet été en montrant comment la création d’une série avec des superhéros aux personnalités très différentes les unes des autres, permettaient d’amener des abonnés à regarder ce type de contenus par la recommandation, même si les utilisateurs appréciaient peu les films avec des superhéros. De quoi relativiser les vertus de la personnalisation.

Rien ne nous est dit non plus de bien d’autres usages de Netflix, et notamment de l’utilisation de la recommandation pour initier la production de contenus. Ed Finn (@zonal), directeur du Centre pour la science et l’imagination de l’université d’Etat de l’Arizona, dans son livre What Algorithms wants rappelle d’ailleurs, dans un article pour Slate, un autre usage de la recommandation chez Netflix, absolument pas évoquée par les 2 ingénieurs de la compagnie : la façon dont Netflix a utilisé ses données pour initier des productions capables de plaire à la plupart de ses utilisateurs. Ainsi pour House of Cards, Netflix s’est basé sur le succès de la mini-série éponyme produite par la BBC dans les années 90, le fait que ceux qui l’appréciaient appréciaient aussi les films avec Kevin Spacey, pour produire sa première série. House of Cards, ni nombre des séries qui ont suivi n’ont pas été créées par des algorithmes, comme le souligne Todd Yellin, directeur de l’innovation de Netflix, mais la technologie a permis de choisir une histoire et des composants qui avaient du potentiel.

Derrière l’idéal de personnalisation algorithmique qu’incarne doublement la série House of Cards (dans sa production comme dans son mode de diffusion), il est nécessaire de prendre un peu de recul. House of Cards semble bien plus l’expression de la popularité que de la personnalisation. Et la série phare de Netflix est surtout recommandée différemment à la plupart des abonnés selon de multiples catégories : l’essentiel étant de la leur recommander ! Netflix exploite très bien cela, et a même publié une infographie pour montrer à partir de quel épisode les abonnés avaient tendance à devenir accros à leurs séries. Reste, comme le confiait les gens de Netflix eux-mêmes au Guardian, cette façon de faire n’assure pas la martingale à chaque fois.

Le Binge Watching est-il une conséquence de l’optimisation de la recommandation ?

Le fait de publier toute une saison d’un coup a également permis à Netflix d’impliquer autrement ses abonnés dont les algorithmes bichonnent la fidélité. 2 % des abonnés américains à Netflix ont par exemple visionné l’intégralité de la saison 2 de House of Cards dès le week-end où la série a été publiée. Tant et si bien qu’on peut se demander si le Binge Watching, c’est-à-dire le fait de regarder des épisodes de série en rafale, favorisé à la fois par le lancement automatique de l’épisode suivant et par la publication d’une série d’un coup – plutôt qu’avec un délai entre chaque épisode, comme c’est le cas avec la télé traditionnelle – n’est pas aussi une conséquence de l’optimisation de la recommandation. Si le Binge Watching n’est pas né avec Netflix, comme le souligne un remarquable article d’Inaglobal sur le sujet, mais le fait de publier une saison d’un coup a accéléré le phénomène.

Eric Thurm sur RealLife Mag va plus loin encore. « Plutôt qu’une expansion infinie, mais linéaire de l’écoute télévisuelle, Netflix s’attend implicitement à ce que ses consommateurs s’engagent dans des crises de consommation intenses qui les laissent abasourdis et confus. » Telle est la finalité du Binge Watching : faire que le spectateur s’optimise à la recommandation qu’il reçoit. Et à nouveau, ce qui n’est pas sans conséquence sur les productions de séries elles-mêmes, souligne Thurm. Les saisons se terminent sur des ambiguïtés, comme pour ne jamais se terminer. La plupart des épisodes finaux des plus importantes séries de ces 20 dernières années ouvrent des espaces d’interrogation : comme si le spectacle ne pouvait rester dans la mémoire culturelle s’il était définitif, estime Thurm. A l’heure du streaming infini, les séries doivent pouvoir continuer perpétuellement, à l’image des recommandations que fournit Netflix à tout nouvel abonné pour ses propres séries, même si les premiers épisodes ont désormais 5 à 6 ans… La vie continue des séries nécessite de maintenir les ambiguïtés. La production et la diffusion semblent avoir été toujours liées et Netflix cristallise cette réalité. Pour Eric Thurm, le succès des séries est lié au fait qu’elles vous permettent toujours de vous investir dans une consommation de plus, jamais rassasiée, jamais terminée, toujours recommencée, comme relancée automatiquement, d’un épisode l’autre. Comme si leur finalité était juste de capter le spectateur, indépendamment de tout contenu. L’écoute en rafale est la résultante d’une logique prescriptive que réalisent les algorithmes de Netflix, rappelle la chercheuse Gabrielle Drumond, qui parle « d’usagers configurés » par la personnalisation et la catégorisation algorithmique au service d’une « économie de la jouissance ».

Le « Peak TV » qu’incarne la série aujourd’hui évoque la réalisation d’un marché du divertissement infini. Le but des séries semble désormais uniquement de faire s’investir le consommateur dans sa consommation. Le médium télévisuel génère une vision d’une audience captive permanente. N’était-ce d’ailleurs pas le but affiché par les ingénieurs de Netflix ? Retenir à jamais l’abonné ? Faire que jamais il ne se désabonne ?

Hubert Guillaud

Catégories: Veille et actualités

Les limites du deep learning et comment les dépasser

mar, 24/10/2017 - 07:00

Un très long article de la Technology Review pointe les problématiques actuelles des technologies du deep learning et ouvre quelques portes sur les nouvelles recherches en IA. En fait, l’article est largement consacré à Geoffrey Hinton l’inventeur de cette technologie, et met l’accent sur un point généralement oublié : le deep learning n’est pas une nouvelle technologie, elle est assez ancienne au contraire.

Pourquoi l’IA a besoin du big data
Au centre du « deep learning » se trouve la technique dite de rétropropagation, développée par Hinton dans un papier de 1986. C’est cette méthode qui permet à un programme d’apprendre. Un réseau neuronal est composé de petites unités, les « neurones » qui s’activent lorsqu’elles reçoivent suffisamment d’inputs de la part d’autres neurones pour dépasser un certain seuil. Par exemple nous explique la Technology Review, un tel système peut être utilisé pour reconnaitre la présence d’un hot-dog dans une image.

Au sommet du réseau, nous explique encore l’article, se trouvent par exemple deux neurones, l’un s’activant à la vue d’un hot-dog, l’autre quand on contraire il n’y en pas. On entraine ensuite le système en lui montrant une série d’images, le plus grand nombre possible. Si, une fois en situation, le programme se trompe, s’il voit un hot-dog là où il ne s’en trouve pas, on voit quels sont les neurones de l’avant-dernière couche qui ont activé par erreur le mauvais signal. On change alors leur niveau d’activation. Puis on passe au niveau précédent, l’avant-avant-dernier niveau, pour voir là encore comment de « mauvais » neurones ont été activés, et ainsi de suite jusqu’à la première couche.

C’est en 2012 que Hinton a pu démontrer sa capacité à effectuer une reconnaissance d’images très efficace. Toutefois, comme le précise la revue du MIT, le caractère plutôt ancien du « deep learning » nous conduit à nous interroger sur la signification de son explosion actuelle :

« L’IA aujourd’hui, c’est le deep learning. Et le deep learning c’est la rétropropagation – ce qui est étonnant lorsqu’on pense que cette technique a plus de 30 ans d’âge…. Peut-être ne sommes-nous pas au commencement d’une révolution, mais à sa fin. »

Car, continue le magazine, ces systèmes ne constituent guère une avancée sur la façon dont les machines peuvent comprendre le monde. Ce sont juste des systèmes de reconnaissance de patterns, de schémas.

Un ordinateur qui voit une pile de beignets empilés sur une table et la décrit automatiquement comme « une pile de beignets empilés sur une table » semble comprendre le monde ; mais quand ce même programme voit une fille se brosser les dents et dit «Le garçon tient une batte de baseball», vous réalisez à quel point cette compréhension est faible, si même elle n’a jamais existé.

L’intelligence des machines si toutefois on peut l’appeler ainsi, repose avant tout sur le big data : pour entraîner la machine à reconnaître des hot-dogs, il faut lui montrer des milliers d’images de hot-dogs. Au contraire, un bébé peut reconnaître un hot-dog après en avoir vu un seul.

Le gros problème, c’est qu’on n’a pas de théorie de l’intelligence, nous permettant de comprendre comment elle fonctionne. C’est pourquoi depuis les travaux de Hinton les progrès en IA ont été plus le fait de l’ingénierie (voire, nous dit le magazine, du « bricolage » ) que de la science proprement dite. On ajoute tel ou tel perfectionnement à l’algorithme, et on procède par essai et erreur.

Donner aux machines une connaissance du monde
Comment aller plus loin ? Manifestement le deep learning est insuffisant pour créer une véritable intelligence artificielle, analogue à celle des êtres humains. Autrement dit, comment la doter de « sens commun » ?, une question qui se pose depuis l’invention du domaine en 1956 et qui n’a jamais été résolue.

Une problématique d’autant plus importante lorsque la sécurité physique des personnes est en jeu, comme c’est le cas avec les voitures autonomes. Un autre article de la Technology Review nous présente une startup issue du MIT, ISee.ai qui cherche à s’inspirer des sciences cognitives et donc de la psychologie humaine, pour équiper les futurs véhicules.

La plupart des humains utilisent le sens commun pour conduire, d’une manière qu’un système de reconnaissance de patterns basé sur le big data ne peut égaler, précise l’article : les conducteurs humains « savent, par exemple, que les autobus prennent plus de temps pour s’arrêter et peuvent soudainement produire beaucoup de piétons. Il serait impossible de programmer une voiture autonome avec tous les scénarios possibles qu’elle pourrait rencontrer. Mais les gens sont capables d’utiliser leur compréhension commune du monde, construite à travers l’expérience de la vie, pour agir judicieusement dans toutes sortes de nouvelles situations. »

Mais comment faire ? On sait que les fondateurs de ISee sont issus du labo d’un professeur du MIT, Joshua Tenenbaum, qui travaille sur une technique qui permet d’éviter à la fois l’écueil de la programmation IA traditionnelle, qui repose sur des règles figées et les techniques de big learning qui exigent un entraînement sur des milliers de données. Celui-ci a réussi, en compagnie de deux autres chercheurs, Brenden Lake et Ruslan Salakhutdinov à créer un système logiciel capable de reconnaître un caractère manuscrit après avoir été mis en face d’un seul exemple. La méthodologie impliquée se nomme le Bayesian Program Learning Framework. En gros, si l’on suit cet autre article de la Technology Review, le système génère pour chaque caractère un programme spécifique susceptible de le générer puis infère une série de probabilités pour définir quel sera l’action suivante à accomplir. « La clé de la programmation probabiliste – et plutôt différente de la façon dont fonctionne le deep learning – est qu’elle commence par un programme qui décrit les processus causaux qui existent dans le monde… Ce que nous essayons d’apprendre n’est pas une signature ou un pattern de caractéristiques. Nous essayons d’apprendre à un programme comment générer ces caractères. » Autrement dit on apprend à l’ordinateur à « écrire » le caractère en question pour qu’il puisse le reconnaître. A l’aide de ce genre de méthode, on espère que l’ordinateur sera en mesure d’observer un comportement nouveau, de le subdiviser en sous-parties, puis d’être capable de prédire les résultats d’une action, même si celle-ci se présente pour la première fois. Le but de telles recherches est de deviner l’intention derrière une action, ce qui bien évidemment est vital dans le domaine de la conduite autonome. Dans son labo, Tenenbaum s’intéresse aux mécanismes de la cognition chez les enfants et les adultes, et pas uniquement à l’intelligence artificielle : « Ces deux programmes sont inséparables, écrit-il sur sa page personnelle : rapprocher les algorithmes d’apprentissage automatique des capacités d’apprentissage humain devrait conduire à des systèmes IA plus performants ainsi qu’à des paradigmes théoriques plus puissants pour comprendre la cognition humaine« .

Retour aux sciences cognitives
L’avenir de l’IA dépendrait donc d’un retour aux sciences cognitives, à la psychologie humaine. Si la Technology Review se concentre sur les chercheurs du MIT et assimilés (ce qui est normal vu que ce magazine est une publication du MIT), c’est un sentiment partagé par d’autres membres de la communauté IA ; c’est le cas par exemple de l’auteur et chercheur Gary Marcus, qui écrit, dans un article publié cet été dans le New York Times : « Il n’y a pas si longtemps, par exemple, alors que j’étais assis dans un café, ma fille de 3 ans réalisait spontanément qu’elle pouvait descendre de sa chaise d’une nouvelle manière : vers l’arrière, en glissant entre le dossier et le siège de la chaise. Ma fille n’avait jamais vu quelqu’un d’autre agir de cette façon ; elle l’a inventée seule – et sans le bénéfice d’essais et d’erreurs, ou avoir besoin de téraoctets de données étiquetées. »

Et, continue-t-il, « Je suppose que ma fille s’est basée sur une théorie implicite sur la façon dont son corps se déplace, ainsi qu’une théorie implicite sur la physique – comment un objet complexe passe par l’ouverture d’un autre. Je défie n’importe quel robot de faire de même. »

Pour Marcus, il faut maintenant apprendre à joindre les approches « bottom-up » et « top-down » de l’intelligence : « La connaissance bottom-up, c’est le genre d’informations brutes que nous recevons directement de nos sens, comme des motifs de lumière tombant sur notre rétine. La connaissance top-down comprend les modèles cognitifs du monde et comment celui-ci fonctionne. »

Finalement, ne sommes-nous pas face à un serpent qui se mord la queue ? Pendant des années on a cherché à donner aux machines de tels modèles du monde, à leur enseigner le « sens commun ». Un projet comme Cyc de Douglas Lenat (qui date tout de même de 1984 !) n’avait pas d’autre but. Puis on a abandonné cette voie en faveur des réseaux de neurones, pour découvrir peut-être qu’aujourd’hui on a jeté le bébé avec l’eau du bain.

Rémi Sussan

Catégories: Veille et actualités

Michel Feher : les nouveaux enjeux de la question sociale

jeu, 19/10/2017 - 12:00

Pour Mediapart, Christian Salmon livre une remarquable interview du philosophe Michel Feher qui publie Le Temps des investis, un livre qui invite à réorganiser les luttes sociales en fonction du déplacement du capitalisme vers les marchés financiers. Pour Michel Feher, la financiarisation de l’économie nécessite de repenser la lutte contre le capitalisme et de repenser les enjeux des conflits de classe, qui se déplacent du marché du travail au marché des capitaux.

Nous sommes en train de passer de l’exploitation du travail à l’exploitation du capital, estime Michel Feher. « La stagnation des salaires et la compression des budgets sociaux qui caractérisent notre époque s’expliquent avant tout par l’emprise du capital financier sur les entreprises privées et les États. » Nous sommes passés de l’extraction du profit à l’allocation du crédit. Les protagonistes principaux ne sont plus les employeurs et les employés, mais bien les investisseurs et les « investis » qui sollicitent leurs largesses (les investis, précise-t-il ne sont pas seulement les individus en quête de crédit, mais également les individus « ubérisés » dont le sort dépend des évaluations de son « capital relationnel »). Désormais, nous sommes incités à mener nos vies comme on dirige une entreprise.

« En empruntant pour accéder à la propriété immobilière, en souscrivant une assurance maladie auprès d’un organisme privé ou encore en confiant leur retraite à un fonds de pension, même les individus qui ne sont pas entrepreneurs de profession sont censés apprendre à se conduire comme tels. Comme l’écrit l’ordolibéral Wilhelm Röpke, il s’agit de « déprolétariser » les salariés en les dotant d’une mentalité d’entrepreneur.

Des individus à la recherche du meilleur crédit pour faire valoir leurs maigres capitaux, en passant par les entreprises qui cherchent à optimiser à court terme le cours de leurs actions, en passant par les gouvernements qui cherchent à conforter la confiance des marchés dans leur dette, le monde est devenu financier. Nous sommes passés du marché du travail au marché des capitaux, du produit au projet et de la négociation fixant le prix du travail à la spéculation sur la crédibilité d’un projet.

Pour Michel Feher, « une autre spéculation est possible ! » faite par exemple d’agences de notation citoyennes. Pour lui, les « investis » doivent se former aux techniques de spéculation dont les investisseurs tirent leur hégémonie, « d’apprendre à spéculer pour leur compte, de manière à modifier les conditions d’allocation du crédit ». Pour Michel Feher, il existe déjà de nombreux exemples de contre-spéculations militantes : allant des travaux d’Attac, aux publications de révélations provenant des lanceurs d’alerte sur l’irresponsabilité sociale, financière ou environnementale des entreprises, campagnes de boycott, collectifs d’endettés, contre-expertises sur les dettes publiques, agences de notation alternatives (pour déprécier des projets nocifs et apprécier des projets alternatifs)…

Michel Feher invite à imaginer le modèle organisationnel pour cristalliser ces luttes et les outils pour évaluer en continu et d’une manière alternative et démocratique ces politiques. En nous invitant à déplacer le regard des luttes locales du travail aux luttes globales de la financiarisation, Michel Feher pointe le besoin de construire des alternatives pour observer et déconstruire l’optimisation financière du monde. Férocement intéressant !

Catégories: Veille et actualités

La rencontre en ligne change-t-elle la nature des couples ?

jeu, 19/10/2017 - 07:00

Les sites de rencontre ont incontestablement changé la façon dont les couples se rencontrent (pour le meilleur ou pour le pire). Mais il se pourrait qu’ils influencent également le mariage et sa stabilité, estime une récente étude relevée par la Technology Review. Depuis le lancement de Match.com (né en 1995), OkCupid (en 2000) ou Tinder (2012)… c’est désormais plus d’un tiers des mariages qui commencerait en ligne.

Les sites de rencontres ont changé la façon dont les gens trouvent leurs partenaires. Traditionnellement les liens faibles jouaient un rôle très important dans la rencontre de partenaires : beaucoup de couples se formaient en rencontrant des amis d’amis ou sur des lieux de loisirs (comme les bars et restaurants). Désormais, la rencontre en ligne d’inconnus, qui n’appartiennent pas à des réseaux relationnels existants, est devenue le deuxième moyen le plus commun pour se rencontrer chez les partenaires hétérosexuels (et le premier chez les partenaires homosexuels).

« Les gens qui se rencontrent en ligne ont tendance à être de parfaits étrangers », expliquent les chercheurs responsables de l’étude, Josue Ortega de l’université d’Essex aux États-Unis et Philipp Hergovich de l’université de Vienne en Autriche, créant par là même des liens sociaux qui n’existaient pas auparavant. Les chercheurs ont construit des modélisations qui montrent que le développement de ce type de rencontre pourrait par exemple favoriser le développement du mariage interracial, mais également (sans que l’un soit lié à l’autre) favoriser à terme des mariages plus stables, notamment, comme le suggère la sociologue Nathalie Nadaud-Albertini pour Altantico, parce que ceux qui se rencontrent via ces outils se projettent ensemble dans un avenir commun, sans être influencé par le regard des autres. Les auteurs constatent d’ailleurs que le taux de mariage interracial aux Etats-Unis a progressé parallèlement au développement des sites de rencontre en ligne, notamment depuis le lancement de Tinder, qui compterait 50 millions d’utilisateurs et produirait quelque 12 millions de matchs par jour.

La fin du mariage n’est peut-être plus pour demain

MAJ : Attention cependant, comme le souligne ce très documenté article d’Alternatives Economiques, les rencontres en ligne semblent n’avoir pas d’effet positif sur l’homogamie, c’est-à-dire que « en ligne comme ailleurs, les rencontres amoureuses, loin de pouvoir être réduites à un simple marché, « font appel à des codes, des rituels et des manières de faire » qui continuent de différencier nettement les diverses catégories sociales. »

Catégories: Veille et actualités

Pour un rétro-Design de l’attention

mer, 18/10/2017 - 07:00

La prise en compte de l’expérience utilisateur par les systèmes numériques pose la question de l’attention de ceux qui sont amenés à les utiliser. Comme l’a très bien pointé le designer Tristan Harris dans son article « Comment la technologie pirate l’esprit des gens », les services et produits numériques portent la question de la conception comportementale à des niveaux de sophistication inédits, notamment en s’appuyant sur l’exploitation de nos biais cognitifs et de nos interactions sociales, puissants moteurs d’activation de nos comportements. Il montre comment le design « capte », « accroche » les utilisateurs en stimulant leurs comportements.

Trop souvent, la seule réponse qu’obtiennent les utilisateurs à ces problèmes attentionnels est qu’elle relève de leur responsabilité, alors que des milliers de designers agencent toujours plus finement la frontière entre l’incitation et la manipulation, en façonnant chaque boucle de rétroaction du moindre de leurs outils. Les stratégies d’exploitation attentionnelle que produisent les concepteurs vont devenir de plus en plus visibles à mesure que de plus en plus d’outils vont les utiliser. Elles sont donc appelées à être de plus en plus critiquées, pointées du doigt… voire certainement régulées. En même temps, ces conceptions permettent aussi de les voir agir et nous offrent un outil inédit pour les décomposer, les analyser, les comprendre et agir collectivement sur leurs effets. Cela permet au vaste champ de l’économie de l’attention d’avoir enfin accès à des objets granulaires pour en construire une critique et donc des réponses ciblées.

L’angle du design pour observer l’économie de l’attention que pointe Harris est un levier pour comprendre et déconstruire ce qu’il se passe. Il permet également de reconstruire, de reconcevoir, ce qui a été conçu en pointant précisément les problèmes que cause la conception. Que changerait aux stratégies des concepteurs le fait d’avoir des systèmes attentionnellement respectueux des utilisateurs ? Qui permettent aux utilisateurs de gérer leur attention, de modifier les paramètres qui la façonnent, plutôt que de le faire pour eux ? Qu’est-ce que cela libérerait ? Quels nouveaux services et modèles économiques cela permettrait-il d’imaginer ?

Tel est l’enjeu du nouveau sujet que souhaite explorer la Fing : partir à la recherche de pistes d’innovation pour un design de l’attention responsable.

Il est temps de reprendre un train d’avance sur le rôle des utilisateurs dans l’expérience utilisateur qu’entreprises et institutions façonnent ! De redonner du pouvoir aux utilisateurs !

Révéler l’exploitation de notre attention

« Jamais jusqu’à présent une poignée de gens et d’entreprises n’ont façonné ce que pensent et ressentent 1 milliard de personnes chaque jour par les choix qu’ils font depuis leurs écrans. » – Trisan Harris, « Brain Hacking ».

En entr’ouvrant le monde de la captologie (ces techniques et technologies de la persuasion (du nom de ce laboratoire de l’université de Stanford ouvert en 1997 par BJFrog, héritiers des technologies du conditionnement théorisées par le psychologue BF Skinner, produisant des manuels et recettes de manipulation comme celles popularisées par Nir Eyal dans son livre Accroché : comment construire des produits addictifs…), Tristan Harris a dressé une première liste de « trucs », de secrets, d’astuces, de tours… utilisés par les concepteurs des services numériques qui favorisent – sans qu’on en soit nécessairement conscients – notre propre manipulation.

Autant de moyens utilisés qui expliquent en grande partie comment ces systèmes manipulent nos biais cognitifs, sociaux et comportementaux, comment ces systèmes nous rendent « accros », « dépendants », « compulsifs », « stressés », « anxieux« … Ces outils ne nous permettent pas par exemple de paramétrer nos choix : nous dépendons des objectifs que conçoivent les plateformes pour nous. Ces outils exploitent très bien notre besoin atavique de réciprocité et d’approbation sociale, transformant celui-ci en obligation : on like ceux qui nous likent. Ces outils instrumentent leurs interfaces pour nous faire passer le plus de temps possible dans celles-ci plutôt que de nous donner des moyens pour gérer nos besoins… Ils favorisent l’interruption instantanée pour générer de l’urgence, sans nous permettre de régler ni la cadence ni l’intensité des notifications et alertes… Plus largement, ils posent des questions sur le consentement des utilisateurs et la protection de leurs libertés.

La force du constat de Tristan Harris est de souligner combien dans l’alarme attentionnelle en cours, nous, utilisateurs, ne sommes pas coupables, mais victimes. Notre absence de maîtrise de soi ne relève pas de nos responsabilités quand, de l’autre côté de l’écran des milliers de personnes travaillent à nous faire perdre pied. Pour lui, « il y a un conflit fondamental entre ce dont les gens ont besoin et ce dont les entreprises ont besoin ».


Présentation réalisée pour la conférence Ethics by Design, mai 2017, posant quelques-uns des enjeux du sujet.

Le problème est que ce qui est important pour l’utilisateur est lié à ce qui est important pour l’entreprise : « la machine sur laquelle vous perdez votre temps est aussi celle que vous utilisez pour savoir si votre enfant est malade, vous ne pouvez donc pas l’éteindre ou la laisser derrière vous ». Effectivement, c’est en cela que la réponse par la déconnexion, qui incite chacun à se doter de pratiques vertueuses, oublie que l’hyperconnexion à laquelle nous avons succombé, malgré ses défauts, permet d’abord de nous libérer, de nous mettre en capacité, d’élargir les formes d’interaction sociale auxquelles nous aspirons. Notre hyperconnexion n’est pas une faute morale, mais est d’abord et avant tout un moyen de gagner en autonomie.

Reste que le design, du moins la conception centrée utilisateur, arme désormais notre désir d’autonomie contre nous-mêmes. La captologie est conçue pour nous « rendre volontaires ». Mais elle est, comme le pointait l’anthropologue Stefana Broadbent, un environnement coercitif de plus (après la salle de classe, les espaces de travail ou la maison…), pour contrôler notre attention. A mesure que le contrôle de notre attention se développe dans nos espaces informationnels, nous cherchons les moyens d’y résister pour conserver l’autonomie qu’ils nous offrent. Comme le soulignait le journaliste Alexis Madrigal : « une grande partie de notre connexion compulsive est le symptôme d’un problème plus important, pas le problème lui-même. »

Le numérique impose une transformation massive, industrielle, de nos process cognitifs et de nos rapports sociaux instrumentés par les technologies. De nouvelles formes de contrôle social, d’enfermement, entre l’incitation et la manipulation, entrent en scène. Invisibles, subtiles, anodines… Une « écologie » se met en place, sur laquelle nous avons peu de maîtrise, mais qui nudge, exploite et manipule nos comportements, nos biais cognitifs, nos capacités sociales, notre capital attentionnel… Cette transformation passe par une conception qu’il faut rétroéclairer.

La psychologie cognitive et l’économie comportementale – et notamment Daniel Kahneman – ont souligné combien nous étions psychologiquement et cognitivement sensibles à des erreurs d’appréciation multiples, à une intuition erronée, à une difficulté à décider… à ce que l’on a appelé nos biais cognitifs liés à la surinformation, au manque de sens, à la nécessité d’agir vite ou aux limites de notre mémoire. Notre cerveau semble fait pour être trompé sans que nous nous en rendions nécessairement compte. Nous sommes foncièrement manipulables. La conception des interfaces, l’expérience utilisateur, permet de créer une exploitation massive, industrielle, de ces biais. La fluidité des outils numériques permet de les adapter en permanence aux utilisateurs, de trouver les moyens de les « accrocher », de les « retenir »… d’exploiter et manipuler leurs comportements. « Il semblerait bien que la force de certains conditionnements invisibles logés au sein des programmes numériques soit de plus en plus puissante », comme le note le chercheur Anthony Masure dans sa thèse portant sur « le design des programmes ». Nous sommes désormais cernés de contraintes invisibles et qui s’imposent à nous, qui nous poussent à répondre, à interagir, à nous inscrire dans ce que l’anthropologue Natasha Schüll, l’auteur d’Addiction by Design, appelle « la zone de la machine », ce piège de la conception où le mécanisme lui-même devient le point, le coeur de son objet. Ce design de la dépendance qui nous rend toujours plus vulnérables à des formes de manipulation non conscientes.

Pour un rétro-Design de l’attention : le constat d’un dialogue nécessaire

Le constat que nous tirons de ces évolutions, c’est que les plateformes et les systèmes ne pourront pas contraindre sans limites l’utilisateur contre sa liberté. Qu’après nous être intéressés aux systèmes (via le groupe de travail Nos Systèmes), il nous faut nous intéresser aux interfaces.

Pour Natasha Schüll, nous ne pouvons pas demander aux entreprises qui conçoivent des interfaces qui ont pour but de retenir l’attention des gens, de favoriser « l’engagement », le temps passé dans leurs interfaces… de faire le travail éthique nécessaire, de définir leurs propres limites. C’est certainement à la réglementation de le faire. Les systèmes techniques disposent d’informations très détaillées sur les comportements des gens : ces données peuvent être utilisées pour intensifier l’emprise de ces environnements ou réduire les conduites addictives et compulsives. Tout le problème est de trouver un compromis entre les motivations, stratégies et modèles économiques des entreprises et celles des utilisateurs. Or, les objectifs des entreprises ne poursuivent pas les mêmes objectifs que leurs usagers.

Les interfaces qui calculent ce que les systèmes nous affichent ne sont pas tant optimisées pour personnaliser l’information ou pour améliorer notre propre capacité de traitement, comme on nous le raconte trop rapidement, que pour optimiser leurs propres objectifs. Facebook, comme les autres, vous affiche des informations augmentées de critères sociaux dans le but de vous faire rester le plus longtemps possible sur sa plateforme.Le moteur de recommandation de YouTube n’a pas pour fonction de recommander les meilleures vidéos selon les critères que chacun déterminerait, mais les vidéos sur lesquelles vous allez passer le plus de temps, selon des critères de fraîcheur (une vidéo plutôt récente) et de temps passé (une vidéo plutôt longue sur laquelle vous allez rester parce que d’autres sont restés longtemps sur cette vidéo). D’où le fait que l’interface de YouTube développe ses propres biais, qu’elle soit tout sauf neutre, et qu’elle recommande des contenus plus polémiques que d’autres, comme l’a montré Algotransparency. L’exploitation de notre anxiété, les pages sans fin, les flux infinis, les vidéos qui se lancent toutes seules… n’ont pas pour objectifs de vous fournir des informations qui collent à votre personnalité, mais de produire des calculs depuis notre personnalité pour mieux exploiter les contenus et les propositions que nous font ces services.

Tristan Harris lui-même, qui était designer de l’éthique chez Gmail, a proposé d’améliorer la boîte de réception de Gmail afin que les utilisateurs aient plus de contrôle et d’autonomie sur celle-ci, afin qu’ils puissent en gérer les paramètres pour en améliorer la commodité et leur bien-être. Google ne l’a visiblement pas écouté. Il a lancé Inbox, une évolution de Gmail, qu’il n’a pas réussi à imposer. Il faut dire qu’Inbox n’évacue pas le stress, la fatigue et la charge attentionnelle que génère le courrier électronique. Au contraire. La pratique de l’Inbox zéro, consistant à tenir sa boite e-mail… vide, a valorisé une forme d’hypercontrôle, qui ne permet ni de mieux formuler nos e-mails, ni de mieux maîtriser le temps toujours plus important que nous sommes contraints de leur dédier. L’absence d’accès à des possibilités de réglage et la pratique de l’Inbox zéro nous mobilisent seulement sur la manière dont veulent nous mobiliser les entreprises. En passant à Inbox, Google souligne que son objectif n’est pas le nôtre. Que son modèle reste basé sur des métriques d’engagement et de croissance et qu’elles passent par des formes toujours plus sophistiquées de manipulation des utilisateurs. Pire : plus nous consacrons du temps au courrier électronique plus la perception de sa productivité s’abaisse alors que le stress qu’il génère augmente. Les personnes qui contrôlent leur courrier électronique par des interruptions volontaires ont le sentiment d’avoir une productivité plus élevée alors que le temps de traitement de leur courrier est souvent plus long que ceux qui répondent immédiatement aux sollicitations. L’exploitation de nos biais cognitifs fonctionne à fond. Et nous n’avons pas la main ! Inbox veut nous faire lire tous nos e-mails. Mais est-ce vraiment ce que nous nous voulons ?

Ces évolutions conçues par-devers l’utilisateur pour son plus grand bien l’oublient à mesure qu’elles cherchent à mieux le servir. « Rien pour nous sans nous », clame la règle du co-design, cette conception participative. Nous nous en éloignons. Il est certainement temps de remettre < a href="http://strabic.fr/l-usager-au-pouvoir">l’usager au pouvoir.


Image : Quelques formes d’exploitation de nos vulnérabilité….

Le problème, de surcroît, c’est que la frontière entre l’incitation et la manipulation est poreuse. Pourtant, rappelle la psychologue Liane Davey en observant les interfaces de travail des chauffeurs d’Uber, si l’utilisateur « n’a pas l’option de dire « non », ce n’est pas une motivation, mais une coercition ». En obscurcissant le but et l’existence de ces programmes de motivation ludiques et séducteurs, en supprimant ou limitant la capacité du conducteur à les contrôler ou à les décliner, le système demeure conçu pour maximiser les résultats de l’entreprise au détriment des conducteurs. Pour la psychologue, les interfaces d’Uber ont franchi une ligne rouge visant à « manipuler le comportement même des chauffeurs au service de la croissance de l’entreprise ». Le problème est que ce n’est pas la seule entreprise à avoir franchi la ligne rouge. Et tout l’enjeu est de parvenir à la délimiter à nouveau.

C’est en exerçant un rétro-design, une observation et une analyse des interfaces, c’est-à-dire en observant la manière dont le comportement de l’utilisateur est instrumenté, « rendu productif », manipulé, que nous pourrons comprendre ce qui se trame. C’est en décortiquant les expressions de la captologie que nous pouvons aider les utilisateurs à reprendre la main, à faire une critique qui va permettre de retrouver le sens de l’innovation. Le design doit réengager un dialogue avec l’utilisateur. L’entreprise doit réinterroger son lien avec ses clients. Si l’expérience est au coeur de son offre, alors permettre à l’utilisateur de construire sa propre expérience plutôt que de lui en imposer une, est certainement un nouveau levier d’innovation pour nous permettre de dépasser les limites dans lesquelles les interfaces sont en train de s’enfermer.

La question que posent ces systèmes qui optimisent leur propre optimisation relève bien d’un problème éthique. Quelles formes de régulation imaginer qui soient plus respectueuses de l’attention des usagers, qui les aident à développer leurs propres objectifs plutôt que d’être contraints par ceux qui conçoivent les systèmes pour eux ? Nous avons besoin d’innover depuis d’autres valeurs que la compétition ou la prédation, en privilégiant par exemple l’autonomie, la résilience, la capacitation ou l’empathie. Cette “écologie de l’attention » dont parle Yves Citton, reste à inventer, afin d’ouvrir les paramètres à un meilleur contrôle des utilisateurs… Nous avons besoin d’une innovation centrée sur, pour et par les utilisateurs.

Comment ? Loin de nous d’avoir déjà les solutions, au mieux peut-on tenter d’en esquisser quelques-unes qui mériteraient d’être travaillées… Mais ce qui est sûr, c’est que le changement d’échelle dans la manipulation des utilisateurs risque, à terme, de créer de la défiance et du rejet. A moyen et long terme cette défiance risque de s’accélérer à mesure que ces techniques vont se développer d’une manière industrielle, qu’elles vont apparaître comme plus visibles, plus massives et plus toxiques. Notre sensibilité à la captologie sera-t-elle la même quand tout le monde l’utilisera ?

Ce qui semble sûr c’est que ce sujet semble plus à même demain de s’inscrire dans l’agenda des régulateurs, notamment parce que la question de la manipulation de l’attention en devenant sociale et en s’inscrivant au coeur des outils numériques – et notamment de nos outils de travail – adresse des questions auxquelles la société devra répondre. Si, comme le soulignait le prospectiviste Kevin Kelly, l’avenir est cognitif (et il n’évoquait pas là que la question du développement de l’intelligence artificielle), nous devons prendre au sérieux ces enjeux. Pour poser ces questions d’une manière plus ouverte aux concepteurs d’interfaces et aux entreprises, d’une manière qui invite plus à la réponse qu’à la critique, on pourrait se demander alors ce que changerait aux modèles d’affaires des entreprises le fait que leurs applications soient respectueuses de l’attention des utilisateurs ? Quelles opportunités d’affaires nouvelles cela ouvrirait-il ?

Le projet de la Fing : pour une attention responsable

L’enjeu de ce programme de recherche-action est d’observer ce point de croisement entre l’exploitation de nos comportements et la façon dont les interfaces les implémentent. Notre travail consistera à recueillir des critiques. À faire travailler des utilisateurs à démonter les fonctionnalités qui leur sont proposées. À observer comment les systèmes contraignent les utilisateurs, avec l’aide de spécialistes en psychologie cognitive et en design notamment. À produire des grilles d’analyse des interfaces sous forme de pistes d’innovation permettant de produire des valeurs partagées pour construire une nouvelle relation entre les utilisateurs et les concepteurs.

Méthode : déroulé de l’expédition
Un travail de veille, de rencontres d’acteurs et de chercheurs et de scénarios extrêmes permettra de regarder en profondeur ce sujet pour en produire des pistes d’innovation via un cahier d’enjeux. La Cnil, associée à cette expédition, explorera la question de la régulation de l’attention, en proposant un benchmark international des outils de régulation. Des spécialistes des sciences cognitives (notamment l’association Chiasma) en coopération avec des designers viendront éclairer la manière dont nos biais comportementaux sont exploités et la manière dont ils se traduisent dans des interfaces.

Avec la contribution d’étudiants, un travail d’analyse de la conception d’une sélection d’interfaces sera produit pour en comprendre les mécanismes. À partir duquel, de nouvelles conceptions seront proposées en retour pour montrer comment les interfaces pourraient prendre en compte d’autres valeurs. L’un des livrables attendus de cette expédition est la réalisation de “proof of concept” (POC) afin de montrer qu’une autre conception est possible.

L’enjeu, est enfin de mobiliser des étudiants en design, en psychologie sociale, mais aussi des étudiants en communication pour lancer une grande campagne de sensibilisation autour de ces enjeux de la conception.

Notre objectif est de faire monter en compétence tous les acteurs de l’innovation sur ces questions, notamment pour anticiper les questions de régulation qui se poseront.

Pour assurer ce travail, nous sommes à la recherche de partenaires qui souhaitent s’investir sur ces questions.

Des organisations et entreprises qui souhaitent :

  • participer activement aux ateliers et réflexions que nous organiserons ;
  • proposer un terrain d’observation et d’expérimentation (une interface, une application, un système, un service…) ouverte aux interventions de nos experts et d’étudiants.

Des écoles qui souhaitent :

  • comprendre ces enjeux et les faire réinterroger par leurs étudiants.

Pour plus d’information, nous vous invitons à consulter le dossier de présentation de notre groupe de travail. Et à rejoindre l’espace de discussion que nous ouvrons sur Facebook.

N’hésitez pas à nous contacter

Hubert Guillaud et Véronique Routin
hubertguillaud@gmail.com & vroutin@fing.org


Dossier de partenariat.

Catégories: Veille et actualités

Le jeu comme outil d’autoréalisation

mar, 17/10/2017 - 12:00

Les jeux vidéo satisfont les besoins humains fondamentaux ! C’est ce qu’affirme le journaliste et écrivain Simon Parkin (auteur du livre Death by video games : Danger, Pleasure, and Obsession on the Virtual Frontline) dans un récent article pour la revue Nautilus.

Et Parkin de commencer son texte en nous parlant de… Grand Theft Auto, jeu souvent qualifié d' »immoral » qui n’apparaît pas comme un exemple de satisfaction de nos besoins fondamentaux. Du moins on l’espère. Or, nous dit Parkin, les multiples actions peu sympathiques qu’on est susceptible d’accomplir au sein de ce jeu ne sont pas nécessaires pour gagner. Ce sont juste des choix possibles au sein d’un univers virtuel qui offre bien d’autres opportunités. En se sens, un jeu comme Grand Theft Auto ne fait que matérialiser notre conception du monde et nos attentes. « Si vous êtes plein de haine dans le monde réel, le jeu fournit un espace dans lequel agir avec haine. »

Parkin déterre un article de 1996 sur les MUDs (pour Multi-User Dungeon), écrit par Richard Bartle, un chercheur en intelligence artificielle qui fut aussi l’un des premiers concepteurs de ce type de jeu. Rappelons que les MUDs furent, dans les années 80-90, le prototype des MMORPGs, les univers de type World of Warcraft. Dans des univers virtuels existant la plupart du temps exclusivement en mode texte, les joueurs vivaient les aventures de leur « avatar » dans un univers de fantasy ou de SF.

Dans son papier, Bartle distingue 4 types de joueurs : les « tueurs », les « performants », les « socialisateurs », et les « explorateurs ». Or, selon Bartle, les joueurs conserveraient ce trait de caractère, quel que soit le jeu auquel ils s’adonnent : les socialisateurs chercheraient avant tout le contact avec leurs partenaires, les tueurs à massacrer tout ce qui bouge, les performants à réussir les épreuves et à accumuler les récompenses, les signes de victoires (badges, or, etc.), les explorateurs à prendre connaissance du monde virtuel…

Ainsi nous explique Parkin, Bartle aurait constaté qu’un joueur adoptant le rôle d’un médecin dans un jeu de rôle afin de soigner les autres personnages aura tendance à exercer la même profession, quel que soit l’univers dans lequel il est impliqué.

Pour Parkin, cela montre que les jeux cherchent avant tout à révéler notre personnalité, le plaisir, le « fun » ne seraient pas la motivation principale du « gamer » – je suppose que cette théorie ne s’applique pas à Bubble Shooter ! Pour appuyer sa thèse, Parkin mentionne un travail de 2012, effectué par cinq psychologues, « The Ideal Self at Play : The Appeal of Video Games That Let You Be All You Can Be » (« Le Soi Idéal en jeu : l’attrait des jeux vidéo qui vous permettent d’être tout ce que vous pouvez être »). Ces chercheurs affirmeraient que les jeux vidéo les plus réussis sont ceux qui permettent au joueur d’incarner la version la plus satisfaisante, la plus épanouie de sa propre personnalité. « Les gens sont attirés par les jeux vidéo parce que ceux-ci leur offrent l’accès aux aspects idéaux d’eux-mêmes ».

Et Parkin de citer un propos de Bartle : « L’auto-actualisation se trouve au sommet de la hiérarchie des besoins de Maslow, et c’est cela que de nombreux jeux nous offrent… C’est tout ce que les gens désirent vraiment : être. »

Catégories: Veille et actualités

Les jeux vidéo faciliteraient l’apprentissage

mar, 17/10/2017 - 07:00

Encore une recherche qui devrait réconcilier les parents avec les jeux vidéo. Cette fois, il semblerait que les jeux vidéo accroissent la capacité d’apprentissage. Une équipe allemande a en effet soumis deux groupes de 17 personnes, l’un constitué de joueurs et l’autre de non-joueurs, à une tâche d’apprentissage, le tout bien sûr sous le contrôle de l’inévitable IRM.

La tâche soumise aux sujets était un test assez connu en science cognitive, la « prédiction de la météo ». On soumet au volontaire une série de trois cartes contenant des symboles abstraits. Chaque combinaison de cartes indique une probabilité de « pluie » et de « beau temps ». Bien entendu, le participant ignore au commencement la signification des symboles qui s’affichent devant lui, il doit donc deviner, au début complètement au hasard, ce que prédisent les combinaisons de cartes. Mais au fur et à mesure, il apprend à discerner la signification des symboles et le résultat associé à chacune des combinaisons. Un tel test permet de mesurer la vitesse à laquelle on apprend à mesurer une probabilité.
Résultat, les joueurs se sont montrés bien plus rapides et efficaces pour effectuer cet apprentissage. Ils auraient également été capables de mieux se débrouiller avec les situations de « haute incertitude », c’est-à-dire lorsqu’une combinaison de cartes indiquait des probabilités de « pluie » ou de « beau temps » de l’ordre de 60-40. Pour Sabrina Schenk, l’auteur de la recherche : « Notre étude montre que les joueurs sont plus performants pour analyser une situation rapidement, générer de nouvelles connaissances et catégoriser les faits – en particulier dans les situations à forte incertitude ».

De plus, après l’expérience, on a donné aux participants un questionnaire à remplir. Il s’est avéré que les joueurs avaient plus de facilité à expliquer leurs choix que les non-joueurs. D’après les analyses IRM, les joueurs auraient développé une plus grande activité de l’hippocampe, une zone du cerveau liée à la mémoire. Toujours selon Sabrina Schenk, « un tel phénomène n’est pas seulement important pour les jeunes, mais également pour les personnes âgées ; car des changements dans l’hippocampe peuvent entraîner une diminution des performances de la mémoire. Peut-être qu’à l’avenir nous pourrons utiliser les jeux vidéo pour traiter ce genre de problèmes ».

Catégories: Veille et actualités

Le progrès n’a pas encore tout à fait disparu !

jeu, 12/10/2017 - 07:00

A l’occasion de la publication de la traduction en français de son livre paru aux États-Unis en 2011, La part d’ange en nous : histoire de la violence et de son déclin, Steven Pinker (@sapinker) était de passage à Paris. Le professeur de psychologie à l’université Harvard, spécialiste de la cognition et de la psychologie du langage donnait une conférence à l’École nationale supérieure d’arts et métiers.

Le moine bouddhiste Matthieu Ricard, qui a écrit plusieurs livres sur l’altruisme et qui signe la préface de l’édition française, introduisait et traduisait la conférence. « Le fait que Steven Pinker nous ait appris, à rebours des idées reçues, que le monde est moins violent aujourd’hui qu’hier permet de changer notre regard sur la violence ». Nous avons trop souvent une vision catastrophique ou apocalyptique de l’histoire, comme de la nature humaine. « On ne cesse de nous répéter que toute motivation humaine serait égoïste par nature, sans qu’aucune étude scientifique ne le corrobore. Nous avons besoin de connaissances pour remettre en cause nos idées reçues et oeuvrer ensemble à un monde meilleur. Et c’est ce que nous offre Steven Pinker avec ce livre. »

Durant deux heures, le fringuant Steven Pinker résume pas à pas son livre, projetant les mêmes slides un peu désuètes que celles qu’il projetait déjà en 2011 (comme c’était le cas dans ce long exposé qu’il donnait à The Edge par exemple, sauf qu’il les tient à jour, montrant que les courbes qu’il dessine continuent leur tendance, même depuis 2011).


Une présentation de Steven Pinker assez proche de celle utilisée par Pinker sur la scène de l’Ensam.

Les causes du recul de la violence : le développement des États !

La thèse de Pinker est simple. La violence décline depuis longtemps et n’a cessé de diminuer. Malgré tout ce que l’on pense souvent, elle est aujourd’hui a son plus bas niveau. Si le chercheur est prudent (rien ne nous dit que la tendance continuera indéfiniment ni qu’on puisse l’amener à un niveau zéro demain), reste que la tendance que l’on peut constater à différentes échelles est nette, marquée, claire. Il distingue 6 formes différentes du déclin de la violence. Tout d’abord, il y a ce qu’il appelle le « processus de pacification ». Ce processus se mesure en tentant de mesurer la part des morts violentes dans les décès. Les archéologues et les historiens ont tenté de mesurer le niveau de mortalité violente à travers les âges. En regardant, par exemple, dans les sociétés préhistoriques, la proportion de squelettes comportant des signes évidents de morts violentes. On estime que dans les sociétés préhistoriques, on compterait environ 20 % de morts violentes. Nous sommes bien loin des résultats des sociétés occidentales, où la mort violente serait environ 3 % pour le monde au 20e siècle, de 0,6 % pour l’Europe et les États-Unis au 20e siècle et de moins de 0,01 % pour le monde depuis 2005. Des enquêtes historiographies et ethnographiques montrent même que les sociétés traditionnelles, dépourvues d’État, étaient effectivement plus violentes que les sociétés organisées.

La première cause du recul de la violence est donc à mettre au crédit de la montée et de l’expansion des États. La remise du pouvoir aux mains d’Etats constitués élimine les vengeances et les violences tribales et féodales. Les despotes et les rois ne sont pas tant magnanimes, qu’ils défendent leurs intérêts. Et le leur n’est pas que leurs administrés s’entretuent, mais plutôt qu’ils payent leurs taxes. Tout comme le fermier travaille à ce que son troupeau ne s’entretue pas, les États ont veillés à ce que leurs administrés ne s’entretuent pas.

La seconde cause du recul de la violence tient au « processus de civilisation ». Le meurtre partout diminue, explique le chercheur en montrant des courbes statistiques sur l’évolution des homicides en Europe entre 1300 et 2000. À Oxford, on est passé de 100 homicides par an pour 100 000 habitant au Moyen Âge à 1 seul ! Ce déclin n’a pas cessé aux 19e et 20e siècles. Si ces taux sont différents d’un pays l’autre, la tendance est nette. Même les États-Unis, dont le taux est souvent supérieur au taux européen, et qui connaissent même un léger pic dans les années 60, connaissent un déclin ferme et régulier depuis les années 90. Le sociologue Norbert Elias, dans le Processus de civilisation, montrait que la consolidation des États et royaumes avait conduit à une justice nationalisée qui favorise la disparition des rivalités locales. Le développement du commerce via la finance, la monnaie, les contrats et les transports… fait basculer la société de la féodalité à la modernité. Le jeu où le gagnant l’emporte est remplacé par une situation où tout le monde trouve son compte.


Image : le charme des amphithéâtres avec Steven Pinker et Mathieu Ricard au fond.

La montée de l’empathie

La troisième cause du déclin de la violence est liée à la révolution humaniste. La justice telle qu’elle s’exprime jusqu’au Moyen-âge, à coups de buchers, d’écartèlement, de crucifixion et d’empalement… nous semble particulièrement barbare. Or, entre le 17e et le 19e siècle, la révolution humaniste va mettre fin à nombre de violences. L’abolition de la torture et le déclin de la peine de mort. Entre 1750 et 1850, la majorité des pays ont aboli la torture. En Angleterre au 18e siècle, on pouvait condamner à mort quelqu’un pour 222 motifs différents, au nombre desquels figuraient le braconnage, la fausse monnaie… En 1861, on ne compte plus que 4 crimes (autre que des crimes ayant conduit au meurtre) passibles de la peine de mort. Quant à l’abolition de la peine de mort elle-même : celle-ci n’a cessé de progresser, même depuis 2011, tout comme le nombre d’exécutions effectives. Si cette tendance se poursuit sur le même rythme, espère Pinker, la peine de mort devrait être abolie dans tous les pays du monde d’ici 2026.

La révolution humaniste a conduit à de nombreuses autres « abolitions » : allant de la chasse aux sorcières, à la persécution religieuse, de l’interdiction des duels aux sports sanguinaires, en passant par l’abolition de l’esclavage… Dernier pays à le faire, la Mauritanie a officiellement aboli l’esclavage en 1980 (même si cela ne signifie pas qu’il ait été totalement endigué).

Pour Pinker, cette révolution humaniste doit tout au développement de l’imprimerie et à la montée de l’alphabétisation. Peu à peu, la connaissance remplace la superstition et l’ignorance. Tel est l’apport des Lumières. Éduquée, la population est moins capable de croire que les juifs empoisonnaient les puits, que les hérétiques vont en enfer, que les sorcières sont responsables des mauvaises récoltes… La connaissance mine la violence. Comme le disait Voltaire : « ceux qui vous font croire en des absurdités peuvent vous faire commettre des atrocités ». Sans compter que lire et écrire favorisent le cosmopolitisme. Lire permet de prendre conscience de l’esprit de l’autre, de se mettre à sa place, d’imaginer ce qu’il ressent. « Plus nous sommes emphatiques et moins nous sommes portés à la cruauté ».

Vers les paix perpétuelles ?

« Contrairement à ce que l’on pense trop souvent, le 20e siècle n’a pas été le siècle le plus violent de notre histoire ». Si la 2e Guerre mondiale a bien été la plus meurtrière en nombre absolu, elle n’a pas été la guerre la plus meurtrière relativement à la population mondiale. Avant le 16e siècle, les Grands Etats étaient constamment en guerre, alors qu’aujourd’hui aucune grande puissance n’est en guerre avec d’autres. Même si on n’observe que les morts liés aux guerres au 20e siècle, hormis les deux pics des deux guerres mondiales, les conflits depuis n’ont quasiment pas été meurtriers. Depuis 1946, nous sommes même entrés dans ce que l’on pourrait appeler « la longue paix ». Malgré la prédiction de tous les experts, nous n’avons pas connu de guerre entre les États-Unis et l’URSS, pas plus que nous n’avons connu l’usage d’armes atomiques depuis Nagasaki. Les grandes puissances ne sont pas entrées en conflits entre elles… Pourtant, avant 1945, c’étaient surtout les pays les plus développés qui entraient en conflits les uns avec les autres. Ce n’est plus le cas depuis.

À la longue paix, il faut ajouter une autre cause au déclin de la violence : la nouvelle paix. En effet, cette longue paix s’est également diffusée au reste du monde. Le déclin des conflits se propage. Il y a de moins en moins de guerres entre États. S’il y a eu des guerres civiles, celles-ci font bien moins de morts que les guerres entre États. 5/6e des pays du monde ne connaissent plus la guerre. Si on regarde le nombre de morts liés aux guerres ou le taux de guerre, les deux courbes sont clairement à la baisse. Quant à la question des génocides, Chalk et Jonassohn, dans leur Histoire des génocides, rappellent qu’ils ne sont pas une propriété du 20e siècle. Malgré les atrocités des plus récents génocides, ramenés à la population totale ou au nombre de morts globaux, là encore, les génocides sont à la baisse sur le temps long du 20e siècle.

Dans son essai Vers la paix perpétuelle, le philosophe Emmanuel Kant émettait 3 hypothèses pour expliquer l’essor de la paix : le développement de la démocratie, du commerce et d’une communauté internationale. Les historiens Bruce Russett et John O’Neal ont montré que ces facteurs ont tous progressé depuis la seconde moitié du 20e siècle et que ces 3 facteurs sont bien statistiquement des prédicateurs de paix.

Pourquoi un tel déclin ? La nature humaine aurait-elle changé ?

Dernier facteur explicatif du recul de la violence : les révolutions des droits. Le développement des droits civiques a fait reculer la plupart des violences : violences raciales, violences à l’égard des femmes, des enfants et des animaux… La criminalité a diminué à mesure que les droits ont progressé, souligne Pinker, en alignant des graphiques sur le recul du lynchage aux États-Unis entre 1880 et 1960, ou des crimes à l’égard des communautés. Les viols à l’encontre des femmes ont chuté de 75 % entre 1970 et 2010. Les autres violences domestiques à l’encontre des femmes suivent la même tendance. Pour les enfants, les graphiques montrent la chute des punitions corporelles, des emprisonnements, des abus et agressions physiques ou sexuelles à leurs égards… Même la fessée est de moins en moins acceptée à travers le monde. Et la révolution du droit des animaux entame la même tendance, avec la baisse du nombre de chasseurs et la montée du nombre de végétariens…

Et Steven Pinker de s’interroger. « Pourquoi la violence a-t-elle ainsi décliné ? Sur tant d’aspects ? La nature humaine aurait-elle changé ? Pourquoi nous comportons-nous de manière moins violente ? » Pour Pinker, notre nature n’a pas changé. Nous sommes des entités complexes et si nous avons des inclinaisons à la violence, nous avons aussi des tendances qui la contrebalancent. Pour Pinker, l’histoire, les circonstances… ont favorisé nos inclinaisons pacifiques. Pour comprendre cela, il faut distinguer ce qui motive et explique notre violence, à savoir : la rage (une réaction quasi instinctive), la domination et l’exploitation des autres (qui consistent à utiliser la violence pour atteindre un but), la vengeance et la violence idéologique… Mais on a aussi des processus qui favorisent la non-violence : comme la maîtrise de soi, l’empathie (la capacité à ressentir ce que les autres ressentent), les normes morales et les tabous (ce qu’on ne peut pas faire) et bien sûr la raison (c’est-à-dire le fait que nos facultés cognitives considèrent la violence comme un problème). Qu’est-ce qui a conduit à développer ces processus-là, cette « part d’ange en nous », au détriment des premiers ?

Pour Hobbes, le fait de confier à l’Etat et au système judiciaire le monopole de l’exercice de la violence a permis de neutraliser l’exploitation des autres par la violence. Pour Montesquieu, Smith ou Kant, le passage du pillage au commerce a permis de se rendre compte que voler ne sert à rien, à mesure que les choses deviennent moins chères. Les êtres humains deviennent plus précieux vivants que morts, puisqu’on peut leur vendre quelque chose. Pour Darwin et Peter Singer, notre sens de l’empathie, par défaut, s’applique à nos proches. Or, ce cercle emphatique s’est étendu : de la famille aux proches, du village au clan, de la tribu à la nation… en passant à ceux qui appartiennent à d’autres genres, races, espèces… Le développement de nouvelles perspectives, via le voyage, la littérature, l’information, nous a permis d’adopter le point de vue des autres. Et cette considération empathique s’est traduite par un comportement empathique. Enfin, nous avons tous pris l’ascenseur de la raison : l’alphabétisation, l’éducation… nous ont appris à penser plus abstraitement et plus universellement. En apprenant à transcender notre point de vue, il devient plus difficile de privilégier nos seuls intérêts par rapport à ceux des autres. Les cycles de violence nous semblent plus futiles et plus vains. « La violence apparaît comme un problème qu’on peut résoudre plutôt que comme une compétition qu’on peut gagner ».

Pour Steven Pinker ces interrogations nous poussent à nous poser la question de ce que nous avons réussi. Qu’avons-nous fait de bien et qui a été fécond ? Pour Pinker, ce travail permet de réhabiliter les notions de modernité et de progrès, parfois bien malmenées. Nous devrions éprouver de la gratitude vis-à-vis des institutions de la civilisation et des Lumières. C’est d’ailleurs le sujet du prochain livre de Steven Pinker. Montrer que les gens vivent plus longtemps, en meilleure santé et plus heureux que jamais. Les Nations-Unies estiment que si les tendances continuent, l’extrême pauvreté devrait avoir disparu d’ici 2030. Il y a 200 ans à peine, 90 % de la population vivait dans une extrême pauvreté. On estime que c’est le cas d’environ 10 % de la population aujourd’hui. L’idéal des Lumières, le recours à la raison et à la science, à l’humanisme et au progrès nous a transformés quoiqu’on en dise. Il a fonctionné, quoi qu’on en dise, conclut l’incroyable optimiste.

Pinker s’amuse ensuite à répondre à quelques questions. Les animaux ? Ils nous aident à pousser notre capacité empathique encore plus loin, car ils ne peuvent pas se battre eux-mêmes pour leurs propres droits ou se mobiliser. La défense des droits des animaux nous amène à un degré de civilisation supplémentaire. Le changement climatique ? Il n’est pas certain que le changement climatique conduise à des violences globales. Bien sûr, ce défi majeur du 21e siècle risque de se traduire par une intensification des souffrances, par des migrations, des conflits locaux, des violences…
Les tensions sur les ressources ne conduisent pas nécessairement aux conflits… Les grandes sécheresses des années 30 n’ont pas conduit nécessairement à des guerres.

Les médias sociaux ? « Les médias sociaux accroissent l’empathie, j’en suis convaincu », estime Pinker. Ils favorisent l’interdépendance. Bien sûr, leur usage peut conduire à des abus, mais nous allons trouver les moyens de contrer leurs aspects négatifs et de développer leurs aspects positifs. Il faut juste un peu de temps, comme lors d’une réponse immunitaire. Le vieillissement ? Le vieillissement de la population favorise la diminution des violences physiques. On estime que le pic des violences physiques a lieu entre 15 et 30 ans. Plus on prend de l’âge et moins on se dispute ou on a recours à la violence. Le vieillissement de la population est donc un facteur de déclin de la violence globale. Un monde moins violent est aussi un monde plus heureux, incontestablement. En fait, nous n’avons pas de preuve scientifique à porter au crédit de ceux qui avancent que nous serions intrinsèquement violents.

Du haut d’une vision qui embrasse le temps long de l’humanité, Steven Pinker nous apaise. En nous demandant de faire avec lui l’effort de regarder les tendances dans leur globalité, il participe à son tour à nous rendre plus confiant, nous invite à prendre le recul nécessaire pour être un peu plus empathique à notre tour. Le progrès n’a pas tout à fait disparu… En fait, il ne s’est peut-être jamais aussi bien porté à mesure que la fin du monde se profile. S’il n’y avait la menace du réchauffement climatique et de la limite des ressources naturelles, on pourrait presque croire finalement que ces menaces nous apparaissent plus présentes à mesure qu’elles s’éloignent.

Hubert Guillaud

Catégories: Veille et actualités

Management, les basiques ne sont pas si simples…

mar, 10/10/2017 - 07:00

Souvent proposé comme un modèle de la gestion des ressources humaines (via son département « People Analytics »), Google demeure pourtant laconique sur son fonctionnement interne. Cet été cependant, sur son blog dédié au travail, Google a publié une série de documents utilisés par ses managers, rapporte Quartz. Au menu, vous y trouverez un questionnaire d’évaluation des managers (sur la base de 13 questions posées tous les 6 mois aux employés et les réponses sont renvoyés aux managers agrégées et anonymisées), un questionnaire d’évaluation de carrière, une définition d’un objectif simple et partagé pour encourager le bien-être de chacun (du type, je ne lis pas d’email le week-end…) ; un modèle d’organisation de réunion et enfin des cours pour apprendre à devenir managers.

Raffaella Sadun pour la Harvard Business Review s’étonne de la grande simplicité de ces outils. En fait, bien que basiques et fondamentales, il est très difficile d’établir ces pratiques de manière cohérente dans les entreprises. Dans une étude transversale sur les pratiques de managements de 12 000 entreprises provenant de plusieurs pays (cf. « pourquoi on sous-évalue le management compétent »), elle rappelle combien la pratique de la définition d’objectif ou la gestion de l’évolution de carrière sont encore fort peu pratiquées. Pire, la plupart des organisations n’ont pas toujours conscience d’avoir besoin de meilleurs processus de management. Rien que la normalisation des entretiens individuels est encore bien souvent vue comme une méthode excessivement bureaucratique par la plupart des employés… En fait, les fondamentaux du management ne sont pas si simples à mettre en place et copier les pratiques de Google, « vous asseoir et vous attendre à avoir le même succès » ne suffira pas à le faire advenir. Pourtant, l’adoption de pratique de management simple permet souvent aux entreprises de faire d’énormes progrès en terme de profit, de croissance ou de productivité. Faire que tout le monde adhère à des process communs permet de mieux se concentrer sur les résultats, et cela passe parfois par des choses très simples, comme une liste de contrôle, à l’image de celle mise au point par le chirurgien Atul Gawande pour réduire les erreurs dans la salle d’opération. Pour Sundar Pichai, PDG de Google, « les pratiques de management sont un élément essentiel de la construction de la culture d’entreprise ».

Des fondamentaux qui semblent encore bien loin d’un management conduit par les données. Comme le constatent plusieurs consultants dans un autre article de la Harvard Business Review, force est de constater que l’analyse de données peine à s’imposer dans le management, et ce alors que de nombreux projets de transformations managériales n’atteignent pas leurs objectifs. Les auteurs constatent d’ailleurs que bien peu de méthodes de transformations managériales, même parmi les plus à la mode, s’appuient sur les données, notamment parce que le management doit composer avec le comportement humain et que la culture d’entreprise, le leadership et la motivation ne se prêtent pas facilement à l’analyse empirique ni à la production d’indicateurs. En fait, soulignent-ils, la transformation managériale est plus le fait d’artisans que de scientifiques. Et le manque d’indicateurs encourage le manque d’investissements dans le changement. Bien sûr, Michael Tushman, Anna Kahn, Mary Elizabeth Porray et Andy Binns n’en restent pas à un constat d’échec. Dans un autre article, ils tentent de montrer que des solutions s’esquissent. Chez Ernst & Young, où travaillent certains des auteurs, en utilisant Microsoft Workplace Analytics, ils ont utilisé pour des clients les échanges e-mails et les données des agendas des employés pour identifier qui est engagé avec qui, quelles parties des organisations étaient sous stress et quels individus sont les plus à même de tisser des ponts entre les différents services de l’entreprise. Le système leur a permis de mettre en place une sorte de surveillance en temps réel pour voir où agir, où améliorer les procédures. Reste que l’analyse des données ne fait pas tout, soulignent-ils en conclusion. Si elle permet peut-être de devancer les problèmes ou d’accélérer les réponses, il y aura toujours besoin de professionnels pour interpréter les données et améliorer les processus. Dans le temps long du management et des comportements, force est de constater que l’accélération que permet l’analyse des données peine à fournir une réponse pleinement satisfaisante à la problématique. C’est peut-être pour cela que ce que nous pourrions appeler le « management automatisé » a encore du mal à s’imposer.

Enfin, pas partout. Si dans l’entreprise, l’automatisation du management reste difficile, ce n’est absolument pas le cas du recrutement, qui lui semble de plus en plus automatisé. Notamment via le recours à des myriades de tests de personnalité toujours plus sophistiqués, quand bien même ils semblent aussi scientifiques que la graphologie ou que l’astrologie d’antan. A l’image du jeu vidéo Scoutible, où une intelligence artificielle évalue les futures performances d’un candidat ou Dotin.us qui évalue les personnalités des candidats selon ce qu’ils partagent sur les réseaux sociaux. Voire la panoplie d’outils automatisés auquel recours Unilever que détaillait Usbek & Rica récemment… On est là face à une différence de traitement entre l’externe et l’interne qui interroge et qui mériterait d’ailleurs un peu plus de recul. Assurément, on se permet dans le recrutement d’utiliser des outils qui seraient largement rejetés s’ils étaient utilisés pour le management des salariés.

Catégories: Veille et actualités

Vos données seront manipulées

ven, 06/10/2017 - 07:00

A l’occasion de la conférence Strata Data qui se déroulait fin septembre à New York, la chercheuse danah boyd (@zephoria), l’auteure de C’est compliqué (dont paraît ces jours la traduction d’un autre livre coécrit avec Mimi Ito et Henry Jenkins) a, comme toujours, livré une présentation remarquable (extrait en vidéo).

La manipulation des médias a toujours existé et le numérique l’a certainement favorisé en rendant poreuse la frontière entre la propagande et le marketing, rappelle-t-elle en pointant vers le rapport publié par Data&Society en mai 2017, l’Institut de recherche dont elle est la fondatrice et la présidente (blog, @datasociety). Mais l’enjeu n’est pas de nous expliquer ce qui s’est déjà passé ou ce qui se passe actuellement, que de regarder ce qui s’annonce. A l’heure du Big data et de l’intelligence artificielle, si nous pensons que la donné peut et doit être utilisée pour informer les gens et alimenter la technologie, alors nous devons commencer à construire l’infrastructure nécessaire pour limiter la corruption, les biais et l’abus de données. Nous devons reconsidérer la sécurité dans un monde de données.

Les moteurs de recherche et les médias sociaux sont devenus les cibles préférées de la manipulation. Un petit jeu auquel tout le monde s’amuse désormais. Depuis les premiers Google Bombing, les gens ont appris par la pratique à rendre les contenus viraux et à détourner les systèmes. Ils ont développé des pratiques stratégiques de manipulation de l’attention qui ont pu avoir des conséquences graves à l’image du pizzagate, qui a été produit par un large réseau de gens cherchant à jouer de l’écosystème d’information et à créer des « effets boomerang » où la contestation et la vérification servent avant tout de canaux d’amplification de la manipulation. Les manipulateurs cherchent à ouvrir la fenêtre d’Overton, c’est-à-dire la gamme des idées acceptables par l’opinion publique.

Reste, constate la chercheuse, que jusqu’à présent, les attaques des systèmes algorithmiques, si elles ont parfois été massives, sont restées assez « manuelles ». Or, c’est cela qui risque de changer.

Entraîner un système d’apprentissage nécessite beaucoup de données. Le problème, outre ce besoin insatiable et massif, c’est que toutes les données sont biaisées, explique la chercheuse en pointant par exemple vers une étude qui a observé les biais d’ImageNet, montrant par exemple que les systèmes d’apprentissage automatisés répliquent les biais des humains, classant plus facilement les objets selon leurs formes que selon leurs couleurs. Latanya Sweeney (@latanyasweeney), elle, a montré que la publicité proposée par Google changeait selon la connotation ethnique des noms des utilisateurs soulignant par là que le moteur a tendance à amplifier le racisme à l’oeuvre aux Etats-Unis. Pour danah boyd, adresser les problèmes de biais culturels implicites et explicites des données va constituer un énorme défi pour ceux qui cherchent à construire des systèmes.

Pour la chercheuse, le problème est que ces biais risquent d’être amplifiés par l’utilisation de données d’entraînement provenant d’un peu partout sur le web. Les informaticiens utilisent les données de Twitter ou de Reddit pour construire des modèles pour comprendre le langage naturel par exemple, identifier des motifs sociaux, construire des modèles pour détecter la dépression ou l’engagement, sans saisir toujours que ces données ne sont pas représentatives, pensant que ces données peuvent être nettoyées pour en ôter tout contenu problématique. C’est hélas loin d’être le cas. Nous sommes mal préparés à ceux qui veulent se jouer de nous. Ce n’est pas qu’une question d’incident ou de biais culturel, souligne danah boyd, c’est qu’il y a toujours des gens pour jouer avec le contenu d’une manière stratégique – à l’image de l’affaire du ciblage publicitaire antisémite de Facebook révélé récemment par Propublica (voire les explications du chercheur Olivier Ertzscheid).

Mais danah boyd apporte un autre exemple : celui de l’expérience (.pdf) de Nicolas Papernot (@nicolaspapernot). Afin de comprendre les vulnérabilités des algorithmes de reconnaissance d’image, ils ont cherché à altérer des images de panneaux de signalisation pour transformer des stops en céder le passage, sans que ce changement soit perceptible aux humains. Ce qu’expliquent les chercheurs, c’est combien ces manipulations visant à corrompre une base de données peuvent être simples. « Pensez à ce que cela signifie pour les voitures autonomes », s’inquiète la chercheuse. Pour l’instant, ces attaques sont amicales et sont le fait de chercheurs… Mais cela ne durera pas, prévient-elle. Et d’inviter les entreprises à prendre ces questions au sérieux.


Comment attaquer les boites noires du Machine Learning ? Image tirée de l’expérience menée par Nicolas Papernot qui montre en haut des images modifiées pour perturber le réseau d’apprentissage et la mauvaise interprétation qui en résulte sur la rangée du bas, sans que cette mésinterprétation soit perceptible à l’oeil humain.

Reste, souligne-t-elle, que de nombreuses entreprises, malgré les innombrables brèches et fuites de données à répétition, continuent à ne pas prendre au sérieux la vulnérabilité de leurs données. Les entreprises doivent réfléchir à construire des anticorps techniques. « Vous devez réfléchir à la façon dont vos données peuvent être corrompues, par qui et dans quel but ». L’industrie de la technologie a perdu la culture du test au profit de la culture de la bêta perpétuelle et de la coconception de la qualité avec les utilisateurs. Mais c’est oublier que la culture du test ne se limitait pas à la recherche de bugs. Elle avait aussi pour fonction d’intégrer des dissensus dans les processus de conception et de développement. Désormais, ce sont les journalistes qui humilient les développeurs ont montrant les biais de leurs systèmes. Mais ils ne sont pas les seuls. Les chercheurs s’y mettent aussi, en tentant de construire des systèmes d’apprentissage pour révéler les biais des systèmes. Et danah boyd d’évoquer les recherches dans le domaine des réseaux d’adversaires génératifs (generative adversarial networks, à l’image de cette étude .pdf). L’enjeu, résume la chercheuse, c’est de faire générer des contenus par deux algorithmes afin que l’un évalue ceux de l’autre. L’un tente d’embobiner le second pour qu’il accepte de « mauvaises » informations dans le but de trouver des limites aux modèles déployés.

Pour la chercheuse, il est temps de réintégrer de l’antagonisme dans le processus de construction des modèles. « Nous devons intégrer activement et intentionnellement une culture de l’évaluation, de la vérification et de l’apprentissage fondée sur la confrontation ». Nous devons apprendre à évaluer les biais et construire des outils pour suivre l’évolution des systèmes avec autant d’efforts que ceux apportés à construire des modèles. L’artiste et chercheur Matthew Goerzen va plus loin encore : pour lui, il faut inviter les trolls à s’immiscer dans les systèmes pour en comprendre les vulnérabilités.

Et danah boyd de conclure : « L’industrie de la technologie ne peut plus être le terrain de jeu passionnel d’un groupe de geeks tentant de faire des merdes cools pour le reste du monde. Désormais, elle est le fondement de nos démocraties, de nos économies, de notre paysage informationnel ». Le monde idéal que l’on cherche à construire ne vit pas en autarcie. Il est plus que jamais nécessaire d’intégrer que d’autres souhaitent le manipuler et y semer le chaos et de prendre cela au sérieux.


Image : Image d’un extrait de l’article fondateur du moteur de recherche Google par Sergey Brin et Larry Page qui surligne la phrase prémonitoire qu’on pourrait traduire ainsi : « les résultats de merde balayent souvent tous les résultats qui intéressent l’utilisateur ».

Catégories: Veille et actualités

L’IA à la recherche de règles éthiques

jeu, 05/10/2017 - 09:05

Dans une tribune pour le New York Times, Oren Etzioni (@etzioni) responsable de l’Institut Allen pour l’intelligence artificielle, propose 3 principes de régulation pour l’Intelligence artificielle.

Le premier, très basique, consiste à rappeler que les IA sont soumises aux règles qui s’imposent aux humains : elles ne peuvent pas aller hors de la légalité qui s’impose à chacun. Ainsi, une voiture autonome ne peut pas passer à un feu rouge par exemple.

La seconde consiste à pointer que les systèmes d’IA doivent clairement se signaler comme tels aux humains, sans pouvoir se faire passer pour des humains par exemple (c’est l’une des pistes d’innovation que nous pointions également dans les recommandations du groupe de travail NosSystèmes de la Fing).

La troisième vise à ce que les systèmes d’IA ne puissent conserver ou divulguer d’informations confidentielles sans l’approbation explicite de cette source d’information : un robot aspirateur ne pourrait ainsi établir le plan de votre maison sans votre consentement par exemple. Pas sûr que cette dernière piste soit suffisante en soi. D’abord parce que les nouvelles fonctionnalités sont souvent présentées sous leur meilleur aspect, et la proposition de valeur du robot aspirateur Neato de cartographier votre intérieur (ou celle de Roomba) s’accompagne de fonctionnalités vous proposant par exemple de délimiter des zones interdites ou des zones nécessitant un passage plus fréquent du robot… qui permettent de très bien accepter finalement que les sociétés qui produisent ces robots accèdent aux plans de votre maison. Bref, pas sûr que s’assurer que l’IA respecte la vie privée, le consentement et nos règles sociales et légales soit suffisant, mais c’est au moins quelques bonnes pistes de départ.

Le problème, comme le faisait remarquer Will Knight dans la Technology Review, il ne se passe pas un jour sans qu’on nous parle des problèmes que génèrent les biais algorithmiques… or, les grandes entreprises qui les déploient ne semblent pas réellement intéressées à résoudre les problèmes qu’ils causent, malgré les protestations de plus en plus pressantes de l’opinion. Sophia Chen, dans Wired, dresse le même constat : la recherche en intelligence artificielle cherche désespérément son chien de garde éthique. Elle revient sur l’étude phrénologique de chercheurs américains de Stanford qui consistait à entraîner une IA à reconnaître des homosexuels depuis de simples portraits d’utilisateurs d’applications de rencontre (voire la synthèse de Usbek et Rica et l’analyse détaillée du sociologue Antonio Casilli). Quand bien même les auteurs de l’étude aient cherché à s’en défendre (leur étude se voulait une alerte sur les dangers de l’IA, ont-ils tenté de se justifier après coup), reste que la controverse a à nouveau pointé le problème éthique de l’optimisation algorithmique pour elle-même.

De plus en plus de spécialistes des sciences sociales utilisent l’IA dans l’intention de résoudre les maux de la société, mais ils n’ont pas de lignes directrices éthiques claires, estime Jacob Metcalf (@undersequoias), consultant et chercheur chez Data & Society (et co-auteur des 10 règles simples pour rendre les recherches Big Data responsables dont nous avions déjà parlé). En fait, il n’y a ni normes uniformes et communes ni pratiques de contrôle transparentes. Les lignes directrices qui régissent les expériences sociales sont souvent dépassées. Si les comité d’éthique existent, leurs règles ne sont pas toujours adaptés à la science des données, estime le chercheur, qui signale que l’étude de Stanford avait d’ailleurs été validée par le conseil de l’université. Dans ces domaines, en attendant mieux, c’est donc aux chercheurs de prendre l’éthique en main… et de prévenir les préjudices potentiels.

Metcalf a récemment lancé un groupe de travail, baptisé Pervade pour une éthique des données omniprésentes, afin de mettre en place un processus éthique utilisable par les chercheurs comme par les entreprises. L’initiative IA Now, lancée par l’American Civil Liberties Union, sous la houlette des chercheuses Kate Crawford (@katecrawford) et Meredith Whittaker (@mer__edith), a pour objectif de comprendre et prévenir les biais algorithmiques.

Dans un article de recherche en décembre, le professeur de droit Jack Balkin (@jackbalkin) a proposé également des lois éthiques pour les algorithmes. Ses lois reposent sur la bonne foi des opérateurs d’algorithmes envers les utilisateurs, de se doter de devoirs, et d’éviter les nuisances, notamment liées à l’asymétrie d’information ou au fait d’être intentionnellement discriminatoire. Autant de règles qui les oblige à une certaine transparence, à des procédures équitables et à une responsabilité de fait. Le chercheur Frank Pasquale (@frankpasquale), auteur de Black Box Society, estime que ces principes sont importants mais que sans responsabilité dès la conception, ils ne suffiront pas.

Sur son blog, l’avocat et jursite Matt Scherer estime que les règles proposées par Oren Etzioni ne sont pas suffisantes et trop simples. Pour lui (voir ses propositions .pdf), tout questionnement éthique nécessite d’abord de résoudre la question de la responsabilité : « qui est responsable des problèmes que peuvent générer une IA ? », interroge-t-il pour rappeler combien la responsabilité se dilue dans les systèmes techniques tout en pointant la difficulté qu’il y a à définir une IA d’un point de vue juridique.

Autant d’interrogations qui montrent que l’éthique semble bien être en passe de devenir la nouvelle frontière de l’IA. D’ailleurs, même DeepMind de Google s’y lance, rapporte Wired. L’unité dédiée à l’intelligence artificielle de Google, dont la mission est de « résoudre l’intelligence », vient de lancer une unité DeepMind Ethics & Society (DMES) pour comprendre les impacts sociaux des technologies qu’elle créé. Les partenariats pour promouvoir les bonnes pratiques annoncés l’année dernière semblent n’avoir pas suffit.

Reste à savoir si ces façons de voir parfois l’éthique comme un processus qu’il suffirait d’appliquer pour en produire automatiquement et dans toutes les situations… arrivera à se confronter à la réalité. Une réalité, qui, comme dirait danah boyd, est souvent un peu plus compliqué que cela.

MAJ : Sur son blog, Michael Sacasas (@LMSacasas), directeur du Centre d’étude de l’éthique et de la technologie de l’Institut théologique Greystone en Pennsylvanie, rappelle que les systèmes sont des machines pour se dérober à toute responsabilité morale. « Les algorithmes, en tant qu’entités techniques, fonctionnent comme la base symbolique d’une idéologie qui facilite l’inconscience et l’évasion de responsabilité ».

Catégories: Veille et actualités

Pourquoi voulons-nous des objets intelligents ?

mar, 03/10/2017 - 07:00

Le concepteur de jeux et essayiste Ian Bogost (@ibogost) est toujours un esprit pénétrant. Pour The Atlantic (@theatlantic), il développe une longue et passionnante argumentation pour nous expliquer pourquoi nous vivons déjà dans un ordinateur.

« Soudainement, tout est devenu ordinateur ». Des téléphones aux télévisions en passant par les serrures aux grille-pains, des sonnettes aux cadenas… Les gadgets intelligents sont partout. L’informatisation du quotidien a gagné. Personne n’a pourtant besoin d’un cadenas connecté… mais les gens, visiblement, en veulent. On pourrait croire que c’est lié au fait que les consommateurs achètent ce qu’on leur offre… Mais pour Bogost, ce ne peut être une explication suffisante. « Rendre les objets ordinaires informatisés est devenu un but en soi plutôt qu’un moyen de parvenir à une fin ». « L’affection que les gens portent aux ordinateurs se transfère sur tous les objets, même les plus ordinaires. Et plus les gens aiment utiliser l’ordinateur pour tout, plus la vie semble être incomplète si elle n’a pas de liens avec l’informatique ».

Bogost a pourtant été très critique envers cet internet des objets dont nous n’avions pas vraiment besoin. Mais à mesure que les objets connectés deviennent la norme, il faut bien se rendre à l’évidence que s’en moquer ne suffit pas, confesse-t-il en forme de mea culpa. Même si ces objets posent énormément de problèmes (ils sont 10 fois plus chers que le même objet non connecté, ils posent des problèmes de sécurité innombrables et deviennent inaccessibles dès que la connexion est indisponible…), force est de constater que visiblement, les consommateurs sont demandeurs. Même si on peut se désoler de l’omniprésence des ordinateurs, les gens semblent vouloir qu’ils le soient plus encore et semblent plutôt satisfaits des résultats.

Ce passage des usages extraordinaires aux usages ordinaires de l’ordinateur était en gestation depuis l’origine même de l’informatique et de l’intelligence artificielle. Bogost rappelle ainsi qu’Alan Turing n’a jamais affirmé que les machines pourraient penser ou égaler l’esprit humain, mais qu’elles seraient un jour capables de montrer un comportement convaincant. « Une machine de Turing – et donc un ordinateur – est une machine qui prétend être une autre machine » – en l’occurrence, un humain. Or, les objets intelligents ne sont rien d’autre que des tentatives de simulation d’autre chose, comme de se faire passer pour un appareil photo, une machine à écrire, un téléphone ou n’importe quoi d’autre. Et ils parviennent très bien à dépasser les objets qu’ils imitaient à l’origine. Le calcul devient une activité à part entière. « Aujourd’hui, les gens ne cherchent pas à avoir des ordinateurs pour faire des choses, ils font les choses qui leur laissent utiliser des ordinateurs ».

Pour Bogost, « lorsque l’utilisation des ordinateurs se dissocie de ses fins et devient un mode de vie, les buts et les problèmes ne semblent valides que lorsqu’ils peuvent être abordés et résolus par des systèmes informatiques ». Quand l’automatisation informatique est considérée comme la meilleure ou la seule réponse, alors bien sûr, seules les solutions d’ingénierie semblent viables. A l’heure où les ordinateurs sont disponibles, nous préférons les solutions numériques aux solutions analogiques, même si elles se révèlent imparfaites. « Les gens choisissent des ordinateurs comme intermédiaire pour le plaisir sensuel de les utiliser, et non pas uniquement comme un moyen pratique ou efficace de résoudre des problèmes ». Nous préférons les expériences informatiques du monde aux expériences du monde. « Au lieu d’essayer de convaincre les humains qu’ils sont des êtres humains, les machines espèrent maintenant convaincre les humains qu’ils sont vraiment des ordinateurs. » Comme un test de Turing à l’envers, ironise Bogost, à l’image des Captchas où l’ordinateur tente de savoir si nous sommes humains. Les ordinateurs nous fascinent estime Bogost : les véhicules autonomes sont attrayants non pas tant parce qu’ils peuvent libérer les gens du fardeau et du danger de conduire, mais d’abord parce qu’ils transforment les voitures en ordinateurs.

Pour Bogost, cette fascination est liée au « plaisir de la connectivité ». Aujourd’hui, nul ne souhaite être déconnecté. Pourquoi donc notre grille-pain ou notre sonnette devraient-ils l’être ? Etre absorbé par l’informatique semble être devenu un idéal. Notre rêve ultime semble être d’être en ligne tout le temps, d’être tout le temps connecté. Et transformer de plus en plus de choses en ordinateurs semble être devenu le moyen pour prolonger sans fin cette connexion. Pour Bogost, nous voulons que la réalité passe par le filtre des ordinateurs. Si l’on prend cette hypothèse au sérieux, alors tous les effets pervers du numérique ne sont que les conséquences d’une exploitation désirée et souhaitée. De là à ce que nous souhaitions nous fondre dans les machines, télécharger nos esprits pour y vivre éternellement, il n’y a qu’un souhait et un désir qui semble alors dans une continuité logique. Les ordinateurs nous ont déjà convaincus de venir vivre à travers eux. Ils n’ont pas même besoin de nous promettre l’immortalité. Ils ont juste besoin de nous faire croire qu’ils nous sont indispensables ou que nous sommes incapables d’imaginer faire des choses sans eux. Pour Bogost, la tragédie de ce constat n’est pas tant que nous risquons de mourir sans pouvoir télécharger nos cerveaux dans la machine, mais qu’en fait ces machines demeurent juste aussi ordinaires et impuissantes qu’aujourd’hui.

Reste que si le raisonnement iconoclaste de Bogost est fondé – bien qu’il ressemble beaucoup à une provocation, les chiffres de vente des objets intelligents sont loin d’être aussi faramineux qu’annoncés -, il nous faut nous demander ce qui nous séduit tant dans l’interaction avec les machines pour qu’on veuille faire passer la réalité par leur filtre. Pourquoi sommes-nous si sensibles à ce désir irrépressible de connectivité ? Qu’est-ce que cette connectivité permise par les ordinateurs excite en nous que nous voulions que tout passe par elle ? Qu’est-ce qui nous séduit tant dans la société connectée, dans cette interrelation aux choses et aux hommes que l’internet permet ?

Laissons la question ouverte…

Catégories: Veille et actualités

« Il ne faut pas libérer les données, il faut se libérer par les données »

lun, 02/10/2017 - 13:00

« “Libérer les données”, c’était le slogan des activistes de l’open data, les données ouvertes. Pour eux, l’administration devrait mettre à disposition ses données afin que l’on puisse les réutiliser. Mais réutiliser les statistiques de l’administration, c’est se plier à sa vision du monde. Pour pouvoir penser librement, il faut surtout créer ses propres données et mesurer le monde comme on le conçoit. Il faut se libérer par les données. »

(…) « Plutôt que de réutiliser les données de l’administration, il faut créer ses propres bases de données. C’est seulement en développant une statistique en dehors de l’Etat que l’on est capable de mesurer le monde – y compris l’action de l’Etat – en restant indépendant. »

(…) « En créant soi-même des statistiques, on change la manière dont un problème est perçu. »

Nicolas Kayser-Bril (@nicolaskb), indispensable datastoryteller. A lire du début à la fin !

Catégories: Veille et actualités

Hypnotisés par Hyperloop

lun, 02/10/2017 - 07:00

L’essayiste Geoff Manaugh (@bldgblog) pour le New Yorker en faisant référence à des projets des années 30, souligne combien la ville du futur a toujours eu besoin d’être un spectacle pour être la ville du futur. Transformer les difficultés du quotidien par des projets grandioses a toujours été populaire.

Hyperloop, le projet de transport futuriste d’Elon Musk et bien d’autres de ses projets – par exemple, son dernier en date, la « Big Fucking Rocket » (vidéo promotionnelle) de SpaceX qui propose non seulement de mener des missions vers Mars, mais désormais de relier n’importe quelle ville sur la planète en 30 minutes en passant par l’espace pour le prix d’un billet d’avion – ressemble assez à des idées que quelqu’un qui aurait trop regardé Docteur Who pourrait avoir. Sauf que Musk bénéficie d’une audience que beaucoup n’ont pas et d’une confiance inébranlable dans ses projets. Le problème d’Hyperloop, estime Manaugh, c’est de proposer un mégaprojet charismatique comme une solution aux problèmes du quotidien (Ethan Zuckerman ni disait pas autre chose en critiquant la voiture autonome). Si l’objectif d’Hyperloop est de résoudre la mobilité à grande échelle, il existe de nombreuses autres options qui ne nécessitent pas de « redémarrer » l’ensemble du monde urbain, rappelle pourtant Manaugh. On pourrait améliorer le financement du train, des bus, réparer les métros ou les ponts… … Hyperloop est intéressant si on le regarde comme une provocation, un moyen de lancer la conversation… Mais sinon ?

Pour Manaugh, la science-fiction sur laquelle ces visions transformatrices reposent a toujours proposé des réalités alternatives et une force symbolique, mais beaucoup de ces dystopies finissent par relever leur caractère catastrophique. L’architecte Rem Koolhaas suggérait d’ailleurs que la ville de Dubaï et ses projets pharaoniques était dans une impasse logique… En multipliant l’ambition de ses bâtiments, on se retrouve comme dans une série de films d’action toujours plus violents, mais toujours plus ennuyants. L’horizon inhabituel de la ville faite de tours de hautes technologies ennuyeuses a perdu à Dubaï tout sens de la mesure. Le résultat final est un désordre de superprojets sans signification. Pour Manaugh, « le risque de prendre en compte les visions originales de chaque milliardaire est que le monde entier devienne comme Dubaï, un mélange de projets incompatibles, d’infrastructures exclusives, dirigées par le secteur privé, mais sans cohérence ni but. C’est un design formidable, mais une urbanisation terrible… »

Pour Manaugh, Hyperloop n’est rien d’autre qu’un coup médiatique, un projet, qui, s’il est réalisé ne serait en rien une solution pour les gens. Pire, souligne-t-il, quelle vision de société le philanthrocapitalisme qu’incarnent Musk comme Dubaï proposent-ils ? Que construisent ces ensembles d’infrastructures propriétaires incompatibles entre elles ? Ne risque-t-on pas demain de voire surtout des voitures autonomes empêchées de traverser des ponts gérés par des technologies rivales, comme aujourd’hui les voitures de Telsa sont débridées à distance selon le bon vouloir du constructeur ?

La mathématicienne Cathy O’Neil (@mathbabedotorg) est plus critique encore. Envoyer des gens sur Mars (un des autres projets de Musk) est bien plus amusant que d’avoir à rendre des comptes, explique-t-elle dans une tribune pour Bloomberg. Pour elle, le fossé entre les problèmes des gens et les problèmes que ces entreprises proposent de résoudre s’agrandit. Cette fracture est liée à l’inégalité croissante. Quand les gens de l’élite vivent dans une bulle, ils ne font pas l’expérience des frictions de la vie normale. Cela explique qu’ils se concentrent sur des problèmes qui ne sont pas ceux du commun des mortels. A qui s’adresse le projet – fort peu soutenable d’ailleurs – de Big Fucking Rocket hormis à la super-élite de la planète ? Où cherche à nous conduire ce « capitalisme absolu », ce « nécrocapitalisme », qui ne semble plus concernés par aucune communauté locale pour privilégier l’accès au spectacle que lui permet une accumulation financière devenue complètement indépendante de l’intérêt social, comme s’en désole le philosophe marxiste Franco Bérardi dans son livre Tueries, forcenés et suicidaires à l’ère du capitalisme absolu, dénonçant l’alexithymie (une forme extrême d’absence d’empathie) dans laquelle se rejoignent les plus démunis comme les plus privilégiés ?

Sur son blog, Eric Vidalenc (@ericvidalenc), spécialiste en questions énergétiques, s’était énervé également contre les pseudo-bus anti bouchon Chinois sensés rouler au-dessus du trafic automobile qui avaient défrayé la chronique l’année dernière, se demandant pourquoi nous croyons autant ces escroqueries, pourquoi nous sommes aussi crédules. Se désolant du solutionnisme technologique qu’incarnent ces propositions qui visent toujours à reporter à demain la résolution des problèmes actuels.

Le spécialiste avait d’ailleurs été particulièrement mordant à l’égard d’Hyperloop. Rappelant notamment que l’emprise foncière nécessaire à un projet de ce type le rend peut réaliste ou combien ce projet favorise une polarisation, une concentration et une inégalité territoriale toujours plus poussée, notamment du fait de la forte limitation du cadencement et du débit des capsules de voyageurs dans les tunnels d’Hyperloop. « La question essentielle des transports collectifs n’est pas la vitesse absolue, mais celle du débit », comme le précisait l’économiste des transports Yves Crozet. Même le bilan énergétique d’Hyperloop s’avère bien moins magique qu’annoncé.

Et Eric Vidalenc de se désoler du fait que dès qu’on interroge un projet d’accélération… on soit taxé d’être contre le progrès. L’hystérie de la vitesse absolue que proposent nombre de projets de Musk ne sont qu’une réponse bien simpliste à une problématique complexe. Elon Musk ne propose décidément que de faire rêver ceux qui le veulent bien.

Catégories: Veille et actualités

L’illusion du futur (est) absolu(e)

ven, 29/09/2017 - 07:00

Le passé et le futur sont comme les deux pôles d’un aimant où chacun de nous est parcouru par la mise en tension de l’avenir qui appuie sur l’accélérateur du progrès tandis que le souvenir du passé freine les débauches technologiques, nous rappelant aux paradis (soi-disant) perdus. Mise en perspective de notre rapport au temps, au passé, au futur sous l’angle du design fiction, pour tenter de mieux cerner d’où nous parlons. Par Marie-Sarah Adenis.

L’illusion du futur (est) absolu(e) Design fiction, des infections aux diffractions des imaginaires

Il y a ce dessin bien connu en Physique pour illustrer la relativité restreinte. Des cônes de lumière permettent de “distinguer un événement passé, un événement futur et un événement inaccessible (dans le passé ou le futur)”.

Habile archer, homme de l’arkhè

Les historiens, les archéologues et les paléontologues scrutent le passé absolu en descendant dans les ténèbres de la mémoire du monde. Leur tournant le dos, oracles et algorithmes traquent le futur absolu dans l’alignement des étoiles ou des chiffres. Mais ce dos à dos n’est peut-être qu’un face à face car les uns et les autres travaillent souvent en miroir (depuis “l’hypersurface du présent”). Car il existe un passage secret entre le passé et le futur et le sablier s’y déforme comme sous l’effet de vases communicants. Quoi qu’il en soit, chacun cherche à se rapprocher de ce fil du temps absolu, qui perfore les cônes de haut en bas et donne une colonne vertébrale à l’ensemble, sa pointe acérée orientant la flèche du temps vers le futur et lui interdisant de faire demi-tour. L’homme des origines, de l’archaïque, de l’arkhè est aussi l’archer qui vise le futur de son arc bandé, parfois les yeux bandés. Si l’être humain ne peut se soustraire aux lois de la Physique et ne peut donc pas involuer le temps, il a depuis quelques millénaires développé maintes stratégies pour ne pas se soumettre entièrement aux lois de la Nature, et peut, sinon rebrousser chemin, au moins dévier la trajectoire du futur absolu. Vers quel avenir pointe-t-elle ? Chacun voudrait le dire, le savoir. Pour tordre le cou à la flèche du temps et l’obliger à s’incliner ne serait-ce que légèrement, il faut ruser.

Couper le futur en quatre

Comment s’y prendre pour opérer ces déviations ? Le design fiction donne à y penser en décochant ses flèches sur la cible des possibles, et marque des points selon qu’il vise les plausibles, les probables ou les préférables. Comme on coupe les cheveux en quatre, Norman Henchey propose de découper le futur en 4 : possible, plausible, probable, préférable, spectre maintes fois illustré par les pratiquants du design fiction :

Les exhalaisons du futur, à pleins poumons

Mais revenons aux cônes de lumière. Comment résister à l’invitation qui est faite à l’observateur de rejoindre la plateforme d’atterrissage de l’hypersurface du présent. “L’observateur” peut parcourir cette hypersurface de long en large, s’ouvrir au brouillard et autres exhalaisons du futur et du passé dont il peut s’emplir les poumons. Il pourra ainsi pénétrer l’illusion du temps que l’éloignement du présent épaissit et dont les parois s’évasent à l’infini. Pour être plus juste, la courbure des cônes devrait troquer sa rectitude contre une cambrure exponentielle, car plus on s’éloigne du présent, plus grande est l’incertitude (ce qui est représenté dans l’illustration suivante).

Presse à diamant, Presse du présent

Les deux cônes inversés taillent le présent en diamant, le futur et le passé pesant de tout leur poids sur le présent, le comprimant jusqu’à ce qu’il ne soit plus qu’un infime instant, à peine perçu, comme ces roches dont on veut mesurer la dureté. Car le diamant est utilisé dans les cellules à enclume de diamant pour connaître la composition des roches du noyau terrestre, tout comme le passé et le futur permettent de sonder notre présent pour en révéler non pas des compositions physicochimiques mais des dispositions automatiques, des comportements normatifs ainsi que des croyances (tous impulsés par le faisceau incident, représenté ci-dessous). Et c’est dans le présent qu’opère le design fiction, par la création d’un récit sur le futur ou le passé qui déstabilise notre présent et nous incite à développer d’autres horizons en passant par le débat et le raisonnement critique (faisceau diffracté, représenté ci-dessous)

C’est un autre faisceau, celui des nerfs, qui est diffracté en passant par le chiasma optique dans le système visuel. Et pour diffracter le faisceau du futur absolu, il faut assurément en passer par le débat contradictoire, qui lui aussi gagne à passer par Chiasma.

Des cônes pas

Le cône du bas (celui du passé) est souvent absent des représentations car l’obsession est au futur. Pourtant, il est fondamental car c’est lui qui permet d’assoir le cône du haut (celui du futur). Tenir sur la pointe, c’est prendre le risque de se casser la figure. Sauf si l’on s’imagine que la vitesse suffit à maintenir la toupie du temps en équilibre. C’est pourquoi ceux qui s’engouffrent dans le futur sans faire la part belle au passé semblent en perpétuelle accélération. Inspirés par le futur, aspirés, puis portés disparus. Car le vortex du futur dégage des vapeurs d’éther. Après quoi les hommes qui ressurgissent des brumes du futur sentent le souffre et menacent le présent avec des bribes de futur comme on taraude les fidèles d’une paroisse qui finissent par se soumettre à ces injections au futur, paralysés qu’ils sont devant ces prophéties.

Le futur nécessite une révolution du passé

Ne tenir compte que du présent pour faire face au futur, c’est donc croire que l’on peut tenir en équilibre sur la pointe, faire fi de la mémoire, des temps révolus alors qu’ils sont en constante révolution autour de leur axe et continuent, dans leur inertie, à influencer les événements à venir. Les spéculations sur l’avenir ont aussi leurs pendants dans les fictions que nous fabriquons quant à notre passé. Le passé est en effet presque autant sujet au fantasme et à l’invention que l’est le futur. Notre mémoire presque aussi vacillante à enregistrer la réalité que notre imagination à penser l’avenir. Ainsi, le cône du passé est lui aussi transpercé d’une multitude de petits cônes qui investissent le passé d’éléments contradictoires, reconstruits, interprétés. À l’image de notre mémoire sélective, de l’immense variabilité de nos expériences et de notre capacité à construire du sens, à le secréter, individuellement et collectivement.

Le passé et le futur sont comme les deux pôles d’un aimant où chacun de nous est parcouru par la mise en tension de l’avenir qui appuie sur l’accélérateur du progrès tandis que le souvenir du passé freine les débauches technologiques, nous rappelant aux paradis (soi-disant) perdus. Schizophrénie que David Benqué a si bien retranscrite (schéma ci-dessous).

Et puis le passé est aussi un champ d’exploration pour le design fiction. Sinon, où pourrait-on situer le travail de Marguerite Humeau qui propose, entre autres, une reconstitution de la voix de Cléopâtre ? Ou bien cette uchronie à laquelle elle nous invite dans son projet FOXP2 où elle retire un élément du puzzle du passé pour regarder comment la pyramide s’effiloche et à quoi ressemblerait le présent s’il en avait été autrement du passé ?

L’absolu mirage

Enfin on en vient au cône du futur, objet de toutes les convoitises qui centrifuge les regards, tourne sur lui même comme une toupie, à nous rendre fous, et ouvre son vaste récipient sur nos peurs et nos fantasmes. Le futur absolu qui trône en son coeur n’a aucun intérêt. Si nous le connaissions, nous ne pourrions de toute façon rien y faire. Car le futur absolu l’est par définition. Plus intéressantes que le mirage hypnotisant du futur absolu : les petites bribes de futur qui gravitent autour de cet absolu et murmurent des bouts de mondes qui nous parviennent, auxquels il faut prêter l’oreille, qu’il nous faut retranscrire, auxquels il faudra donner corps, dans un scénario, un récit, le plus réaliste possible. Alors, nous pourrons revenir dans le présent et nous demander si nous voulons de cette trajectoire ou non, et comment, éventuellement, réorienter le cône des possibles vers des futurs féconds, voluptueux, qu’il nous presse de vivre.

Le talon d’Achille du futur

Les infections et diffractions du passé expliquent certainement beaucoup des infections et diffractions du futur puisque les unes et les autres prennent vie dans les forges de notre esprit. Nous en sommes les hôtes, les captifs mais aussi les créateurs. Nous avons en nous et l’archer et l’homme de l’arkhè. Nous sommes le siège de ce dialogue avec lequel il faut naviguer à vue. Et pour ne pas donner des coups d’épée dans l’eau, il faut savoir ce que l’on vise. Pour le design fiction, c’est souvent le talon d’Achille du futur qui est en ligne de mire. L’endroit qui précisément n’est pas invulnérable. Il est donc un art du tir à l’arc qui s’ingénie à décocher ses flèches en périphérie des projecteurs pour infecter et diffracter nos imaginaires. Et contrairement à la flèche qui tua Achille, les flèches du design fiction ne sont pas empoisonnées. Mais elles peuvent être infectieuses. Car design fiction prononcé un peu maladroitement fait entendre “désinfection” mais aussi “des infections”. Et n’est-ce pas cela qui est au coeur de toutes ces pratiques, cette volonté d’infecter et de désinfecter les imaginaires collectifs pour diffracter et élargir le faisceau incident du temps ?

§

Ce double cône a en plus l’élégance hasardeuse de faire entrevoir le sablier, outil de décompte du temps que l’on peut, contrairement à notre réalité, retourner lorsque le temps est écoulé.

Marie-Sarah Adenis

Marie-Sarah Adenis (@MariesarahA) scientifique, entrepreneure et designer, explore les usages et les imaginaires liés aux biotechnologies à travers des projets de design critique.

Catégories: Veille et actualités

Comment nous passer de la personnalisation ?

mer, 27/09/2017 - 07:00

La personnalisation est toujours présentée à la fois comme le Graal de la transformation numérique et la raison de l’exploitation toujours plus poussée des données personnelles des utilisateurs. Elle est une promesse qui ne se suffit jamais à elle-même : sa précision, son efficacité, son adaptabilité sont toujours améliorables et perfectibles. Pour s’ajuster parfaitement à chacun d’entre nous, elle nécessite toujours plus de données, pareil à un puits sans fond qui espère toujours trouver dans notre intimité l’information ultime qui nous caractérisera uniquement, exactement et complètement.

Mais où est passée la personnalisation ?

Pourtant, quand on regarde un peu le fonctionnement des services en ligne, force est de constater qu’à mesure qu’elle nous est assénée comme notre avenir le plus certain, la personnalisation ressemble chaque jour un peu plus à une illusion. En fait, ce qu’on tente d’adapter, ce n’est pas notre unicité à un service, mais les caractéristiques d’un service à de grands ensembles d’utilisateurs auxquels les systèmes tentent de nous faire correspondre peu ou prou. La publicité en ligne ne nous cherche plus nous, internaute unique dans l’océan des logs, elle cible les cohortes auxquels nous correspondons : cohortes d’âges, de revenu, de résidences, d’intérêts… Hormis quand nous revenons d’un magasin en ligne, où elle s’affole pour nous montrer les produits qu’on a le plus souvent déjà acheté, la publicité nous montre, au mieux ce qu’ont vus nos cohortes d’amis, ce qu’ont vus des cohortes de gens censés nous ressembler, au pire ce que voit n’importe qui.

Après avoir longtemps cherché à découvrir nos singularités, les grandes machineries du web semblent même avoir fait machine arrière sur la question de la personnalisation. Le moteur de recommandation de YouTube en fournit une très bonne illustration : les outils de personnalisation comme l’historique où les abonnements à des chaînes ont été peu à peu abandonné au profit d’outils qui produisent du consensus, de l’adhésion, de l’engagement. Le Time Watch, le temps passé des autres utilisateurs, et la fraîcheur des contenus, sont devenus les critères principaux de la recommandation. On vous recommande ce que les autres ont vu, viennent de voir, ce qu’ils sont censés avoir le plus apprécié seulement parce qu’ils y ont passé du temps. On en revient – ou on ne sort pas – au plus lu, au plus vu, au plus recommandé… La personnalisation semble en passe de devenir rien d’autre qu’un prétexte pour adapter les contenus les plus vus à notre réceptivité. Elle ressemble de plus en plus à une optimisation de l’audience qu’à une personnalisation.

La personnalisation visait originellement à moduler les services numériques auxquels on accédait selon ses caractéristiques et préférences personnelles. Son objectif était de rendre chaque service unique, adapté aux besoins et goûts de l’utilisateur. Mais est-ce vraiment cela que proposent les services en ligne ? Cherchent-ils à donner à chacun une information unique depuis ce qu’ils savent de nous ? Force est de constater que ce que les systèmes poussent jusqu’à chacun ce n’est pas le spécifique, mais bien ce qui est le plus commun. Nous ne sommes pas devant une personnalisation, mais bien confrontés à son contraire : une dépersonnalisation. Nous sommes fondus dans les cohortes et catégories auxquelles nous sommes reliés. Plutôt que d’être individualisés, nous sommes généralisés… ce qui participe largement à la polarisation et aux discriminations dont se font l’écho chaque jour les informations sur nos rapports aux services numériques et réseaux sociaux du web.

Dans ce contexte, la personnalisation ressemble de plus en plus à une cosmétique gentille et indolore. Facebook souhaite son anniversaire à chacun. Mais il nous propose pour cela le même outil qu’il propose à tous les autres. La personnalisation est devenue une façade, pareille à un appartement-témoin dont on nous dirait qu’il a été décoré spécialement pour nous, alors qu’il a seulement été conçu pour convenir au plus grand nombre de personnes possible.

Gérer la masse est plus simple que gérer chacun

La catégorisation est finalement bien plus simple que la personnalisation. Gérer des catégories, des familles, des groupes, de larges pans d’utilisateurs est bien plus commode. Cela permet de créer quelques profils types… et depuis eux, quelques routines qui suffises pour gérer des millions d’utilisateurs. L’identification des schémas ne consiste pas à identifier chacun, mais seulement des caractéristiques qui se prêteront à l’exploitation. Or, l’enjeu de la catégorisation est bien de rendre les profils productifs, ce que ne permet pas en fait l’individualisation.

Les algorithmes ne cherchent pas à nous distinguer, mais à nous catégoriser. Et ceux qui se servent des catégories ne cherchent pas à nous atteindre – à atteindre chacun d’entre nous spécifiquement – mais à toucher des catégories de personnes, des profils types auxquels nous correspondons. L’enjeu est bien de nous discréditer, c’est-à-dire de nous faire entrer dans quelques cases d’une catégorisation assez élastique. Nous ne lirons pas demain des articles de presse avec un titre différent par utilisateur. L’A/B testing, l’outil principal de l’amélioration des services, ne teste qu’une maigre poignée d’option, 2 le plus souvent, 4 ou 5 au mieux. Et au final, il finit par servir la même à tout le monde : celle qui a le mieux marché ! Le test psychologique des Big Five distingue une poignée de profils différents et permet d’établir quelques variations pour mieux cibler une offre marketing. Mais là encore, l’enjeu n’est pas tant de distinguer chacun que de faire entrer chacun d’entre nous dans la catégorie la mieux adaptée à son profil. La personnalisation n’a rien de personnel : elle vise juste à vous faire entrer dans une case comme si c’était dans un moule. Les bulles de filtres d’Eli Pariser ne sont pas tant des bulles personnalisantes que des bulles catégorisantes.

En fait, force est de constater que servir le plus vu, le plus partagé, le plus écouté… fonctionne bien mieux qu’un matching qui serait taillé sur mesure pour chacun. Certes, en étant au croisement de multiples catégories publicitaires, chacun est unique. Mais cette unicité, tout le monde s’en fout. Ceux qui cherchent à nous atteindre ne regardent au mieux que les catégories, les communautés, les groupes auxquels on appartient… Si nous n’entrons dans aucune, au pire, ils feront ce qu’ils ont toujours fait : ils déverseront ce qui marche le mieux, ce qui marche pour le plus grand nombre.

Sous les strass et paillettes du « digital », nous restons des produits de masse. Les systèmes suivent des modèles établis. Si les relations qui nous informent sont différentes pour chacun, les modèles sont communs. Facebook se sert de notre profilage comme d’une pilule pour mieux nous montrer finalement le plus commun : il ne cesse de nous mettre en avant les liens les plus chauds que nos relations ont partagés et des millions d’autres partagent au même moment, les vidéos les plus vues, les statuts qui ont recueilli le plus de commentaires. Nous avons beau nous ingénier méthodiquement à faire disparaître ces contenus dont on ne veut pas et ces flux continus de vidéos, ils reviennent aussitôt qu’on les signale, qu’on les masque, qu’on demande à ne plus les suivre… via une autre de nos relations, prétexte à nous servir toujours ce qui s’agite et agite le plus. La seule concession à la personnalisation semble n’être plus que la surprésence qu’une poignée de proche (une 30aine d’amis sur les milliers que nous avons), mais qui semble surtout là pour s’assurer de notre assiduité. Pour l’essentiel, nous sommes toujours ramenés aux troupeaux auxquels nous appartenons, à l’audience et à son volume. Notre personne n’intéresse personne.

En fait, tout cela calcule une identité fluide, contingente, qui n’est pas tant notre identité que la somme des caractéristiques que nous partageons avec d’autres.

Si la personnalisation est un leurre, alors la collecte de nos données est inutile

Si la personnalisation est un leurre, une chimère, un objectif inatteignable… et que les grandes entreprises du web ont finalement renoncé à atteindre, alors se pose la question de nos données personnelles… Si la personnalisation n’est plus de mise, alors la collecte – complète, totale, incessante – de nos données ne sert à rien.

L’inutilité d’une collecte de données exhaustives est depuis longtemps documentée. Les services de musique en ligne par exemple n’ont pas besoin d’accéder à toutes les chansons que nous écoutons pour faire des recommandations pertinentes. Au pire, quelques testeurs qui livreraient leurs données détaillées seraient largement suffisants pour mettre à jour les moteurs de recommandation et leur permettre de s’entraîner sur de nouvelles données… pour produire les recommandations alimentant les autres utilisateurs. Au mieux, une fois les données entraînées, elles pourraient continuer sans avoir besoin d’enregistrer le jour et l’heure de chacune de vos écoutes.

Si les données personnelles s’avèrent ne plus être le pétrole des grandes machineries du web, alors la collecte sans fin de la moindre de nos données n’a plus d’intérêt. Cela signifie que si l’on reconnaissait que la personnalisation est un échec et qu’elle ne mène nulle part, nous pourrions enfin nous attaquer à réduire l’hypersurveillance organisée.

Pour autant, personne ne semble être prêt à céder. Même si elle est un leurre pour entretenir notre consentement à l’utilisation de nos données, nulle ne souhaite reconnaitre que la personnalisation est un mythe, de plus en plus délaissé par ceux-là mêmes qui la portaient aux nues. Tous les business models de demain continuent à reposer sur l’analyse de toujours plus de données. Même si dans la réalité, les services commencent à se rendre compte que cette perspective hypercroissantiste ne mène nulle part… En attendant, l’or noir coule à flots et nul ne souhaite en tarir le flux. Si on espère que le Règlement Général sur la Protection des Données (RGPD) participera à un certain coup d’arrêt, il ne fera pas pour autant réfléchir ceux qui exploitent nos données de la vacuité de cette exploitation. Il ne permettra pas de prendre conscience que plus qu’un or noir qu’il nous faut exploiter sans entrave, les données personnelles sont des déchets toxiques que nous devrions gérer avec précaution et retenue.

Comment nous défaire du mythe de la personnalisation ?

Le problème demeure que nous avons intégré la personnalisation comme l’une des plus grandes promesses des outils numériques. Bien sûr : on nous promet que les systèmes d’Intelligence artificielle, eux, réussiront là où les algorithmes ont échoué. On nous promet Her, le compagnon parfait, Jarvis, le majordome obéissant et toujours prévenant, Watson, le médecin sans faille… Mais c’est la promesse qu’on fait à tous et l’aboutissement que nous semblons tous vouloir. Les systèmes d’IA ont les mêmes défauts. Ils n’apprennent pas de tant de chacun que de tous. Ils maximalisent non pas l’apprentissage individuel, mais d’une agrégation de millions d’apprentissages. Et c’est bien d’ailleurs les IA de YouTube qui lui ont montré que la personnalisation n’était pas le critère à optimiser pour développer le temps passé à regarder des vidéos. L’exploitation de nos biais psychosociaux, comme la réciprocité sociale ou l’approbation sociale, fonctionnent bien mieux.

Pour autant, la personnalisation est un argument marketing très fort qui nous promet que le service va nous satisfaire puisqu’il est fait pour nous. Qu’importe si en réalité, on se retrouve avec des appartements à louer qui se ressemblent tous. Les systèmes d’apprentissages automatisés ne se passeront pas demain de nos données personnelles. Non pas tant qu’ils les utilisent effectivement, mais parce que leurs apprentissages ne sont jamais terminés.

Le problème est, comme le soulignait Rob Horning, que « la collecte de données est utilisée pour créer des marqueurs d’identité à propos de nous que nous ne voyons pas et que nous ne contrôlons pas, que nous ne pouvons pas évaluer, ni accéder, ni modifier directement ». Nous sommes à chaque instant discriminés, calculés, intégrés dans des catégories… sans être capable de voir les catégories produites par-devers nous, ni ceux qui sont catégorisés avec et en même temps que nous, ni bien sûr comment elles sont utilisées par-devers nous. Pourrions-nous imaginer alors remettre un peu de symétrie entre calculés et calculateurs ? Non pas seulement en nous montrant quelles catégories nous caractérisent, mais leur exploitation même ?

L’opacité des traitements, les catégorisations dont nous sommes les sujets, crééent une apophénie qui nous fait croire que le monde tourne autour de nous quand nous n’en sommes que le produit. « Quand on impose des modèles ou des relations sur des choses non reliées, on l’appelle apophénie. Quand on créé ces connexions en ligne, on l’appelle internet », ironisait avec mordant Molly Sauter pour Real Life.

La personnalisation est finalement une promesse bien plus agréable et satisfaisante pour l’égo que l’idée que nous sommes les victimes consentantes des rets de systèmes qui exploitent nos biais sociaux. Pourtant, apprendre à faire en faire le deuil nous permettra peut-être enfin de remédier aux problèmes dans lesquels le mythe de la personnalisation nous maintient.

Hubert Guillaud

Reste que si ces perspectives s’avèrent fondées, ces questionnements en apportent d’autres. Comment désigner cette personnalisation qui n’en est plus une ? Par quoi la remplacer ? Comment nous aider à nous en défaire, c’est-à-dire nous aider à arrêter de croire qu’elle est l’avenir des services ?

Catégories: Veille et actualités

Langues artificielles (2/2) : une entreprise philosophique ?

mar, 26/09/2017 - 07:00

Comme nous l’avons vu, il existe plusieurs manières d’aborder la création de langues artificielles : le dothraki, le klingon, l’elfique sont des « artlangs » nous dit Peterson, autrement dit des conlangs élaborés à des fins artistiques. Il y a aussi, bien sûr les langues internationales, comme le volapük et l’espéranto…

Mais on peut aussi se livrer à cette activité pour des raisons philosophiques, voire métaphysiques. Et historiquement, cela a été le cas des premiers conlangs…

Avant l’ère moderne, les langues artificielles appartenaient au domaine du sacré : autrement dit, elles étaient révélées lors de visions (ou plus exactement d’auditions). La première du genre est sans doute la Lingua Ignota (« le langage inconnu ») reçue par Hildegard von Bingen, cette prodigieuse abbesse du Moyen-Age, connue pour ses compétences en botanique et ses compositions musicales. Mais sa lingua ignota, nous explique Peterson, reste avant tout un vocabulaire, une liste de mots : elle ne comporte pas de grammaire spécifique ou originale.

Un autre langage « mystique » bien connu des occultistes est le langage angélique ou énochien, reçu par John Dee ou plutôt par son médium, Edward Kelly, à la fin du XVIe siècle. Il s’agit d’un peu plus qu’un glossaire, puisqu’il possède une grammaire et qu’il existe certains textes rédigés en cette langue. Pourtant, pour le le linguiste Donald Laycock, qui étudia le premier cet idiome, il n’a pas la complexité d’un vrai langage et reste très inspiré de l’anglais dans ses structures syntaxiques. A cause de l’énochien, on a attribué à Dee et Kelly la paternité du mystérieux manuscrit Voynich, rédigé en une langue et un alphabet inconnus. Une hypothèse aujourd’hui abandonnée, les théories penchant actuellement pour une origine italienne.

Un autre exemple, beaucoup plus tardif, est celui de Hélène Smith qui sous transe, affirmait s’exprimer en martien. Mais là encore, on a constaté qu’il n’y avait pas d’exotisme grammatical : le « martien » utilise la grammaire du français.

Cette manière de recevoir en transe des mots ou des phrases d’une langue inconnue est classique en histoire des religions, c’est le fameux phénomène de la glossolalie. Les papyrus grecs magiques datant de l’antiquité tardive contiennent un certain nombre de « mots barbares » dont l’origine est inconnue et dont on ignore s’il s’agit de pur charabia, de mots déformés d’une langue existante, ou d’un code.

Les langues « philosophiques »
Mais après la Renaissance on voit apparaître une nouvelle sorte de langages artificiels. Ce sont les « langues philosophiques » qui prétendent refonder notre capacité à exprimer le réel. La plus connue d’entre elles est probablement celle publiée par John Wilkins en 1668 – à noter que Neal Stephenson traite largement du langage philosophique de Wilkins, dans le premier volume de son « cycle baroque« … hélas non traduit.

Wilkins exposa son projet dans un monumental essai de 600 pages, An Essay towards a Real Character, and a Philosophical Language, que les plus courageux pourront télécharger sur archive.org. Comme nous explique Jorge Luis Borges dans l’article qu’il a consacré à Wilkins (disponible ici, mais uniquement en anglais, et publié en français dans le livre Enquêtes) : « Il divisa l’univers en quarante catégories ou genres, ces derniers étant à leur tour subdivisés en différences, elles-mêmes subdivisées en espèces. Il a assigné à chaque genre un monosyllabe de deux lettres ; à chaque différence, une consonne ; à chaque espèce, une voyelle. Par exemple : De, qui signifie un élément ; Deb, le premier des éléments, le feu ; Deba, une partie de l’élément feu, une flamme. »

Dans son livre In the land of invented languages, Arika Okrent nous raconte son expérience avec le système de Wilkins : « La majeure partie des six cents pages de description de la langue de John Wilkins est occupée par une catégorisation hiérarchique de tout ce qui existe dans l’univers. Tout ? Lorsque je me suis assise pour affronter son An Essay towards a Real Character, and a Philosophical Language, j’ai fait ce que n’importe quel spécialiste en linguistique raisonnable et mature doit faire. J’ai essayé de rechercher le mot «merde». »

Opération réussie pour l’intrépide linguiste, qui a découvert que cela peut se dire Cepuhws. Ce signifie le mouvementent, p la purge, uhw, les « parties grossières », et s marque l’opposition (au vomissement, dans ce cas).

Évidemment, tout cela implique non pas une « rationalisation » du langage, mais une bonne dose d’arbitraire. Les catégories sont créées par Wilkins lui-même et reflètent son propre esprit (et celui de son époque). Par exemple, les animaux sont catégorisés par la forme de leur tête. C’est d’ailleurs dans l’article que Borges lui consacre qu’on trouve sa fameuse citation d’une « encyclopédie chinoise » (fictive ?)  proposant la classification suivante des animaux :
« a) appartenant à l’Empereur, b) embaumés, c) apprivoisés, d) cochons de lait, e) sirènes, f) fabuleux, g) chiens en liberté, h) inclus dans la présente classification, i) qui s’agitent comme des fous, j) innombrables, k) dessinés avec un pinceau très fin en poils de chameau, l) et caetera, m) qui viennent de casser la cruche, n) qui de loin semblent à des mouches ».

L’espoir d’une langue universelle relatant exactement la pensée n’est pas mort avec Wilkins. Par bien des côtés, on retrouve cela chez Leibniz. Et de nos jours, une telle ambition peut se retrouver avec des « langages logiques » comme le loglan ou le lojban, mentionnés dans notre article précédent.

Il existe un wiki en français particulièrement complet sur le lojban. Pour s’initier, le plus simple est de se rendre sur l’introduction au lojban proposée sur la page d’accueil. On y apprend ainsi que les verbes sont la base du langage. On crée les noms en rajoutant une préposition à partir du verbe. Par exemple, prami veut dire « aimer », et lo prami signifie « un amoureux ».

De même, les verbes ne se conjuguent pas, tout se règle là encore à coup de prépositions.

On aurait tort, nous disent les aficionados du lojban, de croire que sous prétexte que celui-ci est un langage logique, qu’il s’agirait d’un mode d’expression austère qui rend difficile l’expression d’émotions. Au contraire, le lojban permettrait d’exprimer des subtilités auxquelles nos langues communes n’offrent pas d’accès aisé. Par exemple .iu signifie amour, .ui le bonheur et nai, la négation. .iu.uinai exprime en un seul mot « Je vis un amour malheureux », comme nous l’explique la Wikipédia (bien complète aussi sur le lojban). Attention, .iu et .ui ne sont pas des noms, mais une forme grammaticale typique du lojban, les « indicateurs d’attitudes ».

Et revoilà les extra-terrestres
Reste la question du langage alien, à mi-chemin entre les langages philosophiques et les « artlangs » de la science-fiction.

Une première tentative, datant de 1960, de créer un langage susceptible de permettre la communication avec des extraterrestres via la logique, le lincos, a été présenté dans l’ouvrage de Hans Freudenthal, Lincos : Design of a Language for Cosmic Intercourse, Part 1 (il n’y a jamais eu de partie 2). Bien que le lincos repose sur la logique, comme le loglan, il lui est donc antérieur de quelques années, et surtout son ambition est tout à fait différente. Alors que Brown cherchait à élaborer un test de l’hypothèse Sapir-Whorf, Freudenthal expose lui un système de communication universelle susceptible de mettre en contact des espèces issues de mondes différents. En assumant bien sûr que la logique est un universel !

Dans ce domaine, les « logogrammes » du film Premier contact de Denis Villeneuve sont certainement un cas d’école. Il s’agissait de créer un système d’écriture non linéaire, les extraterrestres du film n’ayant pas la même notion du temps que nous.

Patrice Vermette, le designer du film, a créé à peu près une centaine de ces « logogrammes » en se basant sur une inspiration que lui a suggérée sa femme. Comme nous l’explique Wired : « Un seul logogramme peut exprimer une pensée simple («Salut») ou complexe («Salut Louise, je suis un étranger, mais je viens en paix»). La différence réside dans la complexité de la forme. L’épaisseur d’un logogramme porte également un sens : un trait d’encre plus épais peut indiquer un sentiment d’urgence ; un plus mince suggère un ton plus calme. Un petit crochet attaché à un symbole signifie une question. Le système permet à chaque logogramme d’exprimer un ensemble d’idées sans respecter les règles traditionnelles de syntaxe ou de séquence. »

Mais comment des êtres humains, face à un tel système, pourraient-ils en comprendre la signification ? Contrairement à la plupart des créateurs de conlangs, les concepteurs des logogrammes devaient imaginer deux systèmes : le langage et le moyen de le décrypter. Pour imaginer de façon réaliste comment les héros du film pourraient procéder à un tel décodage
les concepteurs du langage se tournèrent vers Stephen Wolfram. Le créateur de Mathematica n’avait pas assez de temps à consacrer au sujet, mais son fils Christopher se montra désireux de travailler sur les logogrammes. Une partie du pseudo-code qu’il a réalisé se retrouve dans le film, et une longue vidéo (2h en anglais) explique comment il s’y est pris…

Aujourd’hui, la mode n’est plus trop à la création de « langages philosophiques », et ce sont les « artlangs » qui occupent désormais le devant de la scène conlang. Après tout, c’est compréhensible : le lojban n’a pas apporté de réponse à la question de l’hypothèse Sapir-Whorf et les ambitions « messianiques » d’un système comme celui de Wilkins ont très vite montré leurs limites. Pourtant même lorsqu’on crée un « artlang » sans autre but que l’amusement ou la fiction, on se lance déjà dans une entreprise philosophique. Comment représenter le monde d’une manière différente de celles imposées par nos habitudes mentales ? Les catégories que j’utilise pour décrire le monde sont-elles les seules correctes ? Inventer un conlang ne changera pas le monde, c’est sûr. Mais il peut permettre, modestement, d’ouvrir un peu plus l’éventail des possibilités, aider à penser « hors de la boite »…

Rémi Sussan

Catégories: Veille et actualités

Pages