Actualités TIC

Vers un design de la médiation (2/2) : jouer avec les interfaces

Internet Actu - mer, 15/11/2017 - 06:00

Dans la première partie de ce dossier, j’ai tenté de montrer, avec l’aide du remarquable article du journaliste et développeur James Somers, que la manière même de produire du code était en train d’évoluer, que nous passions de l’écriture artisanale à des modèles de programmation qui permettent une compréhension plus globale de ce que le code accomplit. Que la complexité à laquelle le code parvenait nécessitait de nouvelles approches, de nouvelles modalités de conception. De nouveaux outils ouvrent des possibilités pour faciliter cette relation, pour transformer le dialogue entre le code et ce qu’il produit, entre codeurs et codés. De nouvelles formes de médiation entre le code et les développeurs ouvrent la voie à une autre forme de médiation entre les données, les systèmes, les traitements et ceux qu’ils calculent. Une évolution qui, via les interfaces, impacte directement notre rapport aux données et aux traitements qu’ils produisent. Dans la longue histoire des interfaces, une nouvelle étape de la médiation entre systèmes techniques et société semble se dessiner. Des interfaces optimisées et lisibles pour les machines comme le code ou jeux de données, nous glissons vers des interfaces plus accessibles aux humains tout en permettant leur exploitation conjointe par les hommes et les machines. Telle est la promesse du design de la médiation aux données.

Des datavisualisations aux « explications à explorer »

Les datavisualisations (ou visualisations de données) n’ont jamais été uniquement une façon de faire de jolis graphiques depuis des données. Depuis l’origine, elles sont liées à « l’engagement » que le concepteur peut tisser entre le lecteur et les données, même si elles se sont longtemps peu prêtées à manipulation et l’interaction. Reste qu’elles sont devenues peu à peu de moins en moins statiques, permettant de modifier les configurations, d’intervenir sur certains paramètres pour les faire varier, de zoomer ou dézoomer (comme dirait le sociologue Dominique Cardon)… Cette possibilité d’agir sur les données, d’interagir, introduit une forme de jeu qui ouvre à une compréhension nouvelle de ce qu’elles recouvrent.

La mathématicienne Cathy O’Neil ne disait pas autre chose quand elle soulignait, parlant des algorithmes et des systèmes techniques : « vous ne savez pas vraiment ce que fait un modèle tant que vous ne pouvez pas interagir avec lui ». L’interaction a toujours été un moyen de comprendre. La possibilité de manipuler et de changer les modalités par la manipulation est un moyen de saisir concrètement les conséquences de nos actions et donc d’apprendre et de comprendre, comme le suggéraient déjà les psychologues John Dewey et Jean Piaget.

Bret Victor (@worrydream), le développeur qu’évoquait James Somers dans son article a parlé « d’explications à explorer » (Explorable Explanations) pour évoquer de nouveaux modèles d’interactions. Un concept désignant l’engagement dans une lecture active via des documents réactifs, c’est-à-dire des documents permettant de jouer avec des hypothèses et d’en explorer les conséquences, via des procédés interactifs. L’enjeu expliquait-il est de permettre au lecteur de développer « une intuition sur le fonctionnement d’un système ».

« Un lecteur actif pose des questions, considère des alternatives, remet en question des hypothèses et remet même en question la fiabilité de l’auteur. Un lecteur actif tente de généraliser des exemples spécifiques et de concevoir des exemples spécifiques de généralités. Un lecteur actif n’absorbe pas l’information de manière passive, mais utilise l’argument de l’auteur comme un tremplin pour développer sa pensée critique et sa compréhension profonde.

Est-ce que nos environnements de lecture encouragent la lecture active ? Ou s’y opposent-ils totalement ? Un outil de lecture typique, tel qu’un livre ou un site web, affiche l’argument de l’auteur… et rien d’autre. La ligne de pensée du lecteur reste interne et invisible, vague et spéculative. Nous formons des questions, mais nous ne pouvons pas y répondre. Nous considérons des alternatives, mais ne pouvons pas les explorer. Nous remettons en question les hypothèses, mais nous ne pouvons pas les vérifier. Et donc, à la fin, nous faisons confiance aveuglément, ou pas, et nous manquons la compréhension profonde qui vient du dialogue et de l’exploration.

Explorable Explanations est mon projet général d’idées qui permettent et encouragent une lecture vraiment active. Le but est de changer la relation des gens avec le texte. Les gens pensent actuellement que le texte est une information à consommer. Je veux que le texte soit utilisé comme un environnement dans lequel réfléchir. »

Pour lui donc, les contenus ne peuvent pas seulement être les conteneurs d’une information destinée à être consommée, mais doivent être aussi les contenants d’une réflexion pour nous amener à en être acteurs. « Un document réactif permet au lecteur de jouer avec les hypothèses et analyses de l’auteur et d’en voir les conséquences ».

Fort de ce constat, son travail a consisté depuis à produire des documents réactifs et à développer des outils permettant d’interagir avec les concepts depuis les données.

Dans un autre de ses essais interactifs, « En haut et en bas de l’échelle de l’abstraction« , Victor Bret précise par l’exemple son concept d’explications explorables. L’exemple qu’il prend dans cette démonstration est un système de commande d’une simulation automobile permettant à une représentation de voiture de circuler sur une route. Il établit sa démonstration par la programmation de petits jeux interactifs pour aider à comprendre comment créer des règles pour guider la voiture, ajoutant à chaque volet de complexité de son explication toujours un peu plus d’interactivité. Pour lui, explique-t-il, le défi n’est pas tant dans la construction des systèmes que dans leur compréhension : la conception doit permettre d’explorer, de passer d’un niveau d’abstraction à un autre. L’interactivité, les modélisations et les données permettent de comprendre et jouer de concepts et modèles complexes par induction : en déplaçant des curseurs, en modifiant des chiffres, en comprenant la récurrence de schémas… De faire de la pédagogie depuis le jeu et l’interactivité, à l’image de la promesse originelle du multimédia.

Vers des systèmes de visualisation pour manipuler le monde des données

Ses travaux, initiés dès 2011, ont inspiré toute une communauté de développeurs qui ont construit depuis une foule d’outils et de contenus interactifs.

Victor Powell (@vicapow, qui travaille désormais chez Uber) et Lewis Lehe se sont inspirés des travaux de Victor Bret pour créer leur agence Setosa.io, mais surtout « Expliquer visuellement » un site qui agrège des explications visuelles et interactives de concepts mathématiques ou statistiques, via des animations et des graphiques que le lecteur peut manipuler. Jack Schaedler (@jackshaedler) pour sa part a publié tout un site pour expliquer les ondes, les cercles, les sinus et cosinus et les signaux. Mike Bostock (@mbostock) a publié « Visualizing Algorithms », un ensemble d’explications interactives qui permettent de comprendre les règles logiques des algorithmes. Daniel Kunin a développé pour sa part un site pour expliquer les probabilités et les statistiques. Stephanie Yee (@stephaniejyee et Tony Chu (@tonyschu) du studio R2D3 ont créé un cours visuel pour comprendre l’apprentissage automatique.

Les « explications explorables » ne se limitent pas aux mathématiques, rappelle le data journaliste et designer de données Maarten Lambrechts (@maartenzam) dans un remarquable article de synthèse, évoquant le travail de Chaim Gingold (@cgingold) sur Earth Primer (vidéo), une application pour iPad sous forme de manuel interactif pour comprendre des concepts de géologie, d’écologie et de météorologie, en permettant au lecteur de voir les effets de la pluie, des vents ou de la température sur les sols, le relief et la végétation.

Nicky Case (@ncasenmare, blog) s’intéresse plus aux phénomènes sociaux qu’aux questions techniques. Il a réalisé d’incroyables démonstrations « jouables » pour nous permettre de mieux les comprendre, comme Neurones névrotiques qui permet de comprendre le fonctionnement des neurones, la théorie des assemblées de neurones et la thérapie d’exposition, une technique de désensibilisation utilisée en psychothérapie comportementale pour combattre les phobies, le trouble du stress post-traumatique ou d’autres types d’anxiété. La parabole des polygones de Vi Hart et Nicky Case est une histoire interactive qui explique le fonctionnement de la ségrégation dans la société, ou comment un petit biais individuel aboutit-il à une grande ségrégation collective. L’évolution de la confiance est un jeu sur le même principe pour regarder comment la confiance et la coopération se disséminent entre les gens, à partir des théories des jeux.

Les « explications explorables » ont d’ailleurs leur portail (@explorables), maintenu par Maarten Lambrechts et Nicky Case, qui tente de recenser un grand nombre de ces nouveaux objets.

Comme le souligne Victor Bret en conclusion de l’échelle de l’abstraction, pour comprendre un système, il faut pouvoir l’explorer. Et pour l’explorer, il faut pouvoir contrôler et agir sur les paramètres. Pour lui, ce processus dynamique permet de rendre concrète l’expérience d’un système, de « reconstituer progressivement une compréhension pour guider nos décisions ». Pour Maarten Lambrechts, ces dispositifs, qui permettent d’expliquer par l’exploration, sont l’avenir même de l’éducation.

Dans une récente conférence faite pour la Long Now Foundation, Nicky Case explique avec une réelle énergie que face à la complexité, il faut pouvoir voir les systèmes dans leur totalité : il parle d’ailleurs de « systèmes de visualisation », pour évoquer ces nouvelles interfaces ! Pour y parvenir, il est nécessaire de rendre les choses abstraites, concrètes. C’est-à-dire de faire descendre les idées abstraites au niveau de compréhension des gens. Et que pour cela, la visualisation ne suffit pas, il faut pouvoir manipuler le monde des données. Plus que les mots, ces systèmes permettent également de favoriser la communication, notamment parce qu’ils reposent sur de la visualisation qui est plus universellement accessible que le texte. Mais pour lui, c’est l’assemblage des deux – « montrer et dire » – qui prend du sens, car cela nous permet d’être guidé dans notre parcours de compréhension. Comme une carte, qui nous montre un chemin dans un territoire complexe.

Reste que cartographier et rendre accessible un système complexe n’est pas si simple, s’amuse le développeur. Bien souvent, on n’y comprend rien, à l’image de la célèbre cartographie de la stratégie américaine en Afghanistan, qui, comme s’en est amusé un général Américain, permettrait certainement de gagner la guerre pour qui la comprendrait. Trop souvent les cartes, graphiques et visualisations ne donnent aucune ligne directrice, oubliant de permettre de rendre les informations plus simples ou plus accessibles, mais également plus adaptables pour les expérimenter par soi-même. Pour comprendre, il faut aussi que les systèmes favorisent une forme de manipulabilité des paramètres, de jouabilité…

Pour Nicky Case, nos erreurs d’interprétations sont liées au fait qu’on utilise une pensée linéaire pour comprendre des systèmes complexes. Or ceux-ci ne sont pas linéaires, mais reposent sur des boucles de rétroactions qui les renforcent, qui les équilibrent ou créent du chaos. Comprendre la complexité nécessite donc de faire appel à des documents non linéaires. C’est tout l’enjeu de Loopy, un système de cartes mentales (mindmap) dynamiques permettant justement de représenter simplement des interactions entre systèmes, que le développeur a mis au point. Pour Nicky Case, ces systèmes de visualisation jouables doivent avant tout nous permettre de comprendre comment se joue la complexité.

Des systèmes de visualisation aux design de la médiation

Avec ces outils, la visualisation de données est en train d’évoluer. Elle n’est plus seulement un mode de représentation ou de compréhension : elle devient l’interface de gestion des données elles-mêmes. Elle propose de reconcevoir la médiation des systèmes eux-mêmes, en les rendant explorables, manipulables, paramétrables.

Et les perspectives qu’entrouve cette conception peuvent être particulièrement stimulants. Lors d’une conférence de 2014 (vidéo), Victor Bret imaginait que cela pourrait conduire à créer de nouveaux « espaces de création », des espaces qui ne soient pas seulement des moyens d’assembler des pièces entre elles, mais aussi des moyens de comprendre les comportements de systèmes.

Avec le numérique, expliquait-il, nous perdons le lien avec nos outils parce qu’ils ne nous entourent plus, contrairement à ce que nous vivons dans nos cuisines ou dans un atelier où les outils sont à notre disposition tout autour de nous. Pour lui, l’enjeu de nos outils numériques est qu’ils deviennent des espaces de création qui donne de la capacité d’action aux gens. Mais quand on accomplit des projets logiciels ou robotiques, la difficulté n’est pas tant d’assembler les pièces ensembles, mais de comprendre ce qu’elles font et comment leur faire faire ce que nous voulons. Si nous voulons faire se déplacer un petit robot vers une lumière, il faut regarder son code et comprendre ce qu’il voit et comprendre pourquoi il se comporte de la façon dont il se comporte. En fait, les outils de construction à notre disposition n’aident pas beaucoup. Il faudrait plutôt avoir des outils permettant de regarder ce qu’il se passe. Pourtant, certains métiers prennent la visualisation au sérieux, rappelle-t-il en évoquant les salles de contrôle de la Nasa et les tableaux de bord géants des salles de contrôle d’installation critique qui surveillent le trafic routier ou électrique, ou une régie télé. Pour comprendre ce qu’il se passe en temps réel, il faut souvent construire une pièce peuplée d’écrans montrant les résultats en temps réels de multiples capteurs. Pour Bret, c’est ce type de pensée qu’il faut apporter à l’ingénierie numérique. Des outils de ce type, explique-t-il, permettraient de créer des « espaces de visualisation », c’est-à-dire de créer des environnements qui permettent de voir et de comprendre comment se comporte le projet qu’on construit. Et d’imaginer dans sa présentation comment manipuler un robot depuis les données produites et non plus seulement depuis son code. Voir à l’intérieur nécessite de projeter l’information, d’y avoir accès autour de soi, de l’afficher d’une manière accessible dans son environnement et pas seulement à l’intérieur de l’objet. Et bien sûr tout l’enjeu de cet affichage consiste à trouver les moyens de le représenter et de permettre à cette représentation d’être rétroactive, c’est-à-dire de pouvoir la manipuler en retour facilement pour qu’elle agisse sur les objets qu’elle pilote. En déployant les possibilités de l’information jouable, Victor Bret nous permet de comprendre la finalité des interfaces qu’il imagine, comment le jeu sur les paramètres devrait permettre de modifier les comportements des choses avec lesquels on interagit.


Image : un espace de visualisation, tel qu’imaginé par Victor Bret.

Pour lui, si ces perspectives très prospectives qu’il dessine sont importantes, c’est que des systèmes de ce type pourraient permettre de faire le lien entre le bricolage, l’ingénierie et la science. « Si vous ne donnez aux gens que des outils de construction et leurs apprenez à s’en servir, ils en resteront au bricolage. Si vous leur donnez des outils conceptuels et théoriques, ils peuvent atteindre un niveau d’ingénierie. Mais pour aller jusqu’à des outils scientifiques, il faut pouvoir apporter des outils de visualisation, de compréhension », explique-t-il. Pour lui, il nous faut passer des recettes aveugles que nous appliquons à une compréhension pleine et entière. Et c’est tout l’enjeu de ce design de la médiation qu’esquissent les explorations explorables.

De la complexité toujours plus accessible

Ces interfaces ne sont plus le terrain de jeu de quelques développeurs brillants, mais isolés qui produiraient des applications multimédias et interactives réussies. De grands acteurs font des efforts pour rendre leurs outils toujours plus accessibles. C’est notamment le cas de Google, avec Tensor Flow, son outil d’apprentissage automatique en open source, qui a développé des outils pour jouer avec un réseau de neurones et rendu accessible différents projets permettant de tenter de comprendre comment ça fonctionne. L’un des outils les plus accessibles de Google, sa machine à apprendre permet, sans avoir à programmer une ligne de code, d’apprendre à un système à utiliser ce que voit sa caméra pour déclencher des comportements ad hoc. Selon ce que votre caméra regarde et analyse, grâce aux techniques de reconnaissance d’images de Google, vous pouvez très facilement créer une rétroaction quand il détecte que vous riez ou que vous pleurez ou quand il voit passer un chat devant l’écran… par exemple de déclencher un son ou tout autre comportement. Un autre outil, Facets permet d’analyser des données depuis des techniques d’apprentissage automatique en utilisant la visualisation pour faciliter la compréhension et l’analyse (voir les explications de Google). Autant d’exemples et d’outils qui préfigurent un avenir où l’intelligence artificielle serait demain accessible à tous.

Mais Google n’est pas le seul acteur à tenter de rendre accessible l’apprentissage automatique. Uber a construit une plateforme de machine learning comme service, proposant là encore des outils de visualisation ad hoc : Michelangelo. Cet outil développé en interne pour ses équipes d’ingénieurs et de scientifiques de données a permis que tout le monde travaille avec des outils comparables, de stocker et comparer des résultats, et surtout de mettre en production de nouveaux services basés sur l’analyse de données permettant à Uber d’exploiter des systèmes de machine learning à grande échelle. L’un des exemples qu’évoque Uber a été l’utilisation de cette plateforme pour produire des modèles de prédictions pour optimiser Uber Eats, le système de gestion de livraison de repas.

Fast Forward Labs, une société de conseil spécialisée dans le machine learning, a publié cet été un prototype d’algorithme qui favorise l’interprétabilité. Pour l’instant, il y a une tension dans les systèmes d’apprentissage automatique : l’exactitude de la prédiction de certaines techniques est inversement proportionnelle à leur explicabilité. Fast Forward Labs se propose de résoudre cette tension, avec des algorithmes qui améliorent leur exactitude tout en garantissant leur interprétabilité… Tant et si bien que ses promoteurs estiment que demain nous ne parlerons plus de boîtes noires algorithmiques, mais bien plutôt de boîtes blanches capables d’expliquer ce qu’elles font à ceux qu’elles calculent. L’équipe de la plateforme de Deep Learning H2O.ai a publié, elle, cette année, une vidéo qui montre plusieurs approches pour développer l’interprétabilité des systèmes d’apprentissage automatique.

Bon, toutes ces initiatives ne s’adressent pas encore tout à fait à chacun d’entre nous. Retenons néanmoins que les programmes d’intelligence artificielle cherchent à se rendre toujours plus accessibles. De là à dire que demain tout a chacun pourra les utiliser, il y a peut-être un pas qui semble encore difficile à envisager. C’est pourtant bien, semble-t-il, l’objectif qui se dessine. La conception d’interfaces s’insinue toujours plus loin pour nous permettre de jouer avec les données et les traitements, quitte à faire disparaître le code lui-même sans réduire ce qu’il permet de faire.

De la jouabilité des systèmes

Dans une remarquable tribune pour Linkedin, Benoît Vidal, cofondateur de Dataveyes (@dataveyes), un studio de développement de projets spécialisé dans l’interaction hommes-données, invite à créer des « interfaces de médiation avec les algorithmes », comme les informaticiens ont créé des interfaces de médiation avec le code. Benoît Vidal parle de HDI (pour Human Data Interactions ou “interactions homme-données”) pour parler d’interfaces permettant de favoriser la discussion entre les données, leurs traitements et leurs utilisateurs.

« Les hommes et les machines doivent être chacun en charge de répondre à des besoins de natures et de complexités différentes : aux systèmes d’IA la responsabilité d’apprendre, de calculer, de classer, etc. Et aux humains la responsabilité de comprendre, d’analyser, de ressentir ou encore d’éprouver la réalité. Les deux devraient donc plutôt travailler de pair, en confiance. » Le but des HDI est d’apporter de la compréhension face aux systèmes riches en données par le biais d’interfaces qui misent non seulement sur la visualisation de données, mais aussi sur l’interactivité. La jeune pousse créée, inspirée par le travail sur les systèmes de datavisualisation, des systèmes d’interfaces pour interagir avec des données que ce soit dans le domaine des ressources humaines ou de l’énergie par exemple.

« De telles interfaces ne cherchent pas à nous apprendre à lire les formules mathématiques des algorithmes, mais elles nous montrent comment les algorithmes transforment les données, elles nous aident à appréhender ce que produisent ces algorithmes, à déduire le fonctionnement du système, en nous figurant visuellement les structures, les groupes, les hiérarchies, la distribution, les relations et les corrélations dans un jeu de données.

Souvent ces interfaces possèdent des filtres, des zooms, des curseurs à déplacer, des boutons à actionner, etc. Car un aspect important des interactions hommes-données se situe dans l’interactivité. Lorsqu’une visualisation simule des données qui évoluent au cours du temps, ou bien lorsqu’elle nous permet de faire varier des paramètres, elle nous donne à voir l’influence de variables d’entrée sur des variables de sortie. L’interface nous fait toucher du doigt la sensibilité des données, et nous donne une image mentale de leurs liens de dépendance. »

Tout l’enjeu est de produire non plus seulement des représentations (comme le faisait la datavisualisation), mais des systèmes permettant de moduler les représentations selon les données et les traitements. Une conception de la médiation entre données et humains.

L’enjeu n’est plus de produire seulement des visualisations de données, mais des systèmes qui permettent d’interagir avec les données et les traitements, qui permettent de comprendre les fonctionnements. L’enjeu n’est plus seulement de traiter les données, mais d’apporter des outils plus accessibles pour comprendre leurs fonctionnements, les traitements que les systèmes accomplissent et jouer avec leurs paramètres. Bref, de faire descendre des problématiques de gouvernance des données jusque dans le matériel qui permet de les traiter.

Au carrefour de la médiation, de l’explication et du jeu, ce design de la médiation entre les données, les calculs et les utilisateurs n’est certes pas nouveau, mais ses évolutions récentes dont nous avons tenté de rendre compte ici, montrent le rôle et l’importance de la jouabilité des systèmes techniques que nous évoquions dans les conclusions du groupe de travail Nos Systèmes de la Fing. L’enjeu de la jouabilité n’est pas seulement une façon de comprendre, mais bien une façon d’exploiter, d’utiliser et d’élargir le nombre de ceux qui seront capables d’exploiter les systèmes techniques aussi complexes soient-ils. A l’aune de ses premiers résultats en tout cas, le design de la médiation qui se structure peu à peu paraît être un puissant levier pour organiser le dialogue entre les données et la société. Il faudra assurément en suivre les développements.

Hubert Guillaud

Catégories: Veille et actualités

Amis lecteurs, le blog a besoin de vous

Blog e-tourisme - mar, 14/11/2017 - 07:00

Cool, je reprends le titre d’un article que j’ai écrit en mars 2016 : c’était déjà pour demander aux lecteurs du blog de se mobiliser afin de nous aider à financer la refonte de notre blog et surtout son hébergement.

Cette année encore, nous faisons appel à votre soutien. En effet, le blog est entièrement indépendant, et nous avons choisi, malgré de fréquentes propositions, de ne pas mettre de publicité sur nos pages.

Il nous faut donc financer notre hébergement, qui s’élève à un peu plus de 2000 euros par an. C’est pour cela que nous faisons appel à nos lecteurs.

Gagnez des places pour #VEM8 et les #ET14

Nous pouvons remercier deux évènements partenaires, Voyage en Multimedia, et Les Rencontres du Etourisme, qui participent en offrant des places au blog. Vous pouvez donc, dès à présent, réserver votre entrée à #VEM8, qui aura lieu du 14 au 16 février prochain à Saint-Raphaël. Et par la même occasion, obtenir votre sésame pour les #ET14 qui se dérouleront à Pau en octobre 2018

Allez, un petit geste!

Pour participer, c’est excessivement simple : il vous suffit, ou bien de vous rendre sur la page etourisme.info sur HelloAsso, ou bien de remplir directement le formulaire ci-dessous!

 

Propulsé par HelloAsso

The post Amis lecteurs, le blog a besoin de vous appeared first on Etourisme.info.

Catégories: Veille et actualités

Homo Deus : la technologie, cette religion performative !

Internet Actu - mar, 14/11/2017 - 06:00

Sapiens (voir également « D’Homo Sapiens au transhumain : qu’est-ce qu’être humains ? »), le précédent livre de l’historien Yuval Harari (Wikipédia, @harari_yuval), cette grande fresque de l’humanité a permis à des millions de lecteurs de se sentir intelligents, de comprendre notre aventure humaine sur plus de 300 000 ans, de s’ouvrir à une autre échelle de temps pour éprouver notre humanité, comme l’avaient fait avant lui, dans des styles différents, des historiens comme Arnold Toynbee ou Jared Diamond par exemple. En magicien de la vulgarisation, Harari nous avait fait comprendre que ce qui nous a distingué des singes, c’est notre capacité à raconter des histoires (comme les religions, les États, l’argent ou la loi) nous permettant de coopérer à vaste échelle, ce que les groupes de singes sont encore incapables. Chaque lecteur s’est régalé de cette vision holistique, de ses formules saisissantes, des points de vue décalés, des exemples truculents et toujours pertinents qu’use l’historien. Que ses fans se rassurent, ils retrouveront tout cela dans son nouvel ouvrage, Homo Deus. Yuval est toujours un formidable conteur, passionnant de bout en bout !

Pourtant, en utilisant les mêmes ficelles, cette suite est beaucoup moins réussie. D’abord, parce que si Sapiens se terminait sobrement, prophétisant la possible fin de l’humanité, cette suite prend un tout autre chemin : celui d’envisager notre propre dépassement en tant qu’espèce. Reprenant une vulgate commune, Harari estime que la technologie va nous permettre de nous affranchir de toutes nos limites, oubliant peut-être trop rapidement que notre domination du monde ne repose pas sûr le dépassement de nos seules limites, mais aussi sur le dépassement des limites de notre environnement tout entier. En extrapolant des tendances à la manière d’un Hari Seldon, célèbre psychohistorien de science-fiction capable de prédire l’avenir de l’humanité sur des milliers d’années, Harari signe un essai de science-fiction où il pousse ses propres biais jusqu’à leur caricature. En appliquant son stimulant schéma d’explication du monde à l’avenir, Harari en éprouve les limites, celles d’un gênant réductionnisme, souvent très schématique et parfaitement libéral.

L’hubris de la techno, par nature, consiste à dépasser toutes les limites. Surtout les plus fondamentales, celles du temps, de la vie, de l’espace et de la matière. Pourtant, avons-nous vraiment dépassé l’une d’entre elles comme nous le racontent les prophètes des technosciences ? Si nous avons repoussé la mort, nous n’avons pas dépassé la durée de vie naturelle de notre espèce et pour l’instant, malgré des décennies d’annonces, rien ne nous assure que nous y parviendrons vraiment. Nous sommes certes allés dans l’espace, mais nous sommes parfaitement incapables d’envisager les seuls voyages importants, les voyages interstellaires, permettant de nous conduire sur d’autres mondes habitables à des milliers d’années de notre planète. Nous ne savons toujours pas créer de la matière depuis des éléments fondamentaux. Et nous n’avons découvert aucune prise sur le temps.

Ces échecs n’empêchent pas Yuval Harari de faire sien le prophétisme technologique, qui ne cesse d’annoncer ces réalisations à venir, soulignant combien l’imaginaire transhumaniste nous éblouit. Après l’avoir rejeté, nous voulons désormais dépasser notre condition pour réaliser nos rêves. Le récit qui nous projette dans un dépassement de nous-mêmes en tant qu’espèce semble si puissant qu’il permet de croire qu’on sera capable de le réaliser. Ce serait peut-être possible, si nous n’avions pas déclenché un compte à rebours qui éloigne l’objectif à mesure qu’on cherche à s’en rapprocher.

Comme le dit Yuval Harari, nos constructions conceptuelles contemporaines sont encore plus puissantes que les religions et c’est pour cela qu’elles les détrônent. La technologie notamment va plus loin encore. C’est une religion performative, qui tente d’accomplir ce qu’elle annonce. En cela elle est toute puissante. Le risque est d’oublier que malgré sa puissance, la technologie est aussi et avant tout un moteur de notre imaginaire, une représentation, une manière de nous convaincre de notre puissance sans limites. La réalité montre plutôt que nos rêves vont être très difficiles à réaliser. La limite intrinsèque des ressources naturelles de la planète ou le défi climatique viennent réclamer leur dû. Nous allons avoir du mal à abandonner notre condition d’autant plus quand ce que nous avons saccagé se rappelle à nous. Non seulement nous avons été incapables de penser notre environnement jusqu’à le détruire, mais nous avons été aussi incapables de nous penser en tant qu’espèce, de dépasser nos récits coopératifs pour prendre en compte le temps, la matière, l’espace et la vie.

En soulignant combien dieu est une récit dépassé, régénérer cette perspective en faisant de l’homme un dieu, comme nous y invite Homo Deus, n’est-il pas une perspective vouée à l’échec ? Si dieu n’existe pas, comment l’homme pourrait-il en devenir un ?, pourrait-on répondre à Harari.

Comme bien des technoprophètes, Harari fait de la science une fiction. Son défaut si commun est une sur-rationalisation, sans voir combien cette logique de l’efficience parfaite, absolue, produit pourtant des absurdités… Chez Harari, la notion de progrès semble n’avoir connu aucune critique : il est toujours infini. En projetant des régularités passées sur l’avenir, il déduit des progrès linéaires de la science des percées à venir exponentielles. C’est ainsi que de constats justes on dresse des perspectives fausses. À nouveau, la disparition des ressources, la grande extinction, le réchauffement climatique qui pourraient conduire à la disparition même de la vie sur Terre, semblent des perspectives peu importantes pour les dieux que nous sommes appelés à devenir. Reste que ces considérations-là pourraient bien pourtant nous empêcher d’atteindre un quelconque Olympe.

Au final, Harari brode son récit d’un avenir qui ne fait rêver personne, sans poser vraiment la question de la finalité : voulons-nous vraiment vivre 1000 ans ? Voulons-nous vraiment quitter notre condition – ce qui implique notamment de ne plus faire des enfants comme nous les faisons puisque ce n’est pas la manière la plus optimale ? Voulons-nous vraiment la société inégalitaire et de contrôle total que cela implique ? Comment être heureux si nous nous coupons de la seule chose qui finalement nous rend heureux : « les sensations agréables » ?

Comme le dit Harari, la plus grande découverte scientifique a été celle de l’ignorance, car elle nous a permis de partir à la recherche de la connaissance. Il est peut-être temps de se souvenir de ses vertus, plutôt que de chercher à nous faire croire que tout est résolu ou que tout va l’être.

Hubert Guillaud

Cette critique de l’ouvrage de Yuval Harari est extraite d’Idées, une nouvelle revue lancée par Lemieux éditeur dont le premier numéro vient de paraître (Emmanuel Lemieux avait lancé L’annuel des idées puis la revue Le Panorama des idées auxquels InternetActu.net avait également contribué). Cette revue livrera tous les deux mois un aperçu des meilleures publications dans le domaine des essais et des critiques argumentées pour aider chacun à naviguer dans le foisonnant paysage des publications du monde des idées. Abonnez-vous !

Catégories: Veille et actualités

Femme et pouvoir, un manifeste

Internet Actu - lun, 13/11/2017 - 11:38

Rachel Cooke (@msrachelcooke) pour le Guardian livre une passionnante critique du dernier livre de Mary Beard (Wikipédia, @wmarybeard), Women & Power : a manifesto. Universitaire, professeure d’humanités à l’université de Cambridge, elle est l’une des personnalités féministes les plus connues de Grande-Bretagne. Dans son nouveau livre, elle s’intéresse au silence des femmes, c’est-à-dire à la façon dont les femmes ont été contraintes au silence dans la prise de parole et le débat public.

« Quand il s’agit de rendre silencieuse la parole des femmes, notre culture occidentale a des centaines d’années de pratique », lance Beard en introduction de son livre. Pour elle, le diagnostic de la misogynie de nos sociétés est paresseux et ne suffit pas à expliquer ses racines. Suite à la prise de parole féminine dans le sillage du scandale Harvey Weinstein, « le silence des femmes, la brutalité des hommes, la honte comme mécanisme de contrôle, l’androgynie et l’évitement comme stratégie de survie », sont des mécanismes que l’on retrouve depuis les mythes antiques jusqu’à aujourd’hui dans le rapport des femmes à la sphère publique. Un constat plus pertinent que jamais. A l’image de Télémaque qui disait à sa mère de se taire, ou de la déesse Athéna qui incarnait l’autorité au prix du refoulement de ses attributs féminins, elle souligne, en regardant la place des femmes dans la littérature classique, que le silence des femmes était un élément essentiel du pouvoir des hommes. L’exclusion des femmes du discours public était réel. Les voix des femmes étaient subversives, menaçantes. Pour Beard, aujourd’hui encore, personne n’entend les femmes même quand elles parlent.

Dans son livre, elle s’intéresse aussi à la misogynie de Twitter et souligne que les abus sont le résultat de la fausse promesse que nos outils font de mettre les gens en contact direct avec ceux qui détiennent le pouvoir. Les femmes ne sont pas les seules à se sentir sans voix sur les réseaux sociaux. Le sociologue Antonio Casilli ne disait pas autre chose quand il soulignait que la radicalité des trolls était une réponse aux blocages des formes d’expression publiques. Dans The Atlantic, l’ingénieur et designer Debbie Chachra @debcha) évoquant le récent boycott de Twitter par un grand nombre de femmes qui y sont harcelées, s’en réfère également aux propos de Mary Beard. Rappelant que depuis l’Antiquité, les voix des femmes sont toujours considérées comme illégitimes dans la sphère publique, y compris les nouveaux espaces des médias sociaux.

Mais Beard ne se contente pas du constat, souligne Cooke. Elle se demande aussi comment les femmes peuvent être entendues. « Si les femmes ne sont pas perçues comme étant totalement intégrées dans les structures du pouvoir, n’est-ce pas plutôt le signe qu’il faut redéfinir le pouvoir plutôt que les femmes ? », interroge Mary Beard avant d’en appeler à découpler les structures de pouvoir. Les femmes ne doivent pas seulement être resituées à l’intérieur du pouvoir, mais le pouvoir lui-même doit être redéfini. Pour Mary Beard, il est nécessaire de découpler pouvoir et prestige, de penser le pouvoir comme un attribut plutôt que comme une possession. De redonner du pouvoir aux partisans plus qu’aux leaders, pour redonner de la puissance à tous ceux qui se sentent « sans voix » dans la société, et pas seulement les femmes. Et cela passe assurément par nous défaire de la figure du leader… que magnifie les nouvelles technos.

Catégories: Veille et actualités

Expérience client et effet wow !

Blog e-tourisme - lun, 13/11/2017 - 07:30

Ce jeudi 9 novembre, le Commissariat Général au Tourisme de Wallonie organisait son colloque annuel relatif au label Wallonie Destination Qualité. À cette occasion, Alain Leduc de l’agence Creativores a donné une dynamique et passionnante conférence autour de la notion d’expérience client. Point n’était question d’UX ou d’ergonomie mais bien du sens premier du terme: les expériences uniques et inoubliables que certaines marques ou organismes parviennent à faire vivre à leurs clients, déclenchant le très fidélisant effet wow (ou waouh ou waow, choisis ce que tu veux; c’est cadeau !).

Des exemples inspirants

Histoire d’entrer dans le vif du sujet, je vais commencer par quelques exemples de “wow effects” plutôt réussis. Réussis parce que marquants et inoubliables pour les clients qui les ont vécus mais aussi pour les témoins directs ou indirects.

On commence avec un demi-cocorico; demi, parce que c’est Renault Grande-Bretagne qui nous propose une option particulière sur les Clio: le “vavavoum bouton” !

Ce qui est intéressant dans cette séquence, c’est qu’elle illustre très bien, de par sa scénarisation, la gradation à accomplir pour réussir à toucher son client: on part d’une situation banale, un essai d’automobile, ensuite, le vendeur, toujours classiquement, fait l’article de la voiture jusqu’au basculement: la présentation du bouton VAVAVOUM. Là encore, tout va crescendo jusqu’aux danseuses (Une version adaptée aux dames avec de beaux mâles existait également) et, puis, un “retour au calme”, lui aussi nécessaire pour permettre à l’individu de bien réaliser ce qui vient de lui arriver.

Un autre exemple nous vient de Coca-Cola, qui s’en sort avec un budget des plus raisonnables, comme quoi, c’est la créativité qui déclence le Wow, bien plus que le budget!

On remarquera également le caractère “amateur” de la vidéo qui se prête bien à une diffusion sur les médias sociaux. Le wow effect et le buzz sont intimement liés.

Ce que permet le Wow effect…

L’effet Wow marque les esprits et rend le moment (et le produit!) unique aux yeux du client. Il permet plusieurs bénéfices intéressants: fidélisation, augmentation significative de la marge bénéficiaire, bouche à oreille… Et, surtout, différenciation, un enjeu majeur.

En outre, on sait combien le fait de faire vivre des expériences aux touristes est aujourd’hui plus que jamais essentiel.
Concernant les marges bénéficiaires, Alain Leduc nous a également rapporté un exemple intéressant du côté de Santa Monica: l’expérience d’un café unique; le Kopi Luwak.

Le Kopi Luwak est un café particulier: son grain est récolté après avoir été ingéré et digéré par l’animal du même nom, un petit civet asiatique qui va laisser le grain enrobé d’une fine pellicule d’un enzyme particulier donnant, parait-il, un arôme unique.

Aujourd’hui, vous pouvez le déguster, entre autres, dans un établissement de Santa Monica: le Funnel Mill à partir de 1.000 dollars la tasse. Attention: pour ce prix, on vous vend pas une tasse de café mais bien une expérience unique; comptez d’ailleurs au minimum une heure pour la dégustation qui comprendra une démonstration du procédé de torréfaction, un véritable rituel ! Bref, une expérience unique permet d’augmenter considérablement la valeur de ce qui se limite souvent à un produit (le café) et à un service dans un bar-tabac traditionnel.

Ce que cela doit nous inspirer…

À l’heure où les expériences sont primordiales pour les touristes et dans un climat difficile pour les offices de tourisme, des initiatives d’expériences créatives, uniques et originales devraient être recherchées par toutes les destinations.

Je me répète: ce n’est pas une question de budget mais bien de créativité et de volonté. Pensez surtout aux bénéfices en termes d’image et de fidélisation qu’un effet wow réussi vous assurera auprès de nos touristes bien aimés. Pensez également si possible à garder une trace (photo, vidéo) de votre coup d’éclat pour rediffusion sur vos médias favoris.

Du côté du colloque wallon, par exemple, les participants se souviendront longtemps de cette édition 2017 grâce à la présence de Roberto (en photo ci-contre), un faux-serveur très familier et à l’accent inimitable que vous trouveriez tout droit sorti de Dikkenek ou de C’est Arrivé près de chez Vous. Il n’est pas passé inaperçu et certains se demandent encore si c’était un comédien ou un vrai serveur: il a bel et bien marqué les esprits et rendu l’événement unique.

Pour terminer, je vous laisse dans les mains du meme du wow: le regretté chanteur populaire flamand Eddy Wally. Bon Wow à toutes et à tous !

 

The post Expérience client et effet wow ! appeared first on Etourisme.info.

Catégories: Veille et actualités

Et si vous deveniez organisateurs de partenariats ?

Blog e-tourisme - jeu, 09/11/2017 - 08:00

Ceux qui ont déjà eu le loisir de me subir en conférence ou formation savent que j’aime conclure mes prez avec cette citation de Darwin : 

Ce n’est pas le plus fort de l’espèce qui survit, ni le plus intelligent. C’est celui qui sait le mieux s’adapter au changement.

En ces temps d’évolutions rapides, il est devenu évident que s’adapter aux changements permanents, que ce soit dans les techno et surtout les comportements de nos clients est devenu une priorité. Mais par contre, disposer de beaucoup de pognon et d’intelligence en interne aide un peu…

Si les très gros du secteur touristique et de la tech s’adaptent si bien, c’est qu’ils disposent en interne d’équipes, et en externe d’une batterie d’experts, propices à leur révéler les tendances de demain. Ils anticipent les besoins de demain, parfois même les créent, avec plus ou moins de succès, et rachètent à tour de bras les startups et sociétés qui leur permettront de prendre un peu d’avance.

C’est ainsi que la plupart des grosses boîtes se sont dotés de services et structures propres à dénicher les services de demain.

Partenariats avec les Startups

Chez Accorhotels par exemple, l’Innovation Lab travaille de façon permanente à la construction de nouveaux produits et services, qui sont développés, testés sur une courte période, quelques-uns recevant un feu vert de l’exécutif en direct pour être expérimentés avant d’envisager un développement à une échelle supérieure. Sur Innovatech, pas moins d’une quarantaine de startups pitchaient devant le public présent et les collaborateurs du groupe, avec l’espoir de décrocher un partenariat avec le groupe hôtelier.

Voyages-sncf dispose également de plusieurs outils, dont #openVSC pour co-construire avec ses clients, ou encore l’accélérateur Act 574, qui permet d’accompagner des startups dans leur développement, mais aussi de profiter de leur agilité, de leurs idées de nouveaux services, comme en témoigne la collaboration avec Rendezvouscheznous.com.

Les incubateurs/pépinières/accélérateurs territoriaux tentent également de fournir aux sociétés qu’elles accueillent des terrains d’expérimentation, que ce soit l’étendard national que représente le Welcome City Lab, ou plusieurs « cousins » locaux, comme l’Auberge Numérique de l’AEC à Bordeaux, ou le récent Open Tourisme Lab de Nîmes, qui recherche les 12 startups de sa première promotion.

Dans notre monde des Offices de Tourisme, nous avons pu voir lors de la Masterclass etourisme à Pau la veilles des #ET13 qu’ils sont quelques-uns à collaborer ici et là avec des startups portant des projets innovants pouvant les intéresser (Médoc Atlantique, Val Thorens, Lyon pour ne citer que les intervenants sur cette session), mais encore bien peu à s’être organisés autour d’une réelle démarche similaire à celle des groupes privés.

On pourra citer Val de Garonne, bien connu désormais pour son potentiel d’innovation, qui en association avec Ouishare s’est attaché à développer des partenariats avec des startups du tourisme collaboratif, comme nous l’expliquait Jean-Luc dans ce billet du début d’année. Marion est revenue lors de la Masterclass de Pau sur cette expérience (Cf. sa présentation, à partir de la page 40 sur Slideshare).

La SPL Océan Marais de Monts Tourisme, qui gère l’Office de Tourisme Intercommunal (nouvellement dénommé Pays de Saint-Jean de Monts – Vendée Océan) s’est quant à elle associé avec La Folie, hébergée par le Palais des Congrès de Saint-Jean de Monts. Espace d’innovation, de coworking, d’accompagnement de startups, elle cible notamment le secteur du tourisme et peut s’appuyer sur l’Office de Tourisme et ses collaborateurs pour expérimenter et valider les projets.

L’organisation de partenariats, le nouvel eldorado !

Dans ce billet vieux de trois ans, on concluait en évoquant les partenariat entre Airbnb et Nest, Uber et Spotify. Ces sociétés ont clairement le chic pour, d’une part faire parler d’elles (ce genre d’association est toujours très productive en matière de RP), d’autre part pour aller chercher le partenaire qui leur permettra d’apporter un service supplémentaire à leur clientèle.

Les compagnies aériennes ont-elles depuis longtemps organisé des partenariats avec OTA, chaînes hôtelières ou location de véhicules.

La mode est en ce moment à la livraison à domicile, vous l’avez forcément remarqué, et on a eu l’occasion de l’aborder avec plusieurs Offices urbains. Cet été, Tripadvisor a annoncé un partenariat avec Deliveroo. AU-delà de la simple consultation d’avis, de la réservation en ligne via La Fourchette, ce sont aujourd’hui 20 000 restaurants dans 12 pays, dont 3 000 en France, qui sont disponibles pour une livraison à domicile, via un simple bouton sur la fiche Tripadvisor.

Autre mastodonte du secteur, Uber et son service de livraison de repas à domicile Uber Eats annonçait en juin dernier la livraison de McDonalds dans les principales villes (à l’époque Paris et Lyon, avec une couverture qui s’étend régulièrement). Pour le leader du fast food, c’est évidemment une nouvelle corde à son arc au-delà de ses restaurant et drive, qui augure un potentiel de commandes complémentaires non négligeable !

Des partenariats locaux organisés

Ces partenariats entre grands acteurs, au service des clients communs à deux marques, produits, prestations, ne peuvent-ils, doivent-ils pas être déclinées à un niveau local ? Le fait est que, bien entendu, vos prestataires ne vous ont pas attendus pour s’organiser entre eux, créer des offres conjointes, plus ou moins élaborées, évoluées, de l’apéro offert dans tel restaurant si vous venez de la part de tel gîte ou hôtel, à la réduction sur une location ou une activité.

Mais ce n’est pas toujours facile pour un petit acteur privé d’anticiper ce qui arrive en matière de nouveaux comportements et attentes des clients, de contacter des collègues de la filière pour créer une nouvelle offre, une prestation au service des voyageurs et locaux, voire même de connaître l’étendue de l’offre disponible sur la destination.

Et si, dans le cadre de sa mission régalienne de coordination des socio-professionnel, l’Office de Tourisme devenait un coach, un organisateur de partenariats entre prestataires, au bénéfice des clients et bien entendu de l’économie locale ?

Si on s’amusait, avec les partenaires de l’Office, à détecter les services qu’attendent nos voyageurs (et pourquoi pas les décliner aux habitants), identifier les commerçants, prestataires, susceptibles de les apporter, pour proposer une offre, un package complet de partenariats clés en main, contrats, éventuelles commissions et conditions ?

Un panier gourmand de produits locaux, mais pas celui de la boutique qu’on ramène en souvenir ou cadeau, mais de quatre repas complets pour 8 personnes qui vous attend dans votre gîte histoire de ne pas débarquer avec le coffre plein de l’hyper à 400km, ou de ne pas avoir à se ruer au supermarché du coin le samedi une fois les bagages déposés ?

Des packages d’activités clés en main proposés par les hébergeurs à leurs clients ?

Et si on réinventait la city card et les fameux coupons papier en permettant à chaque prestataire de choisir à la carte ses partenaires, en ville comme dans les espaces ruraux ?

Pour donner de nouvelles idées de services, de prestations, pour démultiplier les sources de distribution d’une offre, pour améliorer l’expérience client, pour favoriser les liens entre socio-professionnels et créer une destination plus unie ?

Vous avez déjà mis en oeuvre des actions dans ce style ? Venez nous en faire part en commentaire !

The post Et si vous deveniez organisateurs de partenariats ? appeared first on Etourisme.info.

Catégories: Veille et actualités

La conscience, un phénomène historique ?

Internet Actu - jeu, 09/11/2017 - 06:00

La conscience de soi nous apparaît comme une donnée essentielle de notre humanité, comme le fait d’avoir des bras et des jambes. Et si c’était un phénomène culturel, changeant ? Et si la conception du « soi » avait fluctué selon les époques ?
Dans The Atlantic, la journaliste Sigal Samuel interroge le spécialiste de la bible James Kugel, qui dans son dernier livre The Great Shift s’interroge sur la notion que les anciens Hébreux avaient des limites de leur individualité – et comment cela pourrait expliquer un phénomène comme le prophétisme.

Pour Kugel en effet, le moi des personnages de la Bible était « semi-perméable » autrement dit, il était en mesure d’être « envahi » par des entités extérieures (Dieu, dans le cas des prophètes, mais il y avait aussi des anges et des démons), et ils pouvaient alors « entendre des voix » leur disant quels actes accomplir. « Ainsi, quand la Bible dit que Dieu est apparu à Abraham en dehors de sa tente ou a parlé à Moïse depuis un buisson ardent, nous sommes portés à rejeter ces choses comme une sorte de langage figuratif, ou bien nous les ignorons. De telles choses se sont produites dans le passé, mais ne le font plus aujourd’hui. »

Les anciens avaient-ils deux esprits ?
Comme le souligne Deric Bownds dans son court post de blog sur cette interview, à aucun moment ni le journaliste ni Kugel ne mentionnent les théories de Julian Jaynes. Ce qui est étonnant, car Julian Jaynes, depuis la sortie de son livre en 1976, The Origin of Consciousness in the Breakdown of the Bicameral Mind (traduit en 1994 en français sous le titre La naissance de la conscience dans l’effondrement de l’esprit, la suppression du mot « bicaméral » rendant le titre incompréhensible), est considéré comme le géniteur de cette théorie du caractère historique de la conscience de soi.

Jaynes, lui n’a pas commencé ses recherches sur la Bible, mais sur le texte d’Homère, l’Iliade. Dans cette épopée il n’est pas rare non seulement pour les dieux d’apparaître aux différents protagonistes de l’histoire, mais aussi et surtout, d’inspirer les héros, de les pousser à commettre des actes dont certains auront d’ailleurs des conséquences catastrophiques. Pour employer le néologisme de Kugel, leur individualité était « semi-perméable ».

L’origine de cette caractéristique psychologique était, selon Jaynes, le caractère « bicaméral » de notre cerveau. Ce n’est plus un secret pour grand monde que notre cortex est divisé en deux hémisphères, le droit et le gauche. Mais, observe Jaynes dans son livre, alors qu’un bon nombre de fonctions mentales sont bilatéralisées, les aires du langage (celles de Wernicke et de Broca) se trouvent toutes les deux dans la partie gauche. Et ce, bien que rien n’empêcherait théoriquement d’avoir leur équivalent dans la partie droite. Il observe en effet qu’un enfant ayant une lésion de l’aire de Wernicke développera un remplacement dans l’hémisphère droit de son cerveau. Pourquoi donc, se demande-t-il, le langage ne s’est-il développé que dans la partie gauche ? A quoi servent les zones de l’hémisphère droit qui normalement auraient dû servir à la maîtrise du langage ?
Pour Jaynes : « Les pressions sélectives de l’évolution qui auraient pu produire un si puissant résultat sont celles exercées par les civilisations bicamérales. Le langage des hommes n’a été développé que dans un seul hémisphère pour laisser l’autre libre pour le langage des dieux. »

Le héros homérique n’a donc aucune volonté propre, aucune conscience de soi. Selon Jaynes, à part quelques passages interpolés tardivement, L’Iliade ne possède pas de référence à des concepts qui traduisent l’unité de l’être humain. Par exemple, le mot grec « psyche » qui par la suite en viendra à désigner l’âme, n’est employé que pour décrire des substances vitales comme le souffle ou le sang. Par exemple un guerrier agonisant est en train de perdre sa psyche qui se répand sur le sol. Mais, et c’est encore plus surprenant, pas de référence non plus au corps comme une unité unique et autonome. Le mot « soma » (corps) est employé exclusivement pour parler des cadavres. Homère ne mentionne que des parties du corps, les mains, les bras les jambes, etc., mais jamais le corps dans son ensemble.

Pour Jaynes les héros grecs étaient exempts de vie intérieure et étaient menés par les commandements des dieux, ces hallucinations auditives en provenance de leur cerveau droit. « C’étaient de nobles automates qui ne savaient pas ce qu’ils faisaient. »

Mais comment est-on passé de ce monde sans conscience de soi à l’esprit humain tel que nous le connaissons aujourd’hui ? Selon Jaynes, c’est parce qu’il s’est produit un « effondrement » de l’esprit bicaméral qui a marqué la naissance de l’individualité telle que nous la connaissons. Tant que les humains vivaient dans de petites communautés agricoles (Jaynes ne s’occupe pas des sociétés de chasseurs-cueilleurs), ce système fonctionnait à merveille. Chacun possédait un « leader intérieur », un Dieu ou un ancêtre puissant, qui lui disait à chaque instant comment agir. Mais lorsque les communautés se sont agrandies, que les premières cités et empires sont apparus, les prises de décisions sont devenues de plus en plus complexes et il a fallu développer une nouvelle forme de pensée, dans laquelle chaque individu était tenu de prendre des responsabilités personnelles. L’Odyssée, également attribuée à Homère, mais plus tardive que l’Iliade, nous montre des personnages dotés d’une conscience de soi déjà « moderne ».

Une théorie contestée, mais « pop »
Quel a été l’impact de la théorie de Jaynes ? Comme le dit Vaughan Bell sur Mind Hacks : « sa théorie de la conscience est très probablement fausse, mais si terriblement originale qu’elle est largement admirée ». De fait, quelqu’un comme le biologiste Richard Dawkins a dit du livre de Jaynes qu’il était « soit du grand n’importe quoi, soit une œuvre de pur génie ». Le philosophe Daniel Dennett s’est aussi intéressé aux thèses de Jaynes et a même écrit un article assez long sur le sujet (.pdf). Il est intéressant de voir que deux des grands hérauts du « nouvel athéisme » et de l’hyperrationalisme ont une attitude prudente et plutôt sympathique envers les thèses de Jaynes, qui pourraient paraître joyeusement délirantes.

De fait, la thèse de Jaynes n’a jamais été véritablement réfutée, elle a tout simplement été ignorée, note Marcel Kuijsten le directeur de la Julian Jaynes Society, dans une interview pour Inverse.

En fait l’impression générale est que la thèse de Jaynes séduit beaucoup de monde, mais qu’elle est trop excentrique, trop extrême pour être réellement soutenue.

En tout cas, si cette thèse reste assez marginale dans la psychologie aujourd’hui, elle a fait son chemin dans la pop culture.

Dans le comics Uncanny x-men, écrit par Chris Claremont au début des années 80, l’un des mutants, la Bête, se réjouit de lire le livre de Jaynes et se demande quand sortira le film. De fait, il y a bien aujourd’hui un film, ou plus exactement une série, puisque la théorie de l’esprit bicaméral se trouve au coeur d’une récente série de HBO, Westworld.

Westworld nous présente l’histoire d’un parc d’attractions futuriste construit à l’image du Far West, peuplés par des robots jouant de manière indéfiniment répétée leur rôle dans des scénarios interactifs de western à destination des visiteurs. Puis, comme toujours avec les robots, tout se détraque. Mais Westworld est plus fin et plus subtil que la plupart des « révoltes de robots » auxquelles la science-fiction nous a habitués (et certainement plus sophistiqué que le film de 1973 dont la série est tirée). C’est l’accession à la conscience qui est au coeur des épisodes.

La théorie de l’esprit bicaméral est mentionnée de façon explicite à plusieurs reprises lors de la première saison (« the bicameral mind » est même le titre de l’épisode final).

L’intrigue de Westworld repose sur une idée particulièrement importante de Jaynes. Ce serait le développement de notre langage et notre capacité à la métaphore qui aurait généré un « espace intérieur » propice au développement de la conscience de soi. Le langage serait donc un prérequis à l’acquisition de la conscience.

Selon le journaliste d’Inverse, Andrew Burmon : « En présentant le concept, les auteurs de Westworld montrent clairement que les robots dotés d’IA de la série ne sortent pas de la servitude préprogrammée à cause d’un pépin ou d’un virus – comme c’était le cas dans le film original. Ils se détraquent à cause de leur exposition à un langage de plus en plus complexe. »

Marcel Kuijsten, dans son interview avec Burmon, précise que « lorsque nous parlons de l’esprit bicaméral, nous parlons de cette période suivant le développement du langage, mais avant que nous apprenions la conscience. Au lieu d’un esprit-espace introspectif, nous entendions une voix dominante lorsque nous avions des décisions à prendre. À mesure que le langage s’est complexifié à travers la métaphore, nous avons développé la capacité d’introspection et, petit à petit, les hallucinations ont disparu. »

Une longue vidéo (en anglais, mais avec des sous-titres) dégottée par Io9, nous donne encore quelques clés supplémentaires pour comprendre la façon dont Westworld s’inspire des thèses de Jaynes.

Pour l’auteur de ce petit film (attention spoilers !), en dehors du langage et de la métaphore, c’est une autre caractéristique de la conscience qui est mise en lumière par la série : la possibilité de créer des narrations avec nous-mêmes au centre. La conscience serait donc peut-être aussi la capacité de nous raconter nos propres histoires.

Entendre des voix, c’est normal, docteur ?
La thèse de Jaynes est elle convaincante ? A mon humble avis, pas toujours. Ce genre d’hypothèse repose souvent sur des présupposés interprétatifs qui sont difficiles à réfuter ou valider de façon certaine. Autrement dit, le biais de confirmation fonctionne à plein : si vous croyez aux idées de Jaynes, vous verrez le cerveau bicaméral partout. Si vous êtes sceptiques, rien ne pourra véritablement vous convaincre.

Ce qui est sûr, c’est que les civilisations non occidentales ont pour la plupart abrité dans leur sein des « spécialistes » qui recevaient des messages des « dieux » ou des esprits : shamans dans les groupes de chasseurs cueilleurs, « possédés » ou « oracles » dans les sociétés agricoles. Et il est certain que la parole de ces personnes était considérée avec le plus grand sérieux, et que ce comportement était donc encouragé, alors que dans notre civilisation, il serait rejeté comme hallucinatoire et pathologique. Faut il pour autant en déduire que TOUTE la population était sujette à de genre d’hallucination ?

Dans son interview avec Andrew Burmon, Marcel Kuijsten explique que beaucoup de gens critiquent l’idée de l’esprit bicaméral parce qu’elle implique une évolution bien trop rapide du cerveau, quelque chose que la théorie darwinienne ne peut justifier. Mais précise-t-il, « Jaynes n’affirme jamais qu’il s’agit d’un changement biologique et évolutif. Il parle d’un processus appris. Daniel Dennett, le professeur de philosophie, utilise une métaphore : c’est un changement de logiciel, pas un changement de matériel. C’est comme un nouveau système d’exploitation. »

Sans doute, mais un changement au sein de la société et de nouvelles normes sur les comportements provoqueraient sans doute une transition encore plus rapide que le changement d’un « système d’exploitation psychologique » touchant tous les individus.

Cela semble être la différence entre le récent travail de Kugel et la théorie de Jaynes. Si l’on suit son interview de The Atlantic, selon Kugel, le fait « d’entendre des voix » est toujours d’actualité dans de nombreux pays :

« Il cite… une récente étude interculturelle lors de laquelle des chercheurs ont interviewé des auditeurs aux États-Unis, au Ghana et en Inde. Les chercheurs ont enregistré des «différences frappantes» dans la façon dont les différents groupes de personnes ressentaient les voix qu’ils entendaient : Au Ghana et en Inde, de nombreux participants ont insisté sur le fait que leur expérience prédominante ou même unique était positive. … Cela n’a été le cas pour aucun américain. »
« Ces résultats », conclut Kugel, « suggèrent que les » données « d’une société ont beaucoup à voir avec la manière dont l’audition vocale est interprétée. »

Toujours selon Kugel, il existe aujourd’hui 15 % de personnes qui ont entendu des voix au moins une fois dans leur existence (aux Etats-Unis, ils ont même une association). Reporté à l’antiquité biblique, et sans aller chercher un nouveau type de conscience, cela aurait fait 15 % de prophètes, ce qui aurait été largement suffisant (et peut-être même un peu trop).

Évidemment, si la conscience de soi, n’est ni un phénomène biologique, ni même psychologique, mais repose avant tout sur un système de normes, cela veut dire que l’esprit bicaméral ne s’est jamais « effondré ». Et il peut toujours redevenir d’actualité en cas de changement ou de crise de notre logiciel social.

Rémi Sussan

Catégories: Veille et actualités

3 étapes clés pour devenir une destination de tourisme durable

Blog e-tourisme - mer, 08/11/2017 - 07:30

Je reviens juste d’Ajaccio où l’ATC (Agence du Tourisme de Corse) m’avait invité à animer les premières Journées du Tourisme Durable de Corse. C’était l’occasion de rappeler les éléments fondateurs qui font d’un territoire, une destination de tourisme durable.

Une semaine avant, je me rendais à Paris pour coordonner le Jury des premières Palmes du Tourisme Durable en ma qualité de Président des Acteurs du Tourisme Durable avec une dizaine d’experts du sujet afin de sélectionner les finalistes des 6 catégories : Territoires & Destinations, Tour-opérateurs, Hébergements, Loisirs, Informations et Mobilité. Si vous souhaitez voter pour la meilleure pratique, c’est par ici

Oui ! En cette Année internationale du tourisme durable pour le développement, proclamée par les Nations Unies, les initiatives se succèdent sur le thème. Pour rappel, le tourisme durable, ce n’est pas le fait de pratiquer du tourisme à vélo, de dormir dans un arbre ou de partir en Afrique pour faire du volontariat. Le tourisme durable, c’est simplement l’intégration des enjeux de développement durable par l’ensemble du secteur du tourisme. C’est pour cela qu’à travers les Palmes du Tourisme Durable, ce sont l’ensemble des métiers du tourisme qui sont touchés et on retrouve parmi les finalistes tous types d’acteurs, des petits, des plus représentatifs, des structures historiques, des start-ups touchant des formes variées de tourisme, que ce soit sur le tourisme d’aventure, culturel ou même urbain !

Mais alors, pour une destination, un OGD, par quel bout faut-il prendre la question pour transformer un territoire en destination de tourisme durable ? Voilà les 3 points essentiels selon moi :

1 – Porter une ambition politique du développement durable :

Tout commence par une vision, une ambition de la part des élus locaux d’un territoire. Intégrer des engagements en matière de développement durable dans le tourisme, ce n’est pas juste mettre du vert sur les brochures ou mettre à jour son PDIPR, il s’agit de construire avec tous les élus et toutes les parties prenantes du territoire une ambition commune et sincère pour tous. Pour intégrer dans les objectifs stratégiques de long terme d’un territoire (et non pas uniquement dans le tourisme) un équilibre entre les impacts économiques, sociaux et environnementaux, ça ne peut pas être porter uniquement par les techniciens d’un office de tourisme. Les élus doivent s’engager pour un projet de société et un projet de territoire dans lequel les enjeux de développement durable sont intégrés au plus haut niveau. Et ces objectifs doivent toujours rester en ligne de mire ! D’où l’intérêt demain d’intégrer dans les tableaux de bord touristiques non plus uniquement les aspects économiques mais également le bien-être des habitants (comme Copenhague nous l’a présenté aux #ET13), les circuits courts, la dépendance à certains acteurs internationaux, les impacts sur l’environnement, leur bilan carbone, etc.

 

Cette vision, c’est un peu l’ADN de la destination. Elle doit être inscrite, comprise et portée par toutes les parties prenantes du territoire. Et, de manière logique, elle devrait s’intégrer dans un plan de développement durable du territoire, transversale à tous les secteurs d’activités.

Ensuite, afin d’appliquer cette vision, il s’agit de faire évoluer en interne une politique de responsabilité sociétale, que ce soit au sein d’un office de tourisme, d’un CRT ou d’une autre administration publique. Le CRT Bretagne est par exemple labellisé Green Globe depuis quelques années déjà afin de montrer qu’ils balaient aussi devant leur porte avant de pousser leurs adhérents à s’engager. Ainsi, vous ne verrez plus de gobelets en plastique, de gaspillages de papier, etc. là-bas. Ca commence par là et ça continue en faisant par exemple évoluer les critères de sélection sur les appels d’offre, d’organiser des évènements neutre en carbone, etc.

Dans ce cadre, il existe des programmes comme Green Globe mais aussi le Passeport Vert ou Green Destinations qui suivent largement les Critères Mondiaux du Tourisme Durable.

  2 – Engager les socio-professionnels dans cette cohérence d’engagements :

A partir du moment où cette stratégie est validée, il s’agit d’engager les socio-professionnels dans cette démarche globale. On ne parle pas encore de marketing. Il s’agit simplement de pousser les hébergeurs, les réceptifs, les prestataires d’activités ou de services, les restaurateurs à aller dans le sens d’un tourisme durable et de la vision assumée lors du 1er temps.

Bien sûr, pour cela, il faut de la confiance croisée entre les professionnels et l’organisation. Or, en partant sur une vision ambitieuse, une énergie positive et communicative se transmet auprès de l’ensemble des parties prenantes de la destination. Ce leadership est nécessaire. Puis, il est positif d’utiliser certains leviers afin de pousser les socio-professionnels à changer. Parfois, l’ADEME ou l’action publique peuvent soutenir les éco-rénovations dans les hébergements ou pour soutenir de nouveaux projets qui vont dans le sens du tourisme durable. C’est ainsi que des professionnels tendent alors à être certifiés sur l’un des programmes de tourisme durable en particulier Clé Verte ou Ecolabel Européen en France pour les hébergements.

Cette cohérence d’engagement est aussi nécessaire pour le visiteur. Si on lui vend l’image d’une destination engagée et qu’il retrouve des prestataires qui ne font aucun effort sur des démarches sociales ou environnementales, attention au retour de bâton sur Tripadvisor…

Ainsi, à travers ses travaux, on pourra favoriser l’accessibilité du tourisme pour tous, développer des offres de tourisme sans voiture, déployer l’engagement des restaurateurs sur les circuits courts, pousser les hébergements à réduire leurs consommations en énergie et en eau, etc.

  3 – Impliquer les clients & assumer la promesse de tourisme durable :

Enfin, dernier point, il s’agit d’engager le client, à la fois en le faisant venir mais aussi en le transformant en ambassadeur. S’engager dans une démarche sincère de tourisme durable, c’est un excellent moyen de satisfaire le visiteur et de partager avec lui un engagement au service du bien commun. Les touristes vont alors se reconnaître plus largement dans la marque de destination présentée et en devenir un défenseur ! L’Islande en a fait son credo depuis l’explosion de la destination ces 2 dernières années. On a pu voir fleurir à la fois des vidéos pour sensibiliser et engager les visiteurs à travers une Iceland Academy sur Youtube, au ton engagé et décalé. Et dernièrement, ils ont lancé le Serment Islandais afin de pousser les visiteurs à protéger la destination en devenant un touriste responsable. C’est l’une des seules destinations qui a assumée clairement son positionnement de destination de tourisme durable ! Sur le long terme, cette stratégie ne peut être que gagnante surtout en utilisant un ton sympathique et non moralisateur. On peut également citer le Costa Rica qui, historiquement, s’est engagé dans une démarche nationale de tourisme durable à travers sa certification CST. Cette destination a su largement s’appuyer sur son image préservée pour accroître son attractivité !

Le CRT Bretagne en a aussi fait son cheval de bataille en choisissant dès le départ d’en faire une marque propre « Voyagez Responsable en Bretagne » avec un site dédié qui est à la fois utile pour sensibiliser le voyageur et pour présenter l’offre disponible sur le territoire breton.

Alors, pour finir cette Année internationale du Tourisme Durable pour le Développement, quid d’une véritable politique de développement durable du tourisme en France et dans toutes nos grandes régions ?!

The post 3 étapes clés pour devenir une destination de tourisme durable appeared first on Etourisme.info.

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

Internet Actu - mer, 08/11/2017 - 06:00

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.


Image : Comme IFTTT, Yahoo Pipes, l’outil développé par Yahoo et fermé en 2015, pourrait certainement figurer dans cette liste d’outils qui rendent le code plus accessible, puisqu’il permettait, assez simplement, de combiner des données et des actions, de créer des chaînes d’instructions depuis différents services web, sans avoir à les programmer. Un clone du service, Pipes.digital a récemment relancé le service. Via Korben. .

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !


Vidéo : la conférence de Victor Bret, « inventer sur le principe ».

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé (voir Ce n’est pas le code qui importe, c’est le modèle ! »). C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier (@schneierblog), proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

Internet Actu - mar, 07/11/2017 - 08:21

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé. C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier, proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Le bonheur au travail

Blog e-tourisme - mar, 07/11/2017 - 07:00

Lors des #ET13 à Pau j’ai eu la chance de participer à une battle sur « les DMO et les nouvelles générations ». Pour vous résumer un peu le débat : 

  • un manager nous exprimait ces réticences à travailler avec ces nouvelles générations très/trop mobiles, avec un besoin constant de reconnaissance et qui amènent un chamboulement dans l’entreprise.
  • un second manager qui, au contraire, était heureux d’accueillir ces nouvelles générations qui apportaient une vision neuve, de nouveaux outils, de nouvelles façons de travailler et un changement positif au sein d’une équipe.

Face à eux, deux jeunes diplômées exprimaient leur vision :

  • l’une parlait des moyens qui permettent de s’épanouir : une organisation du temps de travail plus souple, un aménagement de l’espace de travail, la mise en place du télétravail … 
  • l’autre défendait une nouvelle vision du travail où l’objectif premier est avant tout de s’épanouir, pour cela il faut aimer les missions que l’on réalise, se sentir bien sur son lieu de travail mais aussi avec son équipe.

Une battle rondement menée ou tous les partis ont fini par se mettre d’accord : les jeunes générations peuvent, certes, bouleverser un mode de fonctionnement mais elles peuvent aussi amener des changements positifs. Le DMO a ici un rôle primordial puisqu’il doit  passer du manager qui s’assure de l’efficience de sa structure, à un leader qui autonomise ses employés et s’assure de leur qualité de vie au travail pour rendre sa structure efficiente. 

 

Le choc des générations ou la culture du changement ? 

Il est vrai que je n’imaginais pas qu’il puisse y avoir des retours négatifs sur cette battle et pourtant … il y a une semaine j’ai eu l’occasion d’échanger avec une collègue du réseau qui était littéralement choquée de ce qui avait pu se dire lors de cette battle. Elle ne comprenait pas les arguments avancés par cette jeune génération. Par exemple, elle ne comprenait pas du tout :

  • qu’on puisse revendiquer de venir en chausson au travail, 
  • qu’on demande à aménager nos horaires,
  • qu’on puisse travailler de chez nous ou depuis un autre lieu que notre bureau habituel, 
  • qu’on prenne du temps à faire des « after-work » car le travail c’est le travail et les collègues ne sont pas des ami(e)s

J’ai essayé de lui expliquer davantage notre position en lui expliquant que: 

  • les chaussons pouvaient nous permettre d’être à l’aise, et à partir du moment qu’on les mets derrière notre bureau et que l’on est pas à l’accueil, pourquoi cela serait refusé ? 
  • arriver plus tard le matin pour pouvoir aller à son cours de yoga pourrait arranger un jeune mais aussi une maman qui en échange pourra partir une heure plus tôt le soir pour chercher son enfant à l’école,
  • le télétravail peut permettre d’être plus efficace, si une personne habite loin de son lieu de travail et doit traiter des dossiers indépendamment de son équipe, pourquoi ne pourrait-elle pas le faire directement depuis chez elle ?
  • les moments de détentes avec son équipe permettent de mieux se connaître, de développer des affinités, de travailler dans la bonne humeur et de travailler sur des missions qu’on aime et avec des personnes qu’on apprécie, ça donne tout de suite beaucoup plus envie !

Malgré mes explications, nous n’étions pas du même avis et cette collègue me rétorquait que cela était peut être possible dans une entreprise à la Google mais certainement pas dans un Office de Tourisme.

Je reste convaincue que des aménagements sont possibles pour être heureux au travail et par conséquent améliorer l’efficience de chacun et la performance collective. Et ceci, même en Office de Tourisme. Et si finalement cette problématique n’était pas liée à un choc de génération mais plutôt à une culture du changement

Pour vous illustrer mes propos, j’ai choisi de vous citer l’exemple de l’Office de Tourisme des Grands Lacs (qui regroupe depuis le 1er janvier 2017, les Offices de Tourisme de Biscarrosse, Sanguinet et Parentis en Born) et qui était mis à l’honneur lors des sixièmes rencontres des Francophonies de l’Etourisme pour leur méthode du bonheur. 

Source des images : http://www.biscarrosse.com/

 

LE #BONHEUR EN ENTREPRISE

Suite à la fusion des 3 Offices de Tourisme en janvier 2017, les équipes se sont réunies pour réfléchir à leur objectif. Un maître mot est apparu d’un commun accord : donner du bonheur aux touristes, aux clients, aux élus, aux partenaires, aux habitants et même à soi-même. L’équipe s’est donc mise à travailler dans ce sens notamment en interne où un véritable défi a été mené pour trouver le bonheur au travail.

Le bonheur n’est pas à voir comme une fête au quotidien mais comme le précise la directrice de l’Office de Tourisme « c’est un état d’esprit, c’est savoir pourquoi on se lève le matin, c’est l’épanouissement » (source des citations: Sud Ouest). L’idée va donc au delà d’une simple ambiance agréable en voulant mener tout salarié à un épanouissement au travail

Pour créer une véritable dynamique l’équipe à mis en place plusieurs outils : 

  • une mascotte qui identifie l’équipe et permet de répartir le temps de parole lors de réunions de travail
  • une newsletter interne a été créée, sous forme de bi-hebdomadaire #OnEnEstOù permet de faire le point sur les actions de chaque membre de l’équipe
  • la mesure hebdomadaire du taux de bonheur de chaque employé via un outil anonyme (pour aller plus loin sur la thématique)
  • l’installation d’une cloche du bonheur utilisée à l’annonce d’une bonne nouvelle (à l’image des pubs irlandais sonnant la cloche à chaque pourboire donné)
  • Le meilleur salarié du mois est élu sous la forme du #happygirl ou #happyboy du mois et reçoit en guise de récompense des bonbons Dragibus transformés en #happypièce
  • des réunions de travail mais aussi des moments plus informels et conviviaux : apéritifs, repas encore collègues, célébration des anniversaires des employés …
  • des moments de partage et de détente sont mis en place au long de la semaine tels que des moments de sieste, des courses à pieds entre collègues … 

 

L’HUMAIN D’ABORD

On y revient toujours : l’humain est au coeur du dispositif. L’idée de Frédérique Dugeny, directrice de l’Office de Tourisme, est de remettre l’humain au coeur de l’entreprise en l’encourageant à prendre des initiatives. Pour cela, différents dispositifs sont mis en place sur l’idée d’une « entreprise libérée » où le système hiérarchique traditionnel est remplacé par un système horizontal ou les collaborateurs s’autogouvernent.

Bien sûr, nous ne sommes pas dans une startup ou dans une entreprise « à la Google », il y a des limites. L’idée n’est pas de contester le rôle décisionnaire d’un membre de l’équipe, chacun ayant sa mission et étant en mesure de prendre une décision adaptée. Tout ne se fait pas en un claquement de doigts, pour y parvenir, il faut également écouter, comprendre et valoriser le travail de ses collègues. C’est un long processus auquel chaque membre de l’équipe se doit de participer. 

Comme le dit Frédérique Dugeny : « On est sur quelque chose de collaboratif, qui repose sur l’intelligence collective ». Les outils précédemment cités permettent de créer une ambiance de travail agréable, une relation entre les membres de l’équipe mais aussi de leur donner de nouvelles idées, une envie de développer de nouveaux projets et ainsi de s’épanouir au travail.

Pour donner la parole à chacun et pour faciliter l’organisation de réunions, un objet à été mis en place : un petit canard en plastique jaune. Cette mascotte de l’office de tourisme devient alors un véritable moyen d’expression, chaque membre de l’équipe parle une fois le canard en main. Idéalement la parole n’est prise qu’une fois ainsi cela permet aux plus loquaces de limiter leur temps de parole et aux plus timides de s’exprimer quand même. 

 

Autant d’outils qui peuvent bouleverser l’organisation du travail ou le management traditionnel d’une entreprise (comme quoi ce ne sont pas toujours les nouvelles générations qui en sont la cause!) mais qui restent professionnalisants et qui permettent un épanouissement personnel et ainsi une amélioration de la performance de l’entreprise. 

 

OSER LE BONHEUR AU TRAVAIL

Cette nouvelle stratégie va au delà du bonheur en entreprise puisque les objectifs initiaux étaient de développer un meilleur esprit d’équipe, de créer une ambiance conviviale et d’accroître la motivation par la responsabilisation. Tout ceci a également permis d’optimiser la performance collective mais aussi d’améliorer l’image de l’office de tourisme et ainsi d’attirer de nouvelles clientèles. 

Bien sûr, pour arriver à ce stade il faut d’abord mettre en place une culture du changement. Ce qui est inévitable dans le contexte actuel des regroupements effectués suite à la loi NOTRe, pour en savoir plus à ce sujet, je vous invite d’ailleurs à redécouvrir l’article de Jean-Baptiste sur la culture du changement.

En guise de conclusion, je vous laisse méditer sur cette phrase de la directrice Frédérique Dugeny : « On tente, on se plante, on avance… En tout cas, on est en évolution permanente et maintenant, il y a de la vie ! ».

The post Le bonheur au travail appeared first on Etourisme.info.

Catégories: Veille et actualités

Quel « nootropique » pour quel génome ?

Internet Actu - lun, 06/11/2017 - 06:00

Les utilisateurs de nootropiques s’intéressent aujourd’hui à la génomique personnelle, nous apprend Motherboard. Comme le définit l’article, un nootropique est « une certaine quantité de vitamines, de nutriments et de médicaments que les personnes combinent en cocktails… dans le but d’améliorer leur fonction cognitive, leur bien-être quotidien et leur santé à long terme ». Il ne s’agit donc pas (forcément) de « smart drugs » comme la ritaline ou le modafinil…, plutôt ici de compléments et restrictions alimentaires.

Mais comment en effet savoir si un « nootropique » possède les qualités nécessaires à ce qu’on attend et ne provoquera pas d’effets secondaires ? A cette fin, les adeptes se tournent aujourd’hui vers la génomique personnelle.

Pour cela, il faut passer bien sûr par un site d’analyse d’ADN comme, le plus célèbre d’entre eux 23andme, puis ensuite le soumettre à d’autres sites, comme Promethease, Nutrahacker ou DNAFit, qui effectueront une analyse plus spécifique des gènes. Selon Mensal Denton, qui tient le site nootropedia, « Ce n’est qu’avec ces autres outils que les données de 23andMe deviennent réellement utiles, c’est donc un phénomène relativement nouveau », à l’image des nouvelles applications que propose Helix avec sa plateforme d’analyse d’ADN que nous avions récemment évoqué.

Par exemple, cela peut permettre de détecter la présence de gènes provoquant une déficience en vitamine D, ce qui peut amener à conseiller de prendre des suppléments… On peut également apprendre comment son corps métabolise la caféine, et agir en conséquence… Quelqu’un qui la métabolise lentement peut réaliser que la caféine le rend anxieux ou qu’elle peut augmenter son risque cardiovasculaire par exemple.

Des sites comme Vinome proposent ainsi de vous conseiller du vin selon vos particularités génomiques. DNAFit a fait un partenariat avec la chaîne de restaurants britannique Vita Mojo pour proposer des menus personnalisés et adaptés aux résultats délivrés par les tests génétiques.

Est-ce sérieux ? Le professeur Nathaniel Comfort a expliqué au journaliste de Motherboard que : « Si cela permet d’économiser de l’argent en signalant qu’il est inutile pour une certaine personne d’utiliser un supplément particulier, par exemple, je n’y vois aucun inconvénient. Mais dissimulée en arrière-plan, il y a toujours cette idée que vous êtes votre génome. Ce type de pop-science suppose inévitablement plus de certitudes que nous n’en possédons vraiment, car l’environnement, l’humeur, le régime alimentaire et le reste de votre génome affectent tous ces types d’effets métaboliques. »

Ce à quoi Denton réplique que ce genre de service n’est qu’une ressource supplémentaire, à utiliser parmi d’autres…

L’un comme l’autre semblant oublier que ces systèmes favorisent la dissémination d’informations génomiques, donc éminemment personnelles, de service en service. Ainsi que le fait que ces services semblent nous faire glisser, insidieusement, de la gestion du risque à l’injonction comportementale. Pourrons-nous demain manger autre chose que ce qui nous est recommandé ?

Catégories: Veille et actualités

Les 3 défis du marketing d’influence en tourisme

Blog e-tourisme - lun, 06/11/2017 - 03:00

Blogueurs, Instagramers, YouTubers… ah, que voilà le nouveau klondike du marketing touristique! Imaginez, plus besoin de solliciter des journalistes et médias traditionnels quand on peut obtenir de la visibilité gratuite auprès de ces travel writers et autres digital nomads, hein? Pas si vite!

D’abord, quand il est question d’influenceurs, il importe avant toute chose de faire la distinction avec les ambassadeurs, qui eux sont souvent les citoyens d’un territoire – ou les habitants – ou encore des fans de votre produit ou service, si vous êtes un hôtelier, un attrait, un resto ou autre prestataire du tourisme. Alors qu’un influenceur… c’est quoi au fait?

un influenceur est un individu qui par son statut, sa position ou son exposition médiatique peut influencer les comportements de consommation dans un univers donné – (Lexique Marketing)

Appliqué au monde du voyage et l’industrie touristique, on peut ainsi décliner cette définition d’un influenceur comme étant quelqu’un qui aura une influence sur la décision d’une destination ou l’achat d’une prestation touristique en particulier.

Je vous invite d’ailleurs à (re)visionner cette battle fort instructive lors des #ET13 à Pau le mois dernier.

Aujourd’hui, on ne parle plus d’une mode passagère quand il est question de travailler avec les blogueurs et autres influenceurs, mais bien d’une tendance lourde. Et pas que pour le tourisme d’agrément, comme l’a démontré Atout France un peu plus tôt cette année avec son initiative #BizinFrance pour mousser le marché MICE (réunions, congrès, incentive et événements).

Toutefois, on constate trois défis universels pour les institutionnels et agents de relations publiques travaillant dans l’industrie et faisant face à cette nouvelle réalité:

  • Comment choisir le bon influenceur
  • Comment mesurer le retour sur l’investissement
  • Comment engager et maintenir une relation avec des influenceurs

Regardons chacun de ces défis pour mieux les comprendre et adopter une approche optimale lors de campagnes futures.

1. Choisir le bon influenceur

Selon une étude de Econsultancy parue plus tôt cette année, c’est le plus grand dilemme pour près de 73% des marketers sondés, toutes industries confondues. On veut certes travaillers avec un influenceur, mais quel critère est le plus important?

  • La taille de sa communauté en ligne (nb d’abonnés Instagram, YouTube, etc.)
  • Le niveau d’engagement de cette communauté: likes, commentaires, questions, interactions
  • La niche de cette communauté: généraliste ou spécialisée (lifestyle, sports, foodie, aventure, voyage solo, voyage famille, etc.)
  • Le style de l’influenceur: corpo, humoristique, pratico-pratique, etc.
  • La plateforme de choix de l’influenceur: blogue, Instagram, YouTube, Facebook, vidéo sur mesure, etc.

Bref, comme on peut le voir, on ne peut se fier qu’à un seul critère, et surtout pas la taille de la communauté, mais bien à un ensemble de facteurs. Vous savez, ça s’achète des abonnés, hein? Si, si. Comme on peut acheter aussi de « l’interaction ». Si, si. Faut donc valider et faire un petit effort pour aller au-delà des indicateurs de base.

Plusieurs influenceurs ont d’ailleurs un kit média, incluant notamment le volume de trafic sur leur site web et des extraits de données provenant de Google Analytics. Ça ne garantit pas le travail qui sera effectué, mais c’est déjà plus sérieux comme approche pour mettre en confiance dans une relation à venir avec la destination qui le recevra, par exemple.

Des outils à découvrir pour valider les indicateurs d’influenceurs: HYPR et Julius ou encore NeoReach (tous en anglais)

2. Mesurer le ROI

C’est un défi qui se pose dans plusieurs initiatives à l’échelle d’une destination, mais le retour sur l’investissement (ROI) est particulièrement difficile avec le marketing d’influence… surtout quand on n’a pas d’objectifs clairs en amont! Car voilà justement où est l’os dans l’équation: trop souvent, je remarque des campagnes mal ficelées, sans attentes clairement évoquées de part et d’autre.

Du côté de la destination, on voudra clarifier les termes de l’entente souhaitée:

  • Rédaction d’un ou plusieurs billets, et sur quelle plateforme (blogue de la destination? du blogueur?)
  • Fréquence de publication lors du séjour: une photo par jour sur Instagram? Une vidéo en fin de séjour ou pendant, notamment dans les Stories d’Instagram ou Snapchat?
  • Limites et cadre du droit d’auteur pour les photos: pour usage sur les médias sociaux? le site web de destination? à des fins commerciales par la suite?

Du côté blogueur, il y aura également des attentes légitimes:

  • Temps libre versus itinéraire programmé au quart de tour? (Exemple: un blogueur foodie veut-il vraiment participer au site inspection de trois hôtels en un après-midi?)
  • Collaboration rémunérée ou pro bono? Si rémunérée, quels sont les termes exacts et attentes au niveau de la production de contenu?
  • Accès à du wifi de qualité tout au long du séjour, à des fins personnelles et professionnelles
  • Une fois le contenu publié, le voir repartagé par la destination ou le prestataire touristique

Ce dernier point, aussi étonnant que cela puisse paraitre, ne va pas de soi. Selon une étude de DCI parue en 2017 et partagée lors du congrès de Destinations International à Montréal l’été dernier, plus des trois quarts des destinations sondées partagent peu, voire pas du tout, le contenu des influenceurs! (Pour être plus précis, 58.7% disent le faire parfois, et 18.5% le font rarement, pour un total de 77.2%)

Bref, la mesure de ROI d’une campagne auprès d’influenceurs pourra se mesurer de différentes manières selon les objectifs fixés au départ: portée des publications, niveau d’engagement, nb d’articles produits, photos prises et utilisables dans de futures campagnes, etc.

3. Entretenir la relation avec les influenceurs

Dernier point, et non le moindre: quelle est la nature de la relation que vous souhaitez entretenir avec le, la ou les influenceurs visés? Une campagne ad hoc ou une relation à long terme?

Les blogueurs, YouTubers et Instagramers populaires sont de plus en plus sollicités. Le minimum requis est donc de faire votre travail de recherche en amont, cibler les quelques influenceurs potentiels pour les besoins d’une campagne spécifique, puis de prendre contact avec ces influenceurs. Idéalement, au moyen d’une approche personnalisée, et non pas générique.

La personne que vous approchez n’est peut-être pas disponible pour un prochain voyage de presse, mais elle pourra vous recommander d’autres collègues influenceurs, quand elle voit que la démarche est courtoise et professionnelle. Et l’inverse sera aussi vrai, car le mot se passe rapidement dans la communauté: des influenceurs vous approcheront de manière spontanée quand ils savent qu’ils auront une oreille attentive et une réponse diligente.

Alors, les influenceurs font-ils partie de votre plan d’action marketing pour 2018?

À lire ou à relire: Faut-il travailler avec les blogueurs de voyage?

Ou encore: Blogueurs voyages et relationnistes, même combat?

En anglais: Your 10-Step Roadmap for Influencer Marketing

Save

The post Les 3 défis du marketing d’influence en tourisme appeared first on Etourisme.info.

Catégories: Veille et actualités

Que devient Second Life ?

Internet Actu - ven, 03/11/2017 - 08:51

Ars Technica revient sur la plate-forme qui a fait le buzz il y a environ 10 ans. Eh oui, Second Life existe encore, et, selon l’auteur de l’article, elle serait même prospère ! Du moins selon les dirigeants de la société mère, Linden Labs. Côté utilisateurs, continue la revue, les choses sont plus ambiguës.

Question fréquentation, il semblerait que le nombre d’aficionados du monde virtuel n’ait que légèrement diminué par rapport à la grande époque : il y aurait environ aujourd’hui entre 800 000 et 900 000 « utilisateurs actifs ».

Ensuite, en tant que plate-forme de commerce, spécialisée dans la vente de « biens virtuels » (objets 3D, etc.), Second Life marche toujours plutôt bien. Mais le marché s’est professionnalisé, et les amateurs de 2007 ont cédé la place à des professionnels plus aguerris. Comme l’a confié un utilisateur à l’auteur de l’article :
« Auparavant, il n’était pas trop difficile d’être capable de construire, par exemple, une maison qui aurait eu l’air d’être aussi bien modélisée qu’une autre achetée dans un magasin… Vous pouvez toujours continuer à faire les choses à l’ancienne, mais comme les résultats auront manifestement l’air vieillots et moins impressionnants que ceux obtenus avec les moyens actuels, vous êtes découragés de le faire. »

Autre transformation, toujours liée au commerce. Dans les premières années, il y avait des tas de boutiques virtuelles, qu’on pouvait découvrir en parcourant Second Life avec son avatar. Aujourd’hui, une très grosse partie des ventes se fait via un système de transaction web géré par Linden Labs, ce que la revue appelle avec beaucoup de justesse une « amazonification » de Second Life.

En conclusion, nous dit Ars Technica « la découverte et la navigation sont devenues difficiles aujourd’hui sur Second Life ».

Un avis confirmé par une utilisatrice, qui a expliqué qu’ « aujourd’hui les gens achètent leur terrain et restent sur leur territoire. C’est devenu une expérience bien plus solitaire ».

Catégories: Veille et actualités

Retours #ET13 : Les contenus qui cartonnent sur les réseaux sociaux

Blog e-tourisme - ven, 03/11/2017 - 08:00

Aujourd’hui nous revenons sur un des ateliers des #ET13, animé par Sébastien Répéto sur « Les contenus qui cartonnent sur les réseaux sociaux ». Une thématique de plus en plus importante surtout depuis la démocratisation des appareils numériques de types smartphones avec appareil photos haute définition, appareil photo, drones, caméras embarquées … La vidéo est devenue un moyen incontournable pour faire découvrir son territoire et touche plus efficacement qu’une photo. Depuis peu, la vidéo prend un tout autre tournant car elle ne doit plus convenir à un seul format d’écran mais elle doit s’adapter à tous les terminaux utilisés par l’internaute et surtout au smartphone. 

En effet, aujourd’hui en France plus de 80% des moments digitaux se font sur mobile. En chiffre cela représente :

  • 177 minutes d’utilisation par jour,
  • 150 consultations par jour par utilisateur
  • les 2/3 du trafic web français qui se fait sur mobile et plus de 80% des connexions sur Facebook se font depuis un smartphone
  • 300 millions d’heures de vidéos consultés par mois dont 50% sur mobile

Pour toucher au mieux ses cibles il faut créer le bon contenu, au bon moment et au bon endroit. Mais avec le développement de l’utilisation des réseaux sociaux sur mobile une nouvelle vision du contenu se développe. Pour optimiser l’expérience utilisateur, il faut s’adapter à ses nouvelles pratiques et produire une nouvelle approche de l’affichage mobile, notamment pour les vidéos. 

Avant d’aborder la question des formats de vidéos sur les différents réseaux, voici un résumé des formats les plus populaires sur le web :

  • Youtube : une approche plutôt « recherche » du format vidéo, des formats plutôt longs et en 16/9
  • Facebook : une lecture automatique (autoplay), la possibilité de lecture sans le son, un fort potentiel de viralité mais un temps de lecture moyen assez faible (16.7 secondes)
  • Instagram : des publications sur différents formats (carré, portrait, paysage), des stories en format 9/16, un réseau 100% mobile, un contenu qui doit être compréhensible sans le son
  • Snapchat : essentiellement un format 9/16, un réseau 100% mobile, un contenu éphémère, une utilisation de géofiltres

 

  Comment optimiser la forme de son contenu video sur Facebook ?

Aujourd’hui sur Facebook la vidéo la plus répandue est la vidéo carrée en 1:1. Son format est court et adapté aux mobiles.

Ce format paraissait assez déroutant au début mais il prend de plus en plus de place sur le feednews Facebook. On peut également noter qu’un grand nombre de ces vidéos sont accompagnées de sous-titres directement intégrés et ne nécessitant ainsi pas de son. Un exemple caractéristique est celui du site d’actualité « Brut » qui communique uniquement sur facebook grâce à ce système de sous-titres intégrés.

Un autre format de vidéo qui est de plus en plus utilisé est le format 9/16 qui provient des applications Instagram et Snapchat notamment avec le format des « stories ».

Pourquoi s’orienter vers ces nouveaux formats ? Tout simplement car que le newsfeed Facebook aura tendance à mettre en avant les vidéos au format carré ou 9/16 qui sont bien plus immersif sur mobile.

 

L’utilisation des stories sur instagram

 

Sur Instagram, les formats de vidéos sont déjà adaptés. Là où la différence se joue c’est sur les stories. Le reach est souvent supérieur sur les stories plutôt que sur les publications.

Comment optimiser ses stories sur instagram ?

  • Poster tout au long de la journée
  • Mixer les formats (photo, vidéo, boomerang, hyperlapse)
  • Utiliser les fonctionnalités mises à disposition (stickers, polls, hastags cliquables) 
  • Utiliser la géolocalisation pour apparaître dans la story du lieu
  • Construire une histoire afin que le contenu ne soit pas décousu

 

 

Snapchat et les Géo-filters !

En bonus par rapport à l’atelier, je souhaitais vous parler de Snapchat, qui malgré le passage d’Instagram aux stories, il reste un réseau toujours utilisé, en particulier par les jeunes générations. Depuis plusieurs mois l’accès aux géo-filtres est devenu ouvert. C’est à dire que vous pouvez maintenant créer vos propres géofiltres localisés … sous certaines conditions bien sûr.

Concrètement il existe 3 catégories de géofiltres sur Snapchat :

  • La communauté :  il permet de créer un filtre Snapchat pour une ville, un quartier, une école… Tous ces filtres sont gratuits mais réservés aux lieux publics
  • Le personnel : il permet de créer un filtre Snapchat pour un anniversaire, un mariage, une fête, des vacances… pour un tarif de 5€ minimum

  • Le professionnel : il permet de créer un filtre Snapchat pour une marque, une enseigne, un restaurant, un événement… celui là est payant pour les marques

 

Pour résumer, n’importe quel utilisateur souhaitant créer un geofiltre localisant un quartier ou des lieux publics, peut le faire et ça totalement gratuitement. Pour les entreprises ou marques souhaitant créer des geofiltres éphémère (pour un événement) ou pour une marque devront payer. Cependant vous pouvez créer des géofiltres proche géographiquement de votre marque (sans inclure le logo) qui représenteront des lieux de votre territoire, peut-être que certains d’entre vous le font déjà ou vont le faire ?

La leçon à retenir de cet atelier est simple : la vidéo est un moyen d’expression incontournable qui doit s’adapter à l’usage de l’utilisateur pour que son expérience soit satisfaisante. Maintenant, il ne vous reste plus qu’à mettre en pratique et utiliser ces nouveaux formats. D’ailleurs, si vous les utilisez déjà n’hésitez pas à nous en faire part dans les commentaires et à nous confier vos retours d’expériences (réussi ou pas) !

The post Retours #ET13 : Les contenus qui cartonnent sur les réseaux sociaux appeared first on Etourisme.info.

Catégories: Veille et actualités

Le dual n-back augmente bien la mémoire de travail

Internet Actu - jeu, 02/11/2017 - 11:30

Cela fait maintenant plusieurs années qu’un exercice cognitif, le dual n-back – qui consiste à être soumis à des stimulis visuels et auditifs pour voir s’ils se répètent – possède la réputation d’être le seul type d’entraînement capable de réellement augmenter certaines capacités cognitives. Cela a même été confirmé chez des enfants… Et la nouvelle étude de la John Hopkins University va dans le même sens…

Dans cette expérience, les chercheurs ont avant tout cherché à comparer deux exercices d’amélioration cognitive bien connus : d’un côté le dual n-back, donc, et de l’autre le « complex span », une tâche qui consiste à se rappeler de différents éléments alors que des distractions empêchent le joueur de se concentrer.

Les chercheurs ont donc utilisé trois groupes : l’un utilisant le dual n-back, le second le « complex span » et le troisième bien sûr faisant office de groupe témoin et n’ayant rien à faire de spécial.
L’équipe a tout d’abord mesuré, grâce à des tests cognitifs et l’EEG, les caractéristiques mentales de chacun des participants. Ensuite, ceux-ci ont eu un mois pour s’entraîner avec la tâche qui leur avait été assignée, à raison d’une séance de 30 minutes 5 fois par semaine.

Le résultat a été largement en faveur du dual n-back : les participants ont montré une augmentation de 30 % de leur mémoire de travail, par rapport à ceux qui avaient pratiqué le « complex span ». De plus, les usagers du n-back ont montré un accroissement de l’activité du cortex préfrontal après ce mois d’entraînement. Le cortex préfrontal est corrélé à nos capacités de décision et de planification.

Reste à comprendre ce qui se passe vraiment, et pourquoi cela marche. Sur ce point, on est encore largement dans le noir.

Pour le docteur Susan Courtney, co-auteure de l’étude :
« La plus grande leçon à retenir, c’est que l’entraînement intensif renforce la cognition et le cerveau, mais nous ne comprenons toujours pas pourquoi ni comment… nous ne pouvons pas nous précipiter sur un jeu vidéo et espérer que cela guérira tous nos problèmes cognitifs. Nous avons besoin d’interventions plus ciblées. »

Catégories: Veille et actualités

Facebook est-il devenu incontrôlable ?

Internet Actu - jeu, 02/11/2017 - 06:00

Courrier international (@courrierinter) a eu la bonne idée de traduire l’excellent article de Max Read (@max_read) pour le New York Magazine (@NYMag) qui montre comment FB échappe à son créateur. A l’heure où FB est sommé de s’expliquer devant le Congrès américain sur les ingérences publicitaires russes dans l’élection de Donald Trump, Read décortique les publications de Mark Zuckerberg où il a présenté les enjeux de FB pour mieux en souligner les contradictions. Ainsi, remarque-t-il, quand Zuckerberg annonce qu’il va rendre les publicités politiques plus transparentes, l’entreprise présente ses nouveaux outils marketing permettant de cibler les utilisateurs de FB passant en magasin pour mieux les harceler de publicités.

Read pointe une à une les contradictions de l’ogre FB, qui assure, désormais, comme le ferait un État ou une Organisation non gouvernementale, « veiller à garantir l’intégrité des élections ». John Lanchester pour la London Review of Books (LRB) rappelait très bien dans un article au vitriol, que derrière les belles annonces promotionnelles visant à « connecter le monde entier », FB était d’abord conçu pour récupérer des données sur les utilisateurs et les vendre à des annonceurs. Pour Lanchester, Facebook est « sans boussole morale ».

Pour Read, la tournée de Zuckerberg à travers les États-Unis ressemble plus à une introspection qu’à une précampagne présidentielle : elle reflète plus les hésitations de Zuckerberg face au fléau des Fake News et à la démultiplication des dénonciations de l’inaction de FB face aux problèmes qui minent le réseau social. L’un des rares engagements de FB pour contrer la désinformation, à savoir le lancement d’un outil de vérification des faits, lancé en mars 2017 à titre expérimental avec des médias, présenté comme une arme décisive dans cette lutte, se révèle inutile. C’est en tout cas ce que souligne une étude de l’université de Yale, relayée par Policito qui montre que pour les utilisateurs, tout ce qui ne serait pas tagué comme fausse information serait par défaut véridique. Pas sûr que ce soit une solution pour améliorer le discernement effectivement (voir « Bulle de filtre et désinformation : Facebook, une entreprise politique ? » et « Peut-on répondre à la désinformation ? »).

L’échec de cette tentative d’autorégulation, redonne de la valeur au fait d’agir sur le modèle économique même de FB pour remédier au problème, comme le soulignait Quartz.

L’enquête du Congrès en tout cas change la donne. Non pas que les 100 000 dollars de publicités achetés par le gouvernement russe aient vraiment pu changer la donne (cela aurait été circonscrit à 3000 annonces ayant touché environ 10 millions d’Américains – bien moins que les millions de dollars dépensés par les candidats Américains eux-mêmes en publicité sur les réseaux sociaux), mais elles montrent que l’autorégulation dont se glorifiait FB ne fonctionne pas. Read rappelle que FB a d’abord nié avoir vendu de la publicité aux Russes, avant de le reconnaître, puis de dire au Congrès qu’il ne pouvait pas révéler plus d’information, avant d’obtempérer et de livrer des données face à la menace d’un mandat de perquisition. Pour Tim Wu (@superwuster), professeur de droit à l’université de Columbia et auteur des Marchands d’attention, la solution est d’obliger FB à lever le voile sur ses pratiques publicitaires et d’interdire l’achat de publicité à caractère politique par un gouvernement étranger. Au Congrès, les démocrates souhaitent que les publicités en ligne soient désormais encadrées. D’autres aimeraient même imaginer un démantèlement sur le modèle de Bell, sans savoir très bien comment diviser l’empire FB. Ce qui est sûr, souligne Tim Wu, c’est que FB profite d’un environnement très très peu réglementé.

Et Read de conclure en rappelant un épisode assez oublié de FB : celui où, entre 2009 et 2012, les internautes pouvaient voter pour faire évoluer la politique du site. Peu le faisaient, le système favorisait plutôt la quantité que la qualité des contributions… ce qui explique que FB l’a donc abandonné. Reste que c’était peut-être encore une époque où FB était à l’écoute de ses utilisateurs. « FB était devenu trop grand, et ses membres trop complaisants, pour la démocratie », conclut Max Read.

En attendant, devant la commission du Congrès, FB a concédé qu’elle devait faire des efforts pour mieux identifier les annonceurs, ses vrais clients, ceux dont nous sommes le produit, rapporte Le Monde.


Image : Buzzfeed vient de publier une infographie montrant comment FB divisait ses utilisateurs Américains en 14 segments politiques issus de 5 grandes tendances, pour les proposer aux annonceurs politiques (une segmentation qui ne serait plus disponible aux annonceurs actuellement, mais qui l’a été durant la campagne présidentielle américaine).

MAJ : Le New York Times, quant à lui, a invité plusieurs experts à donner leur avis sur comment réparer FB. Pour Jonathan Albright, directeur de la recherche du Tow Center for Digital Journalism de l’université de Columbia, FB ne devrait pas prioriser les réactions dans le fil d’information et limiter la recommandation émotionnelle. Pour Eli Pariser, l’auteur de la Bulle de filtre, Fb devrait s’ouvrir aux chercheurs et changer ses critères de mesure pour mieux prendre en compte l’impact de l’information sur le temps long. Ellen Pao de Reddit, elle invite les dirigeants de FB à introduire de la diversité dans son équipe et à se doter de principes d’ordre journalistique. Quant à Tim Wu, il invite FB à devenir une ONG.

Catégories: Veille et actualités

#ET13 : jette ton app, plus personne ne l’utilise

Blog e-tourisme - mar, 31/10/2017 - 07:57

Un petit billet pour vous donner à revoir un bon moment des #ET13 en ce jour un peu tranquille pour beaucoup.

Il s’agît de l’intervention de Fred Cavazza dont la première slide est parlante : « oubliez les applications et soignez plutôt votre écosystème mobile!« 

Dans son intervention, le spécialiste du web démontre le peu d’intérêt d’éditer une application pour le tourisme : e, france, un possesseur de smartphone utilise moins de dix applications par jour « et surtout pas la votre »! Pour se faire une place sur les plateformes Androïd ou Appstore, c’est mission impossible. 

ET13 – C1 – Fred Cavazza – Ecosystème mobile de Rencontres Nationales du etourisme institutionnel

 

Soignez l’écosystème

Pour Fred Cavazza, il faut avant tout éditer un site « mobile friendly », qui est satisfaisant dans la plupart des cas, mais surtout soigner un écosystème en définissant une stratégie de présence sur le parcours client de l’utilisateur de smartphone. Et là, les possiblités d’intervenir sont nombreuses, comme le montre la diapositive ci-dessous

Pour revoir l’ensemble de la présentation de Fred Cavazza, en vidéo, en très bonne qualité, c’est ci-dessous.

Un conseil : branchez ça sur la TV, préparez-vous un thé, et regardez ça comme au cinéma, c’est un bon sujet pour un 31 octobre!

The post #ET13 : jette ton app, plus personne ne l’utilise appeared first on Etourisme.info.

Catégories: Veille et actualités

L’art de la mémoire : de la technique mnémonique à la création du fantastique ?

Internet Actu - mar, 31/10/2017 - 06:00

On a déjà parlé plusieurs fois de l’art de la mémoire dans nos colonnes : ne s’agit-il pas de la première technique d’amélioration mentale ? Officiellement, l’art de la mémoire est né au sein de la civilisation gréco-romaine. Mais cette vision est peut-être bien trop eurocentrique… Dans un article fascinant pour la revue Aeon, Lynne Kelly (blog, @lynne_kelly) nous présente quelques techniques « d’art de la mémoire » utilisées par les populations de chasseurs-cueilleurs du monde entier. Cet article reprend bon nombre d’idées qu’elle expose dans sont récent et passionnant ouvrage, The Memory Code.

L’incroyable mémoire des Anciens

Ce qui caractérise un grand nombre de civilisations traditionnelles, explique-t-elle, est la prodigieuse mémoire possédée par leurs Anciens. Ainsi, nous rappelle-t-elle, les Navajos sont-ils capables de se remémorer jusqu’à 700 insectes avec leur aspect, habitat, leur comportement… et les Mangyans des Philippines seraient en mesure de reconnaître 1625 plantes différentes, dont certaines inconnues de la science occidentale.

Et bien entendu, leurs connaissances vont bien au-delà des insectes ou des plantes. Les Anciens de ces peuples seraient capables d’accomplir les mêmes exploits de mémoire dans tous les domaines de leur environnement…

Mais l’art de la mémoire des peuples premiers est assez différent – et plus complexe – que celui des orateurs de l’Antiquité ou des penseurs de la Renaissance. D’abord, il est multimédia : il implique chant, danses et histoires mythiques variées. Ensuite, le « palais de mémoire » n’est autre que l’environnement dans lequel vivent ces populations. C’est en se déplaçant au sein de leur milieu naturel que les « anciens » de ces tribus sont capables de réactiver leurs connaissances liées à des lieux précis. C’est ainsi que procèdent les aborigènes avec leurs « pistes de chant ».

« Une piste de chants, nous dit Kelly, est une séquence d’emplacements, pouvant, par exemple, inclure les roches qui fournissent les meilleurs matériaux pour les outils, ou un arbre important ou un trou d’eau. Ces pistes sont beaucoup plus qu’une aide à la navigation. À chaque emplacement, un chant, une histoire, une danse ou une cérémonie sont exécutés, et seront toujours associés à cet emplacement particulier, physiquement et en mémoire. Une piste de chants constitue donc une table des matières pour l’ensemble d’un système de connaissances, qui peut être consultée en mémoire et physiquement. »

Certaines de ces pistes de chant peuvent couvrir des distances de plus de 800 kilomètres…

Il existe, grosso modo deux espèces de « palais de mémoire ». Les grands, qui reposent sur des lieux, et des « micro-espaces », de petits objets qui reproduisent de manière miniaturisée les plus grands palais… En Afrique, on trouve le lukasa, une planchette de bois incrustée de petits objets, auxquels l’utilisateur associe diverses informations, comme souvent les noms des grands rois et dynasties. Selon Kelly, « Des chercheurs ont affirmé que les « hommes de mémoire » de la société Mbudye passaient des années à apprendre un vaste corpus d’histoires, de danses et de chansons associées aux perles et coquillages attachés à un morceau de bois sculpté ».

Un tel savoir n’était pas seulement utile, il était politique, nous explique Lynne Kelly dans son livre. Dans les petits groupes de chasseurs-cueilleurs, la distinction par la richesse ou le leadership par la force physique n’existent pas. Tous les membres de la tribu sont à peu près à égalité. Les seuls à détenir une vraie forme de pouvoir, ce sont les Anciens qui par leurs chants, leurs mythes connaissent les méthodes de survie du groupe. C’est d’ailleurs le titre de sa thèse : When Knowledge Was Power (Quand la connaissance était le pouvoir).

La connaissance des chants était un savoir ésotérique, transmis à peu d’individus, explique-t-elle. La raison en est double. Tout d’abord, cela permet bien sûr de conserver le pouvoir entre quelques mains, mais surtout, les histoires ne peuvent subir aucune déformation ou perdre des informations qui pourraient s’avérer vitales. Il et amusant de constater que la fameuse société de la connaissance, envisagée par certains comme un objectif de notre civilisation technique, aurait déjà existé dans un lointain passé !

Le monde dans son jardin

Les performances des Anciens nous paraissent incroyables. Lynne Kelly a voulu passer à la pratique. Ce qu’elle raconte dans son livre The Memory Code.

Elle a utilisé comme théâtre de ses pistes de chants sa propre maison, son jardin et l’environnement immédiat. Elle y a stocké diverses formes d’information, par exemple la liste des pays, classés par ordre de population. Les 120 premiers pays sont « placés » dans sa maison et son jardin ; les autres sur la route qu’elle prend quotidiennement pour se rendre à la boulangerie. Elle a également fabriqué des « micro-espaces de mémoire », un à la semblance d’un lukasa, d’autres étant des jeux de cartes ou de tarots.

Au final, elle a été convaincue par l’efficacité de ces pratiques. Elle n’était pas satisfaite des ouvrages contemporains de mnémotechniques, qui vous apprennent comment mémoriser les décimales de pi, ou l’ordre des cartes dans un jeu… Elle cherchait quelque chose de plus fondamental, des « méthodes pour mémoriser l’information qui me donneraient, écrit-elle dans The Memory Code, la capacité d’avoir une plus large représentation du monde qui m’entoure…Je voulais mémoriser des connaissances d’une manière qui améliorerait la vie quotidienne ».

Un souhait que la mise en pratique des ces techniques « archaïques » lui a permis de réaliser :
« Les diverses techniques s’intègrent et se mélangent entre elles, et se nourrissent mutuellement, créant un moyen incroyable de mémoriser pratiquement n’importe quoi. Ma pensée devient plus dépendante des images et des émotions et moins des mots. » Lynne Kelly précise aussi à plusieurs reprises qu’un tel mode de connaissance, non linéaire, est très difficile à décrire aux esprits contemporains, ce qui explique que les représentants de ces peuples chasseurs-cueilleurs aient eu du mal à présenter leur méthode aux visiteurs occidentaux, qui souvent ne saisissaient pas le caractère hautement utile et pragmatique de ces chants, danses, ou cérémonies.

La génération du fantastique

C’est une pratique qui était déjà décrite par les artistes mémoriels de l’Antiquité et de la Renaissance : pour frapper l’esprit, les images mentales utilisées pour se souvenir gagnent à être grotesques, inquiétantes, érotiques, etc. C’est pourquoi l’art de la mémoire est associé à la culture de l’imagination. La production d’univers surréalistes est la conséquence directe de cette pratique. La chose a déjà été remarquée par la grande spécialiste du sujet, Frances Yates, et surtout par l’historien des religions Ioan Couliano, auteur de Eros et magie à la Renaissance, qui établit directement un lien entre les techniques mnémotechniques et les croyances magiques et alchimiques.

Cette intrusion du fantastique, du mythologique, Lynne Kelly a pu aussi le constater. Elle a par exemple essayé de retenir les noms de l’ensemble des oiseaux vivant dans sa région. Pour ce faire, elle a créé des images et des pistes de chants, dans lesquelles lesdits oiseaux prenaient souvent des formes humanoïdes possédant certaines caractéristiques propres aux animaux qu’ils étaient censés représenter.

« J’ai découvert que les personnages de mes histoires, bien que possédant des noms d’oiseaux, restaient très humains et très peu aviaires, tant que je n’avais pas observé des spécimens en liberté. Puis les personnages commencèrent à devenir en partie oiseaux, en partie humains, comme c’est souvent le cas avec les personnages des histoires indigènes. Le Chevalier stagnatile se remarque par de longues jambes, c’est pourquoi Marsha (jeu de mots sur le nom anglais de l’oiseau, « marsh sandpiper », ndt) est devenue une superbe fille aux longues jambes ».

« Au final, affirme-t-elle, mes histoires devinrent de plus en plus mythologiques, mais l’information dont j’ai besoin est toujours restée disponible… Parfois elles pénètrent dans mes rêves. Tout cela est arrivé naturellement. Je ne l’ai pas planifié. Mes histoires se sont mises spontanément à rappeler les nombreux récits indigènes que j’avais lus ».

La production d’images étranges peut également être générée par la superposition, au sein d’un même espace de mémoire, de plusieurs catégories de connaissances diverses. C’est d’ailleurs une question qu’on se pose spontanément, lorsqu’on entend parler d’art de la mémoire. Peut-on utiliser un même palais plusieurs fois ? Ne risque-t-on pas de s’emmêler les pinceaux ? Autrement dit, lorsque Lynne Kelly utilise sa maison et son jardin pour « enregistrer » les pays par ordre de population, peut-elle utiliser ces emplacements à d’autres fins ou ces lieux sont-ils « grillés » ? En fait, elle l’a fait et non, cela ne l’a pas embrouillé. Cela a même renforcé la force des images. Dans un de ses « micro-espaces de mémoire » elle a stocké sur un même jeu de cartes les « Ancêtres » (c’est-à-dire des personnages célèbres de l’histoire) et divers sites archéologiques. Ainsi, une même carte en est venue à représenter à la fois Sigmund Freud et la grotte de Lascaux. Ce qui a fait naître dans l’esprit de Lynne Kelly l’image d’un Freud psychanalysant les artistes anonymes de Lascaux. « Je ne confonds jamais les images de Lascaux et celles d’Altamira, explique-t-elle, car seul l’art pariétal de Lascaux a pour guide Sigmund Freud ».

Si cet aspect « fantastique » de l’art de la mémoire a souvent été souligné, Lynne Kelly est peut-être celle qui en fait le compte-rendu le plus précis, le plus convaincant. Et ce d’autant plus que Kelly (contrairement à une Frances Yates ou un Ioan Couliano) ne se passionne guère pour les aspects « religieux » ou mystiques de ce genre de pratique ! C’est une pure pragmatique, qui s’interdit, dans son livre comme dans sa thèse de faire référence à des concepts comme le chamanisme, ou à des éléments de croyances religieuses ; elle est intéressée avant tout par la manière de stocker et communiquer des informations indispensables à la survie. Et pourtant, dans sa pratique, sans qu’elle l’ait cherché, des éléments de fantastique, de mythologique, se produisent spontanément, et une nouvelle approche cognitive du monde se déploie.

La grande hypothèse de Lynne Kelly, qui dépasse largement le cadre de cet article, serait que ces « palais de mémoire » seraient à l’origine d’un bon nombre de monuments du lointain passé, comme les grands complexes mégalithiques des pays celtiques, les statues de l’île de Pâques ou les lignes de la Nazca. Ces structures qu’on a trop souvent l’habitude de désigner simplement comme des « lieux sacrés » sans chercher d’explication supplémentaire, auraient été construites par des peuples en voie de sédentarisation, quittant le mode de vie nomade chasseur-cueilleur pour celui des agriculteurs et des éleveurs. Ces gens auraient alors codé dans ces structures monumentales le savoir qui autrefois était associé à des points précis de leur territoire de chasse et de migration, afin d’assurer sa pérennité.

Je n’ai pas les compétences pour avoir un avis sur cette hypothèse. Mais de toute façon, simplement par la présentation des techniques anciennes de mémoire et la mise en valeur d’un autre mode d’acquisition des connaissances, plus émotionnel, imaginatif et moins verbal, The Memory Code m’apparaît comme un nouveau classique sur ce sujet, à mettre aux côtés du fameux livre de Frances Yates sur l’Art de la mémoire, qu’il complète admirablement.

Rémi Sussan

Catégories: Veille et actualités

Le big data au service de la connaissance des touristes

Blog e-tourisme - lun, 30/10/2017 - 08:05

Pour mieux comprendre par exemple la perception d’une destination par les consommateurs, il est possible d’organiser des focus groupes ou bien des enquêtes en ligne. Une autre hypothèse de travail est d’analyser le contenu généré par les utilisateurs sur Internet (user generated content – UGC) pour disposer d’une vision du territoire : photos partagés, commentaires sur les forums, avis sur la destination, etc., mais aussi de regarder plus globalement comment on parle de la destination sur les sites Internet (presse en ligne, sites des voyagistes, etc.). L’analyse des conversations en ligne permet également d’optimiser sa communication : identifier des sujets de conversation des internautes, adopter les mêmes registres de langage, répondre à des remarques, etc.

Le big data pour mieux comprendre la perception d’un territoire par les consommateurs ?

L’utilisation des contenus sur Internet permet donc potentiellement de mieux comprendre la perception d’un territoire par les consommateurs. Les objectifs sont donc d’identifier pour chaque marché étudié (France, Espagne par exemple) les volumes d’expression sur le web et les principaux émetteurs (sites internet, blogs, forums, …), et ainsi connaître les réseaux et médias en ligne sur lesquels s’échangent des informations autour d’un territoire. Enfin, d’analyser le contenu d’un échantillon représentatif de quelques centaines de verbatim (c’est-à-dire contenu produit par des internautes) par marché. En effet malgré les progrès du web sémantique ou du machine learning, une analyse humaine s’avère nécessaire pour disposer d’éléments de réflexion assez fins.  Des outils permettent désormais de récupérer les contenus afin de pouvoir effectuer plus simplement une analyse. Ce sont en effet des solutions de monitoring web. Ces outils s’inscrivent dans un « nouveau » procédé d’analyse, le social media intelligence.

Qu’est-ce que le social media intelligence ?

Le social media intelligence « fait référence aux outils et aux solutions qui permettent aux entreprises de surveiller les différentes plateformes et conversations sur les médias sociaux, de réagir aux différents signaux reçus sur ces médias sociaux, et de les synthétiser ces réactions individuelles pour en déduire des tendances et des analyses fondées sur les besoins des utilisateurs » (Source : définition de Wikipédia – fr.wikipedia.org/wiki/Social_media_intelligence). Ces outils permettent donc de regrouper sur une même plateforme des nombreux contenus, généralement en temps quasi-réel, afin d’effectuer des traitements et des études. On peut ainsi définir le monitoring en ligne ou monitoring web, comme l’opération qui consiste à récupérer en temps réel des contenus en utilisant généralement des mots clés.

Quel est l’intérêt du social media intelligence ?

Le social media intelligence offre ainsi la possibilité d’observer les conversations en ligne et plus particulièrement celles sur les réseaux sociaux (Twitter, Facebook, commentaires sur les sites d’avis, vidéos Youtube, etc.).  Cela offre ainsi la possibilité à une marque de surveiller ce que l’on peut dire sur elle, réagir aux différents signaux reçus sur les réseaux sociaux. Cela permet ainsi de synthétiser des réactions individuelles par langue ou par marché par exemple pour en déduire des tendances, mais aussi être en capacité de gérer sa présence et sa réputation en ligne (répondre à des commentaires par exemple). Le social media intelligence propose ainsi tout un panel d’outils et des méthodologies au service de l’analyse marketing (connaissances des clientèles par exemple) à l’instar d’autres outils, tels que les sondages. L’intérêt de ce type d’analyse est également de détecter de nouveaux signaux faibles qui pourraient devenir de nouvelles tendances de consommation, ou bien par exemple des conversations, qui, non gérées, pourraient devenir préjudiciable à une marque.

En résumé, le social media intelligence « peut se définir comme la transformation de données brutes provenant de l’écoute du bruit sur les médias sociaux (mais également des médias traditionnels (…)) en information permettant aux acteurs économiques de prendre des décisions et d’agir dans de nombreux domaines (marketing, communication, innovation, relation client…) » (Source : www.atnetplanet.com/social-media-intelligence-cles).

Quelques applications possibles du social media intelligence

Les principaux outils permettent ainsi d’écouter ce qui peut être dit sur Internet. Les usages sont multiples, et en particulier :

  • Surveiller et protéger sa réputation en ligne (« e-reputation », crises d’images, bad buzz ) ;
  • Répondre aux sollicitations des consommateurs et des prospects (gestion de la relation client, social CRM);
  • Analyser le sentiment, c’est-à-dire par exemple de voir si les clients parlent positivement ou négativement des produits ;
  • Identifier des influenceurs et des prescripteurs autour de sa marque ou de ses produits ;
  • Mesurer l’impact en ligne d’opérations marketing ;
  • Veille concurrentielle ;
  • Audits d’image et de positionnement ;
  • Ou bien encore des analyses prédictives (détecter des signaux faibles, identifier de nouveaux besoins ou de nouvelles attentes, observer des nouvelles tendances…).

L’intérêt du social media intelligence avec les consommateurs

La société Synthesio, cabinet spécialisé dans l’analyse des réseaux sociaux, a publié un intéressant livre blanc montrant l’intérêt de ce type d’analyse pour entretenir son lien avec les consommateurs (Source : Utiliser la social intelligence pour améliorer l’expérience consommateur, Synthesio, avril 2014) . On peut citer 4 éléments utiles pour nourrir sa relation client :

  • Ecouter et dialoguer avec ses clients et ses prospects, et ainsi savoir mieux gérer sa relation avec les consommateurs ;
  • Utiliser les retours clients pour améliorer ses produits ;
  • Découvrir qui sont vraiment ses clients (profil des clients en particulier) ;
  • Enfin de récompenser ses ambassadeurs en ligne et ainsi établir une relation personnalisée avec ses porte-paroles les plus actifs.

Exemple d’un tableau de bord (Dashboard) de la solution de Synthesio

L’intérêt du monitoring web pour la chaîne de valeur de l’entreprise

Cette écoute et analyse des données issues d’Internet permettent d’alimenter la réflexion des différents services stratégiques de l’entreprise. Le social media intelligence participe ainsi à la chaîne de valeur de l’entreprise. Les différents services clés d’une entreprise peuvent ainsi tirer de la valeur du monitoring web (création de valeur), et en particulier :

  • Le service en charge de la recherche et du développement peut avoir des aides pour imaginer les fonctionnalités attendues pour les futurs produits ou services ;
  • Le service client peut ainsi mieux comprendre et identifier les moments où il est nécessaire d’être particulièrement présent et la nature de l’aide attendue par les clients ;
  • Le marketing peut ainsi l’utiliser pour mieux comprendre l’impact des campagnes et les comparer à celles des concurrents,
  • Les ressources humaines peuvent mieux comprendre les attitudes à l’égard de la marque et des valeurs de l’entreprise, et de ce qui pourraient affecter les politiques d’embauche ;
  • Enfin le service commercial/vente peut l’utiliser pour mieux comprendre les problèmes récurrents des acheteurs et s’assurer ainsi de trouver une manière de répondre à ses différents problèmes.

Pour en savoir plus, je conseille la lecture de l’article de Ranjani Raghupathi, The Ultimate Guide to Social Media Intelligence, Unmetric – unmetric.com/social-media-intelligence.

Les solutions techniques existantes en matière de monitoring web

Il existe de nombreuses solutions techniques en matière de monitoring web. Pour plus de commodité, on distingue généralement 2 grandes catégories, même si de plus en plus d’outils proposent une gamme de services étendus :

  • Les outils permettant d’écouter et de surveiller à des fins par exemple de gestion de la réputation ou plus globalement de gestion de sa présence en ligne ;
  • Les solutions pour analyser la présence en ligne (impact des campagnes, identifier des ambassadeurs, analyse des contenus, etc.).

 Les principaux acteurs du marché

De nombreuses sociétés proposent des solutions de monitoring web. Les principaux acteurs du marché sont Brandwatch, Cision, Clarabridge, Crimson Hexagon, Digimind, Netbase, Networked Insights, Oracle, Prime Research, Salesforce, Sprinklr, Synthesio, et Sysomos. Si vous voulez en savoir plus, le cabinet Forrester Research a réalisé un benchmark sur les différentes solutions techniques du marché (Source : Samantha Ngo, Mary Pilecki, The Forrester Wave™: Enterprise Social Listening Platforms – Q1 2016, Forrester Research, mars 2016).

Exemple d’un tableau de bord de la solution de Digimind

Les apports du monitoring web

Ce type d’analyse permet de disposer de données de cadrage sur les comportements des clientèles : les éléments partagés par les internautes (photos, notations, commentaires), où s’expriment les consommateurs (exemples : facebook, twitter, un forum spécialisé, etc.), qui publient sur internet (quelles nationalités ? voire quand c’est possible quel âge ou quel genre), ou bien encore quand partagent-t-ils (avant d’acheter, pendant l’achat, après l’achat). Tous ces éléments permettent ainsi de nourrir une réflexion marketing, d’alimenter une stratégie éditoriale et plus globalement de disposer d’éléments pour mieux connaître ses clients ou ses prospects.

Ce type de méthodologie permet d’obtenir quelques données de cadrage :

  • Les sites Internet ou les réseaux sociaux sur lesquels s’expriment les touristes ;
  • Comment le territoire est globalement perçu par les internautes ;
  • Les centres d’intérêts communs et différents exprimés par les internautes ;
  • Les éléments qui confortent le positionnement de la destination ;
  • Globalement, l’e-réputation de la destination par ses contenus positifs, neutres ou négatifs.

Le monitoring web est d’un apport intéressant à une réflexion marketing, mais ne se substitue pas à d’autres outils ou méthodologies pour mieux connaître les marchés ou les consommateurs/touristes. C’est en effet un outil complémentaire des outils existants à la connaissance des marchés : étude des flux, enquêtes hôtelières, enquêtes de satisfaction, sondages, focus groups, … Les analyses sont particulièrement intéressantes pour la construction de la stratégie éditoriale et plus généralement des éléments de communication à mettre en avant.

Les limites du monitoring web

Les résultats peuvent être parfois assez décevants : peu de données exploitables (informations peu pertinentes en raison d’un « bruit » important, ou un volume trop faible d’information pour en tirer des enseignements. Les internautes s’expriment majoritairement dans des lieux non accessibles aux outils. Par exemple la majorité des statuts/commentaires postés sur facebook sont visibles uniquement des « amis » d’un utilisateur de ce réseau social. Il peut y avoir en outre des biais d’interprétation quand les contenus sont sortis de leur contexte surtout si les contenus sont traduits d’une langue à une autre.  L’analyse de l’e-réputation d’une destination ou d’un produit par ses contenus positifs, neutres ou négatifs est au final assez complexe. En effet la majorité des outils ont dû mal à qualifier les contenus et dans la majorité des cas, ils se voient attribuer un sentiment neutre (contenu ni positif, ni négatif). Cela tient par exemple à la nécessité de comprendre le contexte dans lequel a été écrit le contenu ou bien tient à la subtilité des langues (exemple : l’ironie). 

On peut ainsi retenir deux grandes limites à ce type d’approche. L’info-obésité et se retrouver avec trop de contenus à traiter, ou inversement disposer de peu de contenus à analyser. Enfin l’interprétation parfois complexe des contenus.

Il est ainsi important pour le briefe (choix de la solution de monitoring par exemple ou le choix des mots clés) d’avoir des objectifs précis et de connaître les limites de ce type d’approche. C’est un double paradoxe : il faut à la fois être précis sur ce que l’on cherche à mieux comprendre, mais en même temps ne pas trop aller dans le détail car sinon les résultats seront trop limités pour en tirer un quelconque enseignement. Ce sont en effet des données issues de consommateurs, ce ne sont pas par exemple des focus groupes grandeur nature.

Conclusion

En conclusion l’utilisation des contenus générés par les utilisateurs sur Internet permet de mieux connaître et de mieux comprendre ses clients. Le numérique peut ainsi aider à la définition du positionnement marketing sur Internet d’une destination et à l’optimisation de la présence en ligne. Il est également possible de voir qui partage des informations à propos de la marque, et aide ainsi à identifier des « influenceurs » dans le secteur d’activité concerné. Il est ainsi possible de savoir où sont les prospects et les communautés actuelles et sur quelles plateformes se passent les échanges. L’utilisation des données produites par les internautes permet d’en tirer des enseignements, mais ce type de méthodologie nécessite de mettre en place une stratégie d’analyse parfois complexe à mettre en œuvre et les résultats peuvent être assez aléatoires en fonction de la problématique ou du degré d’utilisation d’Internet par les segments de clientèles visés. On gagnerait certainement à mettre en place une méthodologie commune entre les différents territoires afin de capitaliser sur des travaux antérieurs et de disposer d’indicateurs communs d’analyse.

The post Le big data au service de la connaissance des touristes appeared first on Etourisme.info.

Catégories: Veille et actualités

Pages