Fils RSS agrégés

3 étapes clés pour devenir une destination de tourisme durable

Blog e-tourisme - mer, 08/11/2017 - 07:30

Je reviens juste d’Ajaccio où l’ATC (Agence du Tourisme de Corse) m’avait invité à animer les premières Journées du Tourisme Durable de Corse. C’était l’occasion de rappeler les éléments fondateurs qui font d’un territoire, une destination de tourisme durable.

Une semaine avant, je me rendais à Paris pour coordonner le Jury des premières Palmes du Tourisme Durable en ma qualité de Président des Acteurs du Tourisme Durable avec une dizaine d’experts du sujet afin de sélectionner les finalistes des 6 catégories : Territoires & Destinations, Tour-opérateurs, Hébergements, Loisirs, Informations et Mobilité. Si vous souhaitez voter pour la meilleure pratique, c’est par ici

Oui ! En cette Année internationale du tourisme durable pour le développement, proclamée par les Nations Unies, les initiatives se succèdent sur le thème. Pour rappel, le tourisme durable, ce n’est pas le fait de pratiquer du tourisme à vélo, de dormir dans un arbre ou de partir en Afrique pour faire du volontariat. Le tourisme durable, c’est simplement l’intégration des enjeux de développement durable par l’ensemble du secteur du tourisme. C’est pour cela qu’à travers les Palmes du Tourisme Durable, ce sont l’ensemble des métiers du tourisme qui sont touchés et on retrouve parmi les finalistes tous types d’acteurs, des petits, des plus représentatifs, des structures historiques, des start-ups touchant des formes variées de tourisme, que ce soit sur le tourisme d’aventure, culturel ou même urbain !

Mais alors, pour une destination, un OGD, par quel bout faut-il prendre la question pour transformer un territoire en destination de tourisme durable ? Voilà les 3 points essentiels selon moi :

1 – Porter une ambition politique du développement durable :

Tout commence par une vision, une ambition de la part des élus locaux d’un territoire. Intégrer des engagements en matière de développement durable dans le tourisme, ce n’est pas juste mettre du vert sur les brochures ou mettre à jour son PDIPR, il s’agit de construire avec tous les élus et toutes les parties prenantes du territoire une ambition commune et sincère pour tous. Pour intégrer dans les objectifs stratégiques de long terme d’un territoire (et non pas uniquement dans le tourisme) un équilibre entre les impacts économiques, sociaux et environnementaux, ça ne peut pas être porter uniquement par les techniciens d’un office de tourisme. Les élus doivent s’engager pour un projet de société et un projet de territoire dans lequel les enjeux de développement durable sont intégrés au plus haut niveau. Et ces objectifs doivent toujours rester en ligne de mire ! D’où l’intérêt demain d’intégrer dans les tableaux de bord touristiques non plus uniquement les aspects économiques mais également le bien-être des habitants (comme Copenhague nous l’a présenté aux #ET13), les circuits courts, la dépendance à certains acteurs internationaux, les impacts sur l’environnement, leur bilan carbone, etc.

 

Cette vision, c’est un peu l’ADN de la destination. Elle doit être inscrite, comprise et portée par toutes les parties prenantes du territoire. Et, de manière logique, elle devrait s’intégrer dans un plan de développement durable du territoire, transversale à tous les secteurs d’activités.

Ensuite, afin d’appliquer cette vision, il s’agit de faire évoluer en interne une politique de responsabilité sociétale, que ce soit au sein d’un office de tourisme, d’un CRT ou d’une autre administration publique. Le CRT Bretagne est par exemple labellisé Green Globe depuis quelques années déjà afin de montrer qu’ils balaient aussi devant leur porte avant de pousser leurs adhérents à s’engager. Ainsi, vous ne verrez plus de gobelets en plastique, de gaspillages de papier, etc. là-bas. Ca commence par là et ça continue en faisant par exemple évoluer les critères de sélection sur les appels d’offre, d’organiser des évènements neutre en carbone, etc.

Dans ce cadre, il existe des programmes comme Green Globe mais aussi le Passeport Vert ou Green Destinations qui suivent largement les Critères Mondiaux du Tourisme Durable.

  2 – Engager les socio-professionnels dans cette cohérence d’engagements :

A partir du moment où cette stratégie est validée, il s’agit d’engager les socio-professionnels dans cette démarche globale. On ne parle pas encore de marketing. Il s’agit simplement de pousser les hébergeurs, les réceptifs, les prestataires d’activités ou de services, les restaurateurs à aller dans le sens d’un tourisme durable et de la vision assumée lors du 1er temps.

Bien sûr, pour cela, il faut de la confiance croisée entre les professionnels et l’organisation. Or, en partant sur une vision ambitieuse, une énergie positive et communicative se transmet auprès de l’ensemble des parties prenantes de la destination. Ce leadership est nécessaire. Puis, il est positif d’utiliser certains leviers afin de pousser les socio-professionnels à changer. Parfois, l’ADEME ou l’action publique peuvent soutenir les éco-rénovations dans les hébergements ou pour soutenir de nouveaux projets qui vont dans le sens du tourisme durable. C’est ainsi que des professionnels tendent alors à être certifiés sur l’un des programmes de tourisme durable en particulier Clé Verte ou Ecolabel Européen en France pour les hébergements.

Cette cohérence d’engagement est aussi nécessaire pour le visiteur. Si on lui vend l’image d’une destination engagée et qu’il retrouve des prestataires qui ne font aucun effort sur des démarches sociales ou environnementales, attention au retour de bâton sur Tripadvisor…

Ainsi, à travers ses travaux, on pourra favoriser l’accessibilité du tourisme pour tous, développer des offres de tourisme sans voiture, déployer l’engagement des restaurateurs sur les circuits courts, pousser les hébergements à réduire leurs consommations en énergie et en eau, etc.

  3 – Impliquer les clients & assumer la promesse de tourisme durable :

Enfin, dernier point, il s’agit d’engager le client, à la fois en le faisant venir mais aussi en le transformant en ambassadeur. S’engager dans une démarche sincère de tourisme durable, c’est un excellent moyen de satisfaire le visiteur et de partager avec lui un engagement au service du bien commun. Les touristes vont alors se reconnaître plus largement dans la marque de destination présentée et en devenir un défenseur ! L’Islande en a fait son credo depuis l’explosion de la destination ces 2 dernières années. On a pu voir fleurir à la fois des vidéos pour sensibiliser et engager les visiteurs à travers une Iceland Academy sur Youtube, au ton engagé et décalé. Et dernièrement, ils ont lancé le Serment Islandais afin de pousser les visiteurs à protéger la destination en devenant un touriste responsable. C’est l’une des seules destinations qui a assumée clairement son positionnement de destination de tourisme durable ! Sur le long terme, cette stratégie ne peut être que gagnante surtout en utilisant un ton sympathique et non moralisateur. On peut également citer le Costa Rica qui, historiquement, s’est engagé dans une démarche nationale de tourisme durable à travers sa certification CST. Cette destination a su largement s’appuyer sur son image préservée pour accroître son attractivité !

Le CRT Bretagne en a aussi fait son cheval de bataille en choisissant dès le départ d’en faire une marque propre « Voyagez Responsable en Bretagne » avec un site dédié qui est à la fois utile pour sensibiliser le voyageur et pour présenter l’offre disponible sur le territoire breton.

Alors, pour finir cette Année internationale du Tourisme Durable pour le Développement, quid d’une véritable politique de développement durable du tourisme en France et dans toutes nos grandes régions ?!

The post 3 étapes clés pour devenir une destination de tourisme durable appeared first on Etourisme.info.

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

Internet Actu - mer, 08/11/2017 - 06:00

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.


Image : Comme IFTTT, Yahoo Pipes, l’outil développé par Yahoo et fermé en 2015, pourrait certainement figurer dans cette liste d’outils qui rendent le code plus accessible, puisqu’il permettait, assez simplement, de combiner des données et des actions, de créer des chaînes d’instructions depuis différents services web, sans avoir à les programmer. Un clone du service, Pipes.digital a récemment relancé le service. Via Korben. .

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !


Vidéo : la conférence de Victor Bret, « inventer sur le principe ».

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé (voir Ce n’est pas le code qui importe, c’est le modèle ! »). C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier (@schneierblog), proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

Internet Actu - mar, 07/11/2017 - 08:21

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé. C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier, proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Le bonheur au travail

Blog e-tourisme - mar, 07/11/2017 - 07:00

Lors des #ET13 à Pau j’ai eu la chance de participer à une battle sur « les DMO et les nouvelles générations ». Pour vous résumer un peu le débat : 

  • un manager nous exprimait ces réticences à travailler avec ces nouvelles générations très/trop mobiles, avec un besoin constant de reconnaissance et qui amènent un chamboulement dans l’entreprise.
  • un second manager qui, au contraire, était heureux d’accueillir ces nouvelles générations qui apportaient une vision neuve, de nouveaux outils, de nouvelles façons de travailler et un changement positif au sein d’une équipe.

Face à eux, deux jeunes diplômées exprimaient leur vision :

  • l’une parlait des moyens qui permettent de s’épanouir : une organisation du temps de travail plus souple, un aménagement de l’espace de travail, la mise en place du télétravail … 
  • l’autre défendait une nouvelle vision du travail où l’objectif premier est avant tout de s’épanouir, pour cela il faut aimer les missions que l’on réalise, se sentir bien sur son lieu de travail mais aussi avec son équipe.

Une battle rondement menée ou tous les partis ont fini par se mettre d’accord : les jeunes générations peuvent, certes, bouleverser un mode de fonctionnement mais elles peuvent aussi amener des changements positifs. Le DMO a ici un rôle primordial puisqu’il doit  passer du manager qui s’assure de l’efficience de sa structure, à un leader qui autonomise ses employés et s’assure de leur qualité de vie au travail pour rendre sa structure efficiente. 

 

Le choc des générations ou la culture du changement ? 

Il est vrai que je n’imaginais pas qu’il puisse y avoir des retours négatifs sur cette battle et pourtant … il y a une semaine j’ai eu l’occasion d’échanger avec une collègue du réseau qui était littéralement choquée de ce qui avait pu se dire lors de cette battle. Elle ne comprenait pas les arguments avancés par cette jeune génération. Par exemple, elle ne comprenait pas du tout :

  • qu’on puisse revendiquer de venir en chausson au travail, 
  • qu’on demande à aménager nos horaires,
  • qu’on puisse travailler de chez nous ou depuis un autre lieu que notre bureau habituel, 
  • qu’on prenne du temps à faire des « after-work » car le travail c’est le travail et les collègues ne sont pas des ami(e)s

J’ai essayé de lui expliquer davantage notre position en lui expliquant que: 

  • les chaussons pouvaient nous permettre d’être à l’aise, et à partir du moment qu’on les mets derrière notre bureau et que l’on est pas à l’accueil, pourquoi cela serait refusé ? 
  • arriver plus tard le matin pour pouvoir aller à son cours de yoga pourrait arranger un jeune mais aussi une maman qui en échange pourra partir une heure plus tôt le soir pour chercher son enfant à l’école,
  • le télétravail peut permettre d’être plus efficace, si une personne habite loin de son lieu de travail et doit traiter des dossiers indépendamment de son équipe, pourquoi ne pourrait-elle pas le faire directement depuis chez elle ?
  • les moments de détentes avec son équipe permettent de mieux se connaître, de développer des affinités, de travailler dans la bonne humeur et de travailler sur des missions qu’on aime et avec des personnes qu’on apprécie, ça donne tout de suite beaucoup plus envie !

Malgré mes explications, nous n’étions pas du même avis et cette collègue me rétorquait que cela était peut être possible dans une entreprise à la Google mais certainement pas dans un Office de Tourisme.

Je reste convaincue que des aménagements sont possibles pour être heureux au travail et par conséquent améliorer l’efficience de chacun et la performance collective. Et ceci, même en Office de Tourisme. Et si finalement cette problématique n’était pas liée à un choc de génération mais plutôt à une culture du changement

Pour vous illustrer mes propos, j’ai choisi de vous citer l’exemple de l’Office de Tourisme des Grands Lacs (qui regroupe depuis le 1er janvier 2017, les Offices de Tourisme de Biscarrosse, Sanguinet et Parentis en Born) et qui était mis à l’honneur lors des sixièmes rencontres des Francophonies de l’Etourisme pour leur méthode du bonheur. 

Source des images : http://www.biscarrosse.com/

 

LE #BONHEUR EN ENTREPRISE

Suite à la fusion des 3 Offices de Tourisme en janvier 2017, les équipes se sont réunies pour réfléchir à leur objectif. Un maître mot est apparu d’un commun accord : donner du bonheur aux touristes, aux clients, aux élus, aux partenaires, aux habitants et même à soi-même. L’équipe s’est donc mise à travailler dans ce sens notamment en interne où un véritable défi a été mené pour trouver le bonheur au travail.

Le bonheur n’est pas à voir comme une fête au quotidien mais comme le précise la directrice de l’Office de Tourisme « c’est un état d’esprit, c’est savoir pourquoi on se lève le matin, c’est l’épanouissement » (source des citations: Sud Ouest). L’idée va donc au delà d’une simple ambiance agréable en voulant mener tout salarié à un épanouissement au travail

Pour créer une véritable dynamique l’équipe à mis en place plusieurs outils : 

  • une mascotte qui identifie l’équipe et permet de répartir le temps de parole lors de réunions de travail
  • une newsletter interne a été créée, sous forme de bi-hebdomadaire #OnEnEstOù permet de faire le point sur les actions de chaque membre de l’équipe
  • la mesure hebdomadaire du taux de bonheur de chaque employé via un outil anonyme (pour aller plus loin sur la thématique)
  • l’installation d’une cloche du bonheur utilisée à l’annonce d’une bonne nouvelle (à l’image des pubs irlandais sonnant la cloche à chaque pourboire donné)
  • Le meilleur salarié du mois est élu sous la forme du #happygirl ou #happyboy du mois et reçoit en guise de récompense des bonbons Dragibus transformés en #happypièce
  • des réunions de travail mais aussi des moments plus informels et conviviaux : apéritifs, repas encore collègues, célébration des anniversaires des employés …
  • des moments de partage et de détente sont mis en place au long de la semaine tels que des moments de sieste, des courses à pieds entre collègues … 

 

L’HUMAIN D’ABORD

On y revient toujours : l’humain est au coeur du dispositif. L’idée de Frédérique Dugeny, directrice de l’Office de Tourisme, est de remettre l’humain au coeur de l’entreprise en l’encourageant à prendre des initiatives. Pour cela, différents dispositifs sont mis en place sur l’idée d’une « entreprise libérée » où le système hiérarchique traditionnel est remplacé par un système horizontal ou les collaborateurs s’autogouvernent.

Bien sûr, nous ne sommes pas dans une startup ou dans une entreprise « à la Google », il y a des limites. L’idée n’est pas de contester le rôle décisionnaire d’un membre de l’équipe, chacun ayant sa mission et étant en mesure de prendre une décision adaptée. Tout ne se fait pas en un claquement de doigts, pour y parvenir, il faut également écouter, comprendre et valoriser le travail de ses collègues. C’est un long processus auquel chaque membre de l’équipe se doit de participer. 

Comme le dit Frédérique Dugeny : « On est sur quelque chose de collaboratif, qui repose sur l’intelligence collective ». Les outils précédemment cités permettent de créer une ambiance de travail agréable, une relation entre les membres de l’équipe mais aussi de leur donner de nouvelles idées, une envie de développer de nouveaux projets et ainsi de s’épanouir au travail.

Pour donner la parole à chacun et pour faciliter l’organisation de réunions, un objet à été mis en place : un petit canard en plastique jaune. Cette mascotte de l’office de tourisme devient alors un véritable moyen d’expression, chaque membre de l’équipe parle une fois le canard en main. Idéalement la parole n’est prise qu’une fois ainsi cela permet aux plus loquaces de limiter leur temps de parole et aux plus timides de s’exprimer quand même. 

 

Autant d’outils qui peuvent bouleverser l’organisation du travail ou le management traditionnel d’une entreprise (comme quoi ce ne sont pas toujours les nouvelles générations qui en sont la cause!) mais qui restent professionnalisants et qui permettent un épanouissement personnel et ainsi une amélioration de la performance de l’entreprise. 

 

OSER LE BONHEUR AU TRAVAIL

Cette nouvelle stratégie va au delà du bonheur en entreprise puisque les objectifs initiaux étaient de développer un meilleur esprit d’équipe, de créer une ambiance conviviale et d’accroître la motivation par la responsabilisation. Tout ceci a également permis d’optimiser la performance collective mais aussi d’améliorer l’image de l’office de tourisme et ainsi d’attirer de nouvelles clientèles. 

Bien sûr, pour arriver à ce stade il faut d’abord mettre en place une culture du changement. Ce qui est inévitable dans le contexte actuel des regroupements effectués suite à la loi NOTRe, pour en savoir plus à ce sujet, je vous invite d’ailleurs à redécouvrir l’article de Jean-Baptiste sur la culture du changement.

En guise de conclusion, je vous laisse méditer sur cette phrase de la directrice Frédérique Dugeny : « On tente, on se plante, on avance… En tout cas, on est en évolution permanente et maintenant, il y a de la vie ! ».

The post Le bonheur au travail appeared first on Etourisme.info.

Catégories: Veille et actualités

Quel « nootropique » pour quel génome ?

Internet Actu - lun, 06/11/2017 - 06:00

Les utilisateurs de nootropiques s’intéressent aujourd’hui à la génomique personnelle, nous apprend Motherboard. Comme le définit l’article, un nootropique est « une certaine quantité de vitamines, de nutriments et de médicaments que les personnes combinent en cocktails… dans le but d’améliorer leur fonction cognitive, leur bien-être quotidien et leur santé à long terme ». Il ne s’agit donc pas (forcément) de « smart drugs » comme la ritaline ou le modafinil…, plutôt ici de compléments et restrictions alimentaires.

Mais comment en effet savoir si un « nootropique » possède les qualités nécessaires à ce qu’on attend et ne provoquera pas d’effets secondaires ? A cette fin, les adeptes se tournent aujourd’hui vers la génomique personnelle.

Pour cela, il faut passer bien sûr par un site d’analyse d’ADN comme, le plus célèbre d’entre eux 23andme, puis ensuite le soumettre à d’autres sites, comme Promethease, Nutrahacker ou DNAFit, qui effectueront une analyse plus spécifique des gènes. Selon Mensal Denton, qui tient le site nootropedia, « Ce n’est qu’avec ces autres outils que les données de 23andMe deviennent réellement utiles, c’est donc un phénomène relativement nouveau », à l’image des nouvelles applications que propose Helix avec sa plateforme d’analyse d’ADN que nous avions récemment évoqué.

Par exemple, cela peut permettre de détecter la présence de gènes provoquant une déficience en vitamine D, ce qui peut amener à conseiller de prendre des suppléments… On peut également apprendre comment son corps métabolise la caféine, et agir en conséquence… Quelqu’un qui la métabolise lentement peut réaliser que la caféine le rend anxieux ou qu’elle peut augmenter son risque cardiovasculaire par exemple.

Des sites comme Vinome proposent ainsi de vous conseiller du vin selon vos particularités génomiques. DNAFit a fait un partenariat avec la chaîne de restaurants britannique Vita Mojo pour proposer des menus personnalisés et adaptés aux résultats délivrés par les tests génétiques.

Est-ce sérieux ? Le professeur Nathaniel Comfort a expliqué au journaliste de Motherboard que : « Si cela permet d’économiser de l’argent en signalant qu’il est inutile pour une certaine personne d’utiliser un supplément particulier, par exemple, je n’y vois aucun inconvénient. Mais dissimulée en arrière-plan, il y a toujours cette idée que vous êtes votre génome. Ce type de pop-science suppose inévitablement plus de certitudes que nous n’en possédons vraiment, car l’environnement, l’humeur, le régime alimentaire et le reste de votre génome affectent tous ces types d’effets métaboliques. »

Ce à quoi Denton réplique que ce genre de service n’est qu’une ressource supplémentaire, à utiliser parmi d’autres…

L’un comme l’autre semblant oublier que ces systèmes favorisent la dissémination d’informations génomiques, donc éminemment personnelles, de service en service. Ainsi que le fait que ces services semblent nous faire glisser, insidieusement, de la gestion du risque à l’injonction comportementale. Pourrons-nous demain manger autre chose que ce qui nous est recommandé ?

Catégories: Veille et actualités

Les 3 défis du marketing d’influence en tourisme

Blog e-tourisme - lun, 06/11/2017 - 03:00

Blogueurs, Instagramers, YouTubers… ah, que voilà le nouveau klondike du marketing touristique! Imaginez, plus besoin de solliciter des journalistes et médias traditionnels quand on peut obtenir de la visibilité gratuite auprès de ces travel writers et autres digital nomads, hein? Pas si vite!

D’abord, quand il est question d’influenceurs, il importe avant toute chose de faire la distinction avec les ambassadeurs, qui eux sont souvent les citoyens d’un territoire – ou les habitants – ou encore des fans de votre produit ou service, si vous êtes un hôtelier, un attrait, un resto ou autre prestataire du tourisme. Alors qu’un influenceur… c’est quoi au fait?

un influenceur est un individu qui par son statut, sa position ou son exposition médiatique peut influencer les comportements de consommation dans un univers donné – (Lexique Marketing)

Appliqué au monde du voyage et l’industrie touristique, on peut ainsi décliner cette définition d’un influenceur comme étant quelqu’un qui aura une influence sur la décision d’une destination ou l’achat d’une prestation touristique en particulier.

Je vous invite d’ailleurs à (re)visionner cette battle fort instructive lors des #ET13 à Pau le mois dernier.

Aujourd’hui, on ne parle plus d’une mode passagère quand il est question de travailler avec les blogueurs et autres influenceurs, mais bien d’une tendance lourde. Et pas que pour le tourisme d’agrément, comme l’a démontré Atout France un peu plus tôt cette année avec son initiative #BizinFrance pour mousser le marché MICE (réunions, congrès, incentive et événements).

Toutefois, on constate trois défis universels pour les institutionnels et agents de relations publiques travaillant dans l’industrie et faisant face à cette nouvelle réalité:

  • Comment choisir le bon influenceur
  • Comment mesurer le retour sur l’investissement
  • Comment engager et maintenir une relation avec des influenceurs

Regardons chacun de ces défis pour mieux les comprendre et adopter une approche optimale lors de campagnes futures.

1. Choisir le bon influenceur

Selon une étude de Econsultancy parue plus tôt cette année, c’est le plus grand dilemme pour près de 73% des marketers sondés, toutes industries confondues. On veut certes travaillers avec un influenceur, mais quel critère est le plus important?

  • La taille de sa communauté en ligne (nb d’abonnés Instagram, YouTube, etc.)
  • Le niveau d’engagement de cette communauté: likes, commentaires, questions, interactions
  • La niche de cette communauté: généraliste ou spécialisée (lifestyle, sports, foodie, aventure, voyage solo, voyage famille, etc.)
  • Le style de l’influenceur: corpo, humoristique, pratico-pratique, etc.
  • La plateforme de choix de l’influenceur: blogue, Instagram, YouTube, Facebook, vidéo sur mesure, etc.

Bref, comme on peut le voir, on ne peut se fier qu’à un seul critère, et surtout pas la taille de la communauté, mais bien à un ensemble de facteurs. Vous savez, ça s’achète des abonnés, hein? Si, si. Comme on peut acheter aussi de « l’interaction ». Si, si. Faut donc valider et faire un petit effort pour aller au-delà des indicateurs de base.

Plusieurs influenceurs ont d’ailleurs un kit média, incluant notamment le volume de trafic sur leur site web et des extraits de données provenant de Google Analytics. Ça ne garantit pas le travail qui sera effectué, mais c’est déjà plus sérieux comme approche pour mettre en confiance dans une relation à venir avec la destination qui le recevra, par exemple.

Des outils à découvrir pour valider les indicateurs d’influenceurs: HYPR et Julius ou encore NeoReach (tous en anglais)

2. Mesurer le ROI

C’est un défi qui se pose dans plusieurs initiatives à l’échelle d’une destination, mais le retour sur l’investissement (ROI) est particulièrement difficile avec le marketing d’influence… surtout quand on n’a pas d’objectifs clairs en amont! Car voilà justement où est l’os dans l’équation: trop souvent, je remarque des campagnes mal ficelées, sans attentes clairement évoquées de part et d’autre.

Du côté de la destination, on voudra clarifier les termes de l’entente souhaitée:

  • Rédaction d’un ou plusieurs billets, et sur quelle plateforme (blogue de la destination? du blogueur?)
  • Fréquence de publication lors du séjour: une photo par jour sur Instagram? Une vidéo en fin de séjour ou pendant, notamment dans les Stories d’Instagram ou Snapchat?
  • Limites et cadre du droit d’auteur pour les photos: pour usage sur les médias sociaux? le site web de destination? à des fins commerciales par la suite?

Du côté blogueur, il y aura également des attentes légitimes:

  • Temps libre versus itinéraire programmé au quart de tour? (Exemple: un blogueur foodie veut-il vraiment participer au site inspection de trois hôtels en un après-midi?)
  • Collaboration rémunérée ou pro bono? Si rémunérée, quels sont les termes exacts et attentes au niveau de la production de contenu?
  • Accès à du wifi de qualité tout au long du séjour, à des fins personnelles et professionnelles
  • Une fois le contenu publié, le voir repartagé par la destination ou le prestataire touristique

Ce dernier point, aussi étonnant que cela puisse paraitre, ne va pas de soi. Selon une étude de DCI parue en 2017 et partagée lors du congrès de Destinations International à Montréal l’été dernier, plus des trois quarts des destinations sondées partagent peu, voire pas du tout, le contenu des influenceurs! (Pour être plus précis, 58.7% disent le faire parfois, et 18.5% le font rarement, pour un total de 77.2%)

Bref, la mesure de ROI d’une campagne auprès d’influenceurs pourra se mesurer de différentes manières selon les objectifs fixés au départ: portée des publications, niveau d’engagement, nb d’articles produits, photos prises et utilisables dans de futures campagnes, etc.

3. Entretenir la relation avec les influenceurs

Dernier point, et non le moindre: quelle est la nature de la relation que vous souhaitez entretenir avec le, la ou les influenceurs visés? Une campagne ad hoc ou une relation à long terme?

Les blogueurs, YouTubers et Instagramers populaires sont de plus en plus sollicités. Le minimum requis est donc de faire votre travail de recherche en amont, cibler les quelques influenceurs potentiels pour les besoins d’une campagne spécifique, puis de prendre contact avec ces influenceurs. Idéalement, au moyen d’une approche personnalisée, et non pas générique.

La personne que vous approchez n’est peut-être pas disponible pour un prochain voyage de presse, mais elle pourra vous recommander d’autres collègues influenceurs, quand elle voit que la démarche est courtoise et professionnelle. Et l’inverse sera aussi vrai, car le mot se passe rapidement dans la communauté: des influenceurs vous approcheront de manière spontanée quand ils savent qu’ils auront une oreille attentive et une réponse diligente.

Alors, les influenceurs font-ils partie de votre plan d’action marketing pour 2018?

À lire ou à relire: Faut-il travailler avec les blogueurs de voyage?

Ou encore: Blogueurs voyages et relationnistes, même combat?

En anglais: Your 10-Step Roadmap for Influencer Marketing

Save

The post Les 3 défis du marketing d’influence en tourisme appeared first on Etourisme.info.

Catégories: Veille et actualités

Que devient Second Life ?

Internet Actu - ven, 03/11/2017 - 08:51

Ars Technica revient sur la plate-forme qui a fait le buzz il y a environ 10 ans. Eh oui, Second Life existe encore, et, selon l’auteur de l’article, elle serait même prospère ! Du moins selon les dirigeants de la société mère, Linden Labs. Côté utilisateurs, continue la revue, les choses sont plus ambiguës.

Question fréquentation, il semblerait que le nombre d’aficionados du monde virtuel n’ait que légèrement diminué par rapport à la grande époque : il y aurait environ aujourd’hui entre 800 000 et 900 000 « utilisateurs actifs ».

Ensuite, en tant que plate-forme de commerce, spécialisée dans la vente de « biens virtuels » (objets 3D, etc.), Second Life marche toujours plutôt bien. Mais le marché s’est professionnalisé, et les amateurs de 2007 ont cédé la place à des professionnels plus aguerris. Comme l’a confié un utilisateur à l’auteur de l’article :
« Auparavant, il n’était pas trop difficile d’être capable de construire, par exemple, une maison qui aurait eu l’air d’être aussi bien modélisée qu’une autre achetée dans un magasin… Vous pouvez toujours continuer à faire les choses à l’ancienne, mais comme les résultats auront manifestement l’air vieillots et moins impressionnants que ceux obtenus avec les moyens actuels, vous êtes découragés de le faire. »

Autre transformation, toujours liée au commerce. Dans les premières années, il y avait des tas de boutiques virtuelles, qu’on pouvait découvrir en parcourant Second Life avec son avatar. Aujourd’hui, une très grosse partie des ventes se fait via un système de transaction web géré par Linden Labs, ce que la revue appelle avec beaucoup de justesse une « amazonification » de Second Life.

En conclusion, nous dit Ars Technica « la découverte et la navigation sont devenues difficiles aujourd’hui sur Second Life ».

Un avis confirmé par une utilisatrice, qui a expliqué qu’ « aujourd’hui les gens achètent leur terrain et restent sur leur territoire. C’est devenu une expérience bien plus solitaire ».

Catégories: Veille et actualités

Retours #ET13 : Les contenus qui cartonnent sur les réseaux sociaux

Blog e-tourisme - ven, 03/11/2017 - 08:00

Aujourd’hui nous revenons sur un des ateliers des #ET13, animé par Sébastien Répéto sur « Les contenus qui cartonnent sur les réseaux sociaux ». Une thématique de plus en plus importante surtout depuis la démocratisation des appareils numériques de types smartphones avec appareil photos haute définition, appareil photo, drones, caméras embarquées … La vidéo est devenue un moyen incontournable pour faire découvrir son territoire et touche plus efficacement qu’une photo. Depuis peu, la vidéo prend un tout autre tournant car elle ne doit plus convenir à un seul format d’écran mais elle doit s’adapter à tous les terminaux utilisés par l’internaute et surtout au smartphone. 

En effet, aujourd’hui en France plus de 80% des moments digitaux se font sur mobile. En chiffre cela représente :

  • 177 minutes d’utilisation par jour,
  • 150 consultations par jour par utilisateur
  • les 2/3 du trafic web français qui se fait sur mobile et plus de 80% des connexions sur Facebook se font depuis un smartphone
  • 300 millions d’heures de vidéos consultés par mois dont 50% sur mobile

Pour toucher au mieux ses cibles il faut créer le bon contenu, au bon moment et au bon endroit. Mais avec le développement de l’utilisation des réseaux sociaux sur mobile une nouvelle vision du contenu se développe. Pour optimiser l’expérience utilisateur, il faut s’adapter à ses nouvelles pratiques et produire une nouvelle approche de l’affichage mobile, notamment pour les vidéos. 

Avant d’aborder la question des formats de vidéos sur les différents réseaux, voici un résumé des formats les plus populaires sur le web :

  • Youtube : une approche plutôt « recherche » du format vidéo, des formats plutôt longs et en 16/9
  • Facebook : une lecture automatique (autoplay), la possibilité de lecture sans le son, un fort potentiel de viralité mais un temps de lecture moyen assez faible (16.7 secondes)
  • Instagram : des publications sur différents formats (carré, portrait, paysage), des stories en format 9/16, un réseau 100% mobile, un contenu qui doit être compréhensible sans le son
  • Snapchat : essentiellement un format 9/16, un réseau 100% mobile, un contenu éphémère, une utilisation de géofiltres

 

  Comment optimiser la forme de son contenu video sur Facebook ?

Aujourd’hui sur Facebook la vidéo la plus répandue est la vidéo carrée en 1:1. Son format est court et adapté aux mobiles.

Ce format paraissait assez déroutant au début mais il prend de plus en plus de place sur le feednews Facebook. On peut également noter qu’un grand nombre de ces vidéos sont accompagnées de sous-titres directement intégrés et ne nécessitant ainsi pas de son. Un exemple caractéristique est celui du site d’actualité « Brut » qui communique uniquement sur facebook grâce à ce système de sous-titres intégrés.

Un autre format de vidéo qui est de plus en plus utilisé est le format 9/16 qui provient des applications Instagram et Snapchat notamment avec le format des « stories ».

Pourquoi s’orienter vers ces nouveaux formats ? Tout simplement car que le newsfeed Facebook aura tendance à mettre en avant les vidéos au format carré ou 9/16 qui sont bien plus immersif sur mobile.

 

L’utilisation des stories sur instagram

 

Sur Instagram, les formats de vidéos sont déjà adaptés. Là où la différence se joue c’est sur les stories. Le reach est souvent supérieur sur les stories plutôt que sur les publications.

Comment optimiser ses stories sur instagram ?

  • Poster tout au long de la journée
  • Mixer les formats (photo, vidéo, boomerang, hyperlapse)
  • Utiliser les fonctionnalités mises à disposition (stickers, polls, hastags cliquables) 
  • Utiliser la géolocalisation pour apparaître dans la story du lieu
  • Construire une histoire afin que le contenu ne soit pas décousu

 

 

Snapchat et les Géo-filters !

En bonus par rapport à l’atelier, je souhaitais vous parler de Snapchat, qui malgré le passage d’Instagram aux stories, il reste un réseau toujours utilisé, en particulier par les jeunes générations. Depuis plusieurs mois l’accès aux géo-filtres est devenu ouvert. C’est à dire que vous pouvez maintenant créer vos propres géofiltres localisés … sous certaines conditions bien sûr.

Concrètement il existe 3 catégories de géofiltres sur Snapchat :

  • La communauté :  il permet de créer un filtre Snapchat pour une ville, un quartier, une école… Tous ces filtres sont gratuits mais réservés aux lieux publics
  • Le personnel : il permet de créer un filtre Snapchat pour un anniversaire, un mariage, une fête, des vacances… pour un tarif de 5€ minimum

  • Le professionnel : il permet de créer un filtre Snapchat pour une marque, une enseigne, un restaurant, un événement… celui là est payant pour les marques

 

Pour résumer, n’importe quel utilisateur souhaitant créer un geofiltre localisant un quartier ou des lieux publics, peut le faire et ça totalement gratuitement. Pour les entreprises ou marques souhaitant créer des geofiltres éphémère (pour un événement) ou pour une marque devront payer. Cependant vous pouvez créer des géofiltres proche géographiquement de votre marque (sans inclure le logo) qui représenteront des lieux de votre territoire, peut-être que certains d’entre vous le font déjà ou vont le faire ?

La leçon à retenir de cet atelier est simple : la vidéo est un moyen d’expression incontournable qui doit s’adapter à l’usage de l’utilisateur pour que son expérience soit satisfaisante. Maintenant, il ne vous reste plus qu’à mettre en pratique et utiliser ces nouveaux formats. D’ailleurs, si vous les utilisez déjà n’hésitez pas à nous en faire part dans les commentaires et à nous confier vos retours d’expériences (réussi ou pas) !

The post Retours #ET13 : Les contenus qui cartonnent sur les réseaux sociaux appeared first on Etourisme.info.

Catégories: Veille et actualités

Le dual n-back augmente bien la mémoire de travail

Internet Actu - jeu, 02/11/2017 - 11:30

Cela fait maintenant plusieurs années qu’un exercice cognitif, le dual n-back – qui consiste à être soumis à des stimulis visuels et auditifs pour voir s’ils se répètent – possède la réputation d’être le seul type d’entraînement capable de réellement augmenter certaines capacités cognitives. Cela a même été confirmé chez des enfants… Et la nouvelle étude de la John Hopkins University va dans le même sens…

Dans cette expérience, les chercheurs ont avant tout cherché à comparer deux exercices d’amélioration cognitive bien connus : d’un côté le dual n-back, donc, et de l’autre le « complex span », une tâche qui consiste à se rappeler de différents éléments alors que des distractions empêchent le joueur de se concentrer.

Les chercheurs ont donc utilisé trois groupes : l’un utilisant le dual n-back, le second le « complex span » et le troisième bien sûr faisant office de groupe témoin et n’ayant rien à faire de spécial.
L’équipe a tout d’abord mesuré, grâce à des tests cognitifs et l’EEG, les caractéristiques mentales de chacun des participants. Ensuite, ceux-ci ont eu un mois pour s’entraîner avec la tâche qui leur avait été assignée, à raison d’une séance de 30 minutes 5 fois par semaine.

Le résultat a été largement en faveur du dual n-back : les participants ont montré une augmentation de 30 % de leur mémoire de travail, par rapport à ceux qui avaient pratiqué le « complex span ». De plus, les usagers du n-back ont montré un accroissement de l’activité du cortex préfrontal après ce mois d’entraînement. Le cortex préfrontal est corrélé à nos capacités de décision et de planification.

Reste à comprendre ce qui se passe vraiment, et pourquoi cela marche. Sur ce point, on est encore largement dans le noir.

Pour le docteur Susan Courtney, co-auteure de l’étude :
« La plus grande leçon à retenir, c’est que l’entraînement intensif renforce la cognition et le cerveau, mais nous ne comprenons toujours pas pourquoi ni comment… nous ne pouvons pas nous précipiter sur un jeu vidéo et espérer que cela guérira tous nos problèmes cognitifs. Nous avons besoin d’interventions plus ciblées. »

Catégories: Veille et actualités

Facebook est-il devenu incontrôlable ?

Internet Actu - jeu, 02/11/2017 - 06:00

Courrier international (@courrierinter) a eu la bonne idée de traduire l’excellent article de Max Read (@max_read) pour le New York Magazine (@NYMag) qui montre comment FB échappe à son créateur. A l’heure où FB est sommé de s’expliquer devant le Congrès américain sur les ingérences publicitaires russes dans l’élection de Donald Trump, Read décortique les publications de Mark Zuckerberg où il a présenté les enjeux de FB pour mieux en souligner les contradictions. Ainsi, remarque-t-il, quand Zuckerberg annonce qu’il va rendre les publicités politiques plus transparentes, l’entreprise présente ses nouveaux outils marketing permettant de cibler les utilisateurs de FB passant en magasin pour mieux les harceler de publicités.

Read pointe une à une les contradictions de l’ogre FB, qui assure, désormais, comme le ferait un État ou une Organisation non gouvernementale, « veiller à garantir l’intégrité des élections ». John Lanchester pour la London Review of Books (LRB) rappelait très bien dans un article au vitriol, que derrière les belles annonces promotionnelles visant à « connecter le monde entier », FB était d’abord conçu pour récupérer des données sur les utilisateurs et les vendre à des annonceurs. Pour Lanchester, Facebook est « sans boussole morale ».

Pour Read, la tournée de Zuckerberg à travers les États-Unis ressemble plus à une introspection qu’à une précampagne présidentielle : elle reflète plus les hésitations de Zuckerberg face au fléau des Fake News et à la démultiplication des dénonciations de l’inaction de FB face aux problèmes qui minent le réseau social. L’un des rares engagements de FB pour contrer la désinformation, à savoir le lancement d’un outil de vérification des faits, lancé en mars 2017 à titre expérimental avec des médias, présenté comme une arme décisive dans cette lutte, se révèle inutile. C’est en tout cas ce que souligne une étude de l’université de Yale, relayée par Policito qui montre que pour les utilisateurs, tout ce qui ne serait pas tagué comme fausse information serait par défaut véridique. Pas sûr que ce soit une solution pour améliorer le discernement effectivement (voir « Bulle de filtre et désinformation : Facebook, une entreprise politique ? » et « Peut-on répondre à la désinformation ? »).

L’échec de cette tentative d’autorégulation, redonne de la valeur au fait d’agir sur le modèle économique même de FB pour remédier au problème, comme le soulignait Quartz.

L’enquête du Congrès en tout cas change la donne. Non pas que les 100 000 dollars de publicités achetés par le gouvernement russe aient vraiment pu changer la donne (cela aurait été circonscrit à 3000 annonces ayant touché environ 10 millions d’Américains – bien moins que les millions de dollars dépensés par les candidats Américains eux-mêmes en publicité sur les réseaux sociaux), mais elles montrent que l’autorégulation dont se glorifiait FB ne fonctionne pas. Read rappelle que FB a d’abord nié avoir vendu de la publicité aux Russes, avant de le reconnaître, puis de dire au Congrès qu’il ne pouvait pas révéler plus d’information, avant d’obtempérer et de livrer des données face à la menace d’un mandat de perquisition. Pour Tim Wu (@superwuster), professeur de droit à l’université de Columbia et auteur des Marchands d’attention, la solution est d’obliger FB à lever le voile sur ses pratiques publicitaires et d’interdire l’achat de publicité à caractère politique par un gouvernement étranger. Au Congrès, les démocrates souhaitent que les publicités en ligne soient désormais encadrées. D’autres aimeraient même imaginer un démantèlement sur le modèle de Bell, sans savoir très bien comment diviser l’empire FB. Ce qui est sûr, souligne Tim Wu, c’est que FB profite d’un environnement très très peu réglementé.

Et Read de conclure en rappelant un épisode assez oublié de FB : celui où, entre 2009 et 2012, les internautes pouvaient voter pour faire évoluer la politique du site. Peu le faisaient, le système favorisait plutôt la quantité que la qualité des contributions… ce qui explique que FB l’a donc abandonné. Reste que c’était peut-être encore une époque où FB était à l’écoute de ses utilisateurs. « FB était devenu trop grand, et ses membres trop complaisants, pour la démocratie », conclut Max Read.

En attendant, devant la commission du Congrès, FB a concédé qu’elle devait faire des efforts pour mieux identifier les annonceurs, ses vrais clients, ceux dont nous sommes le produit, rapporte Le Monde.


Image : Buzzfeed vient de publier une infographie montrant comment FB divisait ses utilisateurs Américains en 14 segments politiques issus de 5 grandes tendances, pour les proposer aux annonceurs politiques (une segmentation qui ne serait plus disponible aux annonceurs actuellement, mais qui l’a été durant la campagne présidentielle américaine).

MAJ : Le New York Times, quant à lui, a invité plusieurs experts à donner leur avis sur comment réparer FB. Pour Jonathan Albright, directeur de la recherche du Tow Center for Digital Journalism de l’université de Columbia, FB ne devrait pas prioriser les réactions dans le fil d’information et limiter la recommandation émotionnelle. Pour Eli Pariser, l’auteur de la Bulle de filtre, Fb devrait s’ouvrir aux chercheurs et changer ses critères de mesure pour mieux prendre en compte l’impact de l’information sur le temps long. Ellen Pao de Reddit, elle invite les dirigeants de FB à introduire de la diversité dans son équipe et à se doter de principes d’ordre journalistique. Quant à Tim Wu, il invite FB à devenir une ONG.

Catégories: Veille et actualités

#ET13 : jette ton app, plus personne ne l’utilise

Blog e-tourisme - mar, 31/10/2017 - 07:57

Un petit billet pour vous donner à revoir un bon moment des #ET13 en ce jour un peu tranquille pour beaucoup.

Il s’agît de l’intervention de Fred Cavazza dont la première slide est parlante : « oubliez les applications et soignez plutôt votre écosystème mobile!« 

Dans son intervention, le spécialiste du web démontre le peu d’intérêt d’éditer une application pour le tourisme : e, france, un possesseur de smartphone utilise moins de dix applications par jour « et surtout pas la votre »! Pour se faire une place sur les plateformes Androïd ou Appstore, c’est mission impossible. 

ET13 – C1 – Fred Cavazza – Ecosystème mobile de Rencontres Nationales du etourisme institutionnel

 

Soignez l’écosystème

Pour Fred Cavazza, il faut avant tout éditer un site « mobile friendly », qui est satisfaisant dans la plupart des cas, mais surtout soigner un écosystème en définissant une stratégie de présence sur le parcours client de l’utilisateur de smartphone. Et là, les possiblités d’intervenir sont nombreuses, comme le montre la diapositive ci-dessous

Pour revoir l’ensemble de la présentation de Fred Cavazza, en vidéo, en très bonne qualité, c’est ci-dessous.

Un conseil : branchez ça sur la TV, préparez-vous un thé, et regardez ça comme au cinéma, c’est un bon sujet pour un 31 octobre!

The post #ET13 : jette ton app, plus personne ne l’utilise appeared first on Etourisme.info.

Catégories: Veille et actualités

L’art de la mémoire : de la technique mnémonique à la création du fantastique ?

Internet Actu - mar, 31/10/2017 - 06:00

On a déjà parlé plusieurs fois de l’art de la mémoire dans nos colonnes : ne s’agit-il pas de la première technique d’amélioration mentale ? Officiellement, l’art de la mémoire est né au sein de la civilisation gréco-romaine. Mais cette vision est peut-être bien trop eurocentrique… Dans un article fascinant pour la revue Aeon, Lynne Kelly (blog, @lynne_kelly) nous présente quelques techniques « d’art de la mémoire » utilisées par les populations de chasseurs-cueilleurs du monde entier. Cet article reprend bon nombre d’idées qu’elle expose dans sont récent et passionnant ouvrage, The Memory Code.

L’incroyable mémoire des Anciens

Ce qui caractérise un grand nombre de civilisations traditionnelles, explique-t-elle, est la prodigieuse mémoire possédée par leurs Anciens. Ainsi, nous rappelle-t-elle, les Navajos sont-ils capables de se remémorer jusqu’à 700 insectes avec leur aspect, habitat, leur comportement… et les Mangyans des Philippines seraient en mesure de reconnaître 1625 plantes différentes, dont certaines inconnues de la science occidentale.

Et bien entendu, leurs connaissances vont bien au-delà des insectes ou des plantes. Les Anciens de ces peuples seraient capables d’accomplir les mêmes exploits de mémoire dans tous les domaines de leur environnement…

Mais l’art de la mémoire des peuples premiers est assez différent – et plus complexe – que celui des orateurs de l’Antiquité ou des penseurs de la Renaissance. D’abord, il est multimédia : il implique chant, danses et histoires mythiques variées. Ensuite, le « palais de mémoire » n’est autre que l’environnement dans lequel vivent ces populations. C’est en se déplaçant au sein de leur milieu naturel que les « anciens » de ces tribus sont capables de réactiver leurs connaissances liées à des lieux précis. C’est ainsi que procèdent les aborigènes avec leurs « pistes de chant ».

« Une piste de chants, nous dit Kelly, est une séquence d’emplacements, pouvant, par exemple, inclure les roches qui fournissent les meilleurs matériaux pour les outils, ou un arbre important ou un trou d’eau. Ces pistes sont beaucoup plus qu’une aide à la navigation. À chaque emplacement, un chant, une histoire, une danse ou une cérémonie sont exécutés, et seront toujours associés à cet emplacement particulier, physiquement et en mémoire. Une piste de chants constitue donc une table des matières pour l’ensemble d’un système de connaissances, qui peut être consultée en mémoire et physiquement. »

Certaines de ces pistes de chant peuvent couvrir des distances de plus de 800 kilomètres…

Il existe, grosso modo deux espèces de « palais de mémoire ». Les grands, qui reposent sur des lieux, et des « micro-espaces », de petits objets qui reproduisent de manière miniaturisée les plus grands palais… En Afrique, on trouve le lukasa, une planchette de bois incrustée de petits objets, auxquels l’utilisateur associe diverses informations, comme souvent les noms des grands rois et dynasties. Selon Kelly, « Des chercheurs ont affirmé que les « hommes de mémoire » de la société Mbudye passaient des années à apprendre un vaste corpus d’histoires, de danses et de chansons associées aux perles et coquillages attachés à un morceau de bois sculpté ».

Un tel savoir n’était pas seulement utile, il était politique, nous explique Lynne Kelly dans son livre. Dans les petits groupes de chasseurs-cueilleurs, la distinction par la richesse ou le leadership par la force physique n’existent pas. Tous les membres de la tribu sont à peu près à égalité. Les seuls à détenir une vraie forme de pouvoir, ce sont les Anciens qui par leurs chants, leurs mythes connaissent les méthodes de survie du groupe. C’est d’ailleurs le titre de sa thèse : When Knowledge Was Power (Quand la connaissance était le pouvoir).

La connaissance des chants était un savoir ésotérique, transmis à peu d’individus, explique-t-elle. La raison en est double. Tout d’abord, cela permet bien sûr de conserver le pouvoir entre quelques mains, mais surtout, les histoires ne peuvent subir aucune déformation ou perdre des informations qui pourraient s’avérer vitales. Il et amusant de constater que la fameuse société de la connaissance, envisagée par certains comme un objectif de notre civilisation technique, aurait déjà existé dans un lointain passé !

Le monde dans son jardin

Les performances des Anciens nous paraissent incroyables. Lynne Kelly a voulu passer à la pratique. Ce qu’elle raconte dans son livre The Memory Code.

Elle a utilisé comme théâtre de ses pistes de chants sa propre maison, son jardin et l’environnement immédiat. Elle y a stocké diverses formes d’information, par exemple la liste des pays, classés par ordre de population. Les 120 premiers pays sont « placés » dans sa maison et son jardin ; les autres sur la route qu’elle prend quotidiennement pour se rendre à la boulangerie. Elle a également fabriqué des « micro-espaces de mémoire », un à la semblance d’un lukasa, d’autres étant des jeux de cartes ou de tarots.

Au final, elle a été convaincue par l’efficacité de ces pratiques. Elle n’était pas satisfaite des ouvrages contemporains de mnémotechniques, qui vous apprennent comment mémoriser les décimales de pi, ou l’ordre des cartes dans un jeu… Elle cherchait quelque chose de plus fondamental, des « méthodes pour mémoriser l’information qui me donneraient, écrit-elle dans The Memory Code, la capacité d’avoir une plus large représentation du monde qui m’entoure…Je voulais mémoriser des connaissances d’une manière qui améliorerait la vie quotidienne ».

Un souhait que la mise en pratique des ces techniques « archaïques » lui a permis de réaliser :
« Les diverses techniques s’intègrent et se mélangent entre elles, et se nourrissent mutuellement, créant un moyen incroyable de mémoriser pratiquement n’importe quoi. Ma pensée devient plus dépendante des images et des émotions et moins des mots. » Lynne Kelly précise aussi à plusieurs reprises qu’un tel mode de connaissance, non linéaire, est très difficile à décrire aux esprits contemporains, ce qui explique que les représentants de ces peuples chasseurs-cueilleurs aient eu du mal à présenter leur méthode aux visiteurs occidentaux, qui souvent ne saisissaient pas le caractère hautement utile et pragmatique de ces chants, danses, ou cérémonies.

La génération du fantastique

C’est une pratique qui était déjà décrite par les artistes mémoriels de l’Antiquité et de la Renaissance : pour frapper l’esprit, les images mentales utilisées pour se souvenir gagnent à être grotesques, inquiétantes, érotiques, etc. C’est pourquoi l’art de la mémoire est associé à la culture de l’imagination. La production d’univers surréalistes est la conséquence directe de cette pratique. La chose a déjà été remarquée par la grande spécialiste du sujet, Frances Yates, et surtout par l’historien des religions Ioan Couliano, auteur de Eros et magie à la Renaissance, qui établit directement un lien entre les techniques mnémotechniques et les croyances magiques et alchimiques.

Cette intrusion du fantastique, du mythologique, Lynne Kelly a pu aussi le constater. Elle a par exemple essayé de retenir les noms de l’ensemble des oiseaux vivant dans sa région. Pour ce faire, elle a créé des images et des pistes de chants, dans lesquelles lesdits oiseaux prenaient souvent des formes humanoïdes possédant certaines caractéristiques propres aux animaux qu’ils étaient censés représenter.

« J’ai découvert que les personnages de mes histoires, bien que possédant des noms d’oiseaux, restaient très humains et très peu aviaires, tant que je n’avais pas observé des spécimens en liberté. Puis les personnages commencèrent à devenir en partie oiseaux, en partie humains, comme c’est souvent le cas avec les personnages des histoires indigènes. Le Chevalier stagnatile se remarque par de longues jambes, c’est pourquoi Marsha (jeu de mots sur le nom anglais de l’oiseau, « marsh sandpiper », ndt) est devenue une superbe fille aux longues jambes ».

« Au final, affirme-t-elle, mes histoires devinrent de plus en plus mythologiques, mais l’information dont j’ai besoin est toujours restée disponible… Parfois elles pénètrent dans mes rêves. Tout cela est arrivé naturellement. Je ne l’ai pas planifié. Mes histoires se sont mises spontanément à rappeler les nombreux récits indigènes que j’avais lus ».

La production d’images étranges peut également être générée par la superposition, au sein d’un même espace de mémoire, de plusieurs catégories de connaissances diverses. C’est d’ailleurs une question qu’on se pose spontanément, lorsqu’on entend parler d’art de la mémoire. Peut-on utiliser un même palais plusieurs fois ? Ne risque-t-on pas de s’emmêler les pinceaux ? Autrement dit, lorsque Lynne Kelly utilise sa maison et son jardin pour « enregistrer » les pays par ordre de population, peut-elle utiliser ces emplacements à d’autres fins ou ces lieux sont-ils « grillés » ? En fait, elle l’a fait et non, cela ne l’a pas embrouillé. Cela a même renforcé la force des images. Dans un de ses « micro-espaces de mémoire » elle a stocké sur un même jeu de cartes les « Ancêtres » (c’est-à-dire des personnages célèbres de l’histoire) et divers sites archéologiques. Ainsi, une même carte en est venue à représenter à la fois Sigmund Freud et la grotte de Lascaux. Ce qui a fait naître dans l’esprit de Lynne Kelly l’image d’un Freud psychanalysant les artistes anonymes de Lascaux. « Je ne confonds jamais les images de Lascaux et celles d’Altamira, explique-t-elle, car seul l’art pariétal de Lascaux a pour guide Sigmund Freud ».

Si cet aspect « fantastique » de l’art de la mémoire a souvent été souligné, Lynne Kelly est peut-être celle qui en fait le compte-rendu le plus précis, le plus convaincant. Et ce d’autant plus que Kelly (contrairement à une Frances Yates ou un Ioan Couliano) ne se passionne guère pour les aspects « religieux » ou mystiques de ce genre de pratique ! C’est une pure pragmatique, qui s’interdit, dans son livre comme dans sa thèse de faire référence à des concepts comme le chamanisme, ou à des éléments de croyances religieuses ; elle est intéressée avant tout par la manière de stocker et communiquer des informations indispensables à la survie. Et pourtant, dans sa pratique, sans qu’elle l’ait cherché, des éléments de fantastique, de mythologique, se produisent spontanément, et une nouvelle approche cognitive du monde se déploie.

La grande hypothèse de Lynne Kelly, qui dépasse largement le cadre de cet article, serait que ces « palais de mémoire » seraient à l’origine d’un bon nombre de monuments du lointain passé, comme les grands complexes mégalithiques des pays celtiques, les statues de l’île de Pâques ou les lignes de la Nazca. Ces structures qu’on a trop souvent l’habitude de désigner simplement comme des « lieux sacrés » sans chercher d’explication supplémentaire, auraient été construites par des peuples en voie de sédentarisation, quittant le mode de vie nomade chasseur-cueilleur pour celui des agriculteurs et des éleveurs. Ces gens auraient alors codé dans ces structures monumentales le savoir qui autrefois était associé à des points précis de leur territoire de chasse et de migration, afin d’assurer sa pérennité.

Je n’ai pas les compétences pour avoir un avis sur cette hypothèse. Mais de toute façon, simplement par la présentation des techniques anciennes de mémoire et la mise en valeur d’un autre mode d’acquisition des connaissances, plus émotionnel, imaginatif et moins verbal, The Memory Code m’apparaît comme un nouveau classique sur ce sujet, à mettre aux côtés du fameux livre de Frances Yates sur l’Art de la mémoire, qu’il complète admirablement.

Rémi Sussan

Catégories: Veille et actualités

[Séminaire] Manipuler du texte avec les expressions régulières

Bretagne - MARSOUIN - lun, 30/10/2017 - 11:12

Le deuxième séminaire du cycle de rencontres autour du traitement et de l'analyse de données quantitatives en SHS le mardi 28 novembre 2017 de 14h00 à 16h00 dans la salle C204 à l'UFR des Lettres et Sciences Humaines à Brest.

Contacts et inscription : laurent.mell@univ-brest.fr

Le big data au service de la connaissance des touristes

Blog e-tourisme - lun, 30/10/2017 - 08:05

Pour mieux comprendre par exemple la perception d’une destination par les consommateurs, il est possible d’organiser des focus groupes ou bien des enquêtes en ligne. Une autre hypothèse de travail est d’analyser le contenu généré par les utilisateurs sur Internet (user generated content – UGC) pour disposer d’une vision du territoire : photos partagés, commentaires sur les forums, avis sur la destination, etc., mais aussi de regarder plus globalement comment on parle de la destination sur les sites Internet (presse en ligne, sites des voyagistes, etc.). L’analyse des conversations en ligne permet également d’optimiser sa communication : identifier des sujets de conversation des internautes, adopter les mêmes registres de langage, répondre à des remarques, etc.

Le big data pour mieux comprendre la perception d’un territoire par les consommateurs ?

L’utilisation des contenus sur Internet permet donc potentiellement de mieux comprendre la perception d’un territoire par les consommateurs. Les objectifs sont donc d’identifier pour chaque marché étudié (France, Espagne par exemple) les volumes d’expression sur le web et les principaux émetteurs (sites internet, blogs, forums, …), et ainsi connaître les réseaux et médias en ligne sur lesquels s’échangent des informations autour d’un territoire. Enfin, d’analyser le contenu d’un échantillon représentatif de quelques centaines de verbatim (c’est-à-dire contenu produit par des internautes) par marché. En effet malgré les progrès du web sémantique ou du machine learning, une analyse humaine s’avère nécessaire pour disposer d’éléments de réflexion assez fins.  Des outils permettent désormais de récupérer les contenus afin de pouvoir effectuer plus simplement une analyse. Ce sont en effet des solutions de monitoring web. Ces outils s’inscrivent dans un « nouveau » procédé d’analyse, le social media intelligence.

Qu’est-ce que le social media intelligence ?

Le social media intelligence « fait référence aux outils et aux solutions qui permettent aux entreprises de surveiller les différentes plateformes et conversations sur les médias sociaux, de réagir aux différents signaux reçus sur ces médias sociaux, et de les synthétiser ces réactions individuelles pour en déduire des tendances et des analyses fondées sur les besoins des utilisateurs » (Source : définition de Wikipédia – fr.wikipedia.org/wiki/Social_media_intelligence). Ces outils permettent donc de regrouper sur une même plateforme des nombreux contenus, généralement en temps quasi-réel, afin d’effectuer des traitements et des études. On peut ainsi définir le monitoring en ligne ou monitoring web, comme l’opération qui consiste à récupérer en temps réel des contenus en utilisant généralement des mots clés.

Quel est l’intérêt du social media intelligence ?

Le social media intelligence offre ainsi la possibilité d’observer les conversations en ligne et plus particulièrement celles sur les réseaux sociaux (Twitter, Facebook, commentaires sur les sites d’avis, vidéos Youtube, etc.).  Cela offre ainsi la possibilité à une marque de surveiller ce que l’on peut dire sur elle, réagir aux différents signaux reçus sur les réseaux sociaux. Cela permet ainsi de synthétiser des réactions individuelles par langue ou par marché par exemple pour en déduire des tendances, mais aussi être en capacité de gérer sa présence et sa réputation en ligne (répondre à des commentaires par exemple). Le social media intelligence propose ainsi tout un panel d’outils et des méthodologies au service de l’analyse marketing (connaissances des clientèles par exemple) à l’instar d’autres outils, tels que les sondages. L’intérêt de ce type d’analyse est également de détecter de nouveaux signaux faibles qui pourraient devenir de nouvelles tendances de consommation, ou bien par exemple des conversations, qui, non gérées, pourraient devenir préjudiciable à une marque.

En résumé, le social media intelligence « peut se définir comme la transformation de données brutes provenant de l’écoute du bruit sur les médias sociaux (mais également des médias traditionnels (…)) en information permettant aux acteurs économiques de prendre des décisions et d’agir dans de nombreux domaines (marketing, communication, innovation, relation client…) » (Source : www.atnetplanet.com/social-media-intelligence-cles).

Quelques applications possibles du social media intelligence

Les principaux outils permettent ainsi d’écouter ce qui peut être dit sur Internet. Les usages sont multiples, et en particulier :

  • Surveiller et protéger sa réputation en ligne (« e-reputation », crises d’images, bad buzz ) ;
  • Répondre aux sollicitations des consommateurs et des prospects (gestion de la relation client, social CRM);
  • Analyser le sentiment, c’est-à-dire par exemple de voir si les clients parlent positivement ou négativement des produits ;
  • Identifier des influenceurs et des prescripteurs autour de sa marque ou de ses produits ;
  • Mesurer l’impact en ligne d’opérations marketing ;
  • Veille concurrentielle ;
  • Audits d’image et de positionnement ;
  • Ou bien encore des analyses prédictives (détecter des signaux faibles, identifier de nouveaux besoins ou de nouvelles attentes, observer des nouvelles tendances…).

L’intérêt du social media intelligence avec les consommateurs

La société Synthesio, cabinet spécialisé dans l’analyse des réseaux sociaux, a publié un intéressant livre blanc montrant l’intérêt de ce type d’analyse pour entretenir son lien avec les consommateurs (Source : Utiliser la social intelligence pour améliorer l’expérience consommateur, Synthesio, avril 2014) . On peut citer 4 éléments utiles pour nourrir sa relation client :

  • Ecouter et dialoguer avec ses clients et ses prospects, et ainsi savoir mieux gérer sa relation avec les consommateurs ;
  • Utiliser les retours clients pour améliorer ses produits ;
  • Découvrir qui sont vraiment ses clients (profil des clients en particulier) ;
  • Enfin de récompenser ses ambassadeurs en ligne et ainsi établir une relation personnalisée avec ses porte-paroles les plus actifs.

Exemple d’un tableau de bord (Dashboard) de la solution de Synthesio

L’intérêt du monitoring web pour la chaîne de valeur de l’entreprise

Cette écoute et analyse des données issues d’Internet permettent d’alimenter la réflexion des différents services stratégiques de l’entreprise. Le social media intelligence participe ainsi à la chaîne de valeur de l’entreprise. Les différents services clés d’une entreprise peuvent ainsi tirer de la valeur du monitoring web (création de valeur), et en particulier :

  • Le service en charge de la recherche et du développement peut avoir des aides pour imaginer les fonctionnalités attendues pour les futurs produits ou services ;
  • Le service client peut ainsi mieux comprendre et identifier les moments où il est nécessaire d’être particulièrement présent et la nature de l’aide attendue par les clients ;
  • Le marketing peut ainsi l’utiliser pour mieux comprendre l’impact des campagnes et les comparer à celles des concurrents,
  • Les ressources humaines peuvent mieux comprendre les attitudes à l’égard de la marque et des valeurs de l’entreprise, et de ce qui pourraient affecter les politiques d’embauche ;
  • Enfin le service commercial/vente peut l’utiliser pour mieux comprendre les problèmes récurrents des acheteurs et s’assurer ainsi de trouver une manière de répondre à ses différents problèmes.

Pour en savoir plus, je conseille la lecture de l’article de Ranjani Raghupathi, The Ultimate Guide to Social Media Intelligence, Unmetric – unmetric.com/social-media-intelligence.

Les solutions techniques existantes en matière de monitoring web

Il existe de nombreuses solutions techniques en matière de monitoring web. Pour plus de commodité, on distingue généralement 2 grandes catégories, même si de plus en plus d’outils proposent une gamme de services étendus :

  • Les outils permettant d’écouter et de surveiller à des fins par exemple de gestion de la réputation ou plus globalement de gestion de sa présence en ligne ;
  • Les solutions pour analyser la présence en ligne (impact des campagnes, identifier des ambassadeurs, analyse des contenus, etc.).

 Les principaux acteurs du marché

De nombreuses sociétés proposent des solutions de monitoring web. Les principaux acteurs du marché sont Brandwatch, Cision, Clarabridge, Crimson Hexagon, Digimind, Netbase, Networked Insights, Oracle, Prime Research, Salesforce, Sprinklr, Synthesio, et Sysomos. Si vous voulez en savoir plus, le cabinet Forrester Research a réalisé un benchmark sur les différentes solutions techniques du marché (Source : Samantha Ngo, Mary Pilecki, The Forrester Wave™: Enterprise Social Listening Platforms – Q1 2016, Forrester Research, mars 2016).

Exemple d’un tableau de bord de la solution de Digimind

Les apports du monitoring web

Ce type d’analyse permet de disposer de données de cadrage sur les comportements des clientèles : les éléments partagés par les internautes (photos, notations, commentaires), où s’expriment les consommateurs (exemples : facebook, twitter, un forum spécialisé, etc.), qui publient sur internet (quelles nationalités ? voire quand c’est possible quel âge ou quel genre), ou bien encore quand partagent-t-ils (avant d’acheter, pendant l’achat, après l’achat). Tous ces éléments permettent ainsi de nourrir une réflexion marketing, d’alimenter une stratégie éditoriale et plus globalement de disposer d’éléments pour mieux connaître ses clients ou ses prospects.

Ce type de méthodologie permet d’obtenir quelques données de cadrage :

  • Les sites Internet ou les réseaux sociaux sur lesquels s’expriment les touristes ;
  • Comment le territoire est globalement perçu par les internautes ;
  • Les centres d’intérêts communs et différents exprimés par les internautes ;
  • Les éléments qui confortent le positionnement de la destination ;
  • Globalement, l’e-réputation de la destination par ses contenus positifs, neutres ou négatifs.

Le monitoring web est d’un apport intéressant à une réflexion marketing, mais ne se substitue pas à d’autres outils ou méthodologies pour mieux connaître les marchés ou les consommateurs/touristes. C’est en effet un outil complémentaire des outils existants à la connaissance des marchés : étude des flux, enquêtes hôtelières, enquêtes de satisfaction, sondages, focus groups, … Les analyses sont particulièrement intéressantes pour la construction de la stratégie éditoriale et plus généralement des éléments de communication à mettre en avant.

Les limites du monitoring web

Les résultats peuvent être parfois assez décevants : peu de données exploitables (informations peu pertinentes en raison d’un « bruit » important, ou un volume trop faible d’information pour en tirer des enseignements. Les internautes s’expriment majoritairement dans des lieux non accessibles aux outils. Par exemple la majorité des statuts/commentaires postés sur facebook sont visibles uniquement des « amis » d’un utilisateur de ce réseau social. Il peut y avoir en outre des biais d’interprétation quand les contenus sont sortis de leur contexte surtout si les contenus sont traduits d’une langue à une autre.  L’analyse de l’e-réputation d’une destination ou d’un produit par ses contenus positifs, neutres ou négatifs est au final assez complexe. En effet la majorité des outils ont dû mal à qualifier les contenus et dans la majorité des cas, ils se voient attribuer un sentiment neutre (contenu ni positif, ni négatif). Cela tient par exemple à la nécessité de comprendre le contexte dans lequel a été écrit le contenu ou bien tient à la subtilité des langues (exemple : l’ironie). 

On peut ainsi retenir deux grandes limites à ce type d’approche. L’info-obésité et se retrouver avec trop de contenus à traiter, ou inversement disposer de peu de contenus à analyser. Enfin l’interprétation parfois complexe des contenus.

Il est ainsi important pour le briefe (choix de la solution de monitoring par exemple ou le choix des mots clés) d’avoir des objectifs précis et de connaître les limites de ce type d’approche. C’est un double paradoxe : il faut à la fois être précis sur ce que l’on cherche à mieux comprendre, mais en même temps ne pas trop aller dans le détail car sinon les résultats seront trop limités pour en tirer un quelconque enseignement. Ce sont en effet des données issues de consommateurs, ce ne sont pas par exemple des focus groupes grandeur nature.

Conclusion

En conclusion l’utilisation des contenus générés par les utilisateurs sur Internet permet de mieux connaître et de mieux comprendre ses clients. Le numérique peut ainsi aider à la définition du positionnement marketing sur Internet d’une destination et à l’optimisation de la présence en ligne. Il est également possible de voir qui partage des informations à propos de la marque, et aide ainsi à identifier des « influenceurs » dans le secteur d’activité concerné. Il est ainsi possible de savoir où sont les prospects et les communautés actuelles et sur quelles plateformes se passent les échanges. L’utilisation des données produites par les internautes permet d’en tirer des enseignements, mais ce type de méthodologie nécessite de mettre en place une stratégie d’analyse parfois complexe à mettre en œuvre et les résultats peuvent être assez aléatoires en fonction de la problématique ou du degré d’utilisation d’Internet par les segments de clientèles visés. On gagnerait certainement à mettre en place une méthodologie commune entre les différents territoires afin de capitaliser sur des travaux antérieurs et de disposer d’indicateurs communs d’analyse.

The post Le big data au service de la connaissance des touristes appeared first on Etourisme.info.

Catégories: Veille et actualités

[Journées doctorales] "Sociétés numériques" - Maison des Sciences de l'Homme Ange-Guépin

Bretagne - MARSOUIN - ven, 27/10/2017 - 17:14

Les 15 et 16 novembre 2017 à Nantes, la Maison des Sciences de l'Homme Ange-Guépin organise, en partenariat avec le LEMNA, deux journées doctorales sur les thèmes suivants :

  • Mutation des pratiques en régime numérique
  • Critiques, appropriations, résistances

Un programme prévisionnel est disponible en ligne.

Inscription obligatoire en cliquant ici.

Voir en ligne : Page du colloque

[Conférence] Digital literature, space and landscape outside the frame

Bretagne - MARSOUIN - ven, 27/10/2017 - 16:51

Le Dr Anne Karhio (National University of Ireland, Galway) donnera une conférence intitulée "Digital literature, space and landscape outside the frame" le 10 novembre 2017de 16h à 18h à l'Université Rennes 2 (Campus de Villejean, Amphi E1, Bâtiment E),

Anne Karhio is a postdoctoral researcher and the holder of the ELEVATE Irish Research Council International Career Development Fellowship, co-funded by Marie Cure Actions.

The current research project "Virtual Landscapes ? New Media Technologies and the Poetics of Place" is carried out in the National University of Ireland, Galway, and the University of Bergen. The project focuses on the impact of new media technologies on literary representations of landscape in Irish poetic culture. The project covers poetry in both print and digital formats and also examines the relationship of poetry to visual and audiovisual arts, music and other forms of artistic production.

Informations pratiques
Campus de Villejean (Rennes)
Amphi E1, Bâtiment E

10 novembre 2017
16h00-18h00

Contact : anne.goarzin@univ-rennes2.fr

Voir en ligne : Page de la conférence

[Séminaire] Traitement et analyse de données quantitatives en SHS (2017-2018)

Bretagne - MARSOUIN - ven, 27/10/2017 - 16:15

Le programme 2017-2018 du cycle de rencontres de l'UBO autour du traitement et de l'analyse de données quantitatives en SHS est paru.

Programme 2017-2018

Séminaire d'ouverture – 24 octobre 2017 de 14h à 16h – Diversité des données en SHS, tentative d'inventaire d'outils et ressources

Séminaire 2 – 28 novembre 2017 de 14h à 16h – Manipuler du texte avec les expressions régulières, Pierre-Guillaume PRIGENT & Jean-Baptiste PRESSAC (Nettoyage de données et usage d'expressions régulières)

Séminaire 3 – 21 décembre 2017 de 14h à 16h – L'archivage des données de recherche, Stéphane LORET

Séminaire 4 – 18 janvier 2018 de 14h à 16h – IRaMuteQ : De la découverte à la pratique d'un outil polyvalent dans le champ d'étude des représentations sociales, Sarah BELLEMARE & Julien MICHON (IRaMuTeQ et l'analyse prototypique)

Séminaire 5 – 8 février 2018 de 14h à 16h – Bricolages avec les outils et méthodes d'Analyse de Réseaux Sociaux, Baptiste COULMONT

Séminaire 6 – mars 2018 de 14h à 16h – Web scraping, extraction de contenus de sites internet et analyses, Jean-Baptiste PRESSAC

Séminaire 7 – 3 avril 2018 de 14h à 16h – Test du khi2 et inférence dans les statistiques appliquées aux SHS, Julien BARNIER

Séminaire 8 – mai 2018 de 14h à 16h – ACM, AFM & CAH sur R, Laurent MELL & Nicolas DEPORTE

Séminaire 9 – juin 2018 de 14h à 16h – Wikidata, usages et potentialités, Jean-Baptiste PRESSAC

Séminaire 10 – juillet 2018 de 14h à 16h, Bilan 2017/2018 et perspectives 2018/2019

Informations pratiques

Les séances ont lieu à l'UFR des Lettres et sciences Humaines, Université de Bretagne Occidentale (UBO), Brest.

Public visé

Enseignant(e)s-chercheur(e)s, doctorant(e)s, étudiant(e)s de master, issu(e)s de toutes les disciplines faisant usage du traitement et de l'analyse quantitatives de données.

Contact et inscription pour les séminaires :

laurent.mell@univ-brest.fr

[Séminaire SociaNum] Sociabilités numériques, représentations et usages des dispositifs socio-techniques

Bretagne - MARSOUIN - ven, 27/10/2017 - 16:10

La quatrième journée du séminaire SociaNum (Sociabilités Numériques : des objets, des terrains, des méthodologies) se tiendra le jeudi 21 décembre 2017, à Rennes (Campus Villejean, Université Rennes 2).

Thématique de la session : Sociabilités numériques, représentations et usages des dispositifs socio-techniques.

Programme de la journée

Pour vous inscrire aux séminaires SociaNum, contacter Anne Cordier (anne.cordier@univ-rouen.fr), Barbara Fontar (barbara.fontar@univ-rennes2.fr) ou Mickael Le Mentec (mickael.le.mentec@u-picardie.fr)

[Offre d'emploi] Chercheur junior à l'EMNS (1 an)

Bretagne - MARSOUIN - ven, 27/10/2017 - 16:06

L'école des médias et du numérique de la Sorbonne (ENMS) recrute un chercheur junior, spécialiste du numérique, pour un contrat d'un an. Les candidatures sont à envoyer avant le 31 octobre 2017.

PROFIL DU CANDIDAT :

Le programme de travail portera sur la thématique suivante : les données personnelles - usages, production, économie.

Le (la) jeune chercheur (chercheuse) devra être familier (ère) de ces problématiques.

LOCALISATION :

Poste situé à l'Institut des sciences de la communication du CNRS au 20 rue Berbier du Mets, 75013 Paris.

DESCRIPTION DU POSTE :

Le candidat participera à la vie scientifique collective de l'École des médias et du numérique de la Sorbonne et de l'ISCC. Ce poste nécessite :

  • de bonnes capacités rédactionnelles,
  • une grande autonomie,
  • la maîtrise des outils d'analyse quali-quantitative des données,
  • la maîtrise de l'anglais.

CONDITIONS D'ADMISSION :

Avoir une expérience dans la recherche sur le domaine concerné ou être titulaire d'un doctorat en économie, sociologie, sciences politiques, sciences de la communication.

LE DOSSIER :

  • CV
  • Copie du dernier diplôme obtenu
  • Une lettre explicitant votre intérêt pour le thème des données personnelles
  • Deux publications significatives, le cas échéant
  • Une lettre de référence
  • Rapport de soutenance, le cas échéant.

DATE DE REMISE DU DOSSIER :

Avant le 31 octobre 2017.

ENVOI DU DOSSIER :

EMNS - Maison des Sciences de la Communication
20, rue Berbier du Mets - 75013 Paris

RÉMUNÉRATION :

Selon diplôme et expérience.

POUR PLUS D'INFORMATIONS :
Contacter Jasmin Tigil : emns@univ-paris1.fr - Tél : 01 58 52 17 11

Voir en ligne : Offre en ligne

[Séminaire EHESS] Étudier les cultures du numérique (2017-2018)

Bretagne - MARSOUIN - ven, 27/10/2017 - 15:59

Le séminaire Etudier les Cultures Numériques de l'EHESS est reconduit pour la dixième année consécutive. Le programme vient de paraître, il est disponible en ligne via ce lien.

Le séminaire est ouvert aux auditeurs libres. Il suffit de s'inscrire (pour toute l'année ou seulement pour une ou deux séances) en remplissant le formulaire de contact.

Le séminaire a lieu le deuxième lundi du mois de 17 h à 20 h, en salle M. & D. Lombard, EHESS, 96 bd Raspail 75006 Paris. La séance de décembre aura lieu le lundi 4, en salle 13, 105 bd Raspail, 75006 Paris. NB : une séance exceptionnelle avec Gabriella Coleman aura lieu le mercredi 28 mars 2018 en Amphithéâtre François Furet, 105 bd Raspail, 75006 Paris.

Voir en ligne : Programme du séminaire en ligne

Pages