Actualités TIC

« Tout est recommandation » : comment Netflix s’est transformé

Internet Actu - mer, 25/10/2017 - 07:00

En quelques années, Netflix est devenue la plus grande plateforme de vidéo en streaming par abonnement. Non seulement, elle croule sous les succès (en terme d’abonnements), mais elle ne cesse d’investir sans compter dans des productions originales pour se démarquer des concurrents (les chaînes câblées américaines notamment). Des productions dont la particularité est que leurs modalités ont souvent été imaginées depuis les préférences des utilisateurs de la plateforme. Plus que jamais, Netflix semble faire corps avec son moto : « Tout est recommandation ».

Pourtant, quand on s’intéresse au fonctionnement de la recommandation chez Netflix, force est de constater qu’on n’en sait pas grand-chose. Comme tous les acteurs du numérique : le silence est d’or. La complexité et les modifications incessantes des systèmes rendent l’opacité des fonctionnements de Netflix toujours plus étrangers à l’utilisateur.

En décembre 2015, Carlos Gomez Uribe, alors responsable de la personnalisation algorithmique chez Netflix (il est désormais responsable de l’intégrité de l’algorithme du fil d’information de Facebook) et Neil Hunt responsable produit chez Netflix, ont publié l’un des rares articles de recherche disponible sur le fonctionnement de la recommandation chez Netflix. Sans dévoiler les secrets industriels des algorithmes de Netflix ni évoquer tous les systèmes qu’utilise la plateforme, l’article montre néanmoins la complexité et l’intrication algorithmique à l’oeuvre.

De la valeur commerciale des algorithmes : retenir l’abonné

Dans leur article, les deux responsables de Netflix soulignent que le temps de séduction est compté : les utilisateurs perdent intérêts dès qu’ils dépassent 60 à 90 secondes à choisir un film, c’est-à-dire dès qu’ils dépassent les 10 à 20 titres proposés (et ce alors que nous avons beaucoup de mal à choisir un film). Et le risque bien sûr, est que si les utilisateurs ne lancent pas un film, ils abandonnent le service. L’article souligne très bien que la rétention de l’abonné est l’obsession des ingénieurs et que le système de recommandation est entièrement dédié à ce seul objectif.

Quand, en 2006, Netflix avait lancé un concours pour améliorer son moteur de recommandation (voir également « Comment améliorer les moteurs de recommandation »), Netflix était encore majoritairement un système qui envoyait des DVD par la poste, et son algorithme de recommandation reposait essentiellement sur les notes que les utilisateurs donnaient aux films. Ce système d’étoiles qui était devenu non plus une notation moyenne, mais une prédiction de l’intérêt que chacun trouverait à un film a d’ailleurs disparu en avril au profit de simples pouces levés ou abaissés, à la Facebook, rapporte Business Insider. Plutôt que de montrer une évaluation entre 1 et 5 étoiles, Netflix propose désormais un pourcentage qui représente la probabilité que vous appréciiez le contenu que Netflix suggère. Reste, comme le pointe Dave Smith de Business Insider, que ce système semble très perfectible, suggérant des contenus pas toujours en phase avec l’utilisateur. Un système binaire ne permettant pas de mettre beaucoup de nuances dans ce qu’apprécient les utilisateurs.

Désormais, Netflix sait tout de ses utilisateurs : ce qu’ils regardent, quand, la manière dont ils le regardent, l’intensité de ce qu’ils regardent… Et surtout la façon dont les utilisateurs trouvent ce qu’ils regardent. Autant de données qui ont permis d’améliorer le système de recommandation qui semble ne plus du tout reposer sur les films qui sont les mieux notés par les utilisateurs, mais plutôt sur de nouvelles métriques comme « l’efficient catalog size » qui tente de mesurer la quantité de visionnage que produit chaque vidéo du catalogue.

Reste que depuis le concours pour améliorer son moteur de recommandation, Netflix n’avait pas divulgué grand-chose de son fonctionnement. On avait appris au détour d’une enquête réalisée par The Atlantic que Netflix produisait des dizaines de milliers de catégories, quasiment à la volée, pour classer ses contenus et affiner sa recommandation (voir également « Les algorithmes sont-ils notre nouvelle culture »). Par exemple : « documentaire criminel afro-américain » ou « romances acclamées par la critique ».

En fait, expliquent les deux ingénieurs de Netflix, le site de vidéo sur abonnement utilise une grande variété d’algorithmes adaptés aux supports des utilisateurs et aux thèmes qu’ils préfèrent.

Les algorithmes de Netflix

Il y a le Personalized Video Ranker (PVR, pour classement vidéo personnalisé) qui commande pour chaque profil un classement personnalisé selon les catégories… et la popularité des contenus (qui, elle, n’est pas personnalisée). Un autre algorithme qui détermine la recommandation et la page d’accueil du service est le Top-N Video Ranker, qui vise à fournir les meilleures recommandations pour chaque profil en se concentrant uniquement les vidéos les mieux classées, valorisant une « tête » de catalogue, c’est-à-dire d’une certaine manière les plus vues. Se combine aussi un autre algorithme de « tendances récentes », car les tendances à court terme sont un autre prédicteur puissant du visionnage. C’est un algorithme qui permet de faire entrer de la considération sociale dans les recommandations, liée à l’actualité par exemple. Un autre algorithme est le Continue watching qui consiste à recommander du contenu selon ce qui a déjà été visionné en prenant en compte le temps écoulé depuis le visionnage d’un épisode ou le point d’abandon des séries… L’algorithme « de similitude vidéo à vidéo », lui, active une recommandation du type : « parce que vous avez regardé » qui fait une recommandation depuis une des vidéos visionnées par un utilisateur. Celui-ci est un algorithme non personnalisé qui pointe vers des vidéos semblables calculées pour chaque vidéo du catalogue. Un autre algorithme encore assure la diversité de la page d’accueil et de la recommandation.


Image : la page d’accueil de Netflix, une orchestration de recommandation algorithmique.

Ces 6 algorithmes forment l’algorithme de recommandation de Netflix, précisent leurs concepteurs, tout en soulignant que bien d’autres encore entrent en compte, comme des algorithmes qui caractérisent la « sélection évidente », c’est-à-dire ceux qui tentent de déterminer ce que l’utilisateur veut vraiment… et qui prend en compte la côte des films, leurs métadonnées (les réalisateurs, acteurs, année de réalisation, prix qu’a remporté un film…) ou celui qui génère des images adaptées de chaque film qui peuvent être différentes selon ces croisements d’informations, afin d’améliorer le lancement d’un visionnage. Enfin, il y a les algorithmes liés au moteur de recommandation (qui compte pour 20 % des recommandations, quand la page d’accueil traite 80 % de celles-ci !). La spécificité de celui-ci, outre le fait de prendre en compte les algorithmes précédents, repose sur sa capacité à faire des recommandations adaptées quand les utilisateurs cherchent des films qui ne sont pas dans le catalogue. Sa spécificité également est qu’il peut faire des suggestions adaptées depuis quelques lettres seulement… Tapez « Fra » et le moteur recommande des films français par exemple.

Tous ces algorithmes reposent sur l’apprentissage machine et l’apprentissage statistique, à la fois supervisé (notamment pour la classification) et non supervisé, soulignent les ingénieurs de Netflix.

De la finalité de la recommandation

La recommandation est au coeur du business modèle de Netflix. Celle-ci a aussi pour but d’aider le système à trouver un public même pour des vidéos de niches. Pour cela, Netflix introduit encore des nouvelles métriques, on l’a vu, comme l’efficient catalog size qui tente de mesurer la quantité de visionnage que produit chaque vidéo du catalogue. Une espèce de time watch à la Youtube qui produit des recommandations liées à chaque film. La personnalisation (PVR) permet de générer une multitude de recommandations et d’éviter que tout le monde se voie recommander les mêmes vidéos, se défendent Carlos Gomez Uribe et Neil Hunt. Elle permet de maximiser l’exploration du catalogue et améliore significativement la recommandation par rapport à une recommandation aléatoire. Mais cette insistance sur la personnalisation semble minimiser le rôle de la popularité des contenus. Selon eux, le « taux de prise », c’est-à-dire le calcul des recommandations qui donnent lieu à un visionnage effectif est nettement amélioré par la personnalisation (PVR) par rapport à la seule popularité des vidéos. Reste qu’elle semble malgré tout limitée. A ce qu’on en comprend, la personnalisation active surtout les multiples catégories, mais pas la popularité des films. Au final, House of cards, l’une des séries phares de Netflix, demeure un des produits les plus recommandés, comme bien des productions maison.

En fait, soulignent les ingénieurs de Netflix, les recommandations améliorées par ces systèmes entraînent une augmentation significative de l’engagement global à l’égard du produit et réduisent les taux d’annulation d’abonnement. Le taux de désabonnement est inférieur à 10 % et une grande partie de ces désabonnements est plutôt liée à des défauts de paiement qu’à un choix volontaire. Pour les chercheurs, l’enjeu de Netflix a été de faire fortement diminuer ces dernières années ce taux de désabonnement. La finalité des algorithmes de Netflix est bien avant tout de retenir le client.

Carlos Gomez Uribe et Neil Hunt estiment encore que ceux qui développent des algorithmes doivent apprendre à faire la part des choses. D’un côté, les clients demandent du choix et des outils de recherche et de navigation exhaustifs, mais de l’autre, cette grande liberté n’est pas nécessairement ce qui fonctionne le mieux. Il est toujours difficile de trouver la meilleure variante d’un algorithme de recommandation et la pertinence apparente n’est pas toujours évidente quand on la confronte à la mesure des résultats. Au final, comme bien des moteurs de recommandation (celui d’Amazon notamment), Netflix cède la pertinence à l’efficacité et à la popularité.


Image : exemple de recommandation liée à House of Cards. La recommandation de la ligne inférieure est plus pertinente, mais elle produit moins de résultats effectifs, c’est-à-dire de visionnages, que de montrer des vidéos qui ont une popularité plus forte, comme c’est le cas de la ligne de recommandation supérieure.

Les deux ingénieurs soulignent que Netflix ne cesse de s’améliorer. En conclusion de leur article, ils pointent une feuille de route de critères à améliorer. Par exemple parvenir à mieux équilibrer les recommandations de contenus selon les formes courtes et longues, alors qu’aujourd’hui, l’algorithme semble plutôt favoriser les séries. Autre objectif : améliorer les recommandations nationales (visiblement, Netflix duplique ses algorithmes par pays où il est présent), notamment dans les pays où un nombre insuffisant de clients rend la recommandation plus difficile, où les langues et sous-titres disponibles ne sont pas toujours dans la langue vernaculaire du pays. Parmi les autres défis à résoudre, les chercheurs estiment qu’il leur faut améliorer les recommandations pour ceux qui découvrent Netflix durant le premier mois gratuit, et ce alors que le système ne les connaît pas. Dans leur article, ils soulignent également des enjeux pour améliorer encore la page d’accueil, mais également la distinction des profils dans les abonnements familiaux (afin que le fait de jouer une vidéo pour son enfant ne vienne pas « polluer » la recommandation pour les parents). Et aussi améliorer la recommandation destinée aux enfants, notamment en prenant en compte d’une manière prédictive leurs changements de goûts avec l’âge.

Un tableau bien incomplet des capacités algorithmiques de Netflix

Si l’article est intéressant, il l’est plus encore par les silences et les non-dits. Rien ne nous est dit par exemple sur le fait que l’algorithme de recommandation de Netflix favoriserait certains films de niches (qui coûtent moins cher à négocier) ou optimiserait ses propres productions plutôt que les blockbusters qu’il achète auprès d’autres diffuseurs et producteurs. On voit bien également que la personnalisation demeure au service des intérêts de l’entreprise : elle reste liée à la popularité et son but, unique, n’est pas tant de vous faire des recommandations pertinentes que de vous faire apprécier le service et y rester.

Au final, Netflix semble en fait assez peu favoriser les films de niche. Zach Sonfeld pour Newsweek se désolait il y a peu de l’inexistence de films classiques dans le catalogue de Netflix. Au moment de son enquête, il n’a compté qu’une quarantaine de films qui datait d’avant les années 70 (le catalogue de Netflix évolue sans arrêt au grès des accords et achats). Alors que le Netflix qui envoyait des DVD était le paradis du cinéphile, le Netflix du streaming, lui, ne l’est plus. Qu’importe si, la conséquence est que ce qui n’est pas accessible en streaming n’existe plus. Par contre, ses algorithmes cherchent assurément à favoriser ses contenus comme le soulignait Wired (voire la traduction de Usbek et Rica) cet été en montrant comment la création d’une série avec des superhéros aux personnalités très différentes les unes des autres, permettaient d’amener des abonnés à regarder ce type de contenus par la recommandation, même si les utilisateurs appréciaient peu les films avec des superhéros. De quoi relativiser les vertus de la personnalisation.

Rien ne nous est dit non plus de bien d’autres usages de Netflix, et notamment de l’utilisation de la recommandation pour initier la production de contenus. Ed Finn (@zonal), directeur du Centre pour la science et l’imagination de l’université d’Etat de l’Arizona, dans son livre What Algorithms wants rappelle d’ailleurs, dans un article pour Slate, un autre usage de la recommandation chez Netflix, absolument pas évoquée par les 2 ingénieurs de la compagnie : la façon dont Netflix a utilisé ses données pour initier des productions capables de plaire à la plupart de ses utilisateurs. Ainsi pour House of Cards, Netflix s’est basé sur le succès de la mini-série éponyme produite par la BBC dans les années 90, le fait que ceux qui l’appréciaient appréciaient aussi les films avec Kevin Spacey, pour produire sa première série. House of Cards, ni nombre des séries qui ont suivi n’ont pas été créées par des algorithmes, comme le souligne Todd Yellin, directeur de l’innovation de Netflix, mais la technologie a permis de choisir une histoire et des composants qui avaient du potentiel.

Derrière l’idéal de personnalisation algorithmique qu’incarne doublement la série House of Cards (dans sa production comme dans son mode de diffusion), il est nécessaire de prendre un peu de recul. House of Cards semble bien plus l’expression de la popularité que de la personnalisation. Et la série phare de Netflix est surtout recommandée différemment à la plupart des abonnés selon de multiples catégories : l’essentiel étant de la leur recommander ! Netflix exploite très bien cela, et a même publié une infographie pour montrer à partir de quel épisode les abonnés avaient tendance à devenir accros à leurs séries. Reste, comme le confiait les gens de Netflix eux-mêmes au Guardian, cette façon de faire n’assure pas la martingale à chaque fois.

Le Binge Watching est-il une conséquence de l’optimisation de la recommandation ?

Le fait de publier toute une saison d’un coup a également permis à Netflix d’impliquer autrement ses abonnés dont les algorithmes bichonnent la fidélité. 2 % des abonnés américains à Netflix ont par exemple visionné l’intégralité de la saison 2 de House of Cards dès le week-end où la série a été publiée. Tant et si bien qu’on peut se demander si le Binge Watching, c’est-à-dire le fait de regarder des épisodes de série en rafale, favorisé à la fois par le lancement automatique de l’épisode suivant et par la publication d’une série d’un coup – plutôt qu’avec un délai entre chaque épisode, comme c’est le cas avec la télé traditionnelle – n’est pas aussi une conséquence de l’optimisation de la recommandation. Si le Binge Watching n’est pas né avec Netflix, comme le souligne un remarquable article d’Inaglobal sur le sujet, mais le fait de publier une saison d’un coup a accéléré le phénomène.

Eric Thurm sur RealLife Mag va plus loin encore. « Plutôt qu’une expansion infinie, mais linéaire de l’écoute télévisuelle, Netflix s’attend implicitement à ce que ses consommateurs s’engagent dans des crises de consommation intenses qui les laissent abasourdis et confus. » Telle est la finalité du Binge Watching : faire que le spectateur s’optimise à la recommandation qu’il reçoit. Et à nouveau, ce qui n’est pas sans conséquence sur les productions de séries elles-mêmes, souligne Thurm. Les saisons se terminent sur des ambiguïtés, comme pour ne jamais se terminer. La plupart des épisodes finaux des plus importantes séries de ces 20 dernières années ouvrent des espaces d’interrogation : comme si le spectacle ne pouvait rester dans la mémoire culturelle s’il était définitif, estime Thurm. A l’heure du streaming infini, les séries doivent pouvoir continuer perpétuellement, à l’image des recommandations que fournit Netflix à tout nouvel abonné pour ses propres séries, même si les premiers épisodes ont désormais 5 à 6 ans… La vie continue des séries nécessite de maintenir les ambiguïtés. La production et la diffusion semblent avoir été toujours liées et Netflix cristallise cette réalité. Pour Eric Thurm, le succès des séries est lié au fait qu’elles vous permettent toujours de vous investir dans une consommation de plus, jamais rassasiée, jamais terminée, toujours recommencée, comme relancée automatiquement, d’un épisode l’autre. Comme si leur finalité était juste de capter le spectateur, indépendamment de tout contenu. L’écoute en rafale est la résultante d’une logique prescriptive que réalisent les algorithmes de Netflix, rappelle la chercheuse Gabrielle Drumond, qui parle « d’usagers configurés » par la personnalisation et la catégorisation algorithmique au service d’une « économie de la jouissance ».

Le « Peak TV » qu’incarne la série aujourd’hui évoque la réalisation d’un marché du divertissement infini. Le but des séries semble désormais uniquement de faire s’investir le consommateur dans sa consommation. Le médium télévisuel génère une vision d’une audience captive permanente. N’était-ce d’ailleurs pas le but affiché par les ingénieurs de Netflix ? Retenir à jamais l’abonné ? Faire que jamais il ne se désabonne ?

Hubert Guillaud

Catégories: Veille et actualités

Les limites du deep learning et comment les dépasser

Internet Actu - mar, 24/10/2017 - 07:00

Un très long article de la Technology Review pointe les problématiques actuelles des technologies du deep learning et ouvre quelques portes sur les nouvelles recherches en IA. En fait, l’article est largement consacré à Geoffrey Hinton l’inventeur de cette technologie, et met l’accent sur un point généralement oublié : le deep learning n’est pas une nouvelle technologie, elle est assez ancienne au contraire.

Pourquoi l’IA a besoin du big data
Au centre du « deep learning » se trouve la technique dite de rétropropagation, développée par Hinton dans un papier de 1986. C’est cette méthode qui permet à un programme d’apprendre. Un réseau neuronal est composé de petites unités, les « neurones » qui s’activent lorsqu’elles reçoivent suffisamment d’inputs de la part d’autres neurones pour dépasser un certain seuil. Par exemple nous explique la Technology Review, un tel système peut être utilisé pour reconnaitre la présence d’un hot-dog dans une image.

Au sommet du réseau, nous explique encore l’article, se trouvent par exemple deux neurones, l’un s’activant à la vue d’un hot-dog, l’autre quand on contraire il n’y en pas. On entraine ensuite le système en lui montrant une série d’images, le plus grand nombre possible. Si, une fois en situation, le programme se trompe, s’il voit un hot-dog là où il ne s’en trouve pas, on voit quels sont les neurones de l’avant-dernière couche qui ont activé par erreur le mauvais signal. On change alors leur niveau d’activation. Puis on passe au niveau précédent, l’avant-avant-dernier niveau, pour voir là encore comment de « mauvais » neurones ont été activés, et ainsi de suite jusqu’à la première couche.

C’est en 2012 que Hinton a pu démontrer sa capacité à effectuer une reconnaissance d’images très efficace. Toutefois, comme le précise la revue du MIT, le caractère plutôt ancien du « deep learning » nous conduit à nous interroger sur la signification de son explosion actuelle :

« L’IA aujourd’hui, c’est le deep learning. Et le deep learning c’est la rétropropagation – ce qui est étonnant lorsqu’on pense que cette technique a plus de 30 ans d’âge…. Peut-être ne sommes-nous pas au commencement d’une révolution, mais à sa fin. »

Car, continue le magazine, ces systèmes ne constituent guère une avancée sur la façon dont les machines peuvent comprendre le monde. Ce sont juste des systèmes de reconnaissance de patterns, de schémas.

Un ordinateur qui voit une pile de beignets empilés sur une table et la décrit automatiquement comme « une pile de beignets empilés sur une table » semble comprendre le monde ; mais quand ce même programme voit une fille se brosser les dents et dit «Le garçon tient une batte de baseball», vous réalisez à quel point cette compréhension est faible, si même elle n’a jamais existé.

L’intelligence des machines si toutefois on peut l’appeler ainsi, repose avant tout sur le big data : pour entraîner la machine à reconnaître des hot-dogs, il faut lui montrer des milliers d’images de hot-dogs. Au contraire, un bébé peut reconnaître un hot-dog après en avoir vu un seul.

Le gros problème, c’est qu’on n’a pas de théorie de l’intelligence, nous permettant de comprendre comment elle fonctionne. C’est pourquoi depuis les travaux de Hinton les progrès en IA ont été plus le fait de l’ingénierie (voire, nous dit le magazine, du « bricolage » ) que de la science proprement dite. On ajoute tel ou tel perfectionnement à l’algorithme, et on procède par essai et erreur.

Donner aux machines une connaissance du monde
Comment aller plus loin ? Manifestement le deep learning est insuffisant pour créer une véritable intelligence artificielle, analogue à celle des êtres humains. Autrement dit, comment la doter de « sens commun » ?, une question qui se pose depuis l’invention du domaine en 1956 et qui n’a jamais été résolue.

Une problématique d’autant plus importante lorsque la sécurité physique des personnes est en jeu, comme c’est le cas avec les voitures autonomes. Un autre article de la Technology Review nous présente une startup issue du MIT, ISee.ai qui cherche à s’inspirer des sciences cognitives et donc de la psychologie humaine, pour équiper les futurs véhicules.

La plupart des humains utilisent le sens commun pour conduire, d’une manière qu’un système de reconnaissance de patterns basé sur le big data ne peut égaler, précise l’article : les conducteurs humains « savent, par exemple, que les autobus prennent plus de temps pour s’arrêter et peuvent soudainement produire beaucoup de piétons. Il serait impossible de programmer une voiture autonome avec tous les scénarios possibles qu’elle pourrait rencontrer. Mais les gens sont capables d’utiliser leur compréhension commune du monde, construite à travers l’expérience de la vie, pour agir judicieusement dans toutes sortes de nouvelles situations. »

Mais comment faire ? On sait que les fondateurs de ISee sont issus du labo d’un professeur du MIT, Joshua Tenenbaum, qui travaille sur une technique qui permet d’éviter à la fois l’écueil de la programmation IA traditionnelle, qui repose sur des règles figées et les techniques de big learning qui exigent un entraînement sur des milliers de données. Celui-ci a réussi, en compagnie de deux autres chercheurs, Brenden Lake et Ruslan Salakhutdinov à créer un système logiciel capable de reconnaître un caractère manuscrit après avoir été mis en face d’un seul exemple. La méthodologie impliquée se nomme le Bayesian Program Learning Framework. En gros, si l’on suit cet autre article de la Technology Review, le système génère pour chaque caractère un programme spécifique susceptible de le générer puis infère une série de probabilités pour définir quel sera l’action suivante à accomplir. « La clé de la programmation probabiliste – et plutôt différente de la façon dont fonctionne le deep learning – est qu’elle commence par un programme qui décrit les processus causaux qui existent dans le monde… Ce que nous essayons d’apprendre n’est pas une signature ou un pattern de caractéristiques. Nous essayons d’apprendre à un programme comment générer ces caractères. » Autrement dit on apprend à l’ordinateur à « écrire » le caractère en question pour qu’il puisse le reconnaître. A l’aide de ce genre de méthode, on espère que l’ordinateur sera en mesure d’observer un comportement nouveau, de le subdiviser en sous-parties, puis d’être capable de prédire les résultats d’une action, même si celle-ci se présente pour la première fois. Le but de telles recherches est de deviner l’intention derrière une action, ce qui bien évidemment est vital dans le domaine de la conduite autonome. Dans son labo, Tenenbaum s’intéresse aux mécanismes de la cognition chez les enfants et les adultes, et pas uniquement à l’intelligence artificielle : « Ces deux programmes sont inséparables, écrit-il sur sa page personnelle : rapprocher les algorithmes d’apprentissage automatique des capacités d’apprentissage humain devrait conduire à des systèmes IA plus performants ainsi qu’à des paradigmes théoriques plus puissants pour comprendre la cognition humaine« .

Retour aux sciences cognitives
L’avenir de l’IA dépendrait donc d’un retour aux sciences cognitives, à la psychologie humaine. Si la Technology Review se concentre sur les chercheurs du MIT et assimilés (ce qui est normal vu que ce magazine est une publication du MIT), c’est un sentiment partagé par d’autres membres de la communauté IA ; c’est le cas par exemple de l’auteur et chercheur Gary Marcus, qui écrit, dans un article publié cet été dans le New York Times : « Il n’y a pas si longtemps, par exemple, alors que j’étais assis dans un café, ma fille de 3 ans réalisait spontanément qu’elle pouvait descendre de sa chaise d’une nouvelle manière : vers l’arrière, en glissant entre le dossier et le siège de la chaise. Ma fille n’avait jamais vu quelqu’un d’autre agir de cette façon ; elle l’a inventée seule – et sans le bénéfice d’essais et d’erreurs, ou avoir besoin de téraoctets de données étiquetées. »

Et, continue-t-il, « Je suppose que ma fille s’est basée sur une théorie implicite sur la façon dont son corps se déplace, ainsi qu’une théorie implicite sur la physique – comment un objet complexe passe par l’ouverture d’un autre. Je défie n’importe quel robot de faire de même. »

Pour Marcus, il faut maintenant apprendre à joindre les approches « bottom-up » et « top-down » de l’intelligence : « La connaissance bottom-up, c’est le genre d’informations brutes que nous recevons directement de nos sens, comme des motifs de lumière tombant sur notre rétine. La connaissance top-down comprend les modèles cognitifs du monde et comment celui-ci fonctionne. »

Finalement, ne sommes-nous pas face à un serpent qui se mord la queue ? Pendant des années on a cherché à donner aux machines de tels modèles du monde, à leur enseigner le « sens commun ». Un projet comme Cyc de Douglas Lenat (qui date tout de même de 1984 !) n’avait pas d’autre but. Puis on a abandonné cette voie en faveur des réseaux de neurones, pour découvrir peut-être qu’aujourd’hui on a jeté le bébé avec l’eau du bain.

Rémi Sussan

Catégories: Veille et actualités

L’Office de Tourisme du Futur est-il norvégien ?

Blog e-tourisme - lun, 23/10/2017 - 07:00

Il y a deux semaines Guillaume Cromer nous parlait de la plateformisation des destinations comme une perspective possible de mutation pour les OGD. J’ai été interpellée par cet article car je réfléchis depuis mon séjour en Asie à la mutation des offices de tourisme, et je partage comme lui l’idée d’OGD-réceptifs, experts de destination, « capables de faire du sur-mesure, de la production » (et de s’affranchir des limites territoriales). Toutefois, je n’étais pas du tout convaincue jusqu’ici que le rôle des DMO devait être celui de commercialiser.

J’ai alors découvert, en discutant avec Léa Pinsard, chargée de projet développement commercial pour Visit Tromsø,  que la commercialisation pouvait devenir un réel outil de repositionnement pour les  OGD, leur apportant une plus-value, une raison d(e continuer à) exister… ainsi que des ressources financières.

Carte de la destination : Tromsø 

Localisation : Norvège, au-dessus du cercle polaire
Nombre d’habitants : 74 541
Principaux atouts touristiques : aurores boréales, observation des baleines, balades en chiens de traîneau, motoneige, soleil de minuit, randonnée
Saisonnalité : Fréquentation plus importante en été mais revenu par tête plus important en hiver
Fréquentation annuelle de l’office de tourisme : environ 150 000 visiteurs
Chiffre d’affaire annuel sur la vente d’activités : 4,5 millions d’euros

 

Léa, peux-tu nous expliquer comment s’organise l’office de tourisme de Tromsø ?

Visit Tromsø est un organisme privé bénéficiant de subventions publiques et qui s’organise en différents pôles.

Le pôle accueil, que j’appelle office de tourisme, est composé de 3,5 ETP (renforcé par des saisonniers en période de plus haute fréquentation). Il est en charge de l’accueil uniquement : renseignement et réservations (physiques, téléphoniques et courriers). Ce pôle reçoit une subvention par la mairie de Tromsø, qui ne suffit toutefois pas à couvrir ses frais de fonctionnement.

Le pôle marketing est composé de 4 agents, en charge de la promotion, de la commercialisation, des bases de données, des relations prestataires et du web. Ce service est entièrement auto-financé par la communication et la vente.

Enfin, l’office de tourisme compte également dans son équipe des chargés de projet, pour des projets spécifiques, bénéficiant selon les cas d’un apport financier privé et de subventions de la région. Nous avons par exemple un projet « Développement du tourisme d’affaire », né au départ d’une initiative de prestataires privés, co-financeurs du projet, et aujourd’hui en partie financé par la région.  Nous avons également un projet interterritorial en Scandinavie du nord, partagé avec la Suède et la Finlande pour le développement d’une ligne d’avion, co-financé par une compagnie aérienne et la région.

Tous ces services sont sous l’autorité du directeur général. La structure, quant à elle, est gérée par un comité d’actionnaires, composé de tous ses actionnaires, publics et privés. Les actionnaires ont acheté des parts et ont à ce titre une place dans le comité délibérant, mais ils ne touchent pas de dividende. Ils élisent en leur sein un comité de direction, plus restreint. Notre présidente est un acteur économique important de la ville de Tromsø.

  Tu es toi-même chargée du projet développement commercial, peux-tu nous expliquer en quoi il consiste ?

Visit Tromsø s’est lancé dans la commercialisation en 2012. Il y a 2 ans, la structure a pris la décision d’accentuer son virage commercial. Cependant, nous ne vendons toujours que des activités. Sachant que tout le pôle marketing est auto-financé, ainsi qu’une partie du pôle accueil, nous avons fait l’analyse qu’il était risqué de ne dépendre que de cette source de revenu, cela reviendrait à s’asseoir sur une chaise à un pied. L’idée du projet est de reposer sur une chaise à 4 pieds. Pour ce faire, nous avons décidé de diversifier les prestations commerciales à différents niveaux :

  • Diversifier la clientèle : nous ne voulons plus vendre uniquement aux individuels (B2C) mais également aux TO (B2B). Nous avons pour cela racheté une agence réceptive et allons développer la création de packages.
  • Diversifier les types de produits vendus : dans la même lignée, nous allons donc élargir notre porte-feuille de prestations et inclure : hébergement, transport
  • Diversifier les points de vente : aujourd’hui nos prestations sont vendues uniquement en ligne et à l’Office de Tourisme. L’idée est de faire en sorte que tous nos partenaires soient prescripteurs, et qu’ils puissent eux-aussi commercialiser les packages et autres prestations, grâce à une centrale de réservation partagée et mise à disposition par Visit Tromsø autant dans la vente numérique que dans la vente physique.
  • Élargir le territoire : nous souhaitons enfin créer des partenariats avec d’autres territoires voisins. Nos visiteurs sont mobiles et se rendent, surtout l’été, dans plusieurs destinations. Si un touriste demande à l’Office de Tourisme de Tromsø comment se rendre au Cap Nord, nous souhaiterions lui proposer de réserver d’emblée ses billets de bus et l’entrée au plateau (bien que ce ne soit pas sur notre territoire).

  Quelle est la plus-value de ce projet ?

Ce projet est un formidable levier pour la qualification de l’offre touristique. En effet, pour finaliser le partenariat, nous faisons adhérer nos partenaires à une charte qualité avec un cahier des charges précis. Par ailleurs, lorsque nous recevons des retours négatifs de la part de clients, nous faisons le point avec le prestataire sur le problème et nous lui expliquons comment améliorer sa prestation. Si le problème se pose à nouveau nous mettons fin au partenariat. Mais la plupart du temps les prestataires s’adaptent. Nous arrivons ainsi à une montée en gamme des prestations touristiques, même de la part des plus petits prestataires, qui ont beaucoup à gagner dans leur partenariat avec nous.

Ensuite, cela met en exergue le rôle de conseil de l’office de tourisme. Les visiteurs ont aujourd’hui accès à toutes les informations en ligne avant le départ ou sur place. Toutefois, perdus dans une pléthore d’offres, ils ne savent pas toujours quoi choisir. Ils viennent réaliser le rêve d’une vie et ont une idée arrêtée de ce qu’ils cherchent. C’est alors qu’ils s’en remettent à l’Office de Tourisme pour obtenir un conseil éclairé et personnalisé. Ainsi, l’office de tourisme joue à 100% sa carte d’expert de destination, seul à pouvoir aider le client à trouver la prestation qui lui correspond le mieux. Le conseil est ensuite finalisé par la vente de la prestation.

L’office de tourisme garantit donc des prestations de qualité, adaptées aux visiteurs et éthiques. Visit Tromsø refuse par exemple de vendre les plongées sous-marines avec les orques.

 

Quelles sont les conditions de réussite à cette démarche ?

La coopération public/privé est l’élément clé de notre fonctionnement. C’est un échange gagnant-gagnant. D’une part, les prestataires privés qui investissent ont une voix dans le développement stratégique du tourisme sur le territoire, d’autre part cela revient moins cher à la collectivité.

Il en résulte pour nous que nous ne sommes pas bloqués dans une logique territoriale dénuée de sens pour le visiteur. Notre destination, Tromsø, inclue en réalité tous les prestataires que nous pouvons commercialiser, à une distance ou un temps de parcours accessible au visiteur. Nous n’avons donc pas de critère géographique arbitraire, notre seul critère est que cela doit répondre à l’attente des visiteurs qui choisissent notre destination.

Ensuite, il faut que tous les prestataires jouent le jeu de la coopération, ce qui n’est pas toujours facile. Afin de pouvoir répondre à tous les types de demandes, nous avons besoin d’un éventail varié de prestations, de toutes tailles : du gros prestataire touristique pour les demandes de groupes au plus petit passionné pour les individuels en recherche d’une expérience unique. Aujourd’hui certains gros prestataires contestent notre rôle de vente sur le marché B2B et certains se regroupent pour tenter de représenter la destination, comme le groupe Destination Tromsø.

Enfin il est important de construire un cahier des charges précis sur ce qu’engage le partenariat avec l’office de tourisme, tant en terme de procédure d’annulation, que de minimum de participants, d’organisation, de communication etc…

Aujourd’hui, il nous reste deux obstacles à enjamber. La solution de centrale de réservation que nous avons choisie est différente de celle de certains de nos partenaires, or nos différents systèmes ne peuvent pas communiquer entre eux. Ensuite, nous devons encore faire reconnaître notre plue-value auprès de prestataires qui pensent parfois que la commission prélevée pour chaque transaction de vente est trop élevée. 

Merci Léa !

The post L’Office de Tourisme du Futur est-il norvégien ? appeared first on Etourisme.info.

Catégories: Veille et actualités

Google Travel aux #ET13 : le mobile moment est là !

Blog e-tourisme - ven, 20/10/2017 - 07:03

La plénière de conclusion des #ET13 a présenté son lot de chiffres « tous chauds » présentés à distance (et avec une excellente connexion) par Caroline Bouffault, Head of Travel chez Google France qui a présenté la récente étude basée sur l’attitude des internautes sur le moteur de recherche : « le parcours client voyage 2017 » avec des données intéressantes. Cette étude est le résultat combinée d’un questionnaire et de suivi de pratique d’internautes. 

  Le Mobile Moment, ça y est!

75% des milleniums utilisent leur smartphone comme premier point d’accès à Internet : cette donnée est à oberver avec le croisement de deux courbes depuis août 2017 : plus de requêtes voyages sur smartphone que sur ordinateur, comme le montre le schéma ci-dessous. C’est ce que nous attendions, dit Caroline Bouffault : le mobile moment dans le travel« . Les projections montrent que la prédominance de la requête sur mobile va perdurer surtout durant la saison estivale.

 

Les millenials très vidéo

L’étude de Google s’intéresse de très près aux millenials (la génération Z). On ne sera pas surpris d’apprendre que le prix est un élément déterminant pour les plus jeunes. Pas étonnés non plus qu’ils utilisent surtout le smartphone pour faire des recherches. Et pas éberlués enfin de savoir que cette génération est fondamentalement utilisatrice de vidéo, sur le web, mais encore aussi à la TV!

a droite les millenials   Les plateformes « collaboratives » de plus en plus présentes dans le parcours client

L’étude Google montre que le temps de recherche des internautes avant la conversion en achat est très long dans le voyage : en moyenne 50 journées pour le parcours, depuis le jour où l’internaute commence à se renseigner jusqu’au jour où il achète. Le nombre de sites visités est important environ 9.

De façon étonnante, on constate que 29% des utilisateurs ayant réservé un hôtel ont consulté Airbnb à un moment de leur parcours. De la même façon, un quart des utilisateurs qui achètent un transport sont passés à un moment sur Blablacar. Ce qui veut bien dire que l’économie de plateforme est vraiment rentrée dans les pratiques des consommateurs.

Je vous invite à regarder de près l’étude présentée sur le slideshare des rencontres qui montrent la complexité croissante du parcours client sur le web.

Ainsi, on se rend compte que les recherches en ligne seule avant l’achat sont minoritaires avant l’achat. Elles sont très souvent couplées à un autre point de contact : un coup de fil, un chat. C’est très net pour les achats d’hôtel et de séjours.

L’actif digital, ou comment réussir la conversion !

Un autre chiffre peut faire frémir les hôteliers : deux tiers des clients de booking ont consulté un site d’hôtel au préalable! Sites qui ont été incapables de faire la conversion de la visite en achat; de l’importance des actifs digitaux (une bonne ergonomie) pour convertir sur le site de l’hôtelier précise Caroline Bouffault.

La conférence s’est conclue sur quelques conseils aux acteurs du tourisme, au vu des résultats de l’étude :

  1. travailler en continu notoriété et considération de marque
  2. maximiser sa visibilité sur le moteur de recherche (le search est encore la première influence d’achat pour le voyage!)
  3. optimiser le tunnel de conversion : le nombre de visites d’un site avant l’achat est énorme, il faut qu’il soit donc pratique
  4. travailler l’expérience client cross-device et cross-canal : pour un parcours sur deux, l’internaute aura utilisé plus de 2 appareils (smartphone plus ordinateur plus tablette) dans 26% des cas! 

 

Un manque dans cette intéressante étude, comme le soulignait Ludovic Dublanchet à l’issue de la présentation : pas d’informations sur la façon dont les internautes cherchent une destination. Donc, c’est promis, a dit Caroline Bouffault : l’an prochain, il y aura des questions sur le parcours « destination » de nos visiteurs…

Pour voir l’ensemble de la présentation :

ET13 – Google – Parcours voyages digitaux 2017 from Rencontres Nationales du etourisme institutionnel   Pour regarder la vidéo intégrale de la conférence sur la chaîne Youtube des rencontres :  

The post Google Travel aux #ET13 : le mobile moment est là ! appeared first on Etourisme.info.

Catégories: Veille et actualités

Michel Feher : les nouveaux enjeux de la question sociale

Internet Actu - jeu, 19/10/2017 - 12:00

Pour Mediapart, Christian Salmon livre une remarquable interview du philosophe Michel Feher qui publie Le Temps des investis, un livre qui invite à réorganiser les luttes sociales en fonction du déplacement du capitalisme vers les marchés financiers. Pour Michel Feher, la financiarisation de l’économie nécessite de repenser la lutte contre le capitalisme et de repenser les enjeux des conflits de classe, qui se déplacent du marché du travail au marché des capitaux.

Nous sommes en train de passer de l’exploitation du travail à l’exploitation du capital, estime Michel Feher. « La stagnation des salaires et la compression des budgets sociaux qui caractérisent notre époque s’expliquent avant tout par l’emprise du capital financier sur les entreprises privées et les États. » Nous sommes passés de l’extraction du profit à l’allocation du crédit. Les protagonistes principaux ne sont plus les employeurs et les employés, mais bien les investisseurs et les « investis » qui sollicitent leurs largesses (les investis, précise-t-il ne sont pas seulement les individus en quête de crédit, mais également les individus « ubérisés » dont le sort dépend des évaluations de son « capital relationnel »). Désormais, nous sommes incités à mener nos vies comme on dirige une entreprise.

« En empruntant pour accéder à la propriété immobilière, en souscrivant une assurance maladie auprès d’un organisme privé ou encore en confiant leur retraite à un fonds de pension, même les individus qui ne sont pas entrepreneurs de profession sont censés apprendre à se conduire comme tels. Comme l’écrit l’ordolibéral Wilhelm Röpke, il s’agit de « déprolétariser » les salariés en les dotant d’une mentalité d’entrepreneur.

Des individus à la recherche du meilleur crédit pour faire valoir leurs maigres capitaux, en passant par les entreprises qui cherchent à optimiser à court terme le cours de leurs actions, en passant par les gouvernements qui cherchent à conforter la confiance des marchés dans leur dette, le monde est devenu financier. Nous sommes passés du marché du travail au marché des capitaux, du produit au projet et de la négociation fixant le prix du travail à la spéculation sur la crédibilité d’un projet.

Pour Michel Feher, « une autre spéculation est possible ! » faite par exemple d’agences de notation citoyennes. Pour lui, les « investis » doivent se former aux techniques de spéculation dont les investisseurs tirent leur hégémonie, « d’apprendre à spéculer pour leur compte, de manière à modifier les conditions d’allocation du crédit ». Pour Michel Feher, il existe déjà de nombreux exemples de contre-spéculations militantes : allant des travaux d’Attac, aux publications de révélations provenant des lanceurs d’alerte sur l’irresponsabilité sociale, financière ou environnementale des entreprises, campagnes de boycott, collectifs d’endettés, contre-expertises sur les dettes publiques, agences de notation alternatives (pour déprécier des projets nocifs et apprécier des projets alternatifs)…

Michel Feher invite à imaginer le modèle organisationnel pour cristalliser ces luttes et les outils pour évaluer en continu et d’une manière alternative et démocratique ces politiques. En nous invitant à déplacer le regard des luttes locales du travail aux luttes globales de la financiarisation, Michel Feher pointe le besoin de construire des alternatives pour observer et déconstruire l’optimisation financière du monde. Férocement intéressant !

Catégories: Veille et actualités

La rencontre en ligne change-t-elle la nature des couples ?

Internet Actu - jeu, 19/10/2017 - 07:00

Les sites de rencontre ont incontestablement changé la façon dont les couples se rencontrent (pour le meilleur ou pour le pire). Mais il se pourrait qu’ils influencent également le mariage et sa stabilité, estime une récente étude relevée par la Technology Review. Depuis le lancement de Match.com (né en 1995), OkCupid (en 2000) ou Tinder (2012)… c’est désormais plus d’un tiers des mariages qui commencerait en ligne.

Les sites de rencontres ont changé la façon dont les gens trouvent leurs partenaires. Traditionnellement les liens faibles jouaient un rôle très important dans la rencontre de partenaires : beaucoup de couples se formaient en rencontrant des amis d’amis ou sur des lieux de loisirs (comme les bars et restaurants). Désormais, la rencontre en ligne d’inconnus, qui n’appartiennent pas à des réseaux relationnels existants, est devenue le deuxième moyen le plus commun pour se rencontrer chez les partenaires hétérosexuels (et le premier chez les partenaires homosexuels).

« Les gens qui se rencontrent en ligne ont tendance à être de parfaits étrangers », expliquent les chercheurs responsables de l’étude, Josue Ortega de l’université d’Essex aux États-Unis et Philipp Hergovich de l’université de Vienne en Autriche, créant par là même des liens sociaux qui n’existaient pas auparavant. Les chercheurs ont construit des modélisations qui montrent que le développement de ce type de rencontre pourrait par exemple favoriser le développement du mariage interracial, mais également (sans que l’un soit lié à l’autre) favoriser à terme des mariages plus stables, notamment, comme le suggère la sociologue Nathalie Nadaud-Albertini pour Altantico, parce que ceux qui se rencontrent via ces outils se projettent ensemble dans un avenir commun, sans être influencé par le regard des autres. Les auteurs constatent d’ailleurs que le taux de mariage interracial aux Etats-Unis a progressé parallèlement au développement des sites de rencontre en ligne, notamment depuis le lancement de Tinder, qui compterait 50 millions d’utilisateurs et produirait quelque 12 millions de matchs par jour.

La fin du mariage n’est peut-être plus pour demain

MAJ : Attention cependant, comme le souligne ce très documenté article d’Alternatives Economiques, les rencontres en ligne semblent n’avoir pas d’effet positif sur l’homogamie, c’est-à-dire que « en ligne comme ailleurs, les rencontres amoureuses, loin de pouvoir être réduites à un simple marché, « font appel à des codes, des rituels et des manières de faire » qui continuent de différencier nettement les diverses catégories sociales. »

Catégories: Veille et actualités

#ET13 : la belle histoire est finie…

Blog e-tourisme - jeu, 19/10/2017 - 07:00

Comme hier, le blog est aujourd’hui tenue par un étudiant du Master AGEST de Bordeaux. C’est Marie qui nous raconte sa deuxième journée aux #ET13 sous le signe de la licorne… Comme la photo ci-dessous en témoigne, c’est un article mobile…

Hop un p’tit café et c’est parti pour la dernière journée des ET ! Qu’importe les mines fatiguées héritées d’une soirée ambiancée et cocktailisée, l’envie y est, les ateliers peuvent commencer…!

En plein air, certains n’hésitent pas à se mouiller pour aborder la place de l’habitant dans les stratégies de développement touristique. Vous aurez tous reconnu Guillaume Cromer, perché sur sa licorne !

Une fois séché, le cavalier émérite s’attelle à un nouveau défi : celui des 15 minutes chrono où il nous expose la magie et les risques de la tinderisation des professionnels de l’outdoor. S’en suivent les récits émouvants de Little Gipsy et Stéphane Canarias qui nous rappellent combien il est important de croire en nous et de nous donner les moyens de réaliser nos rêves.

Quittons le monde des paillettes. Cap vers la battle « Ma stratégie de contenu : du cousu main ou du fait maison ? » pour débattre du rôle des OT et des agences dans la création de contenu, où Ingrid Zeller, de l’agence ALPCAT, nous rappelle qu’il doit être en phase avec la promesse des destinations et où l’ensemble des participants souligne l’importance de l’expérientiel.

Les papilles satisfaites, il est déjà l’heure d’attaquer la dernière battle de ces #ET13 : « A-t-on encore besoin des SIT ? ». De ce débat d’actualité, nous retenons 3 enseignements :

  • Tabernacle ! Il faut prendre conscience du potentiel des SIT, comme le dit si bien Paul Arseneault « Ces données sont une mine d’or, et nous ne devons pas nous arrêter aux contraintes techniques »
  • A partir de cette matière première, il faut créer une vraie valeur ajoutée en qualifiant ces données
  • Mettre en place des actions pertinentes de gestion relation client

17h – Après un dernier tour dans les allées du Forum de l’Innovation, les portes du Palais se referment. Ils repartirent heureux et eurent beaucoup d’idées…

THE END

The post #ET13 : la belle histoire est finie… appeared first on Etourisme.info.

Catégories: Veille et actualités

Pour un rétro-Design de l’attention

Internet Actu - mer, 18/10/2017 - 07:00

La prise en compte de l’expérience utilisateur par les systèmes numériques pose la question de l’attention de ceux qui sont amenés à les utiliser. Comme l’a très bien pointé le designer Tristan Harris dans son article « Comment la technologie pirate l’esprit des gens », les services et produits numériques portent la question de la conception comportementale à des niveaux de sophistication inédits, notamment en s’appuyant sur l’exploitation de nos biais cognitifs et de nos interactions sociales, puissants moteurs d’activation de nos comportements. Il montre comment le design « capte », « accroche » les utilisateurs en stimulant leurs comportements.

Trop souvent, la seule réponse qu’obtiennent les utilisateurs à ces problèmes attentionnels est qu’elle relève de leur responsabilité, alors que des milliers de designers agencent toujours plus finement la frontière entre l’incitation et la manipulation, en façonnant chaque boucle de rétroaction du moindre de leurs outils. Les stratégies d’exploitation attentionnelle que produisent les concepteurs vont devenir de plus en plus visibles à mesure que de plus en plus d’outils vont les utiliser. Elles sont donc appelées à être de plus en plus critiquées, pointées du doigt… voire certainement régulées. En même temps, ces conceptions permettent aussi de les voir agir et nous offrent un outil inédit pour les décomposer, les analyser, les comprendre et agir collectivement sur leurs effets. Cela permet au vaste champ de l’économie de l’attention d’avoir enfin accès à des objets granulaires pour en construire une critique et donc des réponses ciblées.

L’angle du design pour observer l’économie de l’attention que pointe Harris est un levier pour comprendre et déconstruire ce qu’il se passe. Il permet également de reconstruire, de reconcevoir, ce qui a été conçu en pointant précisément les problèmes que cause la conception. Que changerait aux stratégies des concepteurs le fait d’avoir des systèmes attentionnellement respectueux des utilisateurs ? Qui permettent aux utilisateurs de gérer leur attention, de modifier les paramètres qui la façonnent, plutôt que de le faire pour eux ? Qu’est-ce que cela libérerait ? Quels nouveaux services et modèles économiques cela permettrait-il d’imaginer ?

Tel est l’enjeu du nouveau sujet que souhaite explorer la Fing : partir à la recherche de pistes d’innovation pour un design de l’attention responsable.

Il est temps de reprendre un train d’avance sur le rôle des utilisateurs dans l’expérience utilisateur qu’entreprises et institutions façonnent ! De redonner du pouvoir aux utilisateurs !

Révéler l’exploitation de notre attention

« Jamais jusqu’à présent une poignée de gens et d’entreprises n’ont façonné ce que pensent et ressentent 1 milliard de personnes chaque jour par les choix qu’ils font depuis leurs écrans. » – Trisan Harris, « Brain Hacking ».

En entr’ouvrant le monde de la captologie (ces techniques et technologies de la persuasion (du nom de ce laboratoire de l’université de Stanford ouvert en 1997 par BJFrog, héritiers des technologies du conditionnement théorisées par le psychologue BF Skinner, produisant des manuels et recettes de manipulation comme celles popularisées par Nir Eyal dans son livre Accroché : comment construire des produits addictifs…), Tristan Harris a dressé une première liste de « trucs », de secrets, d’astuces, de tours… utilisés par les concepteurs des services numériques qui favorisent – sans qu’on en soit nécessairement conscients – notre propre manipulation.

Autant de moyens utilisés qui expliquent en grande partie comment ces systèmes manipulent nos biais cognitifs, sociaux et comportementaux, comment ces systèmes nous rendent « accros », « dépendants », « compulsifs », « stressés », « anxieux« … Ces outils ne nous permettent pas par exemple de paramétrer nos choix : nous dépendons des objectifs que conçoivent les plateformes pour nous. Ces outils exploitent très bien notre besoin atavique de réciprocité et d’approbation sociale, transformant celui-ci en obligation : on like ceux qui nous likent. Ces outils instrumentent leurs interfaces pour nous faire passer le plus de temps possible dans celles-ci plutôt que de nous donner des moyens pour gérer nos besoins… Ils favorisent l’interruption instantanée pour générer de l’urgence, sans nous permettre de régler ni la cadence ni l’intensité des notifications et alertes… Plus largement, ils posent des questions sur le consentement des utilisateurs et la protection de leurs libertés.

La force du constat de Tristan Harris est de souligner combien dans l’alarme attentionnelle en cours, nous, utilisateurs, ne sommes pas coupables, mais victimes. Notre absence de maîtrise de soi ne relève pas de nos responsabilités quand, de l’autre côté de l’écran des milliers de personnes travaillent à nous faire perdre pied. Pour lui, « il y a un conflit fondamental entre ce dont les gens ont besoin et ce dont les entreprises ont besoin ».


Présentation réalisée pour la conférence Ethics by Design, mai 2017, posant quelques-uns des enjeux du sujet.

Le problème est que ce qui est important pour l’utilisateur est lié à ce qui est important pour l’entreprise : « la machine sur laquelle vous perdez votre temps est aussi celle que vous utilisez pour savoir si votre enfant est malade, vous ne pouvez donc pas l’éteindre ou la laisser derrière vous ». Effectivement, c’est en cela que la réponse par la déconnexion, qui incite chacun à se doter de pratiques vertueuses, oublie que l’hyperconnexion à laquelle nous avons succombé, malgré ses défauts, permet d’abord de nous libérer, de nous mettre en capacité, d’élargir les formes d’interaction sociale auxquelles nous aspirons. Notre hyperconnexion n’est pas une faute morale, mais est d’abord et avant tout un moyen de gagner en autonomie.

Reste que le design, du moins la conception centrée utilisateur, arme désormais notre désir d’autonomie contre nous-mêmes. La captologie est conçue pour nous « rendre volontaires ». Mais elle est, comme le pointait l’anthropologue Stefana Broadbent, un environnement coercitif de plus (après la salle de classe, les espaces de travail ou la maison…), pour contrôler notre attention. A mesure que le contrôle de notre attention se développe dans nos espaces informationnels, nous cherchons les moyens d’y résister pour conserver l’autonomie qu’ils nous offrent. Comme le soulignait le journaliste Alexis Madrigal : « une grande partie de notre connexion compulsive est le symptôme d’un problème plus important, pas le problème lui-même. »

Le numérique impose une transformation massive, industrielle, de nos process cognitifs et de nos rapports sociaux instrumentés par les technologies. De nouvelles formes de contrôle social, d’enfermement, entre l’incitation et la manipulation, entrent en scène. Invisibles, subtiles, anodines… Une « écologie » se met en place, sur laquelle nous avons peu de maîtrise, mais qui nudge, exploite et manipule nos comportements, nos biais cognitifs, nos capacités sociales, notre capital attentionnel… Cette transformation passe par une conception qu’il faut rétroéclairer.

La psychologie cognitive et l’économie comportementale – et notamment Daniel Kahneman – ont souligné combien nous étions psychologiquement et cognitivement sensibles à des erreurs d’appréciation multiples, à une intuition erronée, à une difficulté à décider… à ce que l’on a appelé nos biais cognitifs liés à la surinformation, au manque de sens, à la nécessité d’agir vite ou aux limites de notre mémoire. Notre cerveau semble fait pour être trompé sans que nous nous en rendions nécessairement compte. Nous sommes foncièrement manipulables. La conception des interfaces, l’expérience utilisateur, permet de créer une exploitation massive, industrielle, de ces biais. La fluidité des outils numériques permet de les adapter en permanence aux utilisateurs, de trouver les moyens de les « accrocher », de les « retenir »… d’exploiter et manipuler leurs comportements. « Il semblerait bien que la force de certains conditionnements invisibles logés au sein des programmes numériques soit de plus en plus puissante », comme le note le chercheur Anthony Masure dans sa thèse portant sur « le design des programmes ». Nous sommes désormais cernés de contraintes invisibles et qui s’imposent à nous, qui nous poussent à répondre, à interagir, à nous inscrire dans ce que l’anthropologue Natasha Schüll, l’auteur d’Addiction by Design, appelle « la zone de la machine », ce piège de la conception où le mécanisme lui-même devient le point, le coeur de son objet. Ce design de la dépendance qui nous rend toujours plus vulnérables à des formes de manipulation non conscientes.

Pour un rétro-Design de l’attention : le constat d’un dialogue nécessaire

Le constat que nous tirons de ces évolutions, c’est que les plateformes et les systèmes ne pourront pas contraindre sans limites l’utilisateur contre sa liberté. Qu’après nous être intéressés aux systèmes (via le groupe de travail Nos Systèmes), il nous faut nous intéresser aux interfaces.

Pour Natasha Schüll, nous ne pouvons pas demander aux entreprises qui conçoivent des interfaces qui ont pour but de retenir l’attention des gens, de favoriser « l’engagement », le temps passé dans leurs interfaces… de faire le travail éthique nécessaire, de définir leurs propres limites. C’est certainement à la réglementation de le faire. Les systèmes techniques disposent d’informations très détaillées sur les comportements des gens : ces données peuvent être utilisées pour intensifier l’emprise de ces environnements ou réduire les conduites addictives et compulsives. Tout le problème est de trouver un compromis entre les motivations, stratégies et modèles économiques des entreprises et celles des utilisateurs. Or, les objectifs des entreprises ne poursuivent pas les mêmes objectifs que leurs usagers.

Les interfaces qui calculent ce que les systèmes nous affichent ne sont pas tant optimisées pour personnaliser l’information ou pour améliorer notre propre capacité de traitement, comme on nous le raconte trop rapidement, que pour optimiser leurs propres objectifs. Facebook, comme les autres, vous affiche des informations augmentées de critères sociaux dans le but de vous faire rester le plus longtemps possible sur sa plateforme.Le moteur de recommandation de YouTube n’a pas pour fonction de recommander les meilleures vidéos selon les critères que chacun déterminerait, mais les vidéos sur lesquelles vous allez passer le plus de temps, selon des critères de fraîcheur (une vidéo plutôt récente) et de temps passé (une vidéo plutôt longue sur laquelle vous allez rester parce que d’autres sont restés longtemps sur cette vidéo). D’où le fait que l’interface de YouTube développe ses propres biais, qu’elle soit tout sauf neutre, et qu’elle recommande des contenus plus polémiques que d’autres, comme l’a montré Algotransparency. L’exploitation de notre anxiété, les pages sans fin, les flux infinis, les vidéos qui se lancent toutes seules… n’ont pas pour objectifs de vous fournir des informations qui collent à votre personnalité, mais de produire des calculs depuis notre personnalité pour mieux exploiter les contenus et les propositions que nous font ces services.

Tristan Harris lui-même, qui était designer de l’éthique chez Gmail, a proposé d’améliorer la boîte de réception de Gmail afin que les utilisateurs aient plus de contrôle et d’autonomie sur celle-ci, afin qu’ils puissent en gérer les paramètres pour en améliorer la commodité et leur bien-être. Google ne l’a visiblement pas écouté. Il a lancé Inbox, une évolution de Gmail, qu’il n’a pas réussi à imposer. Il faut dire qu’Inbox n’évacue pas le stress, la fatigue et la charge attentionnelle que génère le courrier électronique. Au contraire. La pratique de l’Inbox zéro, consistant à tenir sa boite e-mail… vide, a valorisé une forme d’hypercontrôle, qui ne permet ni de mieux formuler nos e-mails, ni de mieux maîtriser le temps toujours plus important que nous sommes contraints de leur dédier. L’absence d’accès à des possibilités de réglage et la pratique de l’Inbox zéro nous mobilisent seulement sur la manière dont veulent nous mobiliser les entreprises. En passant à Inbox, Google souligne que son objectif n’est pas le nôtre. Que son modèle reste basé sur des métriques d’engagement et de croissance et qu’elles passent par des formes toujours plus sophistiquées de manipulation des utilisateurs. Pire : plus nous consacrons du temps au courrier électronique plus la perception de sa productivité s’abaisse alors que le stress qu’il génère augmente. Les personnes qui contrôlent leur courrier électronique par des interruptions volontaires ont le sentiment d’avoir une productivité plus élevée alors que le temps de traitement de leur courrier est souvent plus long que ceux qui répondent immédiatement aux sollicitations. L’exploitation de nos biais cognitifs fonctionne à fond. Et nous n’avons pas la main ! Inbox veut nous faire lire tous nos e-mails. Mais est-ce vraiment ce que nous nous voulons ?

Ces évolutions conçues par-devers l’utilisateur pour son plus grand bien l’oublient à mesure qu’elles cherchent à mieux le servir. « Rien pour nous sans nous », clame la règle du co-design, cette conception participative. Nous nous en éloignons. Il est certainement temps de remettre < a href="http://strabic.fr/l-usager-au-pouvoir">l’usager au pouvoir.


Image : Quelques formes d’exploitation de nos vulnérabilité….

Le problème, de surcroît, c’est que la frontière entre l’incitation et la manipulation est poreuse. Pourtant, rappelle la psychologue Liane Davey en observant les interfaces de travail des chauffeurs d’Uber, si l’utilisateur « n’a pas l’option de dire « non », ce n’est pas une motivation, mais une coercition ». En obscurcissant le but et l’existence de ces programmes de motivation ludiques et séducteurs, en supprimant ou limitant la capacité du conducteur à les contrôler ou à les décliner, le système demeure conçu pour maximiser les résultats de l’entreprise au détriment des conducteurs. Pour la psychologue, les interfaces d’Uber ont franchi une ligne rouge visant à « manipuler le comportement même des chauffeurs au service de la croissance de l’entreprise ». Le problème est que ce n’est pas la seule entreprise à avoir franchi la ligne rouge. Et tout l’enjeu est de parvenir à la délimiter à nouveau.

C’est en exerçant un rétro-design, une observation et une analyse des interfaces, c’est-à-dire en observant la manière dont le comportement de l’utilisateur est instrumenté, « rendu productif », manipulé, que nous pourrons comprendre ce qui se trame. C’est en décortiquant les expressions de la captologie que nous pouvons aider les utilisateurs à reprendre la main, à faire une critique qui va permettre de retrouver le sens de l’innovation. Le design doit réengager un dialogue avec l’utilisateur. L’entreprise doit réinterroger son lien avec ses clients. Si l’expérience est au coeur de son offre, alors permettre à l’utilisateur de construire sa propre expérience plutôt que de lui en imposer une, est certainement un nouveau levier d’innovation pour nous permettre de dépasser les limites dans lesquelles les interfaces sont en train de s’enfermer.

La question que posent ces systèmes qui optimisent leur propre optimisation relève bien d’un problème éthique. Quelles formes de régulation imaginer qui soient plus respectueuses de l’attention des usagers, qui les aident à développer leurs propres objectifs plutôt que d’être contraints par ceux qui conçoivent les systèmes pour eux ? Nous avons besoin d’innover depuis d’autres valeurs que la compétition ou la prédation, en privilégiant par exemple l’autonomie, la résilience, la capacitation ou l’empathie. Cette “écologie de l’attention » dont parle Yves Citton, reste à inventer, afin d’ouvrir les paramètres à un meilleur contrôle des utilisateurs… Nous avons besoin d’une innovation centrée sur, pour et par les utilisateurs.

Comment ? Loin de nous d’avoir déjà les solutions, au mieux peut-on tenter d’en esquisser quelques-unes qui mériteraient d’être travaillées… Mais ce qui est sûr, c’est que le changement d’échelle dans la manipulation des utilisateurs risque, à terme, de créer de la défiance et du rejet. A moyen et long terme cette défiance risque de s’accélérer à mesure que ces techniques vont se développer d’une manière industrielle, qu’elles vont apparaître comme plus visibles, plus massives et plus toxiques. Notre sensibilité à la captologie sera-t-elle la même quand tout le monde l’utilisera ?

Ce qui semble sûr c’est que ce sujet semble plus à même demain de s’inscrire dans l’agenda des régulateurs, notamment parce que la question de la manipulation de l’attention en devenant sociale et en s’inscrivant au coeur des outils numériques – et notamment de nos outils de travail – adresse des questions auxquelles la société devra répondre. Si, comme le soulignait le prospectiviste Kevin Kelly, l’avenir est cognitif (et il n’évoquait pas là que la question du développement de l’intelligence artificielle), nous devons prendre au sérieux ces enjeux. Pour poser ces questions d’une manière plus ouverte aux concepteurs d’interfaces et aux entreprises, d’une manière qui invite plus à la réponse qu’à la critique, on pourrait se demander alors ce que changerait aux modèles d’affaires des entreprises le fait que leurs applications soient respectueuses de l’attention des utilisateurs ? Quelles opportunités d’affaires nouvelles cela ouvrirait-il ?

Le projet de la Fing : pour une attention responsable

L’enjeu de ce programme de recherche-action est d’observer ce point de croisement entre l’exploitation de nos comportements et la façon dont les interfaces les implémentent. Notre travail consistera à recueillir des critiques. À faire travailler des utilisateurs à démonter les fonctionnalités qui leur sont proposées. À observer comment les systèmes contraignent les utilisateurs, avec l’aide de spécialistes en psychologie cognitive et en design notamment. À produire des grilles d’analyse des interfaces sous forme de pistes d’innovation permettant de produire des valeurs partagées pour construire une nouvelle relation entre les utilisateurs et les concepteurs.

Méthode : déroulé de l’expédition
Un travail de veille, de rencontres d’acteurs et de chercheurs et de scénarios extrêmes permettra de regarder en profondeur ce sujet pour en produire des pistes d’innovation via un cahier d’enjeux. La Cnil, associée à cette expédition, explorera la question de la régulation de l’attention, en proposant un benchmark international des outils de régulation. Des spécialistes des sciences cognitives (notamment l’association Chiasma) en coopération avec des designers viendront éclairer la manière dont nos biais comportementaux sont exploités et la manière dont ils se traduisent dans des interfaces.

Avec la contribution d’étudiants, un travail d’analyse de la conception d’une sélection d’interfaces sera produit pour en comprendre les mécanismes. À partir duquel, de nouvelles conceptions seront proposées en retour pour montrer comment les interfaces pourraient prendre en compte d’autres valeurs. L’un des livrables attendus de cette expédition est la réalisation de “proof of concept” (POC) afin de montrer qu’une autre conception est possible.

L’enjeu, est enfin de mobiliser des étudiants en design, en psychologie sociale, mais aussi des étudiants en communication pour lancer une grande campagne de sensibilisation autour de ces enjeux de la conception.

Notre objectif est de faire monter en compétence tous les acteurs de l’innovation sur ces questions, notamment pour anticiper les questions de régulation qui se poseront.

Pour assurer ce travail, nous sommes à la recherche de partenaires qui souhaitent s’investir sur ces questions.

Des organisations et entreprises qui souhaitent :

  • participer activement aux ateliers et réflexions que nous organiserons ;
  • proposer un terrain d’observation et d’expérimentation (une interface, une application, un système, un service…) ouverte aux interventions de nos experts et d’étudiants.

Des écoles qui souhaitent :

  • comprendre ces enjeux et les faire réinterroger par leurs étudiants.

Pour plus d’information, nous vous invitons à consulter le dossier de présentation de notre groupe de travail. Et à rejoindre l’espace de discussion que nous ouvrons sur Facebook.

N’hésitez pas à nous contacter

Hubert Guillaud et Véronique Routin
hubertguillaud@gmail.com & vroutin@fing.org


Dossier de partenariat.

Catégories: Veille et actualités

Le jeu comme outil d’autoréalisation

Internet Actu - mar, 17/10/2017 - 12:00

Les jeux vidéo satisfont les besoins humains fondamentaux ! C’est ce qu’affirme le journaliste et écrivain Simon Parkin (auteur du livre Death by video games : Danger, Pleasure, and Obsession on the Virtual Frontline) dans un récent article pour la revue Nautilus.

Et Parkin de commencer son texte en nous parlant de… Grand Theft Auto, jeu souvent qualifié d' »immoral » qui n’apparaît pas comme un exemple de satisfaction de nos besoins fondamentaux. Du moins on l’espère. Or, nous dit Parkin, les multiples actions peu sympathiques qu’on est susceptible d’accomplir au sein de ce jeu ne sont pas nécessaires pour gagner. Ce sont juste des choix possibles au sein d’un univers virtuel qui offre bien d’autres opportunités. En se sens, un jeu comme Grand Theft Auto ne fait que matérialiser notre conception du monde et nos attentes. « Si vous êtes plein de haine dans le monde réel, le jeu fournit un espace dans lequel agir avec haine. »

Parkin déterre un article de 1996 sur les MUDs (pour Multi-User Dungeon), écrit par Richard Bartle, un chercheur en intelligence artificielle qui fut aussi l’un des premiers concepteurs de ce type de jeu. Rappelons que les MUDs furent, dans les années 80-90, le prototype des MMORPGs, les univers de type World of Warcraft. Dans des univers virtuels existant la plupart du temps exclusivement en mode texte, les joueurs vivaient les aventures de leur « avatar » dans un univers de fantasy ou de SF.

Dans son papier, Bartle distingue 4 types de joueurs : les « tueurs », les « performants », les « socialisateurs », et les « explorateurs ». Or, selon Bartle, les joueurs conserveraient ce trait de caractère, quel que soit le jeu auquel ils s’adonnent : les socialisateurs chercheraient avant tout le contact avec leurs partenaires, les tueurs à massacrer tout ce qui bouge, les performants à réussir les épreuves et à accumuler les récompenses, les signes de victoires (badges, or, etc.), les explorateurs à prendre connaissance du monde virtuel…

Ainsi nous explique Parkin, Bartle aurait constaté qu’un joueur adoptant le rôle d’un médecin dans un jeu de rôle afin de soigner les autres personnages aura tendance à exercer la même profession, quel que soit l’univers dans lequel il est impliqué.

Pour Parkin, cela montre que les jeux cherchent avant tout à révéler notre personnalité, le plaisir, le « fun » ne seraient pas la motivation principale du « gamer » – je suppose que cette théorie ne s’applique pas à Bubble Shooter ! Pour appuyer sa thèse, Parkin mentionne un travail de 2012, effectué par cinq psychologues, « The Ideal Self at Play : The Appeal of Video Games That Let You Be All You Can Be » (« Le Soi Idéal en jeu : l’attrait des jeux vidéo qui vous permettent d’être tout ce que vous pouvez être »). Ces chercheurs affirmeraient que les jeux vidéo les plus réussis sont ceux qui permettent au joueur d’incarner la version la plus satisfaisante, la plus épanouie de sa propre personnalité. « Les gens sont attirés par les jeux vidéo parce que ceux-ci leur offrent l’accès aux aspects idéaux d’eux-mêmes ».

Et Parkin de citer un propos de Bartle : « L’auto-actualisation se trouve au sommet de la hiérarchie des besoins de Maslow, et c’est cela que de nombreux jeux nous offrent… C’est tout ce que les gens désirent vraiment : être. »

Catégories: Veille et actualités

Les jeux vidéo faciliteraient l’apprentissage

Internet Actu - mar, 17/10/2017 - 07:00

Encore une recherche qui devrait réconcilier les parents avec les jeux vidéo. Cette fois, il semblerait que les jeux vidéo accroissent la capacité d’apprentissage. Une équipe allemande a en effet soumis deux groupes de 17 personnes, l’un constitué de joueurs et l’autre de non-joueurs, à une tâche d’apprentissage, le tout bien sûr sous le contrôle de l’inévitable IRM.

La tâche soumise aux sujets était un test assez connu en science cognitive, la « prédiction de la météo ». On soumet au volontaire une série de trois cartes contenant des symboles abstraits. Chaque combinaison de cartes indique une probabilité de « pluie » et de « beau temps ». Bien entendu, le participant ignore au commencement la signification des symboles qui s’affichent devant lui, il doit donc deviner, au début complètement au hasard, ce que prédisent les combinaisons de cartes. Mais au fur et à mesure, il apprend à discerner la signification des symboles et le résultat associé à chacune des combinaisons. Un tel test permet de mesurer la vitesse à laquelle on apprend à mesurer une probabilité.
Résultat, les joueurs se sont montrés bien plus rapides et efficaces pour effectuer cet apprentissage. Ils auraient également été capables de mieux se débrouiller avec les situations de « haute incertitude », c’est-à-dire lorsqu’une combinaison de cartes indiquait des probabilités de « pluie » ou de « beau temps » de l’ordre de 60-40. Pour Sabrina Schenk, l’auteur de la recherche : « Notre étude montre que les joueurs sont plus performants pour analyser une situation rapidement, générer de nouvelles connaissances et catégoriser les faits – en particulier dans les situations à forte incertitude ».

De plus, après l’expérience, on a donné aux participants un questionnaire à remplir. Il s’est avéré que les joueurs avaient plus de facilité à expliquer leurs choix que les non-joueurs. D’après les analyses IRM, les joueurs auraient développé une plus grande activité de l’hippocampe, une zone du cerveau liée à la mémoire. Toujours selon Sabrina Schenk, « un tel phénomène n’est pas seulement important pour les jeunes, mais également pour les personnes âgées ; car des changements dans l’hippocampe peuvent entraîner une diminution des performances de la mémoire. Peut-être qu’à l’avenir nous pourrons utiliser les jeux vidéo pour traiter ce genre de problèmes ».

Catégories: Veille et actualités

#ET13 : Les start-up à l’école de Pau

Blog e-tourisme - mar, 17/10/2017 - 07:00

Les #ET13 ont débuté ce lundi à Pau sous un magnifique soleil avec plusieurs évènements préalables. Pour la première fois, les start-up de la région Nouvelle-Aquitaine ont pu bénéficier d’une Masterclass spécial tourisme. 

Quel est l’objectif de ce type d’évènement? Rapprocher le monde du tourisme et celui des start-up, de manière à ce que ces dernières comprennent mieux les attentes des donneurs d’ordre et les nécessités du marché.

Il y a déjà une certitude : les principales innovations touristiques de ces vingt dernières années ont été portées par des acteurs hors-tourisme : que ce soit AirBnB ou Tripadvisor, le tourisme évolue grâce à l’irruption de nouveaux joueurs. D’où l’intérêt pour les acteurs institutionnels du tourisme comme les entreprises privées de profiter de l’énergie des start-up.

La Masterclass a donc permis à plusieurs dizaines de startuper de profiter du témoignage et des conseils  d’institutionnels du tourisme et du privé.

Institutionnels du tourisme : apprendre à les connaître

Premier enseignement pour une start-up qui veut travailler avec les institutionnels du tourisme : mieux les connaître. Mon intervention au début de cette masterclass avait comme objectif de faire prendre conscience du quotidien des acteurs institutionnels du tourisme. Conseil pour une start-up : bien repérer la tête de réseau, et s’appuyer sur la connaissance du marché de son interlocuteur!

Masterclass ET13 Jean-Luc Boulin from Jean-Luc Boulin

 

Grégory Guzzo, directeur de l’office de tourisme de Val Thorens a rassuré les participants tout en refroidissant leur enthousiasme : « la bonne nouvelle c’est que si vous êtes une start-up et que vous vous lancez dans le tourisme, c’est un secteur en expansion. La mauvaise nouvelle, c’est que c’est super concurrentiel »

Pour Grégory, il y a un « bon filon » sur lequel une start-up peut investir : travailler sur la fidélisation des clientèles. Car cela revient de 5 à 7 fois moins cher de garder un client que d’aller en chercher un nouveau.

  Les bot sont à sept lieues de nous

Conseil des directeurs d’offices de tourisme aux start-ups : partez de besoins identifiés et n’essayez pas de réinventer l’eau tiède. Comme le dit Grégory Guzzo, « halte à la banalisation : je reçois 5 emails de start-up chaque jour, si c’est pour réinventer la choucroute, je n’ouvre pas!« 

Oivier Occelli, d’Only Lyon, explique : « ça fait dix ans que je travaille pour Only Lyon, que je rencontre des start-up et que je vois souvent qu’elles n’ont pas la bonne approche« 

Pour lui, trop de porteurs de projets s’enferment dans des projets voués à l’échec : « ce n’est pas parce qu’une appli est plébiscitée par les amis ou la famille qu’elle sera vouée à la réussite« 

Si une start-up arrive dans son bureau avec une innovation uniquement technologique, il reste très méfiant : « attention aux innovations technologiques de type NFC, RFID ou QR code… ça ne marche que pour la billeterie, les titres de transport, les paiements ou les city cards« . C’est comme les bots, rajoute Olivier : « ça marchera dans dix ans. Mais aujourd’hui ce n’est pas mur… »

  Une bonne idée pour un service simple

Cependant Grégory Guzzo comme Olivier Occeli attestent de la réussite de start-up, lorsqu’elles proposent des services clairs et précis en restant le plus simple possible. En claire une bonne idée égale un bon service; Olivier Occelli donnent deux exemples hyppocketwifi, ou swikly que l’office de tourisme de Lyon a accompagné. La première start-up propose un système de wifi de poche pour les voyageurs internationaux. Swikly développe un produit à destination des hébergement des petite taille pour simplifier le dépôt de caution. Les deux ont été accompagnés par l’office car le produit correspondait à une idée simple et utile et qui fonctionne.

Les start-up peuvent s’intégrer totalement dans un projet de développement touristique local, comme en Val de Garonne. Dans ce territoire rural, expliquait Marion Oudenot, chargée de développent, l’office de tourisme a contractualisé avec 6 stations différents pour développer de l’offre locale. Un exemple que j’avais déjà présenté dans cet article du blog :  l’office de tourisme start-up. La conclusion de Marion, : la réussite des concepts issus de l’économie collaborative repose sur la confiance.

 

 

Et le privé, c’est différent?

Après des témoins du secteur public, plusieurs grands acteurs privés du tourisme ont témoigné de leur rapport au start-up, comme François Bitouzet de Voyage SNCF, Eric Mercori de la Cité de l’Océan de Biarrite ou encore Dominique Hummel, directeur du Futuroscope. 

Les start-up présentes ont pu être rassurées : les enjeux du public et du privé ne diffèrent pas fondamentalement lorsqu’il s’agit d’innovation. Comme expliquait François Bitouzet, « le rapport au temps est fondamentalement différent entre la start-up et l’entreprise : d’un coté le court terme, la souplesse, de l’autre coté, la planification, et le moyen et long terme. »

Pour Eric Mercori, de la Cité de l’Océan, les entreprises ont aujourd’hui la difficulté de créer de l’innovation à faible coût ; ici la start-up a un avantage indéniable qui lui donne une longueur d’avance sur la grosse entreprise.

Mais les représentants du privé précisent, tout en racontant plusieurs anecdotes de rendez-vous avec des start-up : « Les grands acteurs du tourisme ne sont pas des vaches à lait, des gogos et des bienfaiteurs. Ils sont des grands comptes, un ticket pour la crédibilité et des soutiens puissants. Non, un grand acteur ne va pas donner l’ensemble de ses données clients avec en plus le sourire. »

Au final, grâce à cet échange qui s’est poursuivi sur un speed dating, les start-up du tourisme ont pu appréhender le désir des acteurs du tourisme de les voir à coté d’eux, mais aussi leur retenue à travailler avec des structures agiles et innovantes. Dans ce grand « je t’aime moi non plus », c’est sans doute aux petites structures à faire acte de séduction auprès des interlocuteurs les plus établis…

Les #ET13, c’est à suivre toute la semaine à Pau et en live…

 

The post #ET13 : Les start-up à l’école de Pau appeared first on Etourisme.info.

Catégories: Veille et actualités

L’Office de Tourisme de Lourdes cultive les apparitions à 360 degrés

Blog e-tourisme - lun, 16/10/2017 - 07:00

Vous avez certainement observé la performance et la compétitivité des nouvelles caméras 360° de Ricoh qui capturent des photos et vidéos sphériques en une seule prise. Pas de promo du matos ici, mais un usage touristique optimal à envisager. Google s’en est emparé et a commencé à solliciter des destinations pour qu’elles produisent des vidéos à 360 degrés.
Alors que s’ouvrent les tonitruantes et vivifiantes ET13 dans la bonne ville de Pau, je donne la parole ce matin dans cette vidéo à Cédric Arnault en charge de la promotion communication à l’OT de Lourdes, miraculeuse destination bénéficiaire de cette opportunité.

Cédric, peux-tu contextualiser la demande ?

Durant l’été j’ai été contacté par un chargé de compte Google qui nous a demandé si nous étions intéressés à travailler avec eux sur Google Map/Street View/My Business en faisant une actualisation des POI de notre territoire. Nous avons donc travaillé dans un premier temps à un recensement des POI touristiques (restauration, hébergement, sites touristiques…). Cela représente chez nous tout de même plus de 500 fiches en comptant les doublons…
Le premier travail a consisté à supprimer les offres obsolètes ainsi que les doublons. Le deuxième, en cours, est de valider les fiches My Business non revendiquées avec les propriétaires des POI concernés. Nous en profitons également pour enrichir leurs fiches avec des médias.

Afin de remplir la tâche sur le terrain, nous disposons d’un kit d’équipement remis par Google et constitué par :
-1 caméra 360° Ricoh Theta S
-1 perche télescopique
-1 trépied
-1 système d’attache pour caméra pour poser éventuellement sur 1 casque

En plus de l’équipement « physique » nous avons téléchargé l’application « Trusted Verifier » qui nous permet de vérifier les comptes Google My Business en personne, plus besoin d’attendre par exemple le courrier postal de Google. En revanche cette vérification nécessite notre présence chez le prestataire, elle ne peut être effectuée à distance.
L’utilisation de la caméra nous permet également d’enrichir l’application Google Street View.

Dans un deuxième temps Google nous a également proposé de bénéficier d’une caméra 360 mobile pour véhicule afin de couvrir les rues manquantes de Lourdes…Affaire à suivre !

Hall du départ du funiculaire du Pic du Jer Et ça coûte combien cette affaire ?

Il n’y a aucun coût financier pour cette opération. Le kit Google est fourni pour environ 3 semaines. La seule contrainte est de disposer d’un téléphone sous Androïd.
Cela nécessite toutefois la mobilisation des équipes pour le recensement des POI (opération faite manuellement) et bien sûr le travail sur le terrain pour la validation.

Nous sommes toujours en cours de travail sur cette opération, il est difficile de tirer des premiers résultats mais nous y trouvons des avantages. Nous avons pris le temps de recenser les POI présents et ainsi avoir une cartographie claire de la présence de l’ensemble des prestataires sur l’outil Google My Business. Nous enchaînons donc désormais sur la sensibilisation et l’aide à la prise en main de l’outil Google My Business, une action qui rentre complètement dans notre mission d’animation numérique !

Cela conforte-t-il la démarche collaborative conduite sur les contenus à l’OT de Lourdes ?

Actuellement nous sommes à 11 ETP répartis en 3 services Administration, Promo Comm et Accueil. Nous avons souhaité faire évoluer notre projet web en impliquant au maximum l’ensemble de l’équipe afin que chacun participe à la vie du site internet et pas seulement en remplissant une base de données…

Nous nous sommes donc lancés dans de la création de contenus personnalisés, quelque chose de primordial selon nous pour donner de la visibilité et de l’attractivité à notre territoire. Ce choix est également dicté par les statistiques de fréquentation de notre site internet : les internautes arrivant sur le site www.lourdes-infotourisme.com sont à la recherche d’activités.

Le projet de création de contenus a été très bien accueilli par l’ensemble de l’équipe et la grande majorité a déjà produit ou participé à la création de contenus vidéos ou écrits.

Chaque personne a une totale liberté dans la création d’articles. Aucun jugement n’est fait sur le style d’écriture ou la prise de vues. Nous donnons toutefois quelques conseils, mettons à disposition du matériel mais laissons libre court à chacun quant à la thématique choisie. L’idée est de raconter son territoire que l’on soit seul, en famille ou entre amis…
Les articles sont déposés sur un Drive et nous nous réunissons régulièrement avec toute l’équipe pour parler des dernières productions et les valider. Derrière, une réécriture peut intervenir avant la mise en ligne.

Où en êtes-vous en termes de production et d’audience ?

Aujourd’hui nous avons publié 7 articles mais en avons autant en réserve et en attente de publication. Nous avons également réalisé 8 vidéos mettant en valeur les atouts de la destination autour du thème « Changez votre point de vue sur Lourdes ». Plusieurs personnes de l’équipe ont participé aux différents tournages. Ces vidéos, de format court, ont été partagées essentiellement sur notre page Facebook et vont être intégrées dans notre site internet.

Au niveau des statistiques, nos publications ont permis de toucher plus de 70.000 personnes sur Facebook.
Sur notre site internet, ces publications ont générées environ 3600 visites.
L’intégration de certains contenus sur des outils de carto de type Cirkwi est également prévue à l’hiver toujours dans un souci de visibilité. Nos contenus seront intégrés dans un calendrier de publication Google et publiés via les posts Google.

The post L’Office de Tourisme de Lourdes cultive les apparitions à 360 degrés appeared first on Etourisme.info.

Catégories: Veille et actualités

Focus groupe mode d’emploi : interrogez vos clientèles

Blog e-tourisme - ven, 13/10/2017 - 08:00

Vendredi 13 … Pas de panique pas de mauvaises prédictions aujourd’hui, bien au contraire ! Nous allons partir dans le monde enchanté de vos destinations à l’écoute de vos clientèles avec ce DIY (comprenez Do It Yourself) sur les focus groupe. Un guide pratique pour organiser vous-même un groupe de parole et définir les besoins et les attentes de vos clientèles.

1 : Qu’est-ce qu’un focus groupe ?

Un focus groupe est un groupe de parole animé qui va vous servir à interroger les clientèles que vous souhaitez sur un thème précis. Dans le cadre de la commission prospective et développement d’Offices de tourisme de France des focus groupe ont été organisés pour co-construire ensemble l’office de tourisme du futur par exemple. Les focus groupe peuvent être à destination des habitants, des touristes, des prestataires touristiques du territoire, de l’équipe de l’office de tourisme et même des non usagers des offices de tourisme. L’essentiel est de trouver comment approcher la clientèle qui vous intéresse pour lui proposer de participer à votre focus groupe.

2 : Comment s’organiser ?

Vous avez défini votre cible et la thématique de votre focus groupe ? Passons maintenant à la définition de l’échantillon. Votre focus groupe doit se composer d’un nombre impair de personnes que nous appelons les « sujets ». La parité doit être au maximum respectée. Toutes les catégories d’âge doivent être représentées. Bien évidemment ces informations varient en fonction de votre projet. Un focus groupe minimum doit pouvoir compter entre 5 et 7 sujets pour qu’il soit suffisamment représentatif. Ces sujets sont anonymes. Pour cela il est nécessaire de préparer des fiches d’identité où vous pourrez récolter les informations principales de la personne (sexe, activité professionnelle, ses coordonnées …) en fonction de vos besoins. Une autre fiche avec le numéro du sujet et sa vraie identité (nom et prénom) vous aidera à les recontacter pendant l’analyse si jamais un détail vous échappe.

Vous avez défini votre panel ? Parfait ! Il faut réfléchir maintenant à l’endroit où vous voulez intervenir. Si vous souhaitez interroger des touristes qui passent par l’office rien ne vous empêche de l’organiser directement dans vos locaux. Dans le cas où ce sont les non usagers des offices de tourisme qui vous intéresse, privilégiez des lieux plus neutres où vous êtes sûr de les capter. N’hésitez pas non plus, si jamais votre territoire est multiple, à organiser des focus groupe en zone rurale, semi-rurale ou urbaine. Les sujets n’auront pas forcément la même approche en fonction de leur lieu de vie ou de passage. Pensez également au jour, à l’heure et à la durée de votre focus groupe. Prévoyez en moyenne 2h30 d’animation pour un focus groupe 5 personnes.

3 : La préparation :

Vous avez votre sujet, votre panel auquel vous avez transmis l’heure et la date du rendez-vous. Il faut maintenant s’organiser. Dans le cadre d’un atelier d’expression ou de créativité, n’hésitez pas à utiliser des post it de différentes couleurs et à vous renseigner sur les méthodes d’animation qui sortent de l’ordinaire.

Certains sujets du groupe ont du mal à s’exprimer devant une feuille blanche ? Organisez votre atelier avec des moments individuels, en binôme ou en groupe.

Vous voulez interroger des employés de la structure pour définir ensemble votre futur office de tourisme ? Prévoyez des illustrations d’atmosphères, de lieux modernes que vous accrocherez au mur pour laisser le regard de vos collègues s’y arrêter. Inconsciemment les illustrations sont des supports cognitifs qui aident à la créativité.

4 : Comment récolter l’information ?

Idéalement l’atelier doit se dérouler à deux : un leader, un observateur. Le leader va animer l’atelier en poussant les sujets à creuser leurs réflexions. L’observateur va lui prendre des photos, s’occuper de l’enregistrement vidéo, prendre des notes et « timer l’intervention ». Timer l’intervention c’est relever à l’aide d’un chronomètre le moment exact auquel une idée importante est ressortie. Cela permettra au leader qui analysera par la suite la séquence vidéo de retrouver facilement les grandes idées. Pour l’analyse la vidéo est très importante. En plan fixe, cela permet de relever des verbatims mais également d’observer les comportements des sujets pendant le focus groupe. Pour vous assurer d’être en règle, une décharge doit être distribuée aux sujets des focus groupe pour les avertir de l’utilisation des photos et des vidéos et obtenir l’accord de diffusion si jamais vous en avez besoin. Réécouter l’intervention peut être une aide supplémentaire précieuse également. Parfois, des idées fortes ressortent à l’oral mais pas à l’écrit.

5 : Le déroulé :

Lors du déroulé de votre focus groupe n’oubliez pas vos documents (fiche identité, fiche sujets, fiche décharge), votre caméra, votre appareil photo et vos outils de travail en fonction de l’atelier que vous avez décidé de réaliser (post it, paper board, illustrations …). Organisez votre focus groupe en mettant vos sujets à l’aise : boissons chaudes, gâteaux, bonbons … l’accueil est primordial. Cette séance de travail pour vous ne doit pas être vécue comme un test d’évaluation pour eux. N’oubliez pas non plus de prévoir une compensation pour les sujets qui ont donné de leur temps et de leurs idées. Un assortiment de produits locaux, une activité chez un prestataire, un bon cadeau … Prévoyez environ 20 euros de compensation (moins ou plus, c’est à vous de jauger).

6 : L’analyse

L’analyse est un moment chronophage mais accordez vous du temps pour bien la réaliser.  Vous aurez de multiples supports à écouter, revisionner, relire pour étayer votre analyse. Elle doit être accompagnée de verbatims pour illustrer vos points clés. Une fois finie, faites relire votre analyse par l’observateur qui complètera le document de son point de vue externe à la séance.

A la fin de votre focus groupe vous aurez eu l’occasion de discuter, échanger, construire pendant plusieurs heures avec les clientèles qui vous importent. L’analyse vous donnera des orientations précieuses sur les améliorations ou changements à apporter en fonction de votre projet. Mais surtout vous aurez pris du temps pour replacer le client au cœur de vos services afin d’améliorer vos prestations ou votre qualité d’accueil. Et ça, ça n’a pas de prix !

The post Focus groupe mode d’emploi : interrogez vos clientèles appeared first on Etourisme.info.

Catégories: Veille et actualités

Le progrès n’a pas encore tout à fait disparu !

Internet Actu - jeu, 12/10/2017 - 07:00

A l’occasion de la publication de la traduction en français de son livre paru aux États-Unis en 2011, La part d’ange en nous : histoire de la violence et de son déclin, Steven Pinker (@sapinker) était de passage à Paris. Le professeur de psychologie à l’université Harvard, spécialiste de la cognition et de la psychologie du langage donnait une conférence à l’École nationale supérieure d’arts et métiers.

Le moine bouddhiste Matthieu Ricard, qui a écrit plusieurs livres sur l’altruisme et qui signe la préface de l’édition française, introduisait et traduisait la conférence. « Le fait que Steven Pinker nous ait appris, à rebours des idées reçues, que le monde est moins violent aujourd’hui qu’hier permet de changer notre regard sur la violence ». Nous avons trop souvent une vision catastrophique ou apocalyptique de l’histoire, comme de la nature humaine. « On ne cesse de nous répéter que toute motivation humaine serait égoïste par nature, sans qu’aucune étude scientifique ne le corrobore. Nous avons besoin de connaissances pour remettre en cause nos idées reçues et oeuvrer ensemble à un monde meilleur. Et c’est ce que nous offre Steven Pinker avec ce livre. »

Durant deux heures, le fringuant Steven Pinker résume pas à pas son livre, projetant les mêmes slides un peu désuètes que celles qu’il projetait déjà en 2011 (comme c’était le cas dans ce long exposé qu’il donnait à The Edge par exemple, sauf qu’il les tient à jour, montrant que les courbes qu’il dessine continuent leur tendance, même depuis 2011).


Une présentation de Steven Pinker assez proche de celle utilisée par Pinker sur la scène de l’Ensam.

Les causes du recul de la violence : le développement des États !

La thèse de Pinker est simple. La violence décline depuis longtemps et n’a cessé de diminuer. Malgré tout ce que l’on pense souvent, elle est aujourd’hui a son plus bas niveau. Si le chercheur est prudent (rien ne nous dit que la tendance continuera indéfiniment ni qu’on puisse l’amener à un niveau zéro demain), reste que la tendance que l’on peut constater à différentes échelles est nette, marquée, claire. Il distingue 6 formes différentes du déclin de la violence. Tout d’abord, il y a ce qu’il appelle le « processus de pacification ». Ce processus se mesure en tentant de mesurer la part des morts violentes dans les décès. Les archéologues et les historiens ont tenté de mesurer le niveau de mortalité violente à travers les âges. En regardant, par exemple, dans les sociétés préhistoriques, la proportion de squelettes comportant des signes évidents de morts violentes. On estime que dans les sociétés préhistoriques, on compterait environ 20 % de morts violentes. Nous sommes bien loin des résultats des sociétés occidentales, où la mort violente serait environ 3 % pour le monde au 20e siècle, de 0,6 % pour l’Europe et les États-Unis au 20e siècle et de moins de 0,01 % pour le monde depuis 2005. Des enquêtes historiographies et ethnographiques montrent même que les sociétés traditionnelles, dépourvues d’État, étaient effectivement plus violentes que les sociétés organisées.

La première cause du recul de la violence est donc à mettre au crédit de la montée et de l’expansion des États. La remise du pouvoir aux mains d’Etats constitués élimine les vengeances et les violences tribales et féodales. Les despotes et les rois ne sont pas tant magnanimes, qu’ils défendent leurs intérêts. Et le leur n’est pas que leurs administrés s’entretuent, mais plutôt qu’ils payent leurs taxes. Tout comme le fermier travaille à ce que son troupeau ne s’entretue pas, les États ont veillés à ce que leurs administrés ne s’entretuent pas.

La seconde cause du recul de la violence tient au « processus de civilisation ». Le meurtre partout diminue, explique le chercheur en montrant des courbes statistiques sur l’évolution des homicides en Europe entre 1300 et 2000. À Oxford, on est passé de 100 homicides par an pour 100 000 habitant au Moyen Âge à 1 seul ! Ce déclin n’a pas cessé aux 19e et 20e siècles. Si ces taux sont différents d’un pays l’autre, la tendance est nette. Même les États-Unis, dont le taux est souvent supérieur au taux européen, et qui connaissent même un léger pic dans les années 60, connaissent un déclin ferme et régulier depuis les années 90. Le sociologue Norbert Elias, dans le Processus de civilisation, montrait que la consolidation des États et royaumes avait conduit à une justice nationalisée qui favorise la disparition des rivalités locales. Le développement du commerce via la finance, la monnaie, les contrats et les transports… fait basculer la société de la féodalité à la modernité. Le jeu où le gagnant l’emporte est remplacé par une situation où tout le monde trouve son compte.


Image : le charme des amphithéâtres avec Steven Pinker et Mathieu Ricard au fond.

La montée de l’empathie

La troisième cause du déclin de la violence est liée à la révolution humaniste. La justice telle qu’elle s’exprime jusqu’au Moyen-âge, à coups de buchers, d’écartèlement, de crucifixion et d’empalement… nous semble particulièrement barbare. Or, entre le 17e et le 19e siècle, la révolution humaniste va mettre fin à nombre de violences. L’abolition de la torture et le déclin de la peine de mort. Entre 1750 et 1850, la majorité des pays ont aboli la torture. En Angleterre au 18e siècle, on pouvait condamner à mort quelqu’un pour 222 motifs différents, au nombre desquels figuraient le braconnage, la fausse monnaie… En 1861, on ne compte plus que 4 crimes (autre que des crimes ayant conduit au meurtre) passibles de la peine de mort. Quant à l’abolition de la peine de mort elle-même : celle-ci n’a cessé de progresser, même depuis 2011, tout comme le nombre d’exécutions effectives. Si cette tendance se poursuit sur le même rythme, espère Pinker, la peine de mort devrait être abolie dans tous les pays du monde d’ici 2026.

La révolution humaniste a conduit à de nombreuses autres « abolitions » : allant de la chasse aux sorcières, à la persécution religieuse, de l’interdiction des duels aux sports sanguinaires, en passant par l’abolition de l’esclavage… Dernier pays à le faire, la Mauritanie a officiellement aboli l’esclavage en 1980 (même si cela ne signifie pas qu’il ait été totalement endigué).

Pour Pinker, cette révolution humaniste doit tout au développement de l’imprimerie et à la montée de l’alphabétisation. Peu à peu, la connaissance remplace la superstition et l’ignorance. Tel est l’apport des Lumières. Éduquée, la population est moins capable de croire que les juifs empoisonnaient les puits, que les hérétiques vont en enfer, que les sorcières sont responsables des mauvaises récoltes… La connaissance mine la violence. Comme le disait Voltaire : « ceux qui vous font croire en des absurdités peuvent vous faire commettre des atrocités ». Sans compter que lire et écrire favorisent le cosmopolitisme. Lire permet de prendre conscience de l’esprit de l’autre, de se mettre à sa place, d’imaginer ce qu’il ressent. « Plus nous sommes emphatiques et moins nous sommes portés à la cruauté ».

Vers les paix perpétuelles ?

« Contrairement à ce que l’on pense trop souvent, le 20e siècle n’a pas été le siècle le plus violent de notre histoire ». Si la 2e Guerre mondiale a bien été la plus meurtrière en nombre absolu, elle n’a pas été la guerre la plus meurtrière relativement à la population mondiale. Avant le 16e siècle, les Grands Etats étaient constamment en guerre, alors qu’aujourd’hui aucune grande puissance n’est en guerre avec d’autres. Même si on n’observe que les morts liés aux guerres au 20e siècle, hormis les deux pics des deux guerres mondiales, les conflits depuis n’ont quasiment pas été meurtriers. Depuis 1946, nous sommes même entrés dans ce que l’on pourrait appeler « la longue paix ». Malgré la prédiction de tous les experts, nous n’avons pas connu de guerre entre les États-Unis et l’URSS, pas plus que nous n’avons connu l’usage d’armes atomiques depuis Nagasaki. Les grandes puissances ne sont pas entrées en conflits entre elles… Pourtant, avant 1945, c’étaient surtout les pays les plus développés qui entraient en conflits les uns avec les autres. Ce n’est plus le cas depuis.

À la longue paix, il faut ajouter une autre cause au déclin de la violence : la nouvelle paix. En effet, cette longue paix s’est également diffusée au reste du monde. Le déclin des conflits se propage. Il y a de moins en moins de guerres entre États. S’il y a eu des guerres civiles, celles-ci font bien moins de morts que les guerres entre États. 5/6e des pays du monde ne connaissent plus la guerre. Si on regarde le nombre de morts liés aux guerres ou le taux de guerre, les deux courbes sont clairement à la baisse. Quant à la question des génocides, Chalk et Jonassohn, dans leur Histoire des génocides, rappellent qu’ils ne sont pas une propriété du 20e siècle. Malgré les atrocités des plus récents génocides, ramenés à la population totale ou au nombre de morts globaux, là encore, les génocides sont à la baisse sur le temps long du 20e siècle.

Dans son essai Vers la paix perpétuelle, le philosophe Emmanuel Kant émettait 3 hypothèses pour expliquer l’essor de la paix : le développement de la démocratie, du commerce et d’une communauté internationale. Les historiens Bruce Russett et John O’Neal ont montré que ces facteurs ont tous progressé depuis la seconde moitié du 20e siècle et que ces 3 facteurs sont bien statistiquement des prédicateurs de paix.

Pourquoi un tel déclin ? La nature humaine aurait-elle changé ?

Dernier facteur explicatif du recul de la violence : les révolutions des droits. Le développement des droits civiques a fait reculer la plupart des violences : violences raciales, violences à l’égard des femmes, des enfants et des animaux… La criminalité a diminué à mesure que les droits ont progressé, souligne Pinker, en alignant des graphiques sur le recul du lynchage aux États-Unis entre 1880 et 1960, ou des crimes à l’égard des communautés. Les viols à l’encontre des femmes ont chuté de 75 % entre 1970 et 2010. Les autres violences domestiques à l’encontre des femmes suivent la même tendance. Pour les enfants, les graphiques montrent la chute des punitions corporelles, des emprisonnements, des abus et agressions physiques ou sexuelles à leurs égards… Même la fessée est de moins en moins acceptée à travers le monde. Et la révolution du droit des animaux entame la même tendance, avec la baisse du nombre de chasseurs et la montée du nombre de végétariens…

Et Steven Pinker de s’interroger. « Pourquoi la violence a-t-elle ainsi décliné ? Sur tant d’aspects ? La nature humaine aurait-elle changé ? Pourquoi nous comportons-nous de manière moins violente ? » Pour Pinker, notre nature n’a pas changé. Nous sommes des entités complexes et si nous avons des inclinaisons à la violence, nous avons aussi des tendances qui la contrebalancent. Pour Pinker, l’histoire, les circonstances… ont favorisé nos inclinaisons pacifiques. Pour comprendre cela, il faut distinguer ce qui motive et explique notre violence, à savoir : la rage (une réaction quasi instinctive), la domination et l’exploitation des autres (qui consistent à utiliser la violence pour atteindre un but), la vengeance et la violence idéologique… Mais on a aussi des processus qui favorisent la non-violence : comme la maîtrise de soi, l’empathie (la capacité à ressentir ce que les autres ressentent), les normes morales et les tabous (ce qu’on ne peut pas faire) et bien sûr la raison (c’est-à-dire le fait que nos facultés cognitives considèrent la violence comme un problème). Qu’est-ce qui a conduit à développer ces processus-là, cette « part d’ange en nous », au détriment des premiers ?

Pour Hobbes, le fait de confier à l’Etat et au système judiciaire le monopole de l’exercice de la violence a permis de neutraliser l’exploitation des autres par la violence. Pour Montesquieu, Smith ou Kant, le passage du pillage au commerce a permis de se rendre compte que voler ne sert à rien, à mesure que les choses deviennent moins chères. Les êtres humains deviennent plus précieux vivants que morts, puisqu’on peut leur vendre quelque chose. Pour Darwin et Peter Singer, notre sens de l’empathie, par défaut, s’applique à nos proches. Or, ce cercle emphatique s’est étendu : de la famille aux proches, du village au clan, de la tribu à la nation… en passant à ceux qui appartiennent à d’autres genres, races, espèces… Le développement de nouvelles perspectives, via le voyage, la littérature, l’information, nous a permis d’adopter le point de vue des autres. Et cette considération empathique s’est traduite par un comportement empathique. Enfin, nous avons tous pris l’ascenseur de la raison : l’alphabétisation, l’éducation… nous ont appris à penser plus abstraitement et plus universellement. En apprenant à transcender notre point de vue, il devient plus difficile de privilégier nos seuls intérêts par rapport à ceux des autres. Les cycles de violence nous semblent plus futiles et plus vains. « La violence apparaît comme un problème qu’on peut résoudre plutôt que comme une compétition qu’on peut gagner ».

Pour Steven Pinker ces interrogations nous poussent à nous poser la question de ce que nous avons réussi. Qu’avons-nous fait de bien et qui a été fécond ? Pour Pinker, ce travail permet de réhabiliter les notions de modernité et de progrès, parfois bien malmenées. Nous devrions éprouver de la gratitude vis-à-vis des institutions de la civilisation et des Lumières. C’est d’ailleurs le sujet du prochain livre de Steven Pinker. Montrer que les gens vivent plus longtemps, en meilleure santé et plus heureux que jamais. Les Nations-Unies estiment que si les tendances continuent, l’extrême pauvreté devrait avoir disparu d’ici 2030. Il y a 200 ans à peine, 90 % de la population vivait dans une extrême pauvreté. On estime que c’est le cas d’environ 10 % de la population aujourd’hui. L’idéal des Lumières, le recours à la raison et à la science, à l’humanisme et au progrès nous a transformés quoiqu’on en dise. Il a fonctionné, quoi qu’on en dise, conclut l’incroyable optimiste.

Pinker s’amuse ensuite à répondre à quelques questions. Les animaux ? Ils nous aident à pousser notre capacité empathique encore plus loin, car ils ne peuvent pas se battre eux-mêmes pour leurs propres droits ou se mobiliser. La défense des droits des animaux nous amène à un degré de civilisation supplémentaire. Le changement climatique ? Il n’est pas certain que le changement climatique conduise à des violences globales. Bien sûr, ce défi majeur du 21e siècle risque de se traduire par une intensification des souffrances, par des migrations, des conflits locaux, des violences…
Les tensions sur les ressources ne conduisent pas nécessairement aux conflits… Les grandes sécheresses des années 30 n’ont pas conduit nécessairement à des guerres.

Les médias sociaux ? « Les médias sociaux accroissent l’empathie, j’en suis convaincu », estime Pinker. Ils favorisent l’interdépendance. Bien sûr, leur usage peut conduire à des abus, mais nous allons trouver les moyens de contrer leurs aspects négatifs et de développer leurs aspects positifs. Il faut juste un peu de temps, comme lors d’une réponse immunitaire. Le vieillissement ? Le vieillissement de la population favorise la diminution des violences physiques. On estime que le pic des violences physiques a lieu entre 15 et 30 ans. Plus on prend de l’âge et moins on se dispute ou on a recours à la violence. Le vieillissement de la population est donc un facteur de déclin de la violence globale. Un monde moins violent est aussi un monde plus heureux, incontestablement. En fait, nous n’avons pas de preuve scientifique à porter au crédit de ceux qui avancent que nous serions intrinsèquement violents.

Du haut d’une vision qui embrasse le temps long de l’humanité, Steven Pinker nous apaise. En nous demandant de faire avec lui l’effort de regarder les tendances dans leur globalité, il participe à son tour à nous rendre plus confiant, nous invite à prendre le recul nécessaire pour être un peu plus empathique à notre tour. Le progrès n’a pas tout à fait disparu… En fait, il ne s’est peut-être jamais aussi bien porté à mesure que la fin du monde se profile. S’il n’y avait la menace du réchauffement climatique et de la limite des ressources naturelles, on pourrait presque croire finalement que ces menaces nous apparaissent plus présentes à mesure qu’elles s’éloignent.

Hubert Guillaud

Catégories: Veille et actualités

Transformation digitale : des essais loin d’être transformés

Blog e-tourisme - mer, 11/10/2017 - 07:00

Dans son poème Art poétique, Nicolas Boileau écrivait en 1674 ce qui pourrait être le mantra de ce blog où chacun d’entre-nous apporte chaque jour sa (modeste) pierre à l’édifice afin de faire tomber les à-priori, ouvrir les consciences, partager des expériences ou des outils sur le digital:

« Vingt fois sur le métier remettez votre ouvrage :
Polissez-le sans cesse et le repolissez »

Le constat que je vais vous partager aujourd’hui complète la publication la semaine dernière d’une étude menée par Bpifrance qui s’intitule Histoire d’incompréhension : Les dirigeants de PME et ETI face au digital.

Les résultats de cette enquête permettent de battre en brèche certaines idées reçues. La plus étonnante est que « 87 % des dirigeants de PME et d’ETI françaises n’affichent pas la transformation digitale comme une priorité stratégique pour leur entreprise. »

Lorsque l’on a la tête dans le guidon du numérique, que l’on baigne dedans au quotidien, on aurait tendance à penser que la majorité des entreprises a fini par prendre le train en route même si les actions sont infimes. Différents freins sont identifiés dans cette trop lente prise de conscience.

Je vous invite évidemment à lire l’ensemble de l’étude et peut-être ferez-vous comme moi le constat que la situation n’est pas bien différente dans nos EPCI et nos élus ne sont pas différents des dirigeants d’entreprise.

Il y a en effet un frein qui n’est pas clairement identifié dans ce rapport où du moins pas assez à mon sens, malgré une jolie formule dans l’édito : « Les clients roulent en Ferrari sur smartphone en 4G alors que le stock est encore géré au code barre charrette à bras […] cette révolution est invisible : qui a déjà vu les serveurs des géants de l’internet ? » Ce frein qui régit les quatre autres cités plus haut, c’est la méconnaissance du client ou de l’administré suivant que l’on est chef d’entreprise ou élu; méconnaissance voire aveuglement face aux nouvelles pratiques. Mais peut-on encore parler de nouvelles pratiques en 2017. Vous avez sans doute vu passer ce post sur Facebook ces derniers jours : Quel mot est né la même année que vous? J’ai retenu que smartphone avait déjà 24 ans!

Je vous fais part d’une petite anecdote. Dans le cours de ma recherche d’emploi, afin de répondre à certaines problématiques territoriales je me suis emparé des questions d’e-gouvernance. Afin de corroborer mes dires, il me fallait des chiffres pour accompagner mon argumentaire. Car la méconnaissance et l’aveuglement, nous les croisons tous les jours : ils se cristallisent dans le fameux « Non mais nous, notre situation est différente. [le numérique] ce n’est pas pour nous ».

À la question Consultez-vous l’information de votre intercommunalité? les réponses sont : non à 50%, sur bulletin papier à 17%, sur internet à 17%, sur les deux médias à 17%.

Plus loin je demandais Seriez-vous prêt à utiliser un réseau social que vous n’utilisez pas encore pour échanger de manière plus directe avec les services intercommunaux (social, voirie, santé, développement économique, culture, etc.)? 85% répondent oui, 15% répondent non.

Je retiens deux leçons de cette expérience. La première *spoiler alert* la présentation des résultats n’a pas reçu d’écho favorable * fin du spoiler*; la deuxième : si quelqu’un est intéressé pour voir avec moi la méthodologie du questionnaire (à découvrir en suivant ce lien), nous pourrions le diffuser sur une plus large échelle et obtenir des résultats plus fin sur un échantillon conséquent.

Mon propos peut paraître éloigné de nos préoccupations touristiques (oui, vous êtes toujours sur etourisme.info) et pourtant. On ne prêche pas dans le désert bien longtemps. L’animation numérique de territoire est une niche aujourd’hui dans les collectivités territoriales. À rester dans cette niche, elle risque la relégation au rang de « gadget nécessaire » pour les élus au moment de trancher les budgets. Guillaume Cromer évoquait hier ces questions de gouvernance en vous parlant de l’état-plateforme. Je suis convaincu que notre discours sera entendu en y prenant pleinement part. Nous avons tout à gagner à engager des actions en ce sens. D’une part le tourisme est déjà moteur sur ces questions de transformation digitale, d’autre part c’est une manière de rendre visible et faire adhérer et participer les citoyens aux projets touristiques des territoires.

Pour finir, je vous partage encore deux petites choses sur ce thème. Si vous ne connaissez pas le site, allez faire un tour sur https://ogptoolbox.org/fr/ (OGP pour Open Government Partnership, soit le Partenariat pour un Gouvernement Ouvert). Le site recense un ensemble d’outils numériques et des exemples d’usages d’e-gouvernance à travers le monde (consultation citoyenne, gestion de projets participatifs, etc.).

Et pour être plus concret, voici un reportage (5mn) vu il y a plus d’un an sur Arte.

Pour conclure, la route est longue. Mais continuons à enfoncer le même clou. Le mur finira par tomber. Et ayant achevé récemment un CDD, vous pouvez faire passer le mot que je suis disponible pour en discuter très librement avec toute personne en phase de recrutement sur cette thématique.

The post Transformation digitale : des essais loin d’être transformés appeared first on Etourisme.info.

Catégories: Veille et actualités

Management, les basiques ne sont pas si simples…

Internet Actu - mar, 10/10/2017 - 07:00

Souvent proposé comme un modèle de la gestion des ressources humaines (via son département « People Analytics »), Google demeure pourtant laconique sur son fonctionnement interne. Cet été cependant, sur son blog dédié au travail, Google a publié une série de documents utilisés par ses managers, rapporte Quartz. Au menu, vous y trouverez un questionnaire d’évaluation des managers (sur la base de 13 questions posées tous les 6 mois aux employés et les réponses sont renvoyés aux managers agrégées et anonymisées), un questionnaire d’évaluation de carrière, une définition d’un objectif simple et partagé pour encourager le bien-être de chacun (du type, je ne lis pas d’email le week-end…) ; un modèle d’organisation de réunion et enfin des cours pour apprendre à devenir managers.

Raffaella Sadun pour la Harvard Business Review s’étonne de la grande simplicité de ces outils. En fait, bien que basiques et fondamentales, il est très difficile d’établir ces pratiques de manière cohérente dans les entreprises. Dans une étude transversale sur les pratiques de managements de 12 000 entreprises provenant de plusieurs pays (cf. « pourquoi on sous-évalue le management compétent »), elle rappelle combien la pratique de la définition d’objectif ou la gestion de l’évolution de carrière sont encore fort peu pratiquées. Pire, la plupart des organisations n’ont pas toujours conscience d’avoir besoin de meilleurs processus de management. Rien que la normalisation des entretiens individuels est encore bien souvent vue comme une méthode excessivement bureaucratique par la plupart des employés… En fait, les fondamentaux du management ne sont pas si simples à mettre en place et copier les pratiques de Google, « vous asseoir et vous attendre à avoir le même succès » ne suffira pas à le faire advenir. Pourtant, l’adoption de pratique de management simple permet souvent aux entreprises de faire d’énormes progrès en terme de profit, de croissance ou de productivité. Faire que tout le monde adhère à des process communs permet de mieux se concentrer sur les résultats, et cela passe parfois par des choses très simples, comme une liste de contrôle, à l’image de celle mise au point par le chirurgien Atul Gawande pour réduire les erreurs dans la salle d’opération. Pour Sundar Pichai, PDG de Google, « les pratiques de management sont un élément essentiel de la construction de la culture d’entreprise ».

Des fondamentaux qui semblent encore bien loin d’un management conduit par les données. Comme le constatent plusieurs consultants dans un autre article de la Harvard Business Review, force est de constater que l’analyse de données peine à s’imposer dans le management, et ce alors que de nombreux projets de transformations managériales n’atteignent pas leurs objectifs. Les auteurs constatent d’ailleurs que bien peu de méthodes de transformations managériales, même parmi les plus à la mode, s’appuient sur les données, notamment parce que le management doit composer avec le comportement humain et que la culture d’entreprise, le leadership et la motivation ne se prêtent pas facilement à l’analyse empirique ni à la production d’indicateurs. En fait, soulignent-ils, la transformation managériale est plus le fait d’artisans que de scientifiques. Et le manque d’indicateurs encourage le manque d’investissements dans le changement. Bien sûr, Michael Tushman, Anna Kahn, Mary Elizabeth Porray et Andy Binns n’en restent pas à un constat d’échec. Dans un autre article, ils tentent de montrer que des solutions s’esquissent. Chez Ernst & Young, où travaillent certains des auteurs, en utilisant Microsoft Workplace Analytics, ils ont utilisé pour des clients les échanges e-mails et les données des agendas des employés pour identifier qui est engagé avec qui, quelles parties des organisations étaient sous stress et quels individus sont les plus à même de tisser des ponts entre les différents services de l’entreprise. Le système leur a permis de mettre en place une sorte de surveillance en temps réel pour voir où agir, où améliorer les procédures. Reste que l’analyse des données ne fait pas tout, soulignent-ils en conclusion. Si elle permet peut-être de devancer les problèmes ou d’accélérer les réponses, il y aura toujours besoin de professionnels pour interpréter les données et améliorer les processus. Dans le temps long du management et des comportements, force est de constater que l’accélération que permet l’analyse des données peine à fournir une réponse pleinement satisfaisante à la problématique. C’est peut-être pour cela que ce que nous pourrions appeler le « management automatisé » a encore du mal à s’imposer.

Enfin, pas partout. Si dans l’entreprise, l’automatisation du management reste difficile, ce n’est absolument pas le cas du recrutement, qui lui semble de plus en plus automatisé. Notamment via le recours à des myriades de tests de personnalité toujours plus sophistiqués, quand bien même ils semblent aussi scientifiques que la graphologie ou que l’astrologie d’antan. A l’image du jeu vidéo Scoutible, où une intelligence artificielle évalue les futures performances d’un candidat ou Dotin.us qui évalue les personnalités des candidats selon ce qu’ils partagent sur les réseaux sociaux. Voire la panoplie d’outils automatisés auquel recours Unilever que détaillait Usbek & Rica récemment… On est là face à une différence de traitement entre l’externe et l’interne qui interroge et qui mériterait d’ailleurs un peu plus de recul. Assurément, on se permet dans le recrutement d’utiliser des outils qui seraient largement rejetés s’ils étaient utilisés pour le management des salariés.

Catégories: Veille et actualités

Se dirige-t-on vers des destination-plateforme?

Blog e-tourisme - mar, 10/10/2017 - 07:00

Je suis heureux d’écrire ce premier papier sur le blog. Pour ceux qui ne me connaissent pas, je suis Guillaume Cromer. Je dirige ID-Tourism, un bureau d’ingénierie sur le marketing du tourisme spécialisé sur les questions d’innovations, de prospective et de durabilité du secteur. Je préside également depuis 4 ans l’association Acteurs du Tourisme Durable qui a pour ambition de pousser l’ensemble de l’industrie du tourisme à intégrer les enjeux de développement durable. Ces sujets toucheront la majorité de mes futurs papiers.

Pour cette première, je vais vous parler de la plateformisation des destinations. Oui, face aux géants du e-tourisme et d’autres secteurs qui vous venir nous envahir, quel avenir pour les OGD ? Alors même qu’Offices de Tourisme de France a développé les conclusions de son étude sur le futur des offices de tourisme, je voudrais creuser cette plateformisation des OGD. Est-ce un avenir souhaitable pour ces organisations ? Un futur nécessaire ? Une belle utopie ? Ou encore de la concurrence déloyale pour certains acteurs privés? Tour d’horizon de mes réflexions.

Le papier de la semaine dernière présenté par Jean-Luc Boulin, « Vente d’activités de loisirs : la revanche des DMO » m’avait bien mis la puce à l’oreille. Je revenais juste d’un séminaire de 2 jours à Immenstadt, en Bavière, sur la question du digital dans le milieu de l’outdoor. Outdooractive, l’organisateur, m’avait demandé d’intervenir pour présenter l’importance de l’hyper-personnification & du design des nouvelles plateformes de mise en relation entre les voyageurs et les prestataires de l’outdoor (sujet que je présenterai lors des #ET13 à Pau) comme Kazaden mais aussi Airbnb Experience. Je n’imaginais pas forcément que des collectivités locales étaient aussi sur ce créneau… Or, au fond, est-ce vraiment si étonnant ?

Bien sûr, comme le dit Jean-Luc, on pensait que les OGD avaient perdu la bataille de la commercialisation face aux OTAs en particulier Booking.com, Tripadvisor / La Fourchette et même maintenant les balades via Viator, Meetrip, Cariboo… Mais alors, les OGD (et leurs membres) devront-ils assumer cette dépendance à la fois technologique et financière et se concentrer sur la qualité du contenu et des prestations ?

Expérience Côte d’Azur & Week-end Esprit de Picardie (Transformé depuis en Week-end Esprit Hauts de France) prouvent au final qu’il y a un espoir. Or, je me pose la question de l’échelle et surtout de ce que le client, le voyageur recherche au fond en premier lieu…

Quand le voyageur cherche une expérience pour une escapade, un court-séjour, quelles sont les principaux critères pour choisir en ligne ? A-t-il déjà identifié une région (administrative) ? une intercommunalité ? une ville ? Ou est-ce plutôt une activité qui va l’attirer ? Ou tout simplement va-t-il rechercher un bon plan et se laisser séduire… Bien sûr, il n’y a pas de réponse toute faite. Tous les visiteurs sont différents.

Au niveau des échelles des destinations, je crois qu’il va falloir bien penser tout cela en collaborant entre les niveaux. Selon moi, il n’y a aucun intérêt (et surtout pas les moyens & les ressources en local) à imaginer des plateformes à l’échelle de petits offices de tourisme intercommunaux. En revanche, ce sera à eux de dynamiser le contenu pour l’échelle supérieure qui pourra prétendre déployer une plateforme de commercialisation. Et cette échelle, elle paraît assez cohérente à l’échelle régionale ou pour des plus petites destinations qui possède déjà une très bonne image.

Mais donc… alors même que le nouveau président de la République avait annoncé vouloir déployer l’Etat-Plateforme, peut-on imaginer des destinations-plateformes ? Des OGD-réceptifs capables de faire du sur-mesure, de la production… des sortes de Evaneos en local ? Et ces plateformes pourraient alors gérer toutes les demandes des visiteurs… hébergement, restauration, transports, activités, événementiels, etc. en intégrant même demain des algorithmes pour faire correspondre la demande du client avec l’offre sur le territoire… 

Sur le papier, rien d’impossible au final. Avec les restrictions économiques des pouvoirs publics, je pense sincèrement que les OGD vont devoir se transformer en profondeur, jusqu’à réinventer totalement leur modèle de gouvernance et de statuts et donc imaginer de nouvelles formes de coopératisme de plateforme. Oui, des plateformes où chaque partie-prenante a un vrai rôle, un pouvoir et des retombées et non pas comme le modèle de certains OTAs. On voit récemment apparaître des concurrents de grande plateforme qui tente de « disrupter » de manière éthique les « méchants ». C’est le cas de Fairbooking dans la réservation hôtelière, de CoopCycle dans la livraison de repas à domicile ou encore de Chauffeur&Go ou GESCOP pour les véhicules avec chauffeur. 

En effet, si nous réinventons les OGD par des plateformes capitalistiques, c’est impossible que cela fonctionne (et même que cela voit le jour au fond). L’ensemble des dérives que l’on connaît de ce modèle apparaîtra bien vite alors qu’il est justement prioritaire de remettre de l’éthique et de la bonne intelligence dans les relations entre les acteurs locaux, privés et publics. Il ne s’agit donc pas de créer uniquement un système d’apporteur d’affaires et de maîtrise positive de la concurrence mais bien de construire une « coopétition » au service de l’attractivité et des retombées économiques pour l’ensemble de la destination et tous les acteurs qui y sont présents. L’avenir passera peut-être par des Sociétés Coopératives à Intérêt Collectif… on en reparle vite!

Allez à bientôt les amis et au plaisir d’en voir certains à Pau!

Guillaume.

The post Se dirige-t-on vers des destination-plateforme? appeared first on Etourisme.info.

Catégories: Veille et actualités

Les #ET13 la semaine prochaine !

Blog e-tourisme - lun, 09/10/2017 - 08:00

Et voilà, J-7 avant la traditionnelle transhumance automnale du tourisme institutionnel vers la cité paloise !

On compte d’ores et déjà 735 participants, et un certain nombre avait attendu les derniers jours pour s’inscrire les années précédentes. Pas sûr néanmoins qu’on l’on ne doive pas « closer » quelques jours en avance pour accueillir tout le monde dans les meilleures conditions. Alors si tu es inscrit, voilà deux-trois trucs qui t’attendent, si tu ne l’es pas encore… quelques éléments pour te décider à le faire très très vite !

Les plénières, ça décoiffe !

Après la traditionnelle mais nécessaire mise à niveau de « Geek » Raffour en ouverture, c’est une toute guerre des chiffres qui se déroulera sur le plateau de « Renard Actus » qui accueillera le débat d’entre deux tours pour la présidence touristique entre Pierre Chotard et Antoine Eloy, ou l’inverse… Intelligence Artificielle vs Intelligence Emotionnelle, à vous d’élire votre programme favori à l’issue de ce débat qui promet d’être piquant !

Il ne vous faudra cependant pas hésiter trop longtemps, car vous aurez intérêt à rester concentré pour notre guest star, Bjarke Hjorth, à la tête du marketing digital de Wonderful Copenhagen ! François Gaillard et Pierre Eloy l’évoquait il y a quelques mois dans ce même blog, Maïthé Levasseur en remettait une couche le mois dernier dans le Réseau Veille Tourisme, bref, c’est LE DMO du moment, qui jette un vrai pavé dans la mare ! Son intervention sera en anglais, mais rassurez-vous, sa présentation sera projeté en VO et en VF sur les écrans de côté pour les moins anglophones.

Probablement de quoi alimenter les réflexions de nos élus qui viendront conclure cette matinée en plénière…

La fin de journée traitera quant à elle d’innovation et de prix, avec les cinq candidats du Etourisme Startup Contest, les trois du Trophées Social Media, et la très attendue table-ronde avec François Bitouzet pour Voyages-sncf.com, Amandine Lecocq pour le Futuroscope, Sarah prot pour Airbnb, sous l’éclairage de Michel Durrieu, DG du CRT Nouvelle Aquitaine

Comme d’hab, le lendemain matin, la fin de matinée sera rythmée par les 15mn chrono de Little Gypsy, Stéphane Canarias, Paul Arseneault, Guillaume Cromer et Corentin Orsini. A la suite, Office de Tourisme de France, Atout France et Tourism Academy remettront le Prix du MOOC Accueil France Europe+, l’ensemble des inscrits à ce jour recevant une invitation à tester l’outil, et à se confronter au sein de battles endiablées.

Et en conclusion, c’est Caroline Bouffault, responsable Travel chez Google France qui viendra nous partager les dernières conclusions des études menées par le moteur de recherche, de quoi aiguiller vos futures stratégies !

Les ateliers, chacun fait c’qui lui plaît !

Six formats au choix : la conférence, en mode plus descendant, la battle, pour opposer des points de vue, sur lesquelles deux participants encore non identifiés sont conviés à se joindre pour pimenter encore les débats, les focus, pour se concentrer sur une destination, un projet, les retours d’expériences pour partager, les mains dans le cambouis pour échanger entre techos et enfin les Plein Air, pour expérimenter, réfléchir sous le soleil palois, il y en a pour tous les goûts !

25 ateliers en tout, on va pas tous te les lister; va faire un tour sur le programme pour faire ton (difficile !) choix. Mais rassure-toi, tu retrouveras tout dès la fin de chaque atelier sur Slideshare, et on te donne rendez-vous ici-même dans la semaine qui suivra les rencontres pour y retrouver la synthèse, la substantifique moëlle de chacun d’eux grâce aux brillants Master 2 AGEST de Bordeaux qui viennent comme l’an dernier prendre part à ces Rencontres, vous accueillir, et constituer la mémoire vive des #ET13.

 

What else ? Des nouveautés ?

Un Forum de l’innovation toujours plus fourni, avec 44 sociétés présentes cette année, que vous pourrez visiter pendant les pauses, les déjeuners, et à tout moment si les discussions se doivent d’être prolongées !

Le plus simple est d’ailleurs de prendre rendez-vous ! Pour tous ceux qui sont inscrits, vous avez jusqu’à… aujourd’hui pour retourner dans votre espace personnel avec vos login et password afin d’accepter/refuser les demandes de rendez-vous, et de disposer d’ici la fin de semaine de votre planning personnalisé de rendez-vous.

Les sportifs pourront vivre l’expérience jusqu’au bout avec les Foulées Numériques les mardi et mercredi matin, rendez-vous à 7h30 en centre ville devant l’Hôtel Continental Best Western pour un footing collectif.

Autre type de sport, la Conf’Pompette, mardi soir à 22h en Salle Jammes avec Laurent Queige, Maïthé Levasseur et Stéphane Canarias ! On débat, on échange…et on boit des shooters de vieux rhum !!! Le thème de cette première : le monde de la nuit est-il soluble dans le tourisme institutionnel…

Pour ceux qui peinent un peu le matin, ou en début d’après-midi, la Salle Jammes juste à l’entrée du Palais Beaumont sera équipée de poufs et matelas, histoire de se reposer un peu tout regardant/écoutant d’un oeil et/ou d’une oreille distraite les débats de l’auditorium voisin… Il paraît que c’est lorsque l’on est à demi-endormi que les choses s’enregistrent le mieux, que les meilleures idées naissent… Il paraît…

Quand on est nouveau sur les ET, pas toujours facile de s’intégrer, de comprendre les private jokes qui peuvent animer ce public de fidèles… Cette année, nous avons proposé aux petits nouveaux d’être accompagnés par un-e ancien-ne qui les guidera tout au long de ces deux journées. On a donc opéré à 55 mises en relation entre filleul-es et parrains/marraines, les échanges vont déjà bon train !

Et puis le lundi, cette année, c’est Masterclass pour les startups, Conférence UX pour les autres, et tout le monde se retrouve ensuite pour le goûter en mode speedmeeting à 16h30 !

Le programme, tu peux bien entendu le retrouver sur l’appli des Rencontres ! Nouveautés cette année avec notre fournisseur LoungeUp, tu peux t’inscrire aux sessions : pas tant pour l’organisation, mais tu peux carrément échanger entre inscrits d’une même session directement dans l’appli. Et puis évidemment, tu retrouveras des trucs pratiques comme les bars, les restos, une carte, les transports, la météo et même le suivi de ton vol si tu es en avion. Tu peux la télécharger sur l’Apple Store, sur Google Play, mais aussi naviguer depuis ton ordi et un navigateur web si tu le préfères avec ce portail.

Voilà voilà, et si jamais tu cherches ta route, que l’appli #ET13, Google maps, Plans ou Waze te paraissent trop compliqués à utiliser, voici la petite carte sympathique  des essentiels à Pau, à télécharger, imprimer, afficher au bureau…

Quoi, ça va pas être possible de venir ? Tu as aquaponey ?? Ta direction te dit qu’il n’y a plus de budget ??? Bon, rien que pour toi, on va livestreamer toute ces séquences sur nos pages Facebook, même la Conf’ Pompette, mais si tu ne perdras rien du contenu, il te manquera les échanges, les rencontres, le vrai live, anticipe pour l’an prochain !

The post Les #ET13 la semaine prochaine ! appeared first on Etourisme.info.

Catégories: Veille et actualités

Les marques et les réseaux sociaux

Blog e-tourisme - ven, 06/10/2017 - 08:00

Sprout Social, une plateforme de gestion des réseaux sociaux, vient de publier une petite synthèse sur les marques et les réseaux sociaux. Certaines stratégies éditoriales sont souvent en décalage avec les attentes des consommateurs. Une présence sociale peut être ainsi inopérante voire irritante pour les internautes. C’est d’autant plus embêtant quand on sait que 86 % des utilisateurs des réseaux sociaux apprécient la présence sociale des marques et désirent les suivre.

73 % des personnes interrogées soulignent que leur intérêt pour une marque sur les réseaux est en lien avec les produits ou les services proposés. Les consommateurs veulent ainsi avant tout interagir avec les marques.

Une présence d’une marque sur les réseaux sociaux peut être contre-productive si on ne répond pas aux attentes des consommateurs, et si on ne met pas en place les processus pour gérer activement la présence sociale.  41 % des sondés indiquent arrêter de suivre une marque qui partagent des informations non pertinentes pour eux.

5 facteurs d’agacement sont mis en avant par cette synthèse :

  1. 57 % sont contrariés par trop d’offres promotionnelles ;
  2. 38 % en raison de l’utilisation d’un jargon ou d’un ton et/ou vocabulaire pour faire jeune ou branché (mettez-vous à la place des consommateurs…)
  3. 34 % l’absence de ton ou de personnalité (discours de marque trop « corporate », communication trop lissée, etc.) ;
  4. 32 % Humour qui manque sa cible ;
  5. Enfin 24 % sont agacés quand les marques ne répondent pas aux messages.

La synthèse complète de cette analyse est disponible en ligne : Turned Off: How Brands Are Annoying Customers on Social.

The post Les marques et les réseaux sociaux appeared first on Etourisme.info.

Catégories: Veille et actualités

Vos données seront manipulées

Internet Actu - ven, 06/10/2017 - 07:00

A l’occasion de la conférence Strata Data qui se déroulait fin septembre à New York, la chercheuse danah boyd (@zephoria), l’auteure de C’est compliqué (dont paraît ces jours la traduction d’un autre livre coécrit avec Mimi Ito et Henry Jenkins) a, comme toujours, livré une présentation remarquable (extrait en vidéo).

La manipulation des médias a toujours existé et le numérique l’a certainement favorisé en rendant poreuse la frontière entre la propagande et le marketing, rappelle-t-elle en pointant vers le rapport publié par Data&Society en mai 2017, l’Institut de recherche dont elle est la fondatrice et la présidente (blog, @datasociety). Mais l’enjeu n’est pas de nous expliquer ce qui s’est déjà passé ou ce qui se passe actuellement, que de regarder ce qui s’annonce. A l’heure du Big data et de l’intelligence artificielle, si nous pensons que la donné peut et doit être utilisée pour informer les gens et alimenter la technologie, alors nous devons commencer à construire l’infrastructure nécessaire pour limiter la corruption, les biais et l’abus de données. Nous devons reconsidérer la sécurité dans un monde de données.

Les moteurs de recherche et les médias sociaux sont devenus les cibles préférées de la manipulation. Un petit jeu auquel tout le monde s’amuse désormais. Depuis les premiers Google Bombing, les gens ont appris par la pratique à rendre les contenus viraux et à détourner les systèmes. Ils ont développé des pratiques stratégiques de manipulation de l’attention qui ont pu avoir des conséquences graves à l’image du pizzagate, qui a été produit par un large réseau de gens cherchant à jouer de l’écosystème d’information et à créer des « effets boomerang » où la contestation et la vérification servent avant tout de canaux d’amplification de la manipulation. Les manipulateurs cherchent à ouvrir la fenêtre d’Overton, c’est-à-dire la gamme des idées acceptables par l’opinion publique.

Reste, constate la chercheuse, que jusqu’à présent, les attaques des systèmes algorithmiques, si elles ont parfois été massives, sont restées assez « manuelles ». Or, c’est cela qui risque de changer.

Entraîner un système d’apprentissage nécessite beaucoup de données. Le problème, outre ce besoin insatiable et massif, c’est que toutes les données sont biaisées, explique la chercheuse en pointant par exemple vers une étude qui a observé les biais d’ImageNet, montrant par exemple que les systèmes d’apprentissage automatisés répliquent les biais des humains, classant plus facilement les objets selon leurs formes que selon leurs couleurs. Latanya Sweeney (@latanyasweeney), elle, a montré que la publicité proposée par Google changeait selon la connotation ethnique des noms des utilisateurs soulignant par là que le moteur a tendance à amplifier le racisme à l’oeuvre aux Etats-Unis. Pour danah boyd, adresser les problèmes de biais culturels implicites et explicites des données va constituer un énorme défi pour ceux qui cherchent à construire des systèmes.

Pour la chercheuse, le problème est que ces biais risquent d’être amplifiés par l’utilisation de données d’entraînement provenant d’un peu partout sur le web. Les informaticiens utilisent les données de Twitter ou de Reddit pour construire des modèles pour comprendre le langage naturel par exemple, identifier des motifs sociaux, construire des modèles pour détecter la dépression ou l’engagement, sans saisir toujours que ces données ne sont pas représentatives, pensant que ces données peuvent être nettoyées pour en ôter tout contenu problématique. C’est hélas loin d’être le cas. Nous sommes mal préparés à ceux qui veulent se jouer de nous. Ce n’est pas qu’une question d’incident ou de biais culturel, souligne danah boyd, c’est qu’il y a toujours des gens pour jouer avec le contenu d’une manière stratégique – à l’image de l’affaire du ciblage publicitaire antisémite de Facebook révélé récemment par Propublica (voire les explications du chercheur Olivier Ertzscheid).

Mais danah boyd apporte un autre exemple : celui de l’expérience (.pdf) de Nicolas Papernot (@nicolaspapernot). Afin de comprendre les vulnérabilités des algorithmes de reconnaissance d’image, ils ont cherché à altérer des images de panneaux de signalisation pour transformer des stops en céder le passage, sans que ce changement soit perceptible aux humains. Ce qu’expliquent les chercheurs, c’est combien ces manipulations visant à corrompre une base de données peuvent être simples. « Pensez à ce que cela signifie pour les voitures autonomes », s’inquiète la chercheuse. Pour l’instant, ces attaques sont amicales et sont le fait de chercheurs… Mais cela ne durera pas, prévient-elle. Et d’inviter les entreprises à prendre ces questions au sérieux.


Comment attaquer les boites noires du Machine Learning ? Image tirée de l’expérience menée par Nicolas Papernot qui montre en haut des images modifiées pour perturber le réseau d’apprentissage et la mauvaise interprétation qui en résulte sur la rangée du bas, sans que cette mésinterprétation soit perceptible à l’oeil humain.

Reste, souligne-t-elle, que de nombreuses entreprises, malgré les innombrables brèches et fuites de données à répétition, continuent à ne pas prendre au sérieux la vulnérabilité de leurs données. Les entreprises doivent réfléchir à construire des anticorps techniques. « Vous devez réfléchir à la façon dont vos données peuvent être corrompues, par qui et dans quel but ». L’industrie de la technologie a perdu la culture du test au profit de la culture de la bêta perpétuelle et de la coconception de la qualité avec les utilisateurs. Mais c’est oublier que la culture du test ne se limitait pas à la recherche de bugs. Elle avait aussi pour fonction d’intégrer des dissensus dans les processus de conception et de développement. Désormais, ce sont les journalistes qui humilient les développeurs ont montrant les biais de leurs systèmes. Mais ils ne sont pas les seuls. Les chercheurs s’y mettent aussi, en tentant de construire des systèmes d’apprentissage pour révéler les biais des systèmes. Et danah boyd d’évoquer les recherches dans le domaine des réseaux d’adversaires génératifs (generative adversarial networks, à l’image de cette étude .pdf). L’enjeu, résume la chercheuse, c’est de faire générer des contenus par deux algorithmes afin que l’un évalue ceux de l’autre. L’un tente d’embobiner le second pour qu’il accepte de « mauvaises » informations dans le but de trouver des limites aux modèles déployés.

Pour la chercheuse, il est temps de réintégrer de l’antagonisme dans le processus de construction des modèles. « Nous devons intégrer activement et intentionnellement une culture de l’évaluation, de la vérification et de l’apprentissage fondée sur la confrontation ». Nous devons apprendre à évaluer les biais et construire des outils pour suivre l’évolution des systèmes avec autant d’efforts que ceux apportés à construire des modèles. L’artiste et chercheur Matthew Goerzen va plus loin encore : pour lui, il faut inviter les trolls à s’immiscer dans les systèmes pour en comprendre les vulnérabilités.

Et danah boyd de conclure : « L’industrie de la technologie ne peut plus être le terrain de jeu passionnel d’un groupe de geeks tentant de faire des merdes cools pour le reste du monde. Désormais, elle est le fondement de nos démocraties, de nos économies, de notre paysage informationnel ». Le monde idéal que l’on cherche à construire ne vit pas en autarcie. Il est plus que jamais nécessaire d’intégrer que d’autres souhaitent le manipuler et y semer le chaos et de prendre cela au sérieux.


Image : Image d’un extrait de l’article fondateur du moteur de recherche Google par Sergey Brin et Larry Page qui surligne la phrase prémonitoire qu’on pourrait traduire ainsi : « les résultats de merde balayent souvent tous les résultats qui intéressent l’utilisateur ».

Catégories: Veille et actualités

Pages