Fils RSS agrégés

L’illusion du futur (est) absolu(e)

Internet Actu - ven, 29/09/2017 - 07:00

Le passé et le futur sont comme les deux pôles d’un aimant où chacun de nous est parcouru par la mise en tension de l’avenir qui appuie sur l’accélérateur du progrès tandis que le souvenir du passé freine les débauches technologiques, nous rappelant aux paradis (soi-disant) perdus. Mise en perspective de notre rapport au temps, au passé, au futur sous l’angle du design fiction, pour tenter de mieux cerner d’où nous parlons. Par Marie-Sarah Adenis.

L’illusion du futur (est) absolu(e) Design fiction, des infections aux diffractions des imaginaires

Il y a ce dessin bien connu en Physique pour illustrer la relativité restreinte. Des cônes de lumière permettent de “distinguer un événement passé, un événement futur et un événement inaccessible (dans le passé ou le futur)”.

Habile archer, homme de l’arkhè

Les historiens, les archéologues et les paléontologues scrutent le passé absolu en descendant dans les ténèbres de la mémoire du monde. Leur tournant le dos, oracles et algorithmes traquent le futur absolu dans l’alignement des étoiles ou des chiffres. Mais ce dos à dos n’est peut-être qu’un face à face car les uns et les autres travaillent souvent en miroir (depuis “l’hypersurface du présent”). Car il existe un passage secret entre le passé et le futur et le sablier s’y déforme comme sous l’effet de vases communicants. Quoi qu’il en soit, chacun cherche à se rapprocher de ce fil du temps absolu, qui perfore les cônes de haut en bas et donne une colonne vertébrale à l’ensemble, sa pointe acérée orientant la flèche du temps vers le futur et lui interdisant de faire demi-tour. L’homme des origines, de l’archaïque, de l’arkhè est aussi l’archer qui vise le futur de son arc bandé, parfois les yeux bandés. Si l’être humain ne peut se soustraire aux lois de la Physique et ne peut donc pas involuer le temps, il a depuis quelques millénaires développé maintes stratégies pour ne pas se soumettre entièrement aux lois de la Nature, et peut, sinon rebrousser chemin, au moins dévier la trajectoire du futur absolu. Vers quel avenir pointe-t-elle ? Chacun voudrait le dire, le savoir. Pour tordre le cou à la flèche du temps et l’obliger à s’incliner ne serait-ce que légèrement, il faut ruser.

Couper le futur en quatre

Comment s’y prendre pour opérer ces déviations ? Le design fiction donne à y penser en décochant ses flèches sur la cible des possibles, et marque des points selon qu’il vise les plausibles, les probables ou les préférables. Comme on coupe les cheveux en quatre, Norman Henchey propose de découper le futur en 4 : possible, plausible, probable, préférable, spectre maintes fois illustré par les pratiquants du design fiction :

Les exhalaisons du futur, à pleins poumons

Mais revenons aux cônes de lumière. Comment résister à l’invitation qui est faite à l’observateur de rejoindre la plateforme d’atterrissage de l’hypersurface du présent. “L’observateur” peut parcourir cette hypersurface de long en large, s’ouvrir au brouillard et autres exhalaisons du futur et du passé dont il peut s’emplir les poumons. Il pourra ainsi pénétrer l’illusion du temps que l’éloignement du présent épaissit et dont les parois s’évasent à l’infini. Pour être plus juste, la courbure des cônes devrait troquer sa rectitude contre une cambrure exponentielle, car plus on s’éloigne du présent, plus grande est l’incertitude (ce qui est représenté dans l’illustration suivante).

Presse à diamant, Presse du présent

Les deux cônes inversés taillent le présent en diamant, le futur et le passé pesant de tout leur poids sur le présent, le comprimant jusqu’à ce qu’il ne soit plus qu’un infime instant, à peine perçu, comme ces roches dont on veut mesurer la dureté. Car le diamant est utilisé dans les cellules à enclume de diamant pour connaître la composition des roches du noyau terrestre, tout comme le passé et le futur permettent de sonder notre présent pour en révéler non pas des compositions physicochimiques mais des dispositions automatiques, des comportements normatifs ainsi que des croyances (tous impulsés par le faisceau incident, représenté ci-dessous). Et c’est dans le présent qu’opère le design fiction, par la création d’un récit sur le futur ou le passé qui déstabilise notre présent et nous incite à développer d’autres horizons en passant par le débat et le raisonnement critique (faisceau diffracté, représenté ci-dessous)

C’est un autre faisceau, celui des nerfs, qui est diffracté en passant par le chiasma optique dans le système visuel. Et pour diffracter le faisceau du futur absolu, il faut assurément en passer par le débat contradictoire, qui lui aussi gagne à passer par Chiasma.

Des cônes pas

Le cône du bas (celui du passé) est souvent absent des représentations car l’obsession est au futur. Pourtant, il est fondamental car c’est lui qui permet d’assoir le cône du haut (celui du futur). Tenir sur la pointe, c’est prendre le risque de se casser la figure. Sauf si l’on s’imagine que la vitesse suffit à maintenir la toupie du temps en équilibre. C’est pourquoi ceux qui s’engouffrent dans le futur sans faire la part belle au passé semblent en perpétuelle accélération. Inspirés par le futur, aspirés, puis portés disparus. Car le vortex du futur dégage des vapeurs d’éther. Après quoi les hommes qui ressurgissent des brumes du futur sentent le souffre et menacent le présent avec des bribes de futur comme on taraude les fidèles d’une paroisse qui finissent par se soumettre à ces injections au futur, paralysés qu’ils sont devant ces prophéties.

Le futur nécessite une révolution du passé

Ne tenir compte que du présent pour faire face au futur, c’est donc croire que l’on peut tenir en équilibre sur la pointe, faire fi de la mémoire, des temps révolus alors qu’ils sont en constante révolution autour de leur axe et continuent, dans leur inertie, à influencer les événements à venir. Les spéculations sur l’avenir ont aussi leurs pendants dans les fictions que nous fabriquons quant à notre passé. Le passé est en effet presque autant sujet au fantasme et à l’invention que l’est le futur. Notre mémoire presque aussi vacillante à enregistrer la réalité que notre imagination à penser l’avenir. Ainsi, le cône du passé est lui aussi transpercé d’une multitude de petits cônes qui investissent le passé d’éléments contradictoires, reconstruits, interprétés. À l’image de notre mémoire sélective, de l’immense variabilité de nos expériences et de notre capacité à construire du sens, à le secréter, individuellement et collectivement.

Le passé et le futur sont comme les deux pôles d’un aimant où chacun de nous est parcouru par la mise en tension de l’avenir qui appuie sur l’accélérateur du progrès tandis que le souvenir du passé freine les débauches technologiques, nous rappelant aux paradis (soi-disant) perdus. Schizophrénie que David Benqué a si bien retranscrite (schéma ci-dessous).

Et puis le passé est aussi un champ d’exploration pour le design fiction. Sinon, où pourrait-on situer le travail de Marguerite Humeau qui propose, entre autres, une reconstitution de la voix de Cléopâtre ? Ou bien cette uchronie à laquelle elle nous invite dans son projet FOXP2 où elle retire un élément du puzzle du passé pour regarder comment la pyramide s’effiloche et à quoi ressemblerait le présent s’il en avait été autrement du passé ?

L’absolu mirage

Enfin on en vient au cône du futur, objet de toutes les convoitises qui centrifuge les regards, tourne sur lui même comme une toupie, à nous rendre fous, et ouvre son vaste récipient sur nos peurs et nos fantasmes. Le futur absolu qui trône en son coeur n’a aucun intérêt. Si nous le connaissions, nous ne pourrions de toute façon rien y faire. Car le futur absolu l’est par définition. Plus intéressantes que le mirage hypnotisant du futur absolu : les petites bribes de futur qui gravitent autour de cet absolu et murmurent des bouts de mondes qui nous parviennent, auxquels il faut prêter l’oreille, qu’il nous faut retranscrire, auxquels il faudra donner corps, dans un scénario, un récit, le plus réaliste possible. Alors, nous pourrons revenir dans le présent et nous demander si nous voulons de cette trajectoire ou non, et comment, éventuellement, réorienter le cône des possibles vers des futurs féconds, voluptueux, qu’il nous presse de vivre.

Le talon d’Achille du futur

Les infections et diffractions du passé expliquent certainement beaucoup des infections et diffractions du futur puisque les unes et les autres prennent vie dans les forges de notre esprit. Nous en sommes les hôtes, les captifs mais aussi les créateurs. Nous avons en nous et l’archer et l’homme de l’arkhè. Nous sommes le siège de ce dialogue avec lequel il faut naviguer à vue. Et pour ne pas donner des coups d’épée dans l’eau, il faut savoir ce que l’on vise. Pour le design fiction, c’est souvent le talon d’Achille du futur qui est en ligne de mire. L’endroit qui précisément n’est pas invulnérable. Il est donc un art du tir à l’arc qui s’ingénie à décocher ses flèches en périphérie des projecteurs pour infecter et diffracter nos imaginaires. Et contrairement à la flèche qui tua Achille, les flèches du design fiction ne sont pas empoisonnées. Mais elles peuvent être infectieuses. Car design fiction prononcé un peu maladroitement fait entendre “désinfection” mais aussi “des infections”. Et n’est-ce pas cela qui est au coeur de toutes ces pratiques, cette volonté d’infecter et de désinfecter les imaginaires collectifs pour diffracter et élargir le faisceau incident du temps ?

§

Ce double cône a en plus l’élégance hasardeuse de faire entrevoir le sablier, outil de décompte du temps que l’on peut, contrairement à notre réalité, retourner lorsque le temps est écoulé.

Marie-Sarah Adenis

Marie-Sarah Adenis (@MariesarahA) scientifique, entrepreneure et designer, explore les usages et les imaginaires liés aux biotechnologies à travers des projets de design critique.

Catégories: Veille et actualités

[Appel à communication] 6ème édition des Journées sur le Prix, le Don, la Gratuité et la Valeur

Bretagne - MARSOUIN - jeu, 28/09/2017 - 10:58

La 6ème édition des Journées sur le Prix, le Don, la Gratuité et la Valeur aura lieu les 22 et 23 mars 2018 à l'IAE de l'Université de Tours. Pour leur sixième édition, ces journées rassembleront des recherches en cours ou abouties relatives au prix, à la gratuité, au don et à la valeur. L'objectif principal est de promouvoir les avancées académiques liées
à la variable prix et à la notion de valeur, et d'échanger sur les différentes thématiques connexes et les problématiques qu'elles soulèvent.

Les propositions de communication pourront, par exemple, aborder les thèmes suivants :
perception des prix, lien prix-consommation, arbitrages budgétaires,
recherche de bonnes affaires, expertise sur les prix,
modèles économiques (freemium, low-cost...) et solutions de consommation (MDD, achat d'occasion, promotion...) axés sur les prix bas et la création de valeur
différences culturelles dans la relation au prix et à la valeur
commerce équitable, prix dans les circuits directs
tarification des services publics et culturels
collecte de fonds par les associations
don d'argent ou de temps aux associations ou dans l
es réseaux familiaux ou amicaux
nature de la valeur perçue en B2C / B2B et stratégi
es de création de valeur
(...)

Calendrier

Envoi des propositions de communication (résumé de 5 pages, interligne simple) : 08 Janvier 2018
Notification de l'acceptation des communications : 29 Janvier 2018
Envoi de la version définitive de la communication (normes congrès AFM) : 02 Mars 2018

Retrouvez toutes les informations dans l'appel à communication en pièce jointe.

Communiquer avec humour

Blog e-tourisme - jeu, 28/09/2017 - 08:00

Comment retenir l’attention du touriste ? Comment faire passer un message de façon efficace ? Comment valoriser une action ? Et si l’humour pouvait être une solution …

 

L’HUMOUR POUR FAIRE PASSER UN MESSAGE

La Direction Générale des Entreprises a récemment mis en ligne une vidéo dédiée aux touristes anglophones pour valoriser la marque Qualité Tourisme. Pour retenir l’attention, l’accent a été mis sur l’humour. Cette petite vidéo intitulée « French Surprise » dure moins de deux minutes et joue sur les expressions françaises pour valoriser la marque.

On y explique ainsi que pour éviter les mauvaises surprises, il y a une solution : choisir un des 5500 établissements labélisés Qualité Tourisme qui garantissent un accueil et un service de qualité. L’humour serait-il une belle façon de retenir l’attention et de faire passer le message ? 

 

L’HUMOUR POUR PROMOUVOIR

Si l’humour est une bonne façon pour faire passer un message, c’est aussi une bonne façon pour marquer le touriste et ça les chaînes d’hôtel l’ont bien pris en compte dans leurs campagnes de communication. 

Le Watergate Hotel de Washington a ainsi fait imprimer la phrase « J’ai volé ce crayon au Watergate Hotel » sur les crayons à papier mis à disposition dans les chambres. Sur le même principe, l’hôtel vous propose une Checklist pour ne rien oublier dans leur chambre d’hôtel et rappelle même de ne pas oublier « ses enfants » ou encore « de voler les produits de toilettes ». La chaine d’hôtel Hilton joue également avec l’humour de ses clients, elle a ainsi disposé des petites pancartes sous le lit indiquant « oui, nous nettoyons aussi en dessous du lit ». Une bonne manière de marquer positivement le client qui du coup n’hésite pas à partager les messages sur les réseaux sociaux et ainsi faire de la publicité pour l’hôtel. 

Ces techniques sont aussi utilisées par les destinations touristiques. On peut ainsi citer l’exemple de la Finlande qui a adressé ses félicitations au Canada (pour avoir reçu la première place de la meilleure destination 2017 dans le guide Lonely Planet) en mettant en place un petit clip publicitaire plein d’humour qui joue sur les ressemblances entre les deux pays. 

(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/sdk.js#xfbml=1&version=v2.10"; fjs.parentNode.insertBefore(js, fjs);}(document, 'script', 'facebook-jssdk'));

Welcome to Finland, Canadians!

Hello #Canada! Finland congratulates you on 1st place in Lonely Planet's top destinations of 2017! We came in 3rd, but we figure Canadians need to travel abroad, too, right? Come on over and see us! Love, ThisisFINLAND

Publié par thisisFINLAND – things you should and shouldn't know – This is Finland sur vendredi 28 octobre 2016

  L’HUMOUR POUR VALORISER

L’humour peut ainsi permettre de faire de la publicité ou de faire passer un message. Les organismes de tourisme n’hésitent pas à s’en servir lors de leur formation pour montrer les gestes à faire ou au contraire à ne pas faire, lors de campagnes publicitaires pour attirer les touristes, lors de rédaction d’articles ou lors de présentations pour valoriser leurs actions. 

Ainsi, l’année dernière, le SIBA a mis en place une vidéo humoristique à destination des professionnels du tourisme du Bassin pour valoriser ses outils de promotion. La vidéo met en scène un touriste, joué par un acteur local, arrivant sur le Bassin d’Arcachon et rencontrant différents prestataires touristiques (qui jouent leur propre rôle) : une conseillère en séjour de l’Office de Tourisme, un réceptionniste d’hôtel, un loueur de vélo, un commerçant … A chaque fois les prestataires valorisent un outil de communication du territoire et l’acteur touriste ponctue la visite de blagues et de parodies. 

 

Autant d’idées créatives qui grâce à leur petite touche d’humour ont l’avantage de retenir l’attention du client. En 2016 Denis Genevois nous parlait déjà d’oser le cliché et si finalement c’était la solution ?

The post Communiquer avec humour appeared first on Etourisme.info.

Catégories: Veille et actualités

Comment nous passer de la personnalisation ?

Internet Actu - mer, 27/09/2017 - 07:00

La personnalisation est toujours présentée à la fois comme le Graal de la transformation numérique et la raison de l’exploitation toujours plus poussée des données personnelles des utilisateurs. Elle est une promesse qui ne se suffit jamais à elle-même : sa précision, son efficacité, son adaptabilité sont toujours améliorables et perfectibles. Pour s’ajuster parfaitement à chacun d’entre nous, elle nécessite toujours plus de données, pareil à un puits sans fond qui espère toujours trouver dans notre intimité l’information ultime qui nous caractérisera uniquement, exactement et complètement.

Mais où est passée la personnalisation ?

Pourtant, quand on regarde un peu le fonctionnement des services en ligne, force est de constater qu’à mesure qu’elle nous est assénée comme notre avenir le plus certain, la personnalisation ressemble chaque jour un peu plus à une illusion. En fait, ce qu’on tente d’adapter, ce n’est pas notre unicité à un service, mais les caractéristiques d’un service à de grands ensembles d’utilisateurs auxquels les systèmes tentent de nous faire correspondre peu ou prou. La publicité en ligne ne nous cherche plus nous, internaute unique dans l’océan des logs, elle cible les cohortes auxquels nous correspondons : cohortes d’âges, de revenu, de résidences, d’intérêts… Hormis quand nous revenons d’un magasin en ligne, où elle s’affole pour nous montrer les produits qu’on a le plus souvent déjà acheté, la publicité nous montre, au mieux ce qu’ont vus nos cohortes d’amis, ce qu’ont vus des cohortes de gens censés nous ressembler, au pire ce que voit n’importe qui.

Après avoir longtemps cherché à découvrir nos singularités, les grandes machineries du web semblent même avoir fait machine arrière sur la question de la personnalisation. Le moteur de recommandation de YouTube en fournit une très bonne illustration : les outils de personnalisation comme l’historique où les abonnements à des chaînes ont été peu à peu abandonné au profit d’outils qui produisent du consensus, de l’adhésion, de l’engagement. Le Time Watch, le temps passé des autres utilisateurs, et la fraîcheur des contenus, sont devenus les critères principaux de la recommandation. On vous recommande ce que les autres ont vu, viennent de voir, ce qu’ils sont censés avoir le plus apprécié seulement parce qu’ils y ont passé du temps. On en revient – ou on ne sort pas – au plus lu, au plus vu, au plus recommandé… La personnalisation semble en passe de devenir rien d’autre qu’un prétexte pour adapter les contenus les plus vus à notre réceptivité. Elle ressemble de plus en plus à une optimisation de l’audience qu’à une personnalisation.

La personnalisation visait originellement à moduler les services numériques auxquels on accédait selon ses caractéristiques et préférences personnelles. Son objectif était de rendre chaque service unique, adapté aux besoins et goûts de l’utilisateur. Mais est-ce vraiment cela que proposent les services en ligne ? Cherchent-ils à donner à chacun une information unique depuis ce qu’ils savent de nous ? Force est de constater que ce que les systèmes poussent jusqu’à chacun ce n’est pas le spécifique, mais bien ce qui est le plus commun. Nous ne sommes pas devant une personnalisation, mais bien confrontés à son contraire : une dépersonnalisation. Nous sommes fondus dans les cohortes et catégories auxquelles nous sommes reliés. Plutôt que d’être individualisés, nous sommes généralisés… ce qui participe largement à la polarisation et aux discriminations dont se font l’écho chaque jour les informations sur nos rapports aux services numériques et réseaux sociaux du web.

Dans ce contexte, la personnalisation ressemble de plus en plus à une cosmétique gentille et indolore. Facebook souhaite son anniversaire à chacun. Mais il nous propose pour cela le même outil qu’il propose à tous les autres. La personnalisation est devenue une façade, pareille à un appartement-témoin dont on nous dirait qu’il a été décoré spécialement pour nous, alors qu’il a seulement été conçu pour convenir au plus grand nombre de personnes possible.

Gérer la masse est plus simple que gérer chacun

La catégorisation est finalement bien plus simple que la personnalisation. Gérer des catégories, des familles, des groupes, de larges pans d’utilisateurs est bien plus commode. Cela permet de créer quelques profils types… et depuis eux, quelques routines qui suffises pour gérer des millions d’utilisateurs. L’identification des schémas ne consiste pas à identifier chacun, mais seulement des caractéristiques qui se prêteront à l’exploitation. Or, l’enjeu de la catégorisation est bien de rendre les profils productifs, ce que ne permet pas en fait l’individualisation.

Les algorithmes ne cherchent pas à nous distinguer, mais à nous catégoriser. Et ceux qui se servent des catégories ne cherchent pas à nous atteindre – à atteindre chacun d’entre nous spécifiquement – mais à toucher des catégories de personnes, des profils types auxquels nous correspondons. L’enjeu est bien de nous discréditer, c’est-à-dire de nous faire entrer dans quelques cases d’une catégorisation assez élastique. Nous ne lirons pas demain des articles de presse avec un titre différent par utilisateur. L’A/B testing, l’outil principal de l’amélioration des services, ne teste qu’une maigre poignée d’option, 2 le plus souvent, 4 ou 5 au mieux. Et au final, il finit par servir la même à tout le monde : celle qui a le mieux marché ! Le test psychologique des Big Five distingue une poignée de profils différents et permet d’établir quelques variations pour mieux cibler une offre marketing. Mais là encore, l’enjeu n’est pas tant de distinguer chacun que de faire entrer chacun d’entre nous dans la catégorie la mieux adaptée à son profil. La personnalisation n’a rien de personnel : elle vise juste à vous faire entrer dans une case comme si c’était dans un moule. Les bulles de filtres d’Eli Pariser ne sont pas tant des bulles personnalisantes que des bulles catégorisantes.

En fait, force est de constater que servir le plus vu, le plus partagé, le plus écouté… fonctionne bien mieux qu’un matching qui serait taillé sur mesure pour chacun. Certes, en étant au croisement de multiples catégories publicitaires, chacun est unique. Mais cette unicité, tout le monde s’en fout. Ceux qui cherchent à nous atteindre ne regardent au mieux que les catégories, les communautés, les groupes auxquels on appartient… Si nous n’entrons dans aucune, au pire, ils feront ce qu’ils ont toujours fait : ils déverseront ce qui marche le mieux, ce qui marche pour le plus grand nombre.

Sous les strass et paillettes du « digital », nous restons des produits de masse. Les systèmes suivent des modèles établis. Si les relations qui nous informent sont différentes pour chacun, les modèles sont communs. Facebook se sert de notre profilage comme d’une pilule pour mieux nous montrer finalement le plus commun : il ne cesse de nous mettre en avant les liens les plus chauds que nos relations ont partagés et des millions d’autres partagent au même moment, les vidéos les plus vues, les statuts qui ont recueilli le plus de commentaires. Nous avons beau nous ingénier méthodiquement à faire disparaître ces contenus dont on ne veut pas et ces flux continus de vidéos, ils reviennent aussitôt qu’on les signale, qu’on les masque, qu’on demande à ne plus les suivre… via une autre de nos relations, prétexte à nous servir toujours ce qui s’agite et agite le plus. La seule concession à la personnalisation semble n’être plus que la surprésence qu’une poignée de proche (une 30aine d’amis sur les milliers que nous avons), mais qui semble surtout là pour s’assurer de notre assiduité. Pour l’essentiel, nous sommes toujours ramenés aux troupeaux auxquels nous appartenons, à l’audience et à son volume. Notre personne n’intéresse personne.

En fait, tout cela calcule une identité fluide, contingente, qui n’est pas tant notre identité que la somme des caractéristiques que nous partageons avec d’autres.

Si la personnalisation est un leurre, alors la collecte de nos données est inutile

Si la personnalisation est un leurre, une chimère, un objectif inatteignable… et que les grandes entreprises du web ont finalement renoncé à atteindre, alors se pose la question de nos données personnelles… Si la personnalisation n’est plus de mise, alors la collecte – complète, totale, incessante – de nos données ne sert à rien.

L’inutilité d’une collecte de données exhaustives est depuis longtemps documentée. Les services de musique en ligne par exemple n’ont pas besoin d’accéder à toutes les chansons que nous écoutons pour faire des recommandations pertinentes. Au pire, quelques testeurs qui livreraient leurs données détaillées seraient largement suffisants pour mettre à jour les moteurs de recommandation et leur permettre de s’entraîner sur de nouvelles données… pour produire les recommandations alimentant les autres utilisateurs. Au mieux, une fois les données entraînées, elles pourraient continuer sans avoir besoin d’enregistrer le jour et l’heure de chacune de vos écoutes.

Si les données personnelles s’avèrent ne plus être le pétrole des grandes machineries du web, alors la collecte sans fin de la moindre de nos données n’a plus d’intérêt. Cela signifie que si l’on reconnaissait que la personnalisation est un échec et qu’elle ne mène nulle part, nous pourrions enfin nous attaquer à réduire l’hypersurveillance organisée.

Pour autant, personne ne semble être prêt à céder. Même si elle est un leurre pour entretenir notre consentement à l’utilisation de nos données, nulle ne souhaite reconnaitre que la personnalisation est un mythe, de plus en plus délaissé par ceux-là mêmes qui la portaient aux nues. Tous les business models de demain continuent à reposer sur l’analyse de toujours plus de données. Même si dans la réalité, les services commencent à se rendre compte que cette perspective hypercroissantiste ne mène nulle part… En attendant, l’or noir coule à flots et nul ne souhaite en tarir le flux. Si on espère que le Règlement Général sur la Protection des Données (RGPD) participera à un certain coup d’arrêt, il ne fera pas pour autant réfléchir ceux qui exploitent nos données de la vacuité de cette exploitation. Il ne permettra pas de prendre conscience que plus qu’un or noir qu’il nous faut exploiter sans entrave, les données personnelles sont des déchets toxiques que nous devrions gérer avec précaution et retenue.

Comment nous défaire du mythe de la personnalisation ?

Le problème demeure que nous avons intégré la personnalisation comme l’une des plus grandes promesses des outils numériques. Bien sûr : on nous promet que les systèmes d’Intelligence artificielle, eux, réussiront là où les algorithmes ont échoué. On nous promet Her, le compagnon parfait, Jarvis, le majordome obéissant et toujours prévenant, Watson, le médecin sans faille… Mais c’est la promesse qu’on fait à tous et l’aboutissement que nous semblons tous vouloir. Les systèmes d’IA ont les mêmes défauts. Ils n’apprennent pas de tant de chacun que de tous. Ils maximalisent non pas l’apprentissage individuel, mais d’une agrégation de millions d’apprentissages. Et c’est bien d’ailleurs les IA de YouTube qui lui ont montré que la personnalisation n’était pas le critère à optimiser pour développer le temps passé à regarder des vidéos. L’exploitation de nos biais psychosociaux, comme la réciprocité sociale ou l’approbation sociale, fonctionnent bien mieux.

Pour autant, la personnalisation est un argument marketing très fort qui nous promet que le service va nous satisfaire puisqu’il est fait pour nous. Qu’importe si en réalité, on se retrouve avec des appartements à louer qui se ressemblent tous. Les systèmes d’apprentissages automatisés ne se passeront pas demain de nos données personnelles. Non pas tant qu’ils les utilisent effectivement, mais parce que leurs apprentissages ne sont jamais terminés.

Le problème est, comme le soulignait Rob Horning, que « la collecte de données est utilisée pour créer des marqueurs d’identité à propos de nous que nous ne voyons pas et que nous ne contrôlons pas, que nous ne pouvons pas évaluer, ni accéder, ni modifier directement ». Nous sommes à chaque instant discriminés, calculés, intégrés dans des catégories… sans être capable de voir les catégories produites par-devers nous, ni ceux qui sont catégorisés avec et en même temps que nous, ni bien sûr comment elles sont utilisées par-devers nous. Pourrions-nous imaginer alors remettre un peu de symétrie entre calculés et calculateurs ? Non pas seulement en nous montrant quelles catégories nous caractérisent, mais leur exploitation même ?

L’opacité des traitements, les catégorisations dont nous sommes les sujets, crééent une apophénie qui nous fait croire que le monde tourne autour de nous quand nous n’en sommes que le produit. « Quand on impose des modèles ou des relations sur des choses non reliées, on l’appelle apophénie. Quand on créé ces connexions en ligne, on l’appelle internet », ironisait avec mordant Molly Sauter pour Real Life.

La personnalisation est finalement une promesse bien plus agréable et satisfaisante pour l’égo que l’idée que nous sommes les victimes consentantes des rets de systèmes qui exploitent nos biais sociaux. Pourtant, apprendre à faire en faire le deuil nous permettra peut-être enfin de remédier aux problèmes dans lesquels le mythe de la personnalisation nous maintient.

Hubert Guillaud

Reste que si ces perspectives s’avèrent fondées, ces questionnements en apportent d’autres. Comment désigner cette personnalisation qui n’en est plus une ? Par quoi la remplacer ? Comment nous aider à nous en défaire, c’est-à-dire nous aider à arrêter de croire qu’elle est l’avenir des services ?

Catégories: Veille et actualités

Langues artificielles (2/2) : une entreprise philosophique ?

Internet Actu - mar, 26/09/2017 - 07:00

Comme nous l’avons vu, il existe plusieurs manières d’aborder la création de langues artificielles : le dothraki, le klingon, l’elfique sont des « artlangs » nous dit Peterson, autrement dit des conlangs élaborés à des fins artistiques. Il y a aussi, bien sûr les langues internationales, comme le volapük et l’espéranto…

Mais on peut aussi se livrer à cette activité pour des raisons philosophiques, voire métaphysiques. Et historiquement, cela a été le cas des premiers conlangs…

Avant l’ère moderne, les langues artificielles appartenaient au domaine du sacré : autrement dit, elles étaient révélées lors de visions (ou plus exactement d’auditions). La première du genre est sans doute la Lingua Ignota (« le langage inconnu ») reçue par Hildegard von Bingen, cette prodigieuse abbesse du Moyen-Age, connue pour ses compétences en botanique et ses compositions musicales. Mais sa lingua ignota, nous explique Peterson, reste avant tout un vocabulaire, une liste de mots : elle ne comporte pas de grammaire spécifique ou originale.

Un autre langage « mystique » bien connu des occultistes est le langage angélique ou énochien, reçu par John Dee ou plutôt par son médium, Edward Kelly, à la fin du XVIe siècle. Il s’agit d’un peu plus qu’un glossaire, puisqu’il possède une grammaire et qu’il existe certains textes rédigés en cette langue. Pourtant, pour le le linguiste Donald Laycock, qui étudia le premier cet idiome, il n’a pas la complexité d’un vrai langage et reste très inspiré de l’anglais dans ses structures syntaxiques. A cause de l’énochien, on a attribué à Dee et Kelly la paternité du mystérieux manuscrit Voynich, rédigé en une langue et un alphabet inconnus. Une hypothèse aujourd’hui abandonnée, les théories penchant actuellement pour une origine italienne.

Un autre exemple, beaucoup plus tardif, est celui de Hélène Smith qui sous transe, affirmait s’exprimer en martien. Mais là encore, on a constaté qu’il n’y avait pas d’exotisme grammatical : le « martien » utilise la grammaire du français.

Cette manière de recevoir en transe des mots ou des phrases d’une langue inconnue est classique en histoire des religions, c’est le fameux phénomène de la glossolalie. Les papyrus grecs magiques datant de l’antiquité tardive contiennent un certain nombre de « mots barbares » dont l’origine est inconnue et dont on ignore s’il s’agit de pur charabia, de mots déformés d’une langue existante, ou d’un code.

Les langues « philosophiques »
Mais après la Renaissance on voit apparaître une nouvelle sorte de langages artificiels. Ce sont les « langues philosophiques » qui prétendent refonder notre capacité à exprimer le réel. La plus connue d’entre elles est probablement celle publiée par John Wilkins en 1668 – à noter que Neal Stephenson traite largement du langage philosophique de Wilkins, dans le premier volume de son « cycle baroque« … hélas non traduit.

Wilkins exposa son projet dans un monumental essai de 600 pages, An Essay towards a Real Character, and a Philosophical Language, que les plus courageux pourront télécharger sur archive.org. Comme nous explique Jorge Luis Borges dans l’article qu’il a consacré à Wilkins (disponible ici, mais uniquement en anglais, et publié en français dans le livre Enquêtes) : « Il divisa l’univers en quarante catégories ou genres, ces derniers étant à leur tour subdivisés en différences, elles-mêmes subdivisées en espèces. Il a assigné à chaque genre un monosyllabe de deux lettres ; à chaque différence, une consonne ; à chaque espèce, une voyelle. Par exemple : De, qui signifie un élément ; Deb, le premier des éléments, le feu ; Deba, une partie de l’élément feu, une flamme. »

Dans son livre In the land of invented languages, Arika Okrent nous raconte son expérience avec le système de Wilkins : « La majeure partie des six cents pages de description de la langue de John Wilkins est occupée par une catégorisation hiérarchique de tout ce qui existe dans l’univers. Tout ? Lorsque je me suis assise pour affronter son An Essay towards a Real Character, and a Philosophical Language, j’ai fait ce que n’importe quel spécialiste en linguistique raisonnable et mature doit faire. J’ai essayé de rechercher le mot «merde». »

Opération réussie pour l’intrépide linguiste, qui a découvert que cela peut se dire Cepuhws. Ce signifie le mouvementent, p la purge, uhw, les « parties grossières », et s marque l’opposition (au vomissement, dans ce cas).

Évidemment, tout cela implique non pas une « rationalisation » du langage, mais une bonne dose d’arbitraire. Les catégories sont créées par Wilkins lui-même et reflètent son propre esprit (et celui de son époque). Par exemple, les animaux sont catégorisés par la forme de leur tête. C’est d’ailleurs dans l’article que Borges lui consacre qu’on trouve sa fameuse citation d’une « encyclopédie chinoise » (fictive ?)  proposant la classification suivante des animaux :
« a) appartenant à l’Empereur, b) embaumés, c) apprivoisés, d) cochons de lait, e) sirènes, f) fabuleux, g) chiens en liberté, h) inclus dans la présente classification, i) qui s’agitent comme des fous, j) innombrables, k) dessinés avec un pinceau très fin en poils de chameau, l) et caetera, m) qui viennent de casser la cruche, n) qui de loin semblent à des mouches ».

L’espoir d’une langue universelle relatant exactement la pensée n’est pas mort avec Wilkins. Par bien des côtés, on retrouve cela chez Leibniz. Et de nos jours, une telle ambition peut se retrouver avec des « langages logiques » comme le loglan ou le lojban, mentionnés dans notre article précédent.

Il existe un wiki en français particulièrement complet sur le lojban. Pour s’initier, le plus simple est de se rendre sur l’introduction au lojban proposée sur la page d’accueil. On y apprend ainsi que les verbes sont la base du langage. On crée les noms en rajoutant une préposition à partir du verbe. Par exemple, prami veut dire « aimer », et lo prami signifie « un amoureux ».

De même, les verbes ne se conjuguent pas, tout se règle là encore à coup de prépositions.

On aurait tort, nous disent les aficionados du lojban, de croire que sous prétexte que celui-ci est un langage logique, qu’il s’agirait d’un mode d’expression austère qui rend difficile l’expression d’émotions. Au contraire, le lojban permettrait d’exprimer des subtilités auxquelles nos langues communes n’offrent pas d’accès aisé. Par exemple .iu signifie amour, .ui le bonheur et nai, la négation. .iu.uinai exprime en un seul mot « Je vis un amour malheureux », comme nous l’explique la Wikipédia (bien complète aussi sur le lojban). Attention, .iu et .ui ne sont pas des noms, mais une forme grammaticale typique du lojban, les « indicateurs d’attitudes ».

Et revoilà les extra-terrestres
Reste la question du langage alien, à mi-chemin entre les langages philosophiques et les « artlangs » de la science-fiction.

Une première tentative, datant de 1960, de créer un langage susceptible de permettre la communication avec des extraterrestres via la logique, le lincos, a été présenté dans l’ouvrage de Hans Freudenthal, Lincos : Design of a Language for Cosmic Intercourse, Part 1 (il n’y a jamais eu de partie 2). Bien que le lincos repose sur la logique, comme le loglan, il lui est donc antérieur de quelques années, et surtout son ambition est tout à fait différente. Alors que Brown cherchait à élaborer un test de l’hypothèse Sapir-Whorf, Freudenthal expose lui un système de communication universelle susceptible de mettre en contact des espèces issues de mondes différents. En assumant bien sûr que la logique est un universel !

Dans ce domaine, les « logogrammes » du film Premier contact de Denis Villeneuve sont certainement un cas d’école. Il s’agissait de créer un système d’écriture non linéaire, les extraterrestres du film n’ayant pas la même notion du temps que nous.

Patrice Vermette, le designer du film, a créé à peu près une centaine de ces « logogrammes » en se basant sur une inspiration que lui a suggérée sa femme. Comme nous l’explique Wired : « Un seul logogramme peut exprimer une pensée simple («Salut») ou complexe («Salut Louise, je suis un étranger, mais je viens en paix»). La différence réside dans la complexité de la forme. L’épaisseur d’un logogramme porte également un sens : un trait d’encre plus épais peut indiquer un sentiment d’urgence ; un plus mince suggère un ton plus calme. Un petit crochet attaché à un symbole signifie une question. Le système permet à chaque logogramme d’exprimer un ensemble d’idées sans respecter les règles traditionnelles de syntaxe ou de séquence. »

Mais comment des êtres humains, face à un tel système, pourraient-ils en comprendre la signification ? Contrairement à la plupart des créateurs de conlangs, les concepteurs des logogrammes devaient imaginer deux systèmes : le langage et le moyen de le décrypter. Pour imaginer de façon réaliste comment les héros du film pourraient procéder à un tel décodage
les concepteurs du langage se tournèrent vers Stephen Wolfram. Le créateur de Mathematica n’avait pas assez de temps à consacrer au sujet, mais son fils Christopher se montra désireux de travailler sur les logogrammes. Une partie du pseudo-code qu’il a réalisé se retrouve dans le film, et une longue vidéo (2h en anglais) explique comment il s’y est pris…

Aujourd’hui, la mode n’est plus trop à la création de « langages philosophiques », et ce sont les « artlangs » qui occupent désormais le devant de la scène conlang. Après tout, c’est compréhensible : le lojban n’a pas apporté de réponse à la question de l’hypothèse Sapir-Whorf et les ambitions « messianiques » d’un système comme celui de Wilkins ont très vite montré leurs limites. Pourtant même lorsqu’on crée un « artlang » sans autre but que l’amusement ou la fiction, on se lance déjà dans une entreprise philosophique. Comment représenter le monde d’une manière différente de celles imposées par nos habitudes mentales ? Les catégories que j’utilise pour décrire le monde sont-elles les seules correctes ? Inventer un conlang ne changera pas le monde, c’est sûr. Mais il peut permettre, modestement, d’ouvrir un peu plus l’éventail des possibilités, aider à penser « hors de la boite »…

Rémi Sussan

Catégories: Veille et actualités

Quand les OTA aident vraiment les hôteliers…

Blog e-tourisme - mar, 26/09/2017 - 03:00

Au cours des dernières années, il a souvent été question de la tumultueuse relation entre les agences de voyages en ligne (ou OTA, pour online travel agencies) comme Expedia et Booking, d’un côté, et les hôteliers de l’autre. En juin dernier, je vous posais même la question au sujet d’un des principaux bénéfices liés à une présence sur les OTA: l’effet billboard existe-t-il encore?

On sait que Booking.com lorgne du côté des outils technologiques pour s’immiscer dans le réalité opérationnelle hôtelière, en allant au-delà du simple marketing de distribution en ligne. Ce fut le cas notamment lors de l’acquisition de Buuteeq et Hotelninja, en 2014, des solutions de CRM et de channel management pour les hôteliers. Ces deux applications ont d’ailleurs été fusionnées et rebaptisées sous un entité: BookingSuite.

Avec BookingSuite, on voit ainsi une forme d’intégration verticale dans la gestion des données clients, entre la prise de contact en ligne, la réservation elle-même et la gestion une fois sur place et même a posteriori, le tout sous forme de marque blanche. L’hôtelier qui ne souhaite ainsi pas mettre les efforts requis dans une intégration technologique propriétaire peut ainsi le faire via un tiers, avec ce que cela comporte de risques. Et avantages.

Au tour d’Expedia de passer à l’attaque

Le grand rival Expedia ne reste pas les bras croisés devant ce phénomène dans lequel il est même partie prenante. On a d’ailleurs fait peu de cas, ou si peu, de l’annonce récente du voyagiste britannique Thomas Cook, qui offrira dorénavant l’inventaire hôtelier d’Expedia, en marque blanche, dans le cadre d’une alliance stratégique peu commune – les plus sceptiques diront contre nature…

D’une part, les clients de Thomas Cook pourront avoir accès à plus de 63,000 hôtels actuellement proposés par Expedia. D’autre part, Expedia mettra en ligne les offres de vacances de son partenaire britannique et lui donnera accès au réseau d’hôtels européens proposés sur sa plateforme.

Mais là où on commence à voir une valeur ajoutée intéressante, c’est par l’ajout de services pour les hôteliers tels que les applications Real-Time Feedback (RTF), Expedia Partner Central (EPC), et EPC Conversations. Ces trois outils permettent aux hôteliers de tirer avantage de la machine de guerre que représente le géant Expedia dans le commerce électronique.

Exemple de conversation dans l’outil Expedia Partner Central

Expedia Partner Central permet aux hôtels de gérer leur offre de service sur les plateformes d’Expedia, en plus de leur fournir une foule de données et d’indicateurs sur leur industrie. L’outil EPC Conversations permet aux hôteliers d’entrer en communication avec leurs clients, répondant au souhait d’instaurer un dialogue continu avec les visiteurs avant la fin de leur séjour. On peut ainsi créer une bonne première impression et répondre aux attentes des clients grâce à des messages personnalisés.

De son côté, Real-time Feedback permet de recevoir les premières impressions des clients et à identifier tout éventuel irritant. Il offre la possibilité aux hôteliers de résoudre les problématiques avec les visiteurs durant leur séjour. Grâce aux réponses reçues, les hôteliers peuvent réagir promptement aux problématiques des clients et potentiellement éviter une mauvaise critique de leur part.

Et ça marche?

Disponible en France et depuis quelques temps au Québec, les résultats ne se font pas attendre. À Montréal, les hôtels faisant usage de ces outils ont obtenu depuis le début de l’année des notes de plus de 10 % supérieures à ceux ne les utilisant pas. Ainsi, les établissements membres d’Expedia se servant de EPC Conversations ont reçu un score moyen de 4,07 sur 5 contre 3.76 pour les hôtels n’ayant pas recours à ces applications. Quant à l’outil Real-time Feedback, les hôtels qui en ont tiré profit ont eu une note moyenne de 4 versus 3.88 pour ceux ne l’ayant pas intégré. Les hôteliers qui n’ont pas répondu aux critiques des visiteurs envoyées par le biais de l’application Real-time Feedback ont obtenu un score moyen de 3.7 contre 3.9 pour ceux qui ont réagi.

Exemple de real-time feedback dans l’outil EPC

« C’est un exercice formateur que de s’ajuster aux commentaires constructifs laissés par nos clients, dit Guillaume Dupuis, Directeur eCommerce à l’hôtel St-Paul de Montréal. Réussir à offrir un service qui s’oriente sur les petits détails est extrêmement important dans la mise en place d’une expérience positive mémorable. Cela permet aussi de fidéliser les clients à notre marque. Les outils de communication d’Expedia nous permettent de découvrir les attentes et besoins des clients avant le séjour, de connaître l’expérience en temps réel et de recevoir leur avis sur l’expérience globale après le séjour. » M. Dupuis souligne par ailleurs que des détails aussi simples que le choix de l’étage de la chambre, la proximité des ascenseurs ou la possibilité d’obtenir une chambre hypo allergène peuvent faire la différence lorsque vient le temps de recommander ou non un établissement.

Hors Expedia ou BookingSuite, point de salut?

Certains diront avec raison: mais un hôtelier, surtout quand on fait partie d’une grande chaîne (Starwood, Hilton, Hyatt, Accor), devrait être capable d’avoir ces outils au sein même de son organisation et de gérer la relation-client en interne, non? Dans un monde idéal, oui. Mais ce n’est pas la réalité de tous les hôtels faisant partie de grandes chaînes, et encore moins pour les hôteliers indépendants, qui forment la majorité de l’offre hôtelière, ne l’oublions pas.

Bien utilisés, pour certains hôteliers ces outils peuvent représenter un avantage concurrentiel indéniable. Cela n’empêche évidemment pas la vigilance dans la relation-client, en s’assurant de conserver notamment la main-mise sur les adresses courriel des clients pour communication futures. Mais on voit que, parfois, les OTA peuvent effectivement prêter main forte dans les efforts de marketing et d’expérience client chez les hôteliers…

Save

The post Quand les OTA aident vraiment les hôteliers… appeared first on Etourisme.info.

Catégories: Veille et actualités

[Colloque] Cinéma et audiovisuel : animer les territoires de création

Bretagne - MARSOUIN - lun, 25/09/2017 - 17:21

Dans le cadre du projet ANR Cluster 9-3, une journée d'étude se tiendra le 13 octobre 2017 à l'université de Nantes, sur le thème "Cinéma et audiovisuel : animer les territoires de création".

L'entrée est libre, sur inscription : helene.morteau@univ-nantes.fr

Retrouvez en pièce jointe le programme de la journée.

Voir en ligne : Pour en savoir plus sur le projet Cluster 9-3

Offices de tourisme : il faut investir dans la qualité de l’accueil!

Blog e-tourisme - lun, 25/09/2017 - 07:12

C’est la rentrée ! Et avec elle son lot d’événements majeurs pour le réseau institutionnel touristique. Les ET13 à Pau, les VEM9 ou encore le 31ème congrès d’Offices de Tourisme de France qui aura lieu dans quelques jours. L’occasion idéale de vous en livrer un peu plus sur les travaux de la commission prospective et développement d’Offices de tourisme de France. Travaux qui seront présentés à Chambéry le 28 septembre.

Il sera notamment présenté les résultats d’une enquête nationale sur la vision du grand public au sujet de ces institutions.  Laissez-moi vous introduire en avant-première les résultats de cette grande enquête.

L’enquête

3 semaines de diffusion sur les réseaux sociaux ont été nécessaires et l’enquête a eu un grand succès. En effet, 862 réponses plus tard (précisément) nous avons pu définir les attentes et les besoins des usagers et non usagers. Cette enquête a un intérêt pour le réseau afin de construire le futur des offices de tourisme en pensant client. Voici ce que l’on peut en dire :

52,40% des répondants qui ne travaillent pas dans le tourisme ont pris leurs claviers pour s’exprimer en toute liberté sur l’image de ces institutions. Résultat encourageant qui donne plus de crédibilité à nos propos.

Des touristes connectés mais qui ont besoin de réassurance :

Tous les répondants de l’enquête ont affirmé accompagner leurs recherches numériques d’un autre support : un conseil d’un proche, un appel à l’office de tourisme, ou encore l’achat ou l’emprunt d’un guide touristique (pour 41,90% des répondants).

Les sites internet de destinations sont consultés :

34.82 % des répondants qui ne travaillent pas dans le tourisme ont affirmé utiliser les sites internet des offices de tourisme pour préparer leur séjour.

6 jeunes sur 10 ne rentrent jamais dans un office de tourisme :

C’est un des constats négatifs de l’enquête. Les jeunes entre 18 et 25 ans désertent les offices de tourisme au profit d’une information plus rapidement accessible sur internet. Mais on constate également qu’ils ne s’identifient pas dans l’espace « office de tourisme » qui leur est proposé aujourd’hui.

Place à l’humain !

Indétrônable ! Le conseil humain, si possible éclairé, est plébiscité ! A l’affirmation « je me déplace dans un office de tourisme car « je préfère le contact humain lorsque je recherche une information », ce sont 60,22% des répondants qui affirment être d’accord ou tout à fait d’accord avec cette proposition.

L’accueil jugé moyen dans les offices :

C’est un constat peu plaisant mais pourtant : 57,10% des répondants donnent une note de 0 à 2 (sur 4 ) à la qualité d’accueil en office de tourisme. Ce qui place l’accueil dans une qualité de service moyen. Ce ressenti est souvent dû à l’inégalité des moyens dans les offices de tourisme : l’accueil, l’aménagement, le temps consacré au visiteur …

Graphique enquête mai 2017

Côté positif : 78% des répondants considèrent qu’un bon accueil dans un office de tourisme passe par le conseil éclairé et l’information personnalisée. Ce qui valide la posture du réseau des offices de tourisme en ce sens.

Et quelle est l’image des offices de tourisme aujourd’hui ?

Globalement les termes positifs qui en ressortent sont : « professionnel », « dynamique », « accueillant ». Côté négatif, ce sont les termes « vieillot », « dépassé », « inégal » qui ont été le plus cités.

En complément des trois termes qui définissent l’office de tourisme, nous avons souhaité sonder l’imaginaire de nos répondants. 550 personnes ont construit leurs offices de tourisme idéaux. Et voici ce qui en est ressorti :  

  • L’office de tourisme de demain doit être un lieu de vie plus que de passage : café, espace d’accueil plus agréable, …
  • Les services doivent tendre vers la personnalisation. Analyse du profil de visiteur, propositions adaptées et personnalisées, tous ces détails sont essentiels pour les répondants.
  • Un lieu de vie dynamique et hybride entre habitants et touristes. Les répondants souhaitent pouvoir rencontrer des acteurs du territoire dans l’office mais également des habitants pour pouvoir échanger avec eux.
  • Les répondants souhaitent gagner en autonomie grâce aux outils numériques mis à leur disposition.

Après cette enquête, nous avons organisé des groupes de parole ou focus groupe. Un groupe urbain, un groupe rural et un groupe professionnel. Ensemble, ces usagers ou non usagers des offices de tourisme ont pu étayer nos recherches sur les attentes et les besoins vis-à-vis des offices de tourisme.

Et après ?

Les résultats globaux de l’enquête seront présentés plus en détail lors du congrès des offices de tourisme et un site dédié sera lancé afin de présenter les travaux de la commission. Vous pourrez y retrouver l’enquête résumée et l’enquête détaillée. Dans l’ensemble Offices de tourisme de France souhaite se lancer encore plus en profondeur dans la prospective du réseau. Les projets à venir en seront l’illustration parfaite.

En conclusion, c’est l’humain qui fait la valeur ajoutée des offices de tourisme pour les répondants. Avoir à faire à des équipes expertes, souriantes, compétentes et ambassadrices de la destination, voilà ce que cherchent les usagers. Mais la question qui se pose aujourd’hui c’est : est-ce que l’office de tourisme a toujours une utilité ? Rendez-vous jeudi à Chambéry pour connaître la réponse !

The post Offices de tourisme : il faut investir dans la qualité de l’accueil! appeared first on Etourisme.info.

Catégories: Veille et actualités

[Colloque] Propriété intellectuelle et données dans l'environnement numérique

Bretagne - MARSOUIN - ven, 22/09/2017 - 15:53

Un colloque "Propriété intellectuelle et données dans l'environnement numérique" se tiendra le 6 octobre 2017 à la faculté de droit et de sciences politiques, à Rennes. Pour plus d'informations, consulter le programme (en pièce jointe) et le site du colloque.

"L'air du temps est au « digital » ; il vise à l'accès gratuit, facile, sans contraintes (ou presque), aux contenus numériques de tous genres, qui se transforment en données numériques. Mais le glissement de la donnée numérique à la donnée tout court est dangereux. Car le droit extrait la donnée brute, abstraite, de la protection par la propriété intellectuelle, alors même que la donnée est devenue l'or noir du 21e siècle. Comment concilier la tendance à l'ouverture des données avec la protection offerte par propriété intellectuelle ?
Ce colloque pluridisciplinaire propose d'identifier et d'analyser les points de contact entre ces deux aspirations contradictoires."

Voir en ligne : Site du colloque

Collect moments but also villas !

Blog e-tourisme - ven, 22/09/2017 - 07:00

La saison estivale aura été fructueuse pour Airbnb avec 5,6 millions de voyageurs français ayant séjourné dans un logement de la plateforme (juste derrière les 13 millions de voyageurs américains). Et si l’on trouve tous types de logements sur le site d’Airbnb, un petit nouveau appelé The Collectionist trace sa route. Créée en 2013, la plateforme se positionne sur les villas de luxe. Allons voir ça ! 

The Collectionist : un petit nouveau qui trace sa route

Cela fait maintenant quelques années que nous observons des changements de comportements chez les voyageurs : plus soucieux de l’environnement, à la recherche d’expériences à vivre, ils sont aussi en recherche d’hébergements de qualité et hors du commun. Et ça, The Collectonist l’a bien compris et se définit comme une « collection de lieux, de maisons, d’expériences, de destinations et de rencontres« .  

Après une première levée de fonds fin 2015, la plateforme vient, tout récemment, de réussir une seconde levée de fonds de 8,3 millions d’euros, lui permettant ainsi de renforcer sa position internationale « d’Airbnb des riches » comme elle est souvent appelée. 

Aujourd’hui, le panier moyen des hébergements de la plateforme avoisine les 1000 euros par nuit. Concernant leur clientèle, 80% est internationale dont 30% viennent de Grande-Bretagne. 

A noter que le site est parsemé de jolies illustrations, une pratique peu courante sur les plateformes de réservations touristiques.  

Des expériences et des villas d’exception !

La plateforme propose à ses voyageurs de vivre des expériences extraordinaires en fonction de leur lieu de séjour. Par exemple ramasser du sel à Ibiza, fabriquer (et déguster) du caviar en Aquitaine, ou cuisiner des pâtes fraîches sous la coupe d’un chef. Pour répondre aux attentes de leurs clientèles et personnaliser au maximum les hébergements loués, un concierge privé peut être présent pendant la durée du séjour. Un cuisinier, une masseuse, ou encore un professeur de ski peuvent être mis à disposition si les touristes le souhaitent. Autant d’expériences inédites qui donnent envie de se laisser embarquer.

Une des expériences proposée par The Collectionist : découvrir Megève avec des huskies. 

Néanmoins, le point fort de The Collectionnist, c’est quand même les 928 maisons référencées sur la plateforme. Parmi les destinations mises en avant on trouve Paros, Mykonos, Aix-en-Provence, Megève, Ibiza, Courchevel, le Cap Ferret, et j’en passe !

Dans la barre de recherche on peut renseigner :

  • Un mot clé : la destination précise, l’envie d’une piscine, un séjour à la montagne, etc.
  • Les dates souhaitées
  • Une fourchette de budget
  • Le nombre de personnes (de 1 à 52) : venez nombreux ! 
  • Le nombre de chambre (de 1 à 26)

Un peu en manque de mon sud-ouest, j’ai lancé une recherche « Cap Ferret ». Et parmi la liste des villas, plus magnifiques les unes que les autres il faut bien l’avouer, je choisis la villa Théo. Force est de constater que la fiche produit a une certaine ressemblance avec celles d’Airbnb (photo ci-dessous). Le site propose également des expériences à vivre ciblées par rapport au lieu sélectionné. 

D’autres sites de villas de luxe

Alors des sites de location de villas de luxe il en existe un certain nombre. On peut, par exemple, citer : 

  • Coins Secrets qui propose des villas de luxe en France
  • Chic Villas qui propose la location de châteaux et de villas de luxe en France, Italie et Espagne
  • Luxury Retreats, un spécialiste des villas de luxe à travers le monde
  • Villas of Distinction qui propose également des destinations à travers toute la planète

Mais la comparaison récurrente faite avec Airbnb semble servir la plateforme de villas de luxe. En quelques années, celle-ci a réussi à se faire une place sur le marché de la locations d’hébergements touristiques. Une plateforme à surveiller ! 

The post Collect moments but also villas ! appeared first on Etourisme.info.

Catégories: Veille et actualités

Comment YouTube s’est transformé

Internet Actu - ven, 22/09/2017 - 07:00

Google, YouTube, FB, Twitter, Instagram, tout comme votre site d’information ou de commerce préféré semblent immuables…, alors qu’ils ne cessent de se modifier, d’une manière qui nous est bien souvent invisible. Les techniques qui les font fonctionner évoluent sans même qu’on y prenne garde. Pour The Verge (@verge), Casey Newton (@CaseyNewton) revient en détail sur l’évolution du moteur de recommandation de YouTube.

Longtemps, en matière de personnalisation, YouTube est resté assez timide : l’utilisateur pouvait s’abonner à des chaînes… et c’était à peu près tout. Le temps moyen passé sur YouTube ne progressait guère. Désormais (au grand drame des youtubeurs d’ailleurs), les chaînes ne dominent plus YouTube. Quand vous ouvrez YouTube, quelques recommandations proviennent encore des chaînes auxquels vous vous êtes abonnés, mais pas l’essentiel. Il vous recommande plutôt des vidéos selon des critères d’audience, de fraîcheur des contenus ou de centre d’intérêts liés aux mots clefs qui les indexent. Petit à petit, YouTube a modifié ses outils de recommandation dans le but d’augmenter le temps moyen que chacun passe à regarder des vidéos.

Ce qui a tout changé, explique Jim McFadden, le responsable technique des recommandations de YouTube, c’est quand le moteur de recommandation a décidé de baser ses recommandations algorithmiques non pas sur le nombre de personnes ayant cliqué sur une vidéo, mais sur le temps que les gens passaient à la regarder, le fameux time watch. Le temps passé sur YouTube a alors augmenté de 50 % par an (et ne cesse d’augmenter à un rythme soutenu). Pour YouTube, le fait de regarder une vidéo est devenu un indicateur de sa qualité, tout comme le nombre de liens pointant vers une page a été le critère principal de qualité du pagerank de Google Search.

Ce changement et cette réussite, YouTube le doit à Google Brain, la division intelligence artificielle de Google, à laquelle YouTube a recours depuis 2015. Alors que YouTube a longtemps recommandé des vidéos très similaires (d’autres vidéos d’un même compte ou d’un même humoriste par exemple), l’apprentissage automatisé a permis d’élargir la recommandation. Pour cela, YouTube a développé la catégorisation des vidéos (un peu comme Netflix et ses générations de catégories à la volée que décodait Ian Bogost…). Si pour l’instant elles ne semblent pas générées automatiquement, les catégories permettent de recommander des vidéos adaptées : recommander une vidéo politique à quelqu’un qui regarde de la politique par exemple.

Google Brain s’est mis aussi à recommander des vidéos plus courtes à ceux qui se connectent à YouTube depuis un mobile et plus longues à ceux qui se connectent depuis un écran de télévision. YouTube a réalisé quelque 190 changements en 2016 et il devrait en réaliser plus de 300 cette année. Des tas de petites améliorations qui s’ajoutent les unes aux autres au fil du temps. Il a également adopté un fonctionnement plus rapide qui permet de mieux repérer les vidéos les plus récentes et identifier les vidéos virales pour mieux les recommander. Brain a eu un très fort impact : 70 % du temps passé sur YouTube est le fait des recommandations algorithmiques, estiment ses promoteurs.

Pour Casey Newton, YouTube est devenu bien différent des autres plateformes qui façonnent nos vies numériques. Facebook est basé surtout sur ce que vos relations publient et ce avec quoi vous interagissez, mais YouTube est une plateforme basée sur la performance. Pour lui, elle élargit notre horizon bien plus que d’autres plateformes. Pour Todd Beaupre, responsable de la découverte chez YouTube, le moteur de recommandation de YouTube réussit à la fois à croiser ce que vous avez déjà aimé (essentiellement les catégories liées aux contenus sur lesquels vous avez passé du temps) avec ce qui est à la mode et populaire (lié aux mêmes catégories).

Reste que tout le monde ne partage pas cet avis. Plutôt que d’élargir les choix, beaucoup reprochent à YouTube d’être très enfermant, notamment du fait de son choix de recommander ce que d’autres ont également regardé et sur lequel ils ont passé du temps. Ces choix de conception ne sont pas sans biais, comme le relevait lors des élections présidentielles Algotransparency, en tentant d’observer les différences de recommandation faite par YouTube des candidats à la présidentielle Française, pointant le fait que le moteur aurait tendance à plus recommander certains candidats plutôt que d’autres (voir l’article que consacrait le Monde à ce sujet). Dans un précédent billet, l’un des membres d’Algotransparency, Guillaume Chaslot, soulignait que le système de recommandation de YouTube, bien plus que le moteur de recherche de YouTube ou de Google (qui n’est pourtant pas sans biais, comme le souligne avec constance le chercheur Olivier Ertzscheid), avait tendance à recommander bien plus de contenus peu recommandables que ses confrères.

Reste qu’essayer de comprendre le système de recommandation de YouTube reste compliqué. La popularité et l’addictivité semblent être devenues des critères forts de la recommandation chez YouTube, plus fort que la personnalisation déterminée par les like et dislike (qui semblent n’avoir plus aucun impact), les abonnements ou l’historique de navigation. Mais, comme le soulignent Algrotransparency, il demeure difficile de comprendre YouTube. YouTube n’indique pas par exemple le nombre de fois où une vidéo a été suggérée par son algorithme. Effectivement, si le watch time devient le critère principal, peut-être faut-il envisager que nous puissions y avoir accès ?

Catégories: Veille et actualités

Pourquoi les réseaux sociaux décentralisés ne marchent-ils pas ?

Internet Actu - jeu, 21/09/2017 - 07:00

En 2016, l’artiste et activiste Jillian York (@jilliancyork a été exclue de Facebook pour avoir relayé des images d’une campagne allemande de prévention du cancer du sein. Même si cette exclusion a été de courte durée, elle a eu un impact sur le travail de Jillian. Pendant plusieurs heures, elle ne pouvait plus poster de commentaires sur une large gamme de sites d’information qui intègrent l’outil de commentaire de FB… ou utiliser des services nécessitant FB pour s’authentifier, comme Spotify… Etre exclu de FB a donc désormais des conséquences directes sur notre quotidien, sur notre capacité à accéder à des services, à travailler (notamment avec des outils de travail qui utilisent la solution d’authentification de FB voir avec Facebook Workplace), au-delà de FB lui-même.

Pour les chercheurs du Media Lab du MIT Chelsea Barabas (@chels_bar), Neha Narula (@neha, directrice du Laboratoire des monnaies virtuelles du MIT) et Ethan Zuckerman (@ethanz, directeur du Centre pour les médias civiques du MIT), dans une tribune publiée par Wired, le web est passé d’un espace ouvert pour la libre expression à une communauté fermée de plateformes privées appartenant à des entreprises. « A mesure que ces plateformes élargissent leur portée, les effets des exclusions qu’elles portent peuvent avoir de graves conséquences personnelles ou professionnelles pour les utilisateurs, sans que leurs capacités de recours soient claires ».

En réponse à ces effets de privatisation, de nombreux pionniers défendent le développement de plateformes décentralisées. Le principe des plateformes décentralisées, héritières du P2P et des technologies qui font fonctionner la plupart des cryptomonnaies, reposent sur la création de plateformes qui ne sont pas administrées par un acteur central, à l’image du réseau social Mastodon (Wikipédia), du système d’applications locales Blockstack, du clone du forum Reddit : Steemit… Malgré leurs promesses, les trois chercheurs demeurent sceptiques : les systèmes décentralisés ne suffiront pas à lever les menaces des méga-plateformes.

Tous ces outils, à l’image de Diaspora ou FreedomBox (Wikipédia)…, montrent leur difficulté à acquérir une base suffisante d’utilisateurs. Nous rejoignons des réseaux parce que nos amis y sont présents, pas pour des raisons idéologiques comme la décentralisation ou la protection de la vie privée, soulignent les chercheurs. Alors que les réseaux sociaux existants ont perfectionné leurs interfaces en se basant sur les retours d’expériences de millions d’utilisateurs, la simplicité, la convivialité et la commodité des interfaces des réseaux décentralisés laissent souvent à désirer.

Certes, sur le papier, les plateformes distribuées pourraient théoriquement s’attaquer aux problèmes que cause le caractère privé et centralisé des plateformes, comme le fait qu’elles privilégient les chambres d’échos ou les contenus accrocheurs… Mais cela représente encore un sérieux défi pour les nouveaux systèmes estiment les chercheurs, qui pointent les effets de concentration à l’oeuvre jusque dans les systèmes décentralisés comme le bitcoin. La consolidation du marché des plateformes centralisées, elle, encourage la concentration et décourage l’interopérabilité pour favoriser leur insatiable croissance. En fait, les chercheurs estiment qu’il n’y a pas de solutions techniques simples pour répondre au monopole des plateformes centralisées.

Pour les chercheurs, la meilleure stratégie consiste à mettre en oeuvre des politiques qui permettraient à des plateformes décentralisées d’exister plus facilement : en favorisant par exemple la transférabilité des données, l’interopérabilité et des alternatives au modèle publicitaire. Si les utilisateurs ont plus de contrôle sur leurs données, notamment le droit d’exporter et de réutiliser les contenus qu’ils ont créés et partagés comme les amis qui les suivent, ils seront plus enclins à expérimenter de nouvelles plateformes. Si les partisans du web décentralisé ont de bonnes intentions, la décentralisation est loin d’être une solution miracle. Elle n’adviendra pas toute seule en tout cas estiment-ils. L’étude qui accompagne cette tribune pointe également l’importance à trouver des modalités de financement pour développer et soutenir ces plateformes décentralisées.

Pour illustrer les limites de ces solutions, sur son blog, Ethan Zuckerman revient en détail sur le développement et le fonctionnement de Mastodon. Il rappelle que du fait que Mastodon soit une espèce de fédération de services, on connaît mal son envergure, c’est-à-dire le nombre de personnes qui l’utilisent réellement (le Mastodon Monitoring Project recense environ 2142 instances de Mastodon, soit 1,5 million d’utilisateurs enregistrés – mais tous les serveurs ne sont ni fédérés ni déclarés). Néanmoins, on estime qu’une grande majorité d’utilisateurs de Mastodon sont japonais. Or, ce succès s’explique surtout par le succès du lolicon, des dessins érotiques ou pornographiques que Twitter et Facebook ont chassés de manière très agressive. Les serveurs Mastodon ont été pour ces utilisateurs un refuge. La seule raison de la croissance de Mastodon vise donc à contourner la censure automatisée que pratiquent les plateformes centralisées. « L’attrait de la publication décentralisée est qu’elle permet de créer des communautés en ligne qui opèrent sous toutes sortes de règles différentes. Si Twitter ne trouve pas le lolicon acceptable, les fans de lolicon peuvent créer leur propre communauté en ligne avec leurs propres règles. » Pourtant, signale le chercheur, le principal intérêt des plateformes décentralisées n’est pas la résistance à la censure, mais de permettre à des communautés de fonctionner selon leurs propres règles. Force est pourtant de constater que le succès (limité) des plateformes distribuées repose bien souvent sur la liberté de publication de contenus controversés (qui a toujours été un moteur d’innovation). Reste que, hormis pour les utilisateurs stigmatisés, capables de faire des efforts pour utiliser des outils trop souvent complexes, la plupart des utilisateurs ne sont pas prêts à laisser tomber la commodité et la convivialité des plateformes centralisées. En fait, tant qu’elles ne seront qu’un refuge pour des utilisateurs stigmatisés, les plateformes décentralisées auront du mal à connaître le succès. Pour cela, elles doivent trouver les moyens de leur financement et faire un réel effort de conception…

Catégories: Veille et actualités

L’avenir des OGD : en reprise!

Blog e-tourisme - jeu, 21/09/2017 - 05:00
« La prévision est difficile surtout lorsqu’elle concerne l’avenir. »  Pierre Dac 

La mission de ce (fascinant) blogue est, en quelque sorte, de prédire l’avenir en détectant les divers signaux qui façonneront la mission et le modus operandi des nombreux acteurs du tourisme. Jour après jour, nous tentons de déceler quelles seront les meilleures pratiques et les principaux outils (numériques) de demain, et par le biais de courts billets nous alertons la planète! Par contre, peu ou pas assez souvent nous n’écoutons les préoccupations de ces mêmes acteurs institutionnels du tourisme. C’est pour cette raison que je me permet de vous présenter et de synthétiser une chouette étude menée par le consortium DestinationNEXT, toute récemment publiée, et qui fait le point sur les préoccupations concrètes des patrons d’OGD. L’étude DestinationNEXT Futures Study 2017 est le fruit d’une enquête auprès de 433 répondants dirigeants d’OGD provenant de 52 pays, cette étude étant une mise à jour d’une premier exercice publié en 2014.

 

Deux sections de cette étude m’ont particulièrement interpellé, à savoir les nouveaux métiers des OGD tels que perçus par les répondants, et aussi les stratégies envisagées pour faire face aux nouveaux enjeux.

 

Les nouveaux métiers des OGD tels que perçus par eux-mêmes

Cinq nouveaux métiers émergent de la réflexion des gestionnaires des OGD consultés, et ont tous un dénominateur commun: ils ne reposent pas sur des compétences touristiques!

Quels sont donc ces métiers au coeur de la réingénierie des OGD?

Curateurs

Historiquement, les OGD se sont présentés comme les portes d’entrée des destinations qu’elles représentent, mais rarement elles ont développé elles-mêmes les contenus. Souvent, ce sont des tierces-parties (agences de publicité, blogueurs ou journalistes) qui élaborent ces contenus, et l’expertise est donc impartie à l’externe, ce qui représente une perte nette pour l’OGD. L’accès pour le voyageur à une information désormais omniprésente et le développement d’outils de publication de contenus plus nombreux et plus accessibles créent un paradoxe : le visiteur potentiel est maintenant submergé de contenus. Ainsi, on prévoit – par un amusant retour de balancier – que les OGD pourront devenir les curateurs et les validateurs des diverses sources d’information sur la destination, garantissant son authenticité, sa pertinence et sa neutralité. 

Adopter des outils d’intelligence économique et de traitement de données

La collecte du data est l’avenir du tourisme! La gestion et l’analyse des données impliquent la collecte et l’exploration systématiques de données sur le territoire et dans les entreprises et les sites pour aider l’OGD à prendre des décisions stratégiques et à obtenir un avantage concurrentiel durable. Les OGD devront envisager un cadre d’affaires qui identifiera les occasions d’utiliser davantage l’analyse de données et, surtout, d’être à la recherche constante de toutes les informations sur les déplacements des visiteurs sur le territoire, et de savoir les capturer. 

Catalyseurs du développement économique de la destination

Fidèles émules de Joël Gayet, vous reconnaitrez ici les bases de l’attractivité territoriale. Nous savons désormais que les OGD ont un rôle plus large (donc horizontal) dans le développement d’un territoire, et qu’ils ne peuvent plus aspirer à une chasse-gardée. Sans surprise, les répondants de l’étude DestinationNEXT conviennent que les OGD ont un rôle crucial à jouer au chapitre du développement économique de leur territoires, notamment en influençant les diverses parties prenantes, en devenant les catalyseurs des projets de développement – liés de près ou non au tourisme –, mais toujours au bénéfice de la communauté.

Activistes (oui oui!) du « place making » de la destination

Peu d’OGD participent activement au développement du « place making » des destinations. Pourtant, ces organisations concentrent le talent, la compétence et le leadership pour jouer un rôle proactif à ce chapitre. Réfléchir, concevoir et mettre en oeuvre des approches de développement durable de la demande touristique, réfléchir à réduire les externalités, implanter des stratégies des partenariats et assurer le maintien de la qualité de vie des résidents, tout ça devient au coeur de l’action des OGD à l’heure actuelle, et ça le sera davantage pour les années à venir

Collaborateurs avec des réseaux stratégiques

Il est essentiel que les OGD développent et entretiennent de multiples réseaux, bien au-delà des traditionnels regroupements d’entreprises touristiques. Par exemple, établir des relations stratégiques avec des agences gouvernementales et non-gouvernementales, avec les universités et les grandes écoles (jamais l’importance de l’adéquation entre la formation et les besoins des entreprises n’a été aussi criante que maintenant) et avec autres partenaires socioéconomiques du territoire permettent d’asseoir la crédibilité et la légitimité de l’activité touristique. Et, surtout, créer des alliances avec les conventions et les clients du commerce de voyage. La co-création de la destination devient un modèle dominant dans tous les secteurs, et doit être intégré dans les stratégies de développement des OGD.

  Stratégies pour faire face aux enjeux des OGD

Quelles sont donc les stratégies privilégiées par les répondants de l’étude DestinaNEXT? Elles sont ma foi fort nombreuses! Bien que l’étude répertorie 25 principales stratégies, je me concentrerai ici sur les quatre premières. 

Ces quatre premières stratégies, toutes apparues au cours des trois dernières années, viennent confirmer un mouvement majeur vers l’intégration et le développement de ressources et de compétences au sein des OGD, visant à les rendre plus autonomes et moins dépendantes de ressources externes (en amont et en aval). Cela témoigne aussi, sans aucun doute, des grands bouleversements vécus par les OGD partout sur la planète au cours des trois dernières années. Autant les deux premières portent sur le développement de contenus et sur leur diffusion par les propres moyens de l’OGD, autant les deux suivantes reposent sur une conception nouvelle de la destination,  où l’authenticité des expériences (et non pas des « produits ») et les moyens de rejoindre le visiteur – à toutes les étapes de son cycle de voyage – apparaissent au coeur de la mission de l’OGD, et de ses responsabilités. 

1. Mon organisation investira plus d’efforts et de ressources en génération de contenus vidéo pour mettre en marché la destination

À l’heure de Snapchat et des vidéos Instagram, et maintenant que la très haute vitesse est disponible presque partout, l’expérience de la vidéo devient la norme incontournable. Pourquoi impartir à l’externe la génération de contenus, alors que les visiteurs eux-mêmes sont des producteurs inlassables de contenus vidéos, et où même les petits OGD peuvent assurer la curation de ces mêmes contenus, et en développer par eux-mêmes. 

2. Mon organisation mettra l’accent sur les stratégies de création et de diffusion de contenu

Oui créer des contenus, mais pas n’importe quoi, n’importe quand! Le tout doit reposer sur des stratégies de création ET de diffusion de ces mêmes contenus, conformes à l’image de marque de la destination et à son positionnement. Basique et évident, me direz-vous, mais pourtant essentiel. 

3. Ma destination se concentrera sur le développement d’expériences authentiques pour le visiteur

Marketing expérientiel, dites-vous!? Plus facile à dire qu’à faire! Le numérique permet de réaliser bien des choses, mais l’OGD est la seule organisation à pouvoir faire émerger l’ADN d’une destination, et à la rendre à la fois matérialisable et « consommable » pour les visiteurs. Fini les listes et les inventaires, les OGD désirent concevoir et mettre en scène le territoire. D’un voeux pieux, on passe à des actions concrètes. L’expérience récente de l’Alliance de l’industrie touristique du Québec, qui a créé et mettra sous peu en oeuvre des « tables expériences », où les partenaires privés et publics participeront à un exercice de co-création des campagnes  en est une superbe illustration.

4. Ma destination développera des moyens de se « connecter » aux visiteurs à travers toutes les étapes cycle du voyageur

Ah, le cycle du voyageur! On n’en parlera jamais assez! Mais outre en parler, comment l’envisager? La question devient désormais d’identifier quelles parties prenantes sont actives – et idéalement efficaces – à chacune des étapes du cycle. Historiquement, les OGD voulaient faire rêver, et se souciant peu (concrètement et réellement) du service après-vente. Mais si l’OGD n’est pas présent, qui le fera!? 

Je me permet un clin-d’oeil à l’initiative de l’Office du tourisme de Québec, qui, dans son Plan d’affaires 2017-2021, s’est interrogé sur ses investissements passés à chacune des étapes du cycle du voyageur et aux nouvelles cibles qu’il se donnera, afin de faire une différence (par exemple, en se retirant presque totalement de l’étape de la réservation, bien occupée par les partenaires privés de la destination). Au final, les ressources de l’OGD de Québec sont maximisées, et celles de ces partenaires tout autant.

Plutôt que de se limiter à décrire le cycle comme on le voit dans le graphique ci-dessus, l’OTQ s’est interrogé sur ses investissements en ressources (humaines et financières) sur chacun des cycles, et a modulé ses nouvelles cibles à ce sujet, en collaboration avec la gouvernance régionale.

 

En conclusion!

On  peut constater à la lecture de cette passionnante (et courte!) étude le caractère universel des problématiques, des enjeux ainsi que des stratégies des OGD de partout sur la planète. Il est aussi rafraîchissant de constater que des mouvements de fonds et de grande envergure secouent le monde des organisation de gestion de destination, et que ceux qui sont à leur tête en sont conscients et adoptent des stratégies novatrices pour tirer profit des opportunités et répondre aux enjeux. Les OGD, plus qu’on ne le croit, se réinventent perpétuellement.

Lien vers l’étude: Étude DestinationNEXT 2017

 

The post L’avenir des OGD : en reprise! appeared first on Etourisme.info.

Catégories: Veille et actualités

Le GIS M@rsouin recrute un.e statisticien.ne

Bretagne - MARSOUIN - mer, 20/09/2017 - 17:06
Recrutement au GIS M@rsouin (IMT Atlantique, campus de Brest)

Description du poste :
IMT Atlantique recherche un.e statisticien.ne ou/et économètre pour travailler au sein de l'observatoire des usages numériques du Groupement d'Intérêt Scientifique M@rsouin.

Il s'agira de participer à la conception, au pilotage, à l'analyse et à la restitution d'enquêtes quantitatives sur le thème des usages numériques.

La personne recrutée aura les missions suivantes :

  • Pilotage et suivi des enquêtes (cibles : ménages, entreprises, communes…) : construction des questionnaires, échanges avec les équipes de recherche, définition des plans d'échantillonnage, recrutement et suivi des entreprises prestataires réalisant les interviews téléphoniques.
  • Traitement statistique des données : tests de cohérence, redressement de l'échantillon, tris à plat et croisés, analyse de données : analyses factorielles, classification (ACM, CAH …), économétrie (régression, notamment logistique).
  • Restitution sous forme de rapports, d'articles et de présentations des résultats d'enquête. Diffusion des bases de données aux partenaires de l'enquête et en open data. Elle assistera également les équipes de recherche du GIS en terme de soutien méthodologique et statistique et pourra être amenée à participer au montage de projets (européens, régionaux) et à la conception de nouvelles enquêtes en collaboration avec la chargée d'étude de l'Observatoire des Usages.

Profil du candidat :
De formation supérieure en statistiques ou en économétrie (Master ou école d'ingénieur (Ensai-Ensae), ou IUT si expérience), le ou la candidat(e) justifie de stages significatifs ou d'une première expérience dans le traitement statistique de données.
La maîtrise de R ou SAS ou la capacité à acquérir rapidement cette maîtrise est fortement requise.
Le ou la candidate devra montrer un intérêt marqué pour les sciences humaines et sociales.
La maîtrise de l'anglais écrit et oral serait appréciée. Outre les compétences techniques, le ou la candidate aura démontré ses capacités d'adaptation et son autonomie, alliées à une bonne aisance relationnelle et rédactionnelle.
Des compétences en collecte de données du Web serait un plus significatif.

Caractéristiques du poste :
Le poste est un CDD temps complet de droit public de 12 mois reconductible, à pourvoir à le plus tôt possible et au plus tard début décembre 2017. Il est basé à Brest. La rémunération sera fonction du niveau de diplôme et de l'expérience.

Merci d'envoyer CV et lettre de motivation avant le 17 octobre 2017 à contact@marsouin.org
Des entretiens avec les candidats présélectionnés sont prévus les 25-26-27 octobre.

[Appel à communication] Recent ethical challenges in social network analysis

Bretagne - MARSOUIN - mer, 20/09/2017 - 09:03

Un colloque consacré au thème "Recent ethical challenges in social network analysis" se tiendra les 5 et 6 décembre 2017 à Paris. Dans ce cadre, un appel à communications est lancé. Les propositions de communications sont à envoyer pour le 15 octobre.

Télécharger l'appel à communications
En savoir plus sur le site dédié au colloque

"Interdisciplinary research on social networks is experiencing unprecedented growth, fuelled by the consolidation of the field of social network analysis and the increasing availability of data from digital networking platforms. However, it raises formidable ethical issues that often fall outside existing regulations and guidelines. New tools to collect, treat, store personal data expose both research participants and practitioners to specific risks. Issues surrounding political instrumentalization or economic takeover of scientific results transcend standard research concerns. Legal and social ramifications of studies on personal ties and human networks surface at an unprecedented pace.

The aim of this workshop is to bring together researchers in the social sciences, economics, management, statistics, computer science, law and philosophy, as well as other stakeholders, to further advance the ethical reflection in the face of new research challenges.
The workshop will take place on the 5th (full day) and 6th (morning) December 2017 in Paris, with open keynote sessions to be held at the Hôtel de Lauzun, a 17th century palace in the heart of historic Île de la Cité."

Voir en ligne : Site du colloque

[Appel à communication] Usages du numérique en éducation : regards critiques

Bretagne - MARSOUIN - mer, 20/09/2017 - 08:57

Organisé par le laboratoire ICAR et l'université Lyon 2, le colloque Usages du numérique en éducation : regards critiques se tiendra du 22 au 23 mars 2018 à Lyon.

Le colloque s'emploiera à faire le point sur la question des usages du numérique en éducation et à examiner en particulier pourquoi la notion reste centrale dans la réflexion.
L'objectif principal sera ainsi de dresser un état des lieux de la recherche pluridisciplinaire sur les usages du numérique en éducation afin d'examiner d'une part comment les outils technologiques modèlent, transforment, perturbent le rapport aux apprentissages, aux savoirs, à l'institution, aux interactions didactiques et, d'autre part, de faire un état des lieux critique des différentes méthodologies déployées pour étudier ces usages. Il ne s'agira pas dans ce colloque de présenter des pratiques pédagogiques recourant aux outils numériques, mais plutôt d'examiner quels construits théoriques et méthodologiques sont mobilisés par les chercheurs afin d'étudier les usages du numérique en éducation pour les apprentissages formels et informels et pour la transmission des savoirs et sur quels résultats empiriques leurs recherches s'appuient selon leurs ancrages disciplinaires et épistémologiques.

Les travaux des chercheurs en sciences du langage, sciences de l'éducation, sciences de l'information et de la communication, sociologie, psychologie, philosophie, géographie, informatique et sciences cognitives sont les bienvenus.

Les propositions de communication, d'environ 700 mots, incluront (1) le cadre théorique, (2) les données sur lesquelles s'appuie la proposition et (3) cinq références bibliographiques au maximum. Les auteurs prendront le soin de souligner l'originalité de leur démarche, énonceront dans quel axe du colloque ils s'inscrivent et en quoi leur proposition contribue à apporter une dimension critique sur les usages numériques.
La date limite pour l'envoi d'une proposition de communication est fixée au 1er octobre.

Téléchargez l'appel à communications
Plus d'informations sur le site dédié au colloque

Voir en ligne : Site du colloque

Peut-on faire fonctionner une société moderne seulement avec l’énergie produite par la force de l’homme ?

Internet Actu - mer, 20/09/2017 - 07:00

Contrairement à l’énergie solaire ou éolienne, l’énergie produite par la force humaine est toujours disponible. Propre d’un point de vue environnementale, son potentiel ne cesse d’augmenter avec la croissance démographique (alors que les ressources énergétiques finies, elles, doivent elles être partagées entre un nombre toujours croissant de personnes). Mais est-elle suffisante pour faire fonctionner une société moderne ? C’est la question à laquelle ont tenté de répondre Kris de Decker de Low Tech Magazine (@lowtechmag) et l’artiste Melle Smets avec leur projet de Centrale électrique humaine.


Image : les différents éléments de la centrale électrique humaine hydro-pneumatique.

Ce projet, né à l’invitation du Science Park de l’université d’Utrecht, qui a invité une douzaine d’artistes à imaginer un Campus parfaitement soutenable, est actuellement présenté dans une exposition itinérante. Le projet de centrale électrique humaine consiste à imaginer le fonctionnement autonome d’un immeuble du campus. Un immeuble de 22 étages accueillant 750 étudiants, dont toute l’énergie proviendrait des efforts physiques de cette communauté. Mais le projet ne se limite à l’imaginer : leurs promoteurs ont également travaillé à des prototypes fonctionnels.

Comme le rappelle Kris de Decker sur son blog, la centrale électrique humaine est à la fois un défi technique et social. Technique, parce qu’il n’y a pas beaucoup de recherche sur l’énergie cinétique. Social, parce que l’enjeu est aussi des trouver des solutions pour motiver des centaines d’étudiants à produire leur propre énergie.

La force musculaire humaine (alliée à la force animale et à l’énergie naturelle des moulins à vent et à eau) a transformé la planète pendant des siècles, rappelle Kris de Decker, en évoquant par exemple le canal de Panama creusé à la pioche. Mais, à l’heure de l’automatisation et de la motorisation, elle a presque complètement disparu : il n’y a pas jusqu’aux plus simples efforts physiques qui ne soient désormais accomplis avec l’aide de la motorisation. L’enjeu du projet de centrale électrique humaine est de restaurer la connexion entre la demande énergétique et sa production humaine.

Un humain peut générer autant d’énergie qu’un panneau solaire d’un mètre carré un jour de soleil, estime de Decker. Si c’est insuffisant pour beaucoup d’usages, l’utilisation domestique est néanmoins envisageable, d’autant que la technologie moderne a grandement amélioré le potentiel de production d’énergie de la force humaine et que la consommation électrique de nombre d’appareils s’est considérablement réduite. La puissance produite par un humain est déterminée par la personne, la durée de l’effort et le dispositif mécanique utilisé pour convertir la puissance humaine en énergie utile. « Nos jambes sont environ 4 fois plus fortes que nos bras, un vélo stationnaire peut produire une puissance de 75 à 100 watts contre 10 à 30 watts pour un homme qui utiliserait une manivelle manuelle ». Mais cette puissance peut augmenter lors d’efforts courts et les athlètes peuvent produire plus d’énergie que des humains moins entraînés ou plus âgés…

Pour leurs recherches, Kriss de Decker et Melle Smets se sont d’ailleurs mis au sport. Ils ont constaté plusieurs choses : que nous n’avions pas les mêmes performances, capacités et compétences… et que la plupart des machines d’une salle de gym peuvent potentiellement produire de l’énergie. Une séance d’entraînement de cinq minutes (incluant deux pauses d’une minute chacune) peut fournir plus de 15 Wh d’électricité, assez pour charger un quart de la batterie d’un ordinateur portable ou alimenter une lampe de bureau pendant 3 heures.

Ce qu’ils ont découvert aussi, c’est que les salles de gyms ne sont pas des lieux très amusants. Cela montre l’importance de travailler à la motivation pour assurer la production d’énergie humaine. Comparativement aux prix actuels de l’énergie, une personne qui produirait de l’électricité ne gagnerait que 0,015 euro de l’heure : un prix si bas qu’il pose la question des moyens que les gens auraient pour faire produire leur électricité par d’autres, comme du temps de l’esclavage. Pour éviter cela, l’enjeu est donc de rendre la production d’énergie humaine plus amusante, sociale et excitante. Or, les rares produits qui reposent sur la production d’énergie humaine insistent tous sur l’efficacité, rarement sur l’amusement ou la motivation. Ils sont souvent conçus pour des buts d’urgence, pas pour des utilisations régulières, quotidiennes et prolongées. Ainsi, beaucoup d’appareils pour produire de la lumière ou de l’énergie avec une manivelle sont imaginés pour être compacts, alors que plus grands, ils pourraient être d’un usage bien plus confortable.

Ces constats n’ont pas été sans impacts sur les prototypes mis au point par Kris de Decker et Melle Smets. Leurs dispositifs se font face pour permettre aux utilisateurs de se parler. Au centre est disposé un jacuzzi à la fois pour la convivialité et à la fois pour une raison technique : en effet, le choix d’une solution hydro-pneumatique nécessitait de pouvoir déverser certains trop plein du circuit fermé d’eau sous-pression produite par l’énergie cinétique des appareils de gym. Le but également de ces circuits hydrauliques : rendre l’énergie produite visible et produire l’électricité la plus écologique possible.


Image : le schéma du circuit hydro-pneumatique de la centrale électrique humaine.

Sur le campus, chaque étudiant est responsable de la production de l’électricité utilisée dans sa chambre et une part de l’énergie produite est utilisée par les parties communes. Un complément de production d’énergie est fourni par une usine de méthanisation depuis les déchets alimentaires des repas des étudiants. Un agenda indique à chacun quand il doit utiliser les appareils et les tâches ménagères collectives s’organisént selon un programme communautaire. Selon les premiers calculs, chaque étudiant devrait produire de l’énergie pendant 2 à 6 heures par jour, selon la saison et leurs préférences individuelles et collectives (ce qui fait tout de même beaucoup). Pour aider à réduire la consommation d’énergie, la communauté est bien sûr invitée à avoir recours à des solutions de basses technologies : cuisinières sans feu, sous-vêtements thermiques, douches à échanges de chaleur et des machines à laver cinétiques

Visiblement, la centrale électrique humaine est un programme qui tente d’appliquer tout ce que Kris de Decker évoque depuis plusieurs années sur Low Tech Mag. Forcément intéressant…

Hubert Guillaud

Si la question des « basses technologies » vous intéresse, je vous signale la publication du numéro annuel de Techniques et Culture consacré à la low tech paru aux éditions de l’EHESS. Un numéro d’anthropologie culturelle qui tente de montrer la grande diversité de cette innovation alternative. Plus qu’une innovation marginale, les technologies du bricolage et de faible intensité sont peut-être une solution pour dépasser le dualisme entre technophobie et technolâtrie, estiment Pierre-Olivier Dittmar et Yann Philippe Tastevin coordinateurs du numéro. En montrant comment les gens composent, recombinent, réassemblent la technologie et se la réapproprient dans un bricolage permanent… se dessine une perspective pour la recontraindre, comme le soulignait le designer James Auger, qui permet également de se défaire des perspectives industrielles et de leur pur consumérisme. Une « disnovation » pour défaire l’idéologie de l’innovation, comme conclut Jean-Paul Fourmentraux dans ce numéro. Plus qu’une perturbation marginale, la low tech est assurément une perspective critique de la technologie industrielle qui semble offrir ce que l’innovation peine à apporter aux utilisateurs : de l’autonomie, de la maîtrise, du pouvoir… de la possibilité d’agir à nouveau sur le monde.

Catégories: Veille et actualités

L'appel à projets ANR est ouvert jusqu'au 26 octobre

Bretagne - MARSOUIN - mar, 19/09/2017 - 11:52

L'ANR lance son appel à projets générique pour l'année 2018 (AAPG 2018). Il est ouvert à toutes les disciplines scientifiques et à tous types de recherche, depuis les projets les plus fondamentaux jusqu'aux recherches appliquées menées dans le cadre de partenariats avec des entreprises et notamment les PME et les TPE.

Retrouvez l'appel à projets en pièce jointe, et toutes les informations sur le site de l'ANR.

Calendrier :
1ère étape
Ouverture du site de soumission : 26 septembre 2017
Date limite de dépôt des pré-propositions PRC/PRCE/JCJC : 26 octobre 2017 à 13 heures (heure de Paris)
Résultats de la 1ère étape : mi-février 2018

2e étape
Ouverture du site de soumission des propositions détaillées PRC/PRCE/JCJC et PRCI : fin février 2018
Date limite de dépôt des propositions détaillées : fin mars 2018
Publication des 1ers résultats pour les instruments PRC/PRCE/JCJC : juillet 2018

Voir en ligne : Page de l'appel à projets

[Appel à communication] Communautés et Innovation

Bretagne - MARSOUIN - mar, 19/09/2017 - 10:33

Un appel à communication est lancé pour le 3è séminaire du Knowledge Communities Observatory (KCO), qui se tiendra à Strasbourg, sur le thème "Communautés et Innovation".

Les propositions (conditions détaillées dans l'appel, en pièce jointe) sont à adresser à :
eric.schenk@insa-strasbourg.fr pour le 03 octobre 2017. Retour des avis du Comité Scientifique aux auteurs : mi-octobre 2017.

Extrait de l'appel à communication (en intégralité en pièce jointe) : "Depuis les travaux pionnier de Lave et Wenger ou Brown et Duguid au début des années 1990 la notion de communautés de connaissance est intimement liée à celle d'Innovation. L'objectif de notre séminaire est de discuter la complémentarité de ces deux notions au sens le plus large. Nous souhaitons que cet atelier soit un lieu d'échange et de partage de connaissances originales et pertinentes et reste ainsi
largement ouvert à toutes les contributions, quelle que soit leur discipline d'origine (gestion, économie, sociologie, droit,par exemple). Les thèmes de recherche abordé
s pourront être par exemple :
Communautés auto-organisées
Communautés pilotées
Open Innovation
Open source Innovation
User innovation
Les communs
Innovation et réseaux sociaux
Communautés créatives"

[Journée d'étude] Vivre dans un monde sous algorithmes

Bretagne - MARSOUIN - mar, 19/09/2017 - 10:05

CREIS-Terminal organise une journée d'étude sur le thème "Vivre dans un monde sous
algorithmes". Elle se tiendra le 24 novembre 2017 à Télécom ParisTech (46 rue Barrault 75634 Paris Cedex 13), Amphi Grenat.

Vous trouverez, en pièce jointe, l'annonce de cette journée.

Pages