Actualités TIC

Décoder, recoder, programmer, déprogrammer

Internet Actu - ven, 22/12/2017 - 07:00

A l’occasion de ses 10 ans, la Haute école d’art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes… pour tracer des « histoires d’un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour sur une sélection de ces… narrations d’un futur qui est déjà là.

Métagénomique

On ne devrait plus avoir à présenter Kevin Slavin (@slavin_fpo). Slavin est le responsable scientifique de The Shed, un centre d’art new-yorkais. Il est le responsable et le fondateur du programme Playful System du Media Lab du MIT. Il est le cofondateur de Everybody at Once, une entreprise spécialisée dans le développement d’audience et les stratégies média et de l’entreprise Collective Decision Engines. Mais aucun de ces postes ne le définit vraiment. C’est un touche-à-tout iconoclaste qui a étudié la sculpture, paraît-il… Il en est bien loin. Il avait donné à Lift, en 2011, l’une des plus stimulantes conférences d’un événement qui en a produit beaucoup. Et sa présentation à la Head n’était pas sans écho à celle qu’il donna à Lift. L’obsession de Slavin reste visiblement de comprendre le pouls de nos villes, c’est-à-dire la manière dont nous y vivons et dont elles réagissent et nous montrent que nous y vivons.

Pourtant, il présente son obsession différent. « Ce qui me fascine le plus, c’est la nécessité étrange de comprendre ce qui est, en fait, réel », entame-t-il en citant le journaliste Philip Gourevitch. Et pour comprendre le réel, il faut parfois se déplacer loin de lui pour mieux y revenir.

Slavin attaque sa présentation par des images de Ballast Garden (vidéo), une installation de Maria Thereza Alves, créée à Bristol, qui fut l’un des grands ports britanniques, notamment pour le commerce triangulaire, celui des esclaves. À l’époque, pour équilibrer les bateaux, on chargeait leurs fonds de cales de terre et de cailloux, le ballast… Naviguaient ainsi, avec les marchandises et les hommes, des terres et des graines, que l’on retrouve notamment dans les épaves. Les semences contenues dans les ballasts ont participé à disséminer des plantes allogènes partout sur la planète. À Bristol, Alves a créé un jardin de plantes provenant d’Amérique, d’Afrique et d’Europe continentale qui sont devenues des plantes du paysage anglais. Une manière de souligner l’histoire de la flore, et ses liens intimes avec la colonisation et  l’histoire économique et sociale du port. Une manière d’interroger la colonisation et les migrations en en montrant d’autres aspects. Alors qu’aucun capitaine n’avait conscience de cette vie de fond de cale qu’ils ont disséminés aux quatre coins du monde.


Image : Kevin Slavin sur la scène de la conférence de la Head, photographié par Nicolas Nova.

De la même manière, nous ne sommes pas conscients de la vie que nous portons en nous, à l’image de la vie bactérienne présente dans notre microbiome. Or, 50 % à 90 % de notre matériel bactériologique ne nous appartient pas, n’est pas humain… Or, il influe sur nos comportements, nos sensations. Les recherches scientifiques soupçonnent de plus en plus que cette flore bactérienne jouerait un rôle important dans le développement d’une grande variété de maladies, rapportait le New York Times. Si le séquençage ADN par exemple, nous permet de comprendre de mieux en mieux notre matériel génétique (et ce alors que son coût le rend de plus en plus accessible), nous avons encore des efforts à faire pour analyser « le jardin de notre microbiome ».

Pour Kevin Slavin, il nous faut nous intéresser à une métagénomique, pour comprendre la soupe bactérienne dont nous sommes faits. Nous avons non seulement besoin de créer un catalogue génétique de la planète, mais aussi de le comprendre. S’inspirant du travail des designers Timo Arnall et Jack Schulze cherchant à rendre visible les ondes radio qui nous entourent (voir notamment les vidéos de Timo Arnall), Slavin et ses équipes ont cherché à rendre visible le monde vivant invisible qui nous entoure.

Il évoque ainsi le travail du Laboratoire de Christopher Mason au Collège de Médecine de Weill Cornell (@mason_lab), spécialiste de la génomique fonctionnelle intégrative, et notamment de leur projet PathoMap, un travail de profilage moléculaire sur les 486 stations de métro de New York pour cartographier le microbiome et le métagénome à la surface des villes et créer une carte météorologique de surveillance des agents pathogènes bactériologiques de la ville, ceux avec lesquels chacun des New-Yorkais est en contact. Les chercheurs ont ainsi montré qu’il y avait des différences bactériennes entre l’Est et l’Ouest de Manhattan (voir la cartographie dynamique). Dans un article du New York Times, on apprend notamment que près de la moitié de l’ADN trouvé en surface des métros de New York ne correspondait à aucun organisme connu. Si le Bronx était l’arrondissement où il y avait la plus grande diversité d’espèces microbiennes, les organismes trouvés reflétaient le profil démographique et ethnique des quartiers. Des bactéries résistantes aux antibiotiques ont été trouvées dans 27 % des échantillons prélevés. Ils ont même trouvé des traces de peste et d’anthrax, sans qu’ils présentent de danger pour la santé. Dans une station de métro, innondée il y a plusieurs années, les chercheurs ont trouvé des bactéries provenant des eaux polaires. Signalons que le travail entamé par le laboratoire du professeur Mason a donné naissance à un projet global, MetaSub, visant à développer des recherches du même type dans les métros d’autres grandes métropoles de la planète.

Kevin Slavin évoque un autre projet développé par l’ALM Lab du MIT en coopération avec le Centre pour le microbiome du MIT et Openbiome et le laboratoire Senseable City du MIT  : Underworlds, qui s’est intéressé à l’analyse bactérienne des eaux usées en provenance des égouts de New York, pour en analyser les virus, les bactéries et les produits chimiques présents. L’idée est de proposer une plateforme pour faire de l’épidémiologie urbaine en temps réel par l’analyse des eaux usées via prélèvements et capteurs, afin d’analyser et surveiller la propagation des maladies infectieuses par exemple.

Autre projet encore, celui mené par Jessica Green (@jessicaleegreen), cofondatrice de l’entreprise Phylagen et du Centre de la biologie et des environnements construits de l’université de l’Oregon, qui s’est intéressée à la biologie des environnements fermés dans lesquels nous passons nos vies et notamment aux systèmes de ventilation et d’aération des environnements de travail. Leurs recherches visent à comprendre comment les environnements bâtis (matériaux utilisés, exposition lumineuse, sources d’air…) façonnent la composition de la diversité microbienne, soulignant que plus les environnements sont stériles et mécanisés, plus ils ont tendance à être pathogènes (sur le même sujet, plusieurs autres programmes existent, comme MicroBE.net, ainsi que les programmes complémentaires dédiés à l’étude des microbiomes domestiques et des microbiomes en milieu hospitalier) .

Reste que ces travaux sont difficiles, constate Kevin Slavin, notamment parce que nous sommes loin de disposer d’une cartographie biologique complète de la vie… La difficulté d’implémenter et de disposer de capteurs pertinents était également une autre difficulté. Et puis, Kevin Slavin a eut une idée en lisant dans la presse une histoire incroyable d’abeilles à Brooklyn qui faisaient plusieurs kilomètres pour se nourrir du sucre d’une usine de bonbons colorés, qui masquait en fait une culture… de marijuana.

Le miel produit par les abeilles est effectivement un très bon capteur de leur environnement. D’où l’idée d’utiliser les déchets des ruches comme capteur bactériologique. À l’occasion de la biennale d’architecture de Venise, il a mis au point une ruche métagénomique permettant de récolter les « débris d’abeilles », ces « citoyens scientifiques » de nos villes. Des plateaux stériles disposés en dessous des ruches permettent de récolter les rejets des abeilles qui peuvent être régulièrement analysés. Des ruches de ce type ont été disposées à New York, Sydney, Venise, Tokyo… comme l’expliquait Business Insider ou Wired. Et les données récoltées ont été utilisés pour construire des visualisations de données particulièrement originales.

« Les designers doivent créer la conscience du monde qui nous entoure », conclut Kevin Slavin. Ils doivent permettre de communiquer l’invisible à l’échelle du visible. « Les villes ont besoin de capitaines qui soient moins aveugles que ceux du commerce triangulaire pour mener à bons ports leurs équipages ». Stimulant programme !

Construire, déconstruire, reconstruire

Michael Hansmeyer est architecte et programmeur. Il utilise des algorithmes pour explorer les limites de l’impression 3D et imaginer de nouvelles formes architecturales, qu’il était jusqu’à présent impossible à bâtir. Il a exposé récemment, dans le cadre de l’exposition Imprimer le monde au Centre Pompidou, sa grotte numérique (vidéo). Depuis ses premiers travaux exploratoires, visant à revisiter l’archétype des colonnes par l’algorithmique, il invente des formes mutantes que l’homme ne pourrait dessiner ni construire. Des oeuvres étonnantes, dans lesquelles les spectateurs cherchent un principe ordonné impossible à trouver. Sa caverne imagine un espace habitable inédit, qui cherche à faire écho aux premiers habitats humains. Les oeuvres de l’architecte-programmeur cherchent à mettre en oeuvre une nouvelle complexité, en redéfinissant l’utilisation et la place de l’ordinateur dans le design. Plutôt que de contraindre le créateur, comme le font les programmes de conception assistée par ordinateur (CAO) qu’utilisent les architectes, l’ordinateur doit inspirer et libérer la création. Un travail qui fait écho à la critique qu’explore très bien Nicholas Carr dans Remplacer l’humain, qui consacre plusieurs pages à montrer que si la CAO a accéléré et simplifié la création architecturale, c’est uniquement en privilégiant une approche fonctionnelle au détriment de la créativité elle-même. Michael Hansmeyer en prend justement le contre-pied, en montrant qu’il faut se perdre dans l’ordinateur pour retrouver l’imprévu.


Image : la grotte de Michael Hansmeyer.

Mais le monde est-il si assimilable que cela ? Est-il réductible à ce qu’on peut en comprendre, en coder et en décoder ? L’une des plus émouvantes présentations de ces deux jours, était une vidéo d’un jeune réalisateur américano-thaïlandais, Korakrit Arunanondchai, « Painting with history in a room filled with people with funny names 4 », indisponible en ligne… un voyage énigmatique, onirique et envoûtant autour de sa grand-mère atteinte d’une maladie dégénérative. Inclassable et magique. Un voyage pour nous rappeler que le monde à nouveau, ne se réduit pas à ce qu’on en entend, mais peut-être plus à ce qu’on en ressent.

Décoder, recoder les images

Lauren Huret est une artiste et plasticienne suisse qui interroge les images que notre monde produit.

Ring est un film d’horreur japonais. C’est l’histoire d’une cassette VHS qui, si vous la visionnez, vous jette un sort : qui est de mourir dans les 7 jours. Le seul moyen d’échapper à sa malédiction consiste à faire passer la cassette à quelqu’un autre pour qu’il meure à votre place. Lauren Huret voit dans ce film, dont elle projette une scène au ralenti derrière elle, une métaphore des médias et de la manipulation des images. Le moment clef du film, où une jeune femme fantomatique rampe dans une forêt vers l’écran d’une télévision avant de passer au travers pour tuer le spectateur lui a longtemps été insoutenable, comme un révélateur direct de ce que nous font les médias : tuer les spectateurs. La télévision a toujours été pour elle un objet douteux, qui concentre les intentions cachées de ses créateurs. Ringo lui semblait l’allégorie négative et effrayante de ce que nous font les images, sans que nous spectateurs n’en connaissent le contre-sort. Or, les images nous modifient. Comme le souligne l’iconoclaste Pacôme Thiellement : « Plus nous regardons des images et plus notre âme pourrit ». Reste que pour Lauren Huret, le contre-sort a été de créer d’autres images.

Nous connaissons tous des images qui sont entrées en nous sans qu’on puisse s’en défaire. Des images maudites qui s’impriment dans notre esprit pour modifier notre perception et notre réalité et qu’on ne voudrait ne jamais avoir vues. Longtemps pourtant, la malédiction est restée orale, le sort qu’on jetait aux autres relevait d’un anathème qu’on professait par la seule parole. Désormais, les malédictions sont portées par des images qui restent gravées en nous à jamais. Le plus souvent ce sont des images de violence à l’encontre d’autres corps que les nôtres, comme le célèbre cliché de Nick Ut pris pendant la guerre du Vietnam d’une jeune fille brulée au napalm courant nue sur une route. En septembre 2016, cette célèbre photo a refait l’actualité suite à la polémique de sa censure par Facebook. Mais qui a enlevé cette image ?, interroge Lauren Hulet. Le logiciel de reconnaissance d’image de Facebook n’y a vu qu’une jeune fille nue plutôt qu’une atrocité historique. Pour l’historienne de l’art, Caroline van Eck, la technologie est fascinante, car elle amplifie une efficacité magique. Dans le cadre de la censure algorithmique de Facebook, la magie et la technologie semblent effectivement indissociables, car leur fonctionnement nous demeure incompréhensible, comme si des esprits vivaient derrière nos écrans.

À l’occasion d’une exposition pour le bicentenaire de Frankenstein à Genève, Lauren Hulet a produit un travail sur l’intelligence artificielle, qui semble elle-même un assemblage de multiples techniques, dont la définition varie d’un spécialiste à un autre. Comme Frankenstein est un collage de corps morts qui pose la question de l’identité de la créature produite, sa proposition a consisté à utiliser et détourner les images de Kylie Jenner sur Instagram pour questionner l’identité de la star qui s’y affiche. En quoi l’image toujours modifiée de la star, recouverte de filtres miraculeux, produit-elle une identité ? Pour elle, les logiciels produisent des images discordantes de la réalité. Les filtres de reconnaissance faciale semblent à la recherche de spectres de nous-mêmes en tentant de nous faire croire qu’ils ont un sens de la reconnaissance des visages plus développé que nous. Pour son prochain projet, elle souhaiterait rencontrer des modérateurs d’images, ces yeux qui regardent et nettoient pour nous les tréfonds du net, qui « pourrissent leurs âmes pour nous ». Ces personnes qui en Inde ou aux Philippines ont censuré l’image de Nick Ut qu’ils ne connaissaient pas.

« Chaque ingrédient que nous jetons sur le net est envisagé par quelqu’un, scruté et observé. Il nous faut regarder nos ordinateurs et nos téléphones avec un filtre halluciné, pour en révéler leurs intentions. »

Déconstruire les villes pour mieux les reconstruire

Le designer et urbaniste Dan Hill (@cityofsound), responsable du studio New Urban Narratives chez Arup, ne nous est pas inconnu. Nous avons souvent évoqué ses propos (voir notamment « La rue comme plateforme » ; « L’information ouverte appliquée aux transports » ; « Les futurs des infrastructures » ; « Villes : de la connexion à l’intermodalité »…).

« La technologie est souvent la réponse la question. Mais quelle était la question ? », attaque Dan Hill en reprenant la formule de que l’architecte Cedric Price tint dans une conférence en 1966, invitant son audience à reconsidérer l’impact du progrès technologique sur l’architecture. Pour les enfants par exemple, la technologie est une chose qui n’existe pas. Or, comme le disait très récemment le journaliste John Lanchester, « la technologie c’est avant tout des choses qui ne fonctionnent pas encore ». Il évoquait notamment les limites des interfaces vocales qui ne sont capables de faire que ce pour quoi elles sont programmées… Il faut être habitué aux dysfonctionnements de la technologie pour comprendre pourquoi elles ne fonctionnent pas et connaître les trucs et astuces qui les font fonctionner. Le problème quand on demande à Alexa d’augmenter le volume par exemple, est qu’il faut le demander avec un langage d’ordinateur : et donc lui demander de mettre le volume sur 3 ou 7, sur une échelle qui n’est pas vraiment indiquée par l’interface de l’appareil. Autre problème c’est que si vous demandez à l’appareil de mettre le son à fond (sur 10), vous ne pouvez plus lui demander de le baisser, car l’appareil ne vous entend plus ! L’autre problème souligne encore Dan Hill, c’est que le terme technologie désigne à la fois internet, un toaster ou mes lunettes ! Ce qui montre bien pour lui qu’on n’a pas encore concrètement cerné ce que c’est et ce que ce n’est pas.

Dans les villes, les technologies optimisent, substituent et engagent. On est capable par exemple de construire des navettes autonomes capables d’éliminer les véhicules privés, qui pourraient nous permettre d’envisager un avenir avec une mobilité plus intelligente et moins polluante… Mais c’est oublier que la technologie aussi distrait, exploite et extrait, comme le font Uber ou Airbnb dans la ville, qui extraient plus de richesses des lieux qu’ils exploitent qu’ils n’en apportent.

Du fait de la démultiplication de la technologie, on n’arrive plus à faire de la planification. Dans la volatilité, l’incertitude, la complexité et l’ambiguïté du monde où nous vivons, nous ne savons plus prédire ce qui va arriver, comme le constatait dès les années 90, l’armée américaine. La planification urbaine, pourtant si indispensable, n’arrive pas à s’adapter à cette nouvelle donne, estime Hill, en montrant comment le gouvernement britannique se trompait en estimant le déploiement des panneaux solaires dans le pays, qui a été bien plus rapide et massif qu’attendu, sous-estimant dramatiquement la capacité et la volonté des Britanniques à vivre d’une manière plus soutenable. L’enjeu, désormais, consiste plus à savoir s’adapter qu’autre chose. Comme le dit l’économiste Michael Spence, « en vérité, il est difficile de dire ce que sera le monde dans 10 ans. Le plus important est de rendre la transition la moins douloureuse et la plus efficace possible plutôt que de chercher à prévoir ce que sera le résultat ». L’enjeu n’est donc plus de faire de la planification, qui peine à s’adapter. Mais d’accompagner les transformations.

La planification urbaine a toujours été aérienne, top-down, peu adaptée à l’évolution… souligne l’urbaniste en évoquant Le Corbusier. La planification urbaine voyait la ville comme manipulable, coordonnable. L’enjeu et la réalité ne sont pourtant pas celle-là. La question est plutôt comment créer des infrastructures agiles qui s’adaptent à l’imprévu, à ce que l’on ne connait pas encore ? Comment créer du codéveloppement, de la co-conception, de la copropriété des infrastructures publiques, du bien public qui constituent les villes ?

Pas si simple, souligne l’architecte, en montrant la navette autonome EasyMile, testée à de nombreux endroits dans le monde. Dans certaines villes, une flotte de ce type de véhicule pourrait remplacer 80 % des déplacements que l’on accomplit aujourd’hui en voiture privée. Si ces réponses semblent pertinentes d’un point de vue écologique et économique, reste que pour l’instant ces navettes sont très lentes et s’adaptent assez peu au contexte complexe de la ville (elles roulent le plus souvent dans des voies ou sur des zones protégées comme des zones aéroportuaires ou des campus). Sans compter que leur adoption massive nécessiterait de trouver les modalités d’un profond changement culturel par rapport à nos usages massivement privés.

L’architecte et urbaniste Nicolas de Monchaux, l’auteur de Local code a montré dans son livre que la mise à jour des canaux inondables de San Francisco qui devrait coûter quelque 1,5 milliard de dollars pourrait être remplacée pour moins de la moitié de ce prix par l’utilisation de quel que 1500 micro-parcelles abandonnées, pour des effets à 90 % similaires, avec d’autres bénéfices comme la participation citoyenne et le développement de la végétation et de l’ombre sur ces parcelles disséminées dans toute la ville dont les habitants pourraient tirer partie et plaisir (voir les explications détaillées de Berkeley News et le travail de Nicolas Monchaux sur le repérage de friches urbaines). « Mais comment les villes peuvent-elles apprendre à faire cela ? 1500 petites choses plutôt qu’une seule grosse chose ? Depuis trop longtemps les villes ont pris l’habitude des solutions centralisées, des « Big Cheque Solution », plutôt que de distribuer des petits bouts de solutions », déplore l’urbaniste.

La même chose se déroule avec l’énergie. Désormais, on peut développer des microgrilles, avec des panneaux solaires sur les toits, des batteries dans les caves, sous forme de minicentrales locales coopératives, communautaires et indépendantes (comme le propose le pionnier Brooklyn Microgrid développé par LO3Energy). La même chose se développe dans l’habitat aujourd’hui, avec le développement de l’habitat coopératif qui représente 15 % des constructions annuelles à Berlin (soit environ 5000 unités par an), 30 % à Zurich… Un modèle d’autant plus intéressant que les constructions sont plus écologiques, les habitants plus divers et les loyers moins chers que les solutions traditionnelles.

Toutes ces nouvelles modalités nécessitent d’adapter les processus de l’urbanistique. Dan Hill en tire quelques règles. Ne pas planifier à l’ancienne, mais garder une boussole en tête et avoir une vision par étapes. « C’est comme d’être sur un petit bateau qui va vers le Pôle Nord, vous n’avez pas besoin de connaître ou de suivre exactement la route. Vous avez besoin d’une boussole qui vous indique le Nord et de vérifier votre boussole régulièrement. »

Avant on dessinait les villes du futur. Mais qui serait capable de dessiner Genève en 2050 ? Choisir une orientation permet de mieux s’y adapter au fur à mesure. Toutes les infrastructures de la ville n’ont pas le même rythme, la même durée de vie ou la même adaptabilité. Tous les quartiers n’évoluent pas de la même manière selon leurs spécificités. Certains peuvent être plus réactifs que d’autres. Sans compter que les rythmes des infrastructures changent également : les infrastructures énergétiques par exemple étaient des structures lentes et lourdes à déployer, à l’heure des microgrilles, ce n’est plus toujours le cas. Il faut donc prévoir que les choses peuvent être produites différemment (localement plutôt que globalement), peuvent rapporter différemment, peuvent s’approprier autrement.

Dan Hill donne un autre exemple de l’adaptabilité nouvelle des villes, en évoquant bien sûr Uber, qui dicte désormais la politique des villes. Mais à nouveau à qui appartiennent les voitures ? Où va la valeur ? Qui décide ? Où se fait la politique ? 25 % du prix de la course qu’on paye à un chauffeur Uber s’en va vers la Californie. Et demain avec les voitures autonomes d’Uber, tout l’argent partira vers la Californie. La multiplication des voitures avec chauffeur plus que de réduire le trafic, le ralentit. Uber optimise le trafic, mais c’est l’exact inverse de ce que cherchent à faire les villes, qui est plutôt de le réduire. Oslo, Barcelone, Paris… la plupart des villes travaillent à chasser les voitures de leurs centres-ville, et Uber les y ramène. La mobilité de demain n’est pas celle-ci, insiste Dan Hill, en citant Jean-Louis Missika, adjoint au maire de Paris qui estime que l’avenir est à la mobilité sous forme de services et souhaite la fin des véhicules privés à Paris d’ici 2020. S’il y a encore un long chemin à parcourir entre les paroles et les régulations effectives, reste que ce sont les politiques qui montrent comment ils souhaitent que la ville fonctionne à l’avenir, pas Uber ni Tesla.

Le problème, souligne Hill, c’est que nous n’avons plus les bonnes personnes aux bons endroits pour développer et mettre en place ces décisions. Aujourd’hui, seulement 0,7 % des architectes sont employés dans le secteur public au Royaume-Uni, alors qu’ils étaient 50 % dans les années 70. La ville de Londres comptait 1577 architectes et urbanistes dans les années 50, alors qu’elle n’en a plus aucun aujourd’hui. Le gouvernement britannique ne dispose d’aucun designer stratégique. Pour Dan Hill, cette absence de personnel gouvernemental rend bien des choses plus difficiles à réaliser. Cependant, le gouvernement britannique dispose en 2017 de quelque 800 designers numériques, alors qu’il n’en employait aucun en 2000. Ils ne font ni planification ni conception urbaine ou stratégique, mais construisent des services numériques sur lesquels s’appuyer, notamment pour faire de la concertation ou rendre les choses plus agiles ou adaptables.

Les concepteurs urbains développent de plus en plus de projets coopératifs, conçus avec ceux qui vont les habiter, explique Dan Hill en montrant plusieurs projets à travers le monde, de Berlin au Japon (des projets qu’il évoquait dans son remarquable essai sur la « ville sociale et démocratique »). Des espaces que les habitants ont dessinés, discutés, aménagés, décidés par eux-mêmes, ce qui était impossible avec les promoteurs privés. Et cela change l’architecture et l’habitat bien plus qu’on ne le pense. À Zurich, le projet « Plus que l’habitat » rassemble 50 coopératives, a construit 13 immeubles, soit 400 appartements et 35 magasins, sans aides publiques, avec des loyers 20 à 30 % moins chers que ceux du marché, quasiment sans voiture, et qui génère 45 % de son énergie sur site…

Ces projets montrent qu’on peut imaginer l’habitat sans promoteurs, la mobilité sans Uber, l’énergie sans fournisseurs… L’important finalement n’est pas la technologie, mais le fait que ces solutions reposent sur la participation, la coopération, le codéveloppement… et l’engagement local. On peut concevoir des choses localement. À Londres, Citymapper a annoncé le lancement d’un bus à la demande. À Sheffield, Dan Hill travaille sur le nouveau centre-ville en impliquant les habitants, en s’intéressant plus aux gens, aux activités, qu’aux immeubles. À Londres quand on projette de faire quelque chose dans la rue, comme de déplacer ou créer un arrêt de bus, il faut faire une annonce localement, qui se concrétise par un bout de papier plastifié qu’on accroche au mur ou à un poteau. Il y en a partout dans Londres, la plupart sont ignorées, abandonnées. C’est une belle métaphore de la planification urbaine qui ne marche plus. Comme si au 21e siècle nous n’étions pas capables de faire mieux que cela, s’énerve avec raison le designer.

À Helsinki, avec Ericsson, Arup a développé un outil de planification augmenté permettant aux habitants de voir sur leurs téléphones ce que va donner ce qui va être réalisé, in situ, voir son impact local, voir même de le modifier. À partir de cela, il est plus facile de s’intéresser, de faire venir les gens à une réunion pour en discuter. La réponse numérique seule n’est jamais suffisante. Elle est un levier. Il faut des discussions, des débats dans les pubs, des arguments et du thé, du papier et des crayons. A Johannesburg, Ericsson a utilisé le même dispositif, mais avec Minecraft (vidéo) pour montrer aux gens ce que les aménagements allaient donner en les aidant pour qu’ils puissent faire eux-mêmes d’autres propositions à la volée…


Image : la ville interminable sur les murs de l’Ecole Bartlett d’architecture de Londres…

Dan Hill termine sa présentation par un dernier projet réalisé en 2016 avec tous les étudiants de l’École Bartlett d’architecture de Londres. L’idée était de produire collaborativement, à 80, une « ville interminable », en assemblant toute une gamme de composants modulaires un à un. Sans ordinateurs, juste avec des modules photocopiés. Chacun contribuait à mesure que l’ensemble évoluait. Cette carte géante d’une ville capable d’accueillir quelque 12 000 habitants a été une énorme machine à discussion, sur les infrastructures, leurs enchevêtrements… Si le dessin comme chez Le Corbusier se fait depuis le haut, ici, le rôle du designer change. Cette création collective repose sur les discussions et les processus de décision qui l’ont façonné. Pour Dan Hill, la vraie infrastructure des villes n’est ni marchande, ni publique, ni politique, ni culturelle… L’infrastructure des villes repose sur la convivialité qu’elles génèrent. Pour cela, il est plus que jamais nécessaire d’avoir des citoyens et une gouvernance active, d’avoir une approche par la participation d’abord. C’est seulement en menant un dialogue sur l’urbanisme que nous construirons des villes diverses et uniques, plutôt que semblables et uniformes. Il faut sortir les villes des outils de la planification du XIXe siècle. On ne fera pas face aux défis qui nous attendent comme le réchauffement climatique et la pollution avec des outils qui ne sont pas adaptés.

Hubert Guillaud

Catégories: Veille et actualités

Pour promouvoir votre destination, contez (sur) Noël !

Blog e-tourisme - jeu, 21/12/2017 - 07:00

En ce 21 décembre, vous êtes sans doute en train de réfléchir à votre nouvelle recette de bûche de Noël. J’ai donc choisi de continuer à vous faire rêver en parlant de cette période magique !

Si vous imaginez que l’hiver est à consacrer uniquement au montage du budget et à la saisie sur SIT, détrompez-vous ! Il y a des territoires qui ont su faire de Noël un temps fort de leur fréquentation touristique et un rendez-vous privilégié.

Je vais bien-sûr parler de l’Alsace, l’incontournable, qui bénéficie d’une réputation « naturelle » avec le “Christkindelsmärik” (plus facile à écrire qu’à prononcer) – marché de Noël de Strasbourg qui date du XVIe siècle – et toutes ses traditions de Noël : défilés de personnages de légendes, chants participatifs, ateliers pour les décorations de fenêtres de l’Avent, gâteaux de Noël (les fameux Bredele),… On retrouve effectivement Strasbourg à la 13e position des meilleures villes où passer Noël selon CNN, à la 14e place pour le magazine Conde Nast et même à la 6e place pour ce site de voyage

Quoi qu’il en soit une petite recherche Google « Best Christmas destinations » ou « Meilleures destinations pour Noël » prouve que Noël est une période de départ privilégiée pour notre population en quête d’évasion !

Quelques destinations touristiques françaises surfent déjà sur la vague neige de Noël pour attirer les visiteurs.

L’Alsace

L’Agence d’Attractivité de l’Alsace (anciennement RésOT-Alsace) est probablement pionnière avec son opération « Noël en Alsace » lancée en 1992. Mandaté par la Région pour piloter et coordonner l’ensemble de l’opération, le réseau des OT avait pour idée initiale de valoriser touristiquement les traditions anciennes de manière méthodique, en associant étroitement les Offices de Tourisme. 7 Pays de Noël ont été créés pour diffuser sur l’ensemble du territoire au delà de Strasbourg et axer sur le côté culturel de l’événement. Un beau symbole d’une démarche globale assez vertueuse.

Les 7 « pays » sont mis à l’honneur sous des noms féeriques : « Le pays des lumières », « Le pays du sapin », « Le pays des étoiles », « Le pays des chants et des étoffes », « Le pays des mystères », « Le pays des saveurs », « Le pays des veillées ». Chacun propose un programme d’animation avec expositions, cortèges, spectacles, ateliers, concerts, etc. Un site web est consacré à l’opération : noel.tourisme-alsace.com

Le succès est incontestable, les retombées fulgurantes : depuis le début de cette campagne marketing, le nombre de nuitées hôtelières en Alsace pour le mois de décembre a triplé. Décembre devient même le premier mois de l’année pour les nuitées hôtelières de la région et le troisième pour la fréquentation touristique. La période de l’Avent (du 25 novembre à Noël) compte plus de 6 millions de visites pour 3 millions de nuitées !

Pour le 25e anniversaire de cette opération, l’AAA a décidé de tout miser sur l’image. Une phase « teasing » d’abord, qui a révélé en images les secrets des artisans du Noël alsacien, puis une deuxième phase 100% instagrammers avec l’opération « #SpotNoelEnAlsace ». 22 « spots » incontournables ont été identifiés au cœur des événements et marchés de Noël sur l’ensemble du territoire. Indiqués par un marquage au sol qui précise le meilleur endroit et un angle imprenable, les visiteurs sont invités à faire et à partager LA plus belle photo « Noël en Alsace ».

 

Le Val de Loire

L’Alsace n’est pas la seule région à miser sur Noël pour attirer les visiteurs. Le CRT Centre a également lancé sa campagne de communication « Noël en Val de Loire ». L’opération, lancée pour la première fois en 2016, fait la promotion des grands sites de la région proposant des animations spécifiques : décorations, illuminations, ateliers, spectacles,… . Un plan marketing ciblant la clientèle parisienne a été déployé : 1 500 arrières de bus, personnalisation de 11 stations de métro, création d’un site commun noelenvaldeloire.com, campagne Google Adwords,… Les sites partenaires ont pu noter une croissance de fréquentation sur la période des animations.

Dans la même région, l’ADT Touraine a imaginé « Noël au Pays des Châteaux », une opération née en 2016 visant à proposer une offre complémentaire aux marchés de Noël de l’est de la France et au ski. La promotion est co-financée par l’ADT et les 5 châteaux participants : habillage de la station de métro Havre-Caumartin à
Paris (pour la proximité des Grands magasins) et du tramway de Nantes, campagne de vidéos sur la page Facebook, avec la maîtrise d’une partie de la production des contenus photos, vidéos et textes, un des axes fort de la nouvelle stratégie digitale de l’ADT.

L’opération est volontairement sélective : les sites partenaires se sont engagés sur une charte de qualité qui prévoit une période de mise en place des décors spécifiques pendant un mois ainsi que des animations, notamment pour le jeune public. 

La première édition a été réussie car les sites ont vu leur fréquentation progresser entre 10 et 25%. Les retours auprès des TO et les premiers constats du public sur les réseaux sociaux et dans les sites semblent montrer la notoriété croissante de l’opération. 

Si vous n’avez ni marchés de Noël dignes de ce nom, ni château et ni station de ski… il vous reste toujours la possibilité de profiter de Noël pour commercialiser votre destination ou d’opter pour une communication Noël tout à fait décalée  !

The post Pour promouvoir votre destination, contez (sur) Noël ! appeared first on Etourisme.info.

Catégories: Veille et actualités

De l’impossible habitabilité de l’anthropocène

Internet Actu - jeu, 21/12/2017 - 07:00

A l’occasion de ses 10 ans, la Haute école d’art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes… pour tracer des « histoires d’un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour sur une sélection de ces… narrations d’un futur qui est déjà là.

Plongés dans la confusion du temps de la métamorphose…

Le philosophe Baptiste Morizot est notamment l’auteur des Diplomates, cohabiter avec les loups sur une nouvelle carte du vivant, un essai surprenant aux frontières de l’écologie, de la philosophie et de l’anthropologie, qui interroge notre capacité à coexister avec la biodiversité en inventant de nouvelles formes d’échanges.

« Mon travail vise à répondre à un sentiment de confusion, de désorientation, d’égarement à l’égard de la conjoncture qui est à la nôtre. Lorsqu’on s’intéresse à l’écologie, on entend partout, on n’entend que… la crise systémique environnementale dans laquelle nous sommes entrés qui mène au réchauffement climatique, à la pollution globale et à la perte de la biodiversité. » Si nous sommes autant abasourdis par ce phénomène, c’est non seulement par son ampleur, son impact, ses enjeux… mais aussi pour le philosophe, parce qu’on n’a pas de concepts pour rendre compte de cette confusion. D’où l’enjeu de parvenir à mieux qualifier la nature de cette confusion.

La tradition philosophique occidentale n’a jamais été très à l’aise avec l’incertitude et l’instabilité. D’où, pour le philosophe, le besoin de déporter le regard, de chercher ailleurs les moyens de s’interroger autrement. C’est ce qui l’a conduit à s’intéresser à l’anthropologie, notamment via les travaux de Nastassja Martin, spécialiste du monde animiste du Grand Nord, qui a soutenu une thèse sur les Gwich’in, un peuple de chasseurs-cueilleurs du Grand Nord, entre l’Alaska et le Canada (voir son livre, Les âmes sauvages). L’un des objets d’étude de Baptiste Morizot s’est porté sur le Coywolf (ou Coyloup, espèce hybride résultant du croisement de coyotes et de loups). Cet animal nouvellement documenté a la particularité d’être un hybride fécond naturel, au contraire du mulet, au croisement de l’âne et de la jument, qui n’est pas fertile et qui est le résultat de l’action humaine. Cette espèce hybride a autant désorienté les biologistes que les Amérindiens. Pourtant, dans la cosmogonie animiste, la conception du monde naturel, de la forêt du Grand Nord, n’a rien à voir avec la nôtre. Pour les Gwich’in, la forêt est un espace socialisé de part en part. Ils entretiennent des relations avec tous les êtres de la forêt et ces relations (avec les ours, les loups, les rennes…) sont sociales, basées sur des comportements des uns par rapport aux autres. Pourtant, il reste des zones, des lieux, des êtres qui n’ont pas de statuts stabilisés, avec qui les Gwich’in n’ont pas stabilisé de relations sociales. A l’image des hommes de bois, des ombres de la forêt à qui on a attribue par exemple les coups de fusil qui ne sont pas partis… Qu’ils soient vivants, morts ou ombres… ces êtres sans statuts relationnels sont considérés comme des « êtres de la métamorphose ». Or, pour les Gwich’in, les « êtres de la métamorphose » ne sont pas que des créatures magiques ou invisibles. Pour eux, les Coywolf sont également des êtres de la métamorphose. Or, le développement de cette espèce semble directement lié à l’action de l’homme (notamment à la déforestation). Ce n’est pas la seule espèce hybride qui fait mentir la biologie : le Pizzly, hybridation entre l’ours blanc et le grizzli n’a été observée pour l’instant qu’en captivité. En fait, la nouvelle biologie montre que les hybrides sont plus nombreux qu’on le pense.

Nous sommes nous-mêmes des hybrides de Sapiens et de Néandertaliens notamment. En microbiologie, nous sommes des symbiotes, nous cohabitons avec des millions de bactéries. « Si on cesse d’opposer science occidentale et pensée animiste, et qu’on les mets côte à côte, nous sommes pris d’une confusion partagée. Les Gwich’in ne sont-ils pas mieux armés que nous, conceptuellement, pour dire la nature à l’époque dans laquelle nous sommes ? » En entrant en dialogue avec cette anthropologie, on peut se poser la question de savoir si les êtres vivants avec qui on est en commerce dans ce contexte de métamorphose environnemental, sont peut-être aussi en métamorphoses ? « Car dans le monde animiste, il y a un mot pour dire que les être de la métamorphose deviennent la norme, prolifèrent, il y a un terme pour dire que l’on ne sait plus prédire le climat ou le comportement de la rivière… On appelle ça le temps mythique. C’est un temps particulier. Une forme du temps dont la spécificité était d’être à l’origine du monde et qui à la fois continu à exister. C’est un temps des origines qui subsiste et continue à travailler le présent pour nous inviter à stabiliser le futur. »

« Dans le temps du monde, on sait avec qui on entre en relation : on connait le comportement du loup, de la rivière, du caribou…, on sait comment entrer dans une relation soutenable avec eux. Dans le temps du mythe, les êtres et relations sont instables, métamorphiques, en train de se faire. Dans le temps du mythe, humains et animaux ne sont pas toujours distingués, les genres ne sont pas circonscrits. L’histoire des mythes, c’est l’histoire de personnages, de chamans, de héros… qui nouent des pactes avec les êtres de la métamorphose pour stabiliser des relations viables avec eux. Le temps du monde hérite de cette stabilité, permet de cohabiter de manière décente, honorable, soutenable, avec ceux avec qui nous partageons la terre. »

« Est-ce que ça sert à quelque chose de comprendre notre temps comme un retour du temps du mythe ? », interroge le philosophe. Le temps du mythe, c’est le moment où les êtres de la métamorphose prolifèrent. Or, l’état des lieux de l’anthropocène nous présente un monde où ce que l’on doit réviser ce qu’on pensait de la terre. L’environnementaliste James Lovelock nous a montré qu’on n’avait rien compris. Que la terre, Gaïa, a le contrôle de ses propres variables. Qu’elle est aussi un être de la métamorphose. Le syndrome de la disparition des abeilles, souligne qu’on ne sait pas exactement pourquoi les abeilles disparaissent, pourquoi leurs comportements nous échappent. Or, les abeilles sont les principaux pollinisateurs du maraîchage, des plantes à fleurs sauvages…

Et Baptiste Morizot de nous inviter à observer l’histoire de notre futur proche sous l’angle du retour du temps du mythe. Pour lui, cela nous permet de comprendre pourquoi la crise actuelle produit des effets de confusion. Notre confusion n’est pas seulement liée au fait qu’on n’ait pas accompli ce qu’on devait faire, ou le résultat du capitalisme… elle est liée à la prolifération des êtres de la métamorphose. Nous sommes aujourd’hui surpris de découvrir que les animaux ou la nature sont plus riches de compétences qu’on croyait. Les arbres ne sont pas que de la matière, comme l’a souligné Peter Wohlleben dans son bestseller La vie secrète des arbres. D’un coup, les statuts dans lesquels nous avions classé éclatent et exigent que nous inventions de nouvelles relations.

Pour inventer de nouvelles relations, nous allons devoir aller chercher des récits, des mythes, des métaphores… conclut Baptiste Morizot. Nous allons devoir inventer des formes, des figures, des images, des métaphores nouvelles, depuis les articles scientifiques jusqu’aux savoirs des sciences subversives. C’est ce qu’il a tenté de faire avec Les diplomates en pensant nos relations avec les loups en terme diplomatique, alors que les animaux ne sont pas pas capables de diplomatie selon la science moderne. Nous avons aussi besoin de résistance interspécifique comme nous y invite les paysans qui pour lutter contre Monsanto s’allient à l’Amarante, cette plante qui a développé une résistance au glyphosate, pour faire cause commune dans une même résistance collective. Pour le philosophe, ces exemples nous montrent comment réinventer des relations pour stabiliser des relations soutenables, décentes, avec les formes de vies avec lesquelles on partage la terre.

Montrer nos confusions

L’artiste Marie Velardi propose ensuite une belle lecture tout en faisant défiler des images de son dernier projet en cours, « Lettre de Terre-Mer ». Un projet qui s’intéresse au déplacement du trait de côte des littoraux. Des aquarelles qui montrent l’évolution dans le temps de nos relations à la terre et à la mer. S’inquiétant de l’évolution des relations des habitants aux transformations de leurs territoires, à leur mémoire, interrogeant l’évolution de cette zone d’échange à l’heure de la perspective de la montée des eaux, sous forme d’Atlas d’îles perdues et d’îles à retrouver…

L’artiste et cinéaste autrichien Oliver Ressler produit des installations vidéos et s’intéresse surtout à la manière dont la société tente de s’organiser pour se réapproprier notre avenir. Il filme donc des Camps climatiques, des zones à défendre… il filme les résistances et les alternatives sociales. Pour l’activiste, le constat est clair. Le libre-échange est à l’origine du problème climatique, et pour s’opposer au réchauffement climatique, il faut donc d’abord s’opposer au libre-échange. Il montre des extraits de ses films : des actions de désobéissances civiles régulières, autour de la COP21 à Paris, à l’occasion d’une manifestation contre une mine à charbon à ciel ouvert en Allemagne, d’autres sur la Zone à défendre de Notre-Dame des Landes…

Khalil Joreige est cinéaste. Il travaille avec Joana Hadjithomas, tant et si bien qu’ils sont le plus souvent indissociables l’un de l’autre. Ils sont devenus plasticiens et réalisateurs au lendemain des guerres civiles libanaises. C’est d’ailleurs à partir des traces de la guerre qui commençaient à disparaître avec les reconstructions qu’ils ont entamé le travail qu’ils présentent sur la scène de la Head. « Discordances/Unconformities » (exposé à Beaubourg jusqu’au 8 janvier) expose des carottages réalisés à Beyrouth, Athènes et Paris, sous forme de tubes de verre suspendus où s’empilent ces extractions. Cette succession de strate est là pour montrer une histoire complexe, montrer comment l’histoire s’inscrit dans la stratigraphie même des lieux. Une manière de constituer des savoirs sur ce qui est amené à disparaître, pour nous montrer ce qu’on n’arrive plus à voir. A travers ces pierres, l’enjeu est de nous interroger sur les menaces qui nous arrivent, puisqu’elles interrogent ce que nous faisons à notre monde. Nos villes sont à l’image de l’anthropocène, en recyclage permanent. Elles sont des palimpsestes où se lit l’occupation humaine, que nous ne cessons de régénérer, de tenter de régénérer par épuisement.


Image : L’installation de Khalil Joreige et Joana Hadjithomas à Beaubourg.

Nous n’avons pas d’images du futur

Jussi Parikka (@juspar) est un théoricien des médias. Il est l’auteur de nombreux livres notamment Qu’est-ce que l’archéologie des médias ? (dont la traduction française doit paraître en janvier), qui s’intéresse « au fonctionnement matériel des appareils pour en comprendre les qualités occultes », « à l’anomalie et au marginal dans les cultures médiatiques », comme le souligne Yves Citton dans son dernier livre, Médiarchie.

« A quoi ressemble l’avenir ? Comment attraper le temps qui passe ? Une image peut-elle dire quelque chose du futur ? », interroge Jussi Parikka en montrant une image du dernier Blade Runner. « Nous n’avons pas d’images du futur ». Si nous en avons, elles émergent de l’imaginaire des paysages pollués, là où la pollution devient perceptible. Mais ces accumulations d’images de décharges et de déchets, symboles de l’anthropocène et de la destruction de notre économie morale, ne parviennent pas à faire sens, au contraire. Elle ne fait que nous dégouter de nous-mêmes. Ce futur déjà présent nous renvoie d’abord à notre propre passivité face au changement climatique, ce futur proche qui devient chaque jour un peu trop proche…


Image : Jussi Parikka sur la scène du colloque de la Head, photographié par Nicola Nova.

L’apocalypse traverse de manière pervasive notre futur. Les scénarios de la guerre froide nous préparaient déjà au pire, et le pire est effectivement arrivé, même si ce n’est pas le même que celui qu’on attendait. Reste que nous avons besoin de nous défaire de ces images pour développer d’autres approches et d’autres discours. De décoloniser cet imaginaire posthumain, en utilisant par exemple les théories féministes qui appelaient déjà à faire face à l’apocalypse… Pour cela, il est nécessaire de travailler à d’autres formes de narration, comme s’y essaye Jussi Parikka sur la scène du colloque des 10 ans de la Head. Reste que la catastrophe se rapproche à mesure qu’on l’a décrit. Paysages dévastés, fleuves pollués, extraction de masse, pauvreté… « 2100 est devenu l’horizon butoir de notre avenir proche » Nous respirons déjà un nuage toxique qui ne cesse de se renforcer au-dessus de nous, souligne-t-il en montrant le développement de la pollution aux particules fines de nos villes, comme Londres, qui excède chaque jour un peu plus les seuils dits vitaux et supportables. Derrière ces transformations du monde que l’on habite, se joue également la transformation de nos sensorialités, de ce que l’on perçoit et de ce que nous sommes.

L’art s’est intéressé à l’air, comme ce fut le cas du groupe Art & langage avec leur Air Conditioning Show qui consistait en une salle vide climatisée accompagnée de simples textes collés aux murs pour souligner l’expérience que les percepteurs allaient vivre. Pourtant, c’est bien à ce niveau moléculaire, invisible, que la transformation opère. Amy Balkin et son Guide atmosphérique tente de décrire les influences de l’homme sur l’atmosphère, qu’elles soient chimiques, narratives, spatiales ou politiques, pour montrer comment les humains occupent, ont occupé ou envisagent d’occuper les atmosphères. The Gathering Cloud de JR Carpenter, vise, lui, à aborder l’impact environnemental du cloud, l’informatique en nuage, comparée aux nuages dans le ciel, en soulignant que ni l’un ni l’autre ne sont des ressources infinies.

L’air pénètre notre corps. Compose l’environnement dans lequel nous vivons. Nous ne sommes pas armés pour nous en protéger. Or, l’air peut aussi nous faire mal… Et la terreur atmosphérique que fait planer sur nous l’évolution de notre atmosphère nous inquiète. Des particules s’accumulent désormais dans l’oxygène et ses premiers effets montrent que la menace se rapproche. En tant qu’humains, nous réagissons à ces transformations, sous forme d’irritations, de démangeaisons, de difficultés respiratoires. L’analyse chimique de la pollution de l’air et les cartes de pollution ou de radiation (comme l’accident de septembre qui a permis de repérer des traces radioactives sur l’Europe) forment les images techniques de l’anthropocène. Le tableau périodique des éléments de Mendelev montrait déjà ce qui existe et ne se voit pas nécessairement, comme les 4 éléments (l’air, la terre, le feu et l’eau) ont longtemps été l’une des explications du monde. Or, les transformations actuelles les transforment en retour. L’air brûle. La terre, stérile, se transforme en cendres. L’eau du robinet s’enflamme… Comme si des forces post-naturelles s’exprimaient déjà, tel que le soulignait le théoricien de la culture, Gary Genosko, dans sa conférence (vidéo) sur les nouveaux éléments fondamentaux d’une planète contestée.

Quel avenir aurons-nous dans un monde où les éléments qui nous ont permis d’exister ne seront plus ? Telle est la question que semble nous adresser Jussi Parikka.

Nous faut-il apprendre à dés-habiter le monde ?

Vanessa Lorenzo (@vanessalorenzot) est designer, chercheur, biohackeuse. Elle est responsable du biohacking Lab de Lausanne, Hackuarium (@hackuarium) et membre de la plateforme Hackteria (@hackteria) qui promeut l’art biologique open source.

L’anthropocène est un révélateur des dégâts que nous avons causés au monde. « Désormais, nous allons devoir faire face à des écosystèmes toxiques ». Effectivement, souligne-t-elle, à la suite de Baptiste Morizot et de Jussi Parikka, nous allons avoir besoin de nouveaux modes d’abstraction pour réinventer la relation entre les êtres vivants, les plantes et les machines. C’est ce que tente d’évoquer son travail justement, à l’image du Mossphone, un dispositif qui tente d’utiliser la mousse comme outil de mesure du phénomène anthropique. Organismes pionniers, les mousses ont été parmi les premiers colonisateurs de la planète. Dans l’arctique, on les utilise pour mesurer le niveau de métaux lourds. Dans les villes, pour mesurer le niveau de pollution. Le dispositif, lui, vise à nous permettre d’interagir émotionnellement avec une entité qui porte la trace des dégâts qu’on lui cause. En caressant la mousse, en s’imprégnant d’elle, celle-ci répond en émettant des sons (vidéo).

« Les changements environnementaux sont souvent invisibles. Piégés dans des données et des rapports scientifiques. D’où la nécessité d’outils pour les cartographier, de lampes pour les éclairer, pour les rendre visible. » L’open source est un outil pour rendre la pollution invisible visible. C’est avec elle que Vanessa Lorenzo a voulu joué dans un autre dispositif, Camera Obscura (vidéo), consistant à utiliser des bactéries pour mettre en évidence la présence de métaux lourds dans le Rhône. Or, plus les gens se penchent sur la caméra obscura, plus la pollution invisible devient visible, en déversant quelques gouttes d’encre noire dans un réservoir en verre. Le spectateur active la caméra et passe d’un échantillon à un autre, collecté en différents lieux. En présence de métaux lourds, ces échantillons réagissent et affichent différents niveaux de fluorescence à l’intérieur de la caméra. En retour, l’activation du dispositif lui-même pollue d’encre un réservoir en verre visible à l’extérieur de la caméra.

Pour Vanessa Lorenzo, ce dispositif vise justement à rendre visible la pollution et à montrer que nous y jouons un rôle. Pour elle, notre capacité à habiter l’anthropocène nécessite des outils pour nous permettre de mieux évaluer la réalité avec laquelle nous allons devoir cohabiter. C’est ici la bactérie qui devient le témoin la transformation que nous opérons sur le monde. Et c’est bien notre action qui en est le moteur.

Autant d’interventions qui nous invitent à dés-habiter le monde. Peut-être plus parce que nous ne serons plus capables de l’habiter. Notre cohabitation avec un monde qui se transforme, avec un monde qui répond aux agressions que nous lui avons portées par d’autres formes d’agressions, semble effectivement révéler toute sa cruauté : celui de nous être parfaitement inhabitable. Plus qu’une nécessaire adaptation à une nouvelle réalité, comme nous y invitent les collapsologues, la confusion que le design, la philosophie et la critique des médias saisit, semble sans perspective aucune, autre que de nous ouvrir les yeux sur notre propre extinction. Glaçant.

Hubert Guillaud

Catégories: Veille et actualités

Les Français et les sites internet dans le tourisme

Blog e-tourisme - mer, 20/12/2017 - 08:00

Oui.scnf, antérieurement Voyages-sncf, a fait réaliser par CSA Research une étude sur les Français et les sites Internet dans le tourisme (e-tourisme). Ce travail a été présenté en avant première à Oui Work, le lieu éphémère de Oui.sncf. On y apprend plusieurs données de cadrage sur les pratiques des Français en matière de numérique et plus particulièrement dans le domaine du tourisme (méthodologie : échantillon représentatif de 1 004 Français âgés de 18 ans et plus).

La réservation de voyage est la première pratique d’achat en ligne des Français

L’hébergement est en effet ce qui est le plus acheté en ligne suivi de la mode et des produits culturels. En effet selon cette étude, 59 % des Français ont régulièrement recours à Internet pour réserver/payer un hébergement, 48 % pour acheter leurs billets de train et 45 % pour acheter leurs billets d’avions. A titre de comparaison concernant les autres biens de consommation et services, 49 % des Français achètent régulièrement leurs vêtements en ligne, 43 % des billets de spectacle.

Les produits achetés en ligne par les Français

Le  nombre de sites internet dans le tourisme connus (notoriété assistée) par les Français est de 14,6 sites Internet.  Les Français déclarent ainsi utiliser en moyenne 3,6 sites pour préparer un voyage.

Les Français à la recherche d’un accompagnement en ligne plus poussé ?

Les Français sont de plus en plus à la recherche d’information et d’inspiration sur Internet pour préparer un voyage avec de plus en plus l’habitude de réserver en avance pour disposer de tarifs plus attractifs. Le prix reste et demeure ainsi le facteur déterminant d’achat. D’une manière générale, la tendance est donc de penser les sites internet pour favoriser l’inspiration ou bien  proposer des idées de séjours/d’activités (guides de voyage, les incontournables, activités insolites par exemple). On notera entre autre qu’environ 1/3 des Français recherchent de l’inspiration sur les réseaux sociaux. 

8 Français sur 10 souhaiteraient que les sites de e-tourisme les accompagnent depuis la préparation du voyage mais aussi pendant leur séjour et jusqu’à leur retour, en leur proposant des services et moyens de transport sur toute la durée de leurs vacances.
Ils sont tout aussi nombreux (80 %) à attendre de la part des acteurs du e-tourisme une plus forte personnalisation des offres, adaptées en fonction de leurs goûts et de leur manière de voyager.

Le prix reste demeure un facteur essentiel pour la réservation en ligne

Les principales attentes des Français pour les sites Internet dans le tourisme

Les attentes les plus importantes pour les Français en ce qui concerne les sites Internet sont à rapprocher de logiques marketing et de service. En effet les attentes prioritaires sont la transparence sur les prix, l’accompagnement et la présence en cas de problème ou d’imprévu, et enfin que les sites web soient facilement utilisables. On constate en effet que les sites Internet ne sont pas forcément très transparents sur les prix (par exemple les frais de dossier qui s’ajoutent au moment de la réservation). Les sites Internet pèchent également souvent en ce qui concerne la relation avec le consommateur (par exemple pour certains sites, c’est le parcours du combattant pour contacter le service client). Les sites Internet ne sont enfin pas toujours faciles à utiliser (vous avez ergonomie et utilisabilité ? funnel de conversion loin d’être optimisé…) 

Les principaux enseignements de cette étude sont résumés dans l’infographie ci-dessous :

The post Les Français et les sites internet dans le tourisme appeared first on Etourisme.info.

Catégories: Veille et actualités

Passé, présent, futur : peut-on encore raconter le futur ?

Internet Actu - mer, 20/12/2017 - 07:00

A l’occasion de ses 10 ans, la Haute école d’art et de design de Genève organisait un étrange colloque convoquant designers, artistes, philosophes, théoriciens, cinéastes… pour tracer des « histoires d’un futur proche ». Une prospective aux frontières de la création et de la science. Parfois ébouriffante, parfois déconcertante. Retour sur une sélection de ces… narrations d’un futur qui est déjà là.

Qu’est-ce que le passé nous apprend sur le futur ? En quoi le futur nous confronte-t-il au passé ? Peut-on se situer quelque part sur la ligne du temps, entre le rewind et le forward, entre rembobiner et l’avance rapide ?

Avant, arrière

C’est la question que posait l’architecte et théoricien Mark Wigley, co-auteur du livre et de l’exposition « Sommes-nous humains ? » (ainsi que d’un autre livre à paraître sur le sujet : Superhumanity). « Le design est une projection. Comme une pierre qu’on lance vers l’avenir. D’où l’importance de discuter, ici notamment, de ce qu’est l’avenir. » Mais, si le futur a une histoire, les humains ne semblent plus avoir d’avenir, constate sans férir le doyen de l’Ecole d’architecture de la Columbia University. « Si nous sommes condamnés, c’est parce que nous avons conçu notre propre autodestruction. Voilà 250 000 ans que l’homme développe sa capacité à s’autodétruire. » Et en terme de design, cette situation est incroyable puisqu’elle pointe toutes les lacunes de ce champ disciplinaire lui-même – même s’il est un champ disciplinaire au croisement de tous les autres. Pour lui, cela montre que le design, la manière même dont nous concevons le monde, pour l’instant, n’est pas adaptée et qu’elle nécessite d’être repensée.


Image : Mark Wigley photographié par Michel Giesbrecht pour la Head.

Il paraît que le téléphone serait la première et la dernière chose que nous touchons dans la journée, explique le professeur en rappelant combien ce constat souligne tout ce à quoi nous renonçons. La technologie nous rend à la fois inhumains et super-humains. Elle modifie nos corps et nos cerveaux, comme le pointait McLuhan. Si nous sommes façonnés par l’extérieur, la technologie désormais fait partie de nous, tant et si bien qu’on ne sait plus si on ajoute toujours plus de la technologie à nous-mêmes ou si nous nous ajoutons à la technologie. La technologie nous transforme si profondément que nous avons de la peine à l’appréhender. C’est à peine si nous remarquons encore qui fait le café chaque matin chez chacun d’entre nous. Ce n’est pas tant un humain qu’une machine. Pour ne pas l’interroger, nous nous anesthésions, d’une technologie l’autre. Chaque nouvelle technologie est interrogée depuis la précédente. La télévision permet de nous interroger sur le cinéma. Le web sur la télévision. Les réseaux sociaux sur le web, etc. « On regarde toujours le monde depuis un rétroviseur. » Et quand on regarde vers le futur, c’est toujours depuis les lunettes du passé.

Pour Mark Wigley, le designer doit changer d’attitude envers le passé pour changer le futur. Suite à un accident, Mark Wigley a dû, il y a plusieurs années, réapprendre à marcher. Ce n’est pas si simple, rappelle-t-il. Pour avancer, il faut en fait se balancer vers l’arrière, il faut « devenir instable », réapprendre à se mettre en déséquilibre. Marcher c’est créer une instabilité pour avancer. Le design est comme la marche. Il doit intégrer ce balancement d’avant en arrière. Le futur ne se comprend que par l’instabilité. Est-ce à dire que dans un monde déjà très chaotique, le design doit rendre les choses plus chaotiques encore ? Comment façonner le chaos ? Peut-on élaborer l’instabilité ?

Pour Mark Wigley, le design est né à la fin du 19e siècle, avec l’archéologue et géologue John Evans. Celui-ci venait de présenter devant ses confrères de la Royal Society de Londres des cailloux trouvés dans de profondes couches géologiques… Et il a démontré à ses confrères que ces cailloux avaient été taillés, façonnés. Il a montré un ensemble de bifaces en soulignant leur uniformité. Pour lui, le trait commun à toutes ces pierres est qu’elles avaient été produites intentionnellement. C’est avec ces premiers outils, ces premières technologies qu’est né l’humanité. Reste que ces études, controversées à l’époque, ont été un peu oubliées jusqu’à la naissance de la photographie qui a permis de montrer l’ancienneté des Silex en exposant les profondeurs où elles avaient été trouvées.

La technologie n’a pas seulement créé l’homme, elle l’a aussi façonné, estime Wigley. Et l’architecte devenu anthropologue montre alors des images de squelettes de nos ancêtres et de singes pour souligner combien nos squelettes se sont adaptés à leur environnement. Les mains pour grimper aux arbres des grands singes ne sont pas les mêmes que les mains des hommes pour lancer et façonner des pierres. Les phalanges de l’homme ont évolué et nous ont permis de faire ce que nos cousins savent moins bien faire, comme attraper des pierres et les lancer. La capacité à faire un outil a modifié la forme du corps humain. Si la main a créé l’outil, notre organisme a été, en retour, créé et façonné par ces outils.

Darwin n’a pas été très convaincu par l’idée que les pierres qu’avaient ramenées les premiers archéologues aient été le fait des hommes, notamment parce qu’on en trouvait énormément, ce qui aurait signifié que l’homme passait beaucoup de temps à les tailler. Or c’était effectivement le cas. Casser ces pierres était peut-être un signe d’habileté.

Or, ce qui distingue l’humain des autres espèces, repose sur notre capacité à élaborer des choses qui ne fonctionnent pas vraiment, estime Wingley. Si un oiseau apprend à utiliser un petit bâton pour tirer un vers d’une écorce, il sera capable d’apprendre ce geste et de le reproduire… indéfiniment. L’homme, lui, change. S’adapte. Varie. Reste que, un peu comme l’oiseau, il nous a fallu du temps. Mark Wigley montre alors deux bifaces en photos, assez semblables, l’un peut-être mieux taillé que l’autre. Or, souligne-t-il, 1 million d’années séparent les deux objets. « On mythifie ce qu’on produit. On en produit plein de variantes. Et parfois certaines variantes sont un succès. On dit alors rétrospectivement que c’était un succès. »

Notre capacité à nous autodétruire découle de notre capacité à produire des choses qui ne fonctionnent pas. Aujourd’hui, nous errons dans une confusion face à une production d’objets qui nous dépassent. On peine à comprendre ce présent quand bien même nous ne cessons de l’absorber. Mais ce n’est pas tant les objets qui nous perturbent que le fait d’être confronté via eux à notre propre confusion. « Le design ne passe pas du cerveau au reste du monde, mais l’inverse. » Ce n’est pas tant l’esprit qui conçoit des objets que les objets qui conçoivent l’esprit. Et face au monde, nous restons bien souvent stupides, confus, hésitants. Ce qui n’est pas pour nous aider à nous confronter aux problèmes actuels, conclut Wigley. Au final, les écoles de design entretiennent cette confusion. Elles nous montrent qu’un bon design ne consiste pas à donner quelque chose d’utile, mais à donner quelque chose d’inutile en disant que c’était du design.

Demain via aujourd’hui et retour

Difficile de rendre compte de la performance de Liam Young (@liam_young). Ce réalisateur, architecte et designer explore notamment les mécaniques de la fiction, via des productions, entre film et documentaire. Sur la scène du colloque, il projetait une longue vidéo créée pour le Sci Arc de Los Angeles, un voyage audiovisuel dans une ville, hésitant entre présent et futur, assemblant plusieurs de ses productions récentes, dont on peut voir des extraits sur son compte Vimeo. Ce voyage sur les mythes post-anthropocènes présente une ville monde, s’étendant partout sur la planète. On commence par la voir à travers les capteurs Lidar d’une voiture autonome (voir le teaser de Where the city can’t see).



Images tirées des films de Liam Young présentant la ville du futur vue à travers les capteurs Lidar puis une jeune femme personnalisant son drone, via Vice.

Depuis des images provenant de sites réels, réagencées, Liam Young nous fait traverser l’espace de la ville pour la regarder par les yeux d’une machine. Il nous emmène dans les différentes couches de cette ville. Des profondeurs des mines qui permettent à cette infrastructure de fonctionner, que ce soit celles à ciel ouvert du Chili ou de Bolivie qui concentrent 70 % du lithium de la planète et qu’Elon Musk arrache pour faire fonctionner un avenir sans carburant fossile, aux mines d’or et métaux rares d’Afrique. Liam Young propose une forme d’archéologie de notre monde moderne, fait de camions géants autonomes, d’extracteurs pilotés par GPS. À Madagascar, ce sont les hommes qui extraient les pierres précieuses, car ils sont moins chers que les machines. Ailleurs, des lacs radio-actifs, des raffineries, montrent le délire extractiviste de la Ville planétaire que nous habitons déjà. Au Bangladesh, il nous montre l’industrie textile, l’industrie la plus mondialisée de tous les temps, où les métiers sont parfois encore mécaniques. Il montre les visages des victimes de la production qui travaillent pour les victimes de la mode. Il nous emmène jusqu’au port de Hong-Kong et ses cargos de containers guidés par GPS pour traverser la planète, avec ces robots qui les chargent et les vides. Il nous plonge dans les entrepôts robotisés d’Amazon, où les employés suivent les instructions de leurs scanners qu’ils portent à la main comme des armes. Il nous montre les drones de la ville de demain, nouveaux pigeons numériques omniprésents de nos villes. Les couches de la ville extractive sont recouvertes par celles de la ville imaginée. Des drones de circulation flottent au-dessus des routes, surveillent la population (voir le teaser de In the robot skies). D’autres promènent des chiens. Une jeune fille lance par la fenêtre de sa chambre son drone personnalisé, décoré de boules et de guirlande comme celles d’aujourd’hui décorent leurs téléphones, pour porter un message à son copain. La voix de Liam Young décrivant son film flotte sur les images. Il évoque ces objets qui ont leur vie à eux et qui nous renvoient, nous humains, à être les visiteurs d’un monde pourtant créé à notre image. Les data centers font échos aux rayonnages silencieux des bibliothèques. On glisse un instant dans un concert d’Hatsune Miku, première pop-star de la génération des machines. La Detroit Economic Zone fait écho à la Jungle de Los Angeles. On y voit des jeunes gens inventer une chorégraphie pour échapper aux algorithmes d’identification, vêtus de capes de camouflages et le visage bardé de maquillages pour piéger les logiciels de reconnaissance faciale. Le voyage se termine sur le programme qui vérifie la conformité des programmes de la ville. Les machines nous rassurent de charmants « Hello World ». L’ensemble de nos technologies à l’échelle planétaire est devenu une seule machine, invisible, élaborée pour qu’on l’ignore derrière les écrans brillants d’où elle se présente à nous. Nous avons besoin d’imaginer une nouvelle mythologie pour ce nouvel univers. « Ma montre me demande comment va la machine à café que je viens de rencontrer… » Un écran annonce la pluie. La voix de Liam Young résonne sur les images. Fondu au noir. « A l’avenir tout sera smart, intelligent, connecté, intégré, mieux. À l’avenir tout sera smart, intelligent, connecté, intégré, mieux. À l’avenir tout sera smart, intelligent, connecté, intégré, mieux… Mieux. Mieux. Mieux. »

Dans un style radicalement différent, l’artiste et chercheuse franco-britannique, Marguerite Humeau (@marguerite_humeau), tentait également de rendre compte de ses plus récents projets, aux frontières du design fiction. FoxP2, les origines de la vie, qui a été présenté au Palais de Tokyo en juillet 2016, s’inspire de recherches scientifiques autour d’une protéine, FoxP2, popularisé comme le gène responsable du développement des cordes vocales qui serait apparu chez l’homme il y a 100 000 ans et qui aurait permis notamment la descente du larynx et donc le développement du langage. S’il n’est certainement pas le seul facteur qui expliquerait le développement du langage, cette mutation qui nous distingue est-elle un hasard total de l’évolution ? « Faut-il croire qu’un microévénement, presque une coïncidence, puisse être à l’origine de ce que nous sommes ? ». Si l’artiste fait quelques raccourcis scientifiques dans son exposé, Marguerite Humeau ne s’est pas moins documentée. Elle a interrogé des zoologues pour savoir ce qu’il se serait passé si ce gène avait évolué chez d’autres animaux.


Image : l’installation FoxP2 au Palais de Tokyo.

Elle s’est intéressée également aux rites funéraires très évolués, des éléphants. À la mort d’une matriarche par exemple, les zoologues ont pu constaté que les animaux procèdent un ensemble de rites, allant de veillées silencieuses, à la protection du corps avec des branches, à des formes de chants et de barrissements de concerts sonnants comme de touchants adieux.

C’est une scène de ce type que Marguerite Humeau a reconstruit d’une manière monumentale au Palais de Tokyo (vidéo), comme un opéra de créatures préhistoriques, faisant entendre un monde où les éléphants auraient été plus humains qu’ils ne le sont, où leurs voix auraient porté un sens.

Un autre de ses projets a consisté à ressusciter la voix de Cléopatre (vidéo), en tentant de la faire parler dans des langues disparues.

Le travail de Marguerite Humeau cherche à comprendre la relation entre la finitude et la permanence. Il interroge à la fois les couches les plus anciennes, les fondements reculés de nos cultures, et leur immatérialité.

Son dernier projet, Reveal Enigmas, s’intéresse aux Sphinx, une créature mythique qui existe dans toutes les civilisations. Cet hybride d’homme et d’animal (le plus souvent un lion, mais ce peut être d’autres animaux comme le soulignent les dictionnaires consacrés à ce phénomène) a partout la même fonction : à la fois protéger l’humanité et à la fois la dévorer. L’un des projets développés depuis la figure du sphinx consiste en des portes de sécurité d’aéroports, des corps industriels, à la fois menaçantes et protectrices. À Versailles, elle a construit un sphinx entouré de plantes toxiques. À Zurich, la même sculpture a été présentée comme un dieu. Il semble doté d’une voix artificielle pour rendre l’origine du langage humain, composé de 108 milliards de voix générées par ordinateurs : soit le nombre d’humains qui auraient peuplé la terre depuis les origines.

Marguerite Humeau construit des oeuvres complexes où les récits s’entremêlent entre fiction et science. Où les détails et les oeuvres s’intriquent et se répondent. Interrogeant toujours ce que nous sommes en tant qu’espèce, ce que nous charrions, de nos gènes à notre culture, comme pour y retrouver notre origine.

Ordonnancer le passé, le présent, le futur…

Aliocha Imhoff et Kantuta Quiros sont artistes, chercheurs, curateurs, philosophes… Ils produisent actuellement un film, Les impatients, une enquête sur « les chronopolitiques contemporaines », c’est-à-dire une enquête sur la façon dont on pense le temps à travers le monde, qui conduira le spectateur de Chicago à Paris, de Dakar à Lagos… Ce film découle d’un livre qu’ils ont publié l’année dernière avec Camille de Toledo, Les potentiels du temps (vidéo) : un livre qui interroge les régimes d’historité à venir, comme l’évoquait l’historien François Hartog dans son livre éponyme, c’est-à-dire, la manière dont une société ordonnance et articule passé, présent et avenir. Hartog distinguait notamment des conceptions différentes selon les régimes historiques, allant de l’eschatologie qui propose un avenir basé sur le salut, au présentisme contemporain caractérisé par son absence d’horizon d’attente, envahit par le présent, saturé par la commémoration mémorielle et qui voit le futur plus comme une menace qu’un espoir, sans proposition d’émancipation collective comme il pouvait l’être encore à la fin de l’époque moderne. L’enjeu des Impatients expliquent ses auteurs est justement d’interroger le régime d’historicité à venir, d’observer comment il se transforme à l’heure de l’algorithmisation du monde, à l’heure où le futur, ou le prédictif prédétermine le présent. Pour Aliocha Imhoff et Kantuta Quiros, ce nouveau régime d’historicité est un régime potentiel, en cela qu’il propose la potentialité comme mode d’existence. Il semble célébrer une puissance pour elle-même, qui ânonne la grammaire de l’émancipation du futur sans être capable de nous extraire du présentisme de la postmodernité. Comme l’affirmait Deleuze, le futur est l’infini du maintenant. Plutôt que de rêver d’utopie, nous fabulons. Nous sommes désormais un peuple lunaire, une collectivité qui ne cesse de « légender ». Dans le possible qui est partout, nulle planification n’est plus possible.

Kantuta Quiros évoque ensuite certains dispositifs chronopolitiques particuliers, à l’image de l’Assemblée générale de Milo Rau, des assemblées organisées par l’artiste Jonas Stall ou encore du théâtre des négociations lancé par Bruno Latour en mai 2015 en préconfiguration de la Cop21, qui invitait à simulation grandeur nature des négociations climatiques pour en proposer une expérience alternative. Autant de dispositifs chronopolitiques réimaginés par le monde de l’art, sous forme de happening politique, de collectifs hybrides pour discuter de l’objet même de la façon de faire du politique. Comme une pantomime pour déjouer les échecs prévisibles des véritables assemblées que ces dispositifs singent, en s’en amusant et en les dépassant. C’est d’ailleurs ce que proposent également Aliocha Imhoff et Kantuta Quiros via leur plateforme Le peuple qui manque (@peuplequimanque), qui organisait par exemple lors de la dernière nuit blanche un imposant procès de la fiction dans la salle du conseil de l’Hôtel de Ville de Paris.

Pour les deux artistes, ces projets fictionnels se tiennent dans un espace particulier, ambivalents et volontairement ambigus. Ce sont des formes de fictions spéculatives où l’événement a tout de même lieu, où la fiction autorise et joue à la fois. Comme autant de dispositifs qui permettent d’étendre le régime de l’art à la politique…, à la vie elle-même.

De la cybernétique à la post-cybernétique

Philosophe et historien de l’informatique, Mathieu Triclot (@mathieutriclot) est l’auteur de nombreux livres, dont notamment philosophie des jeux vidéo où il a souligné combien l’art vidéoludique était indépendant et différent des autres, notamment du cinéma auquel on le ramène souvent.

Sur la scène de la Head, Mathieu Triclot présente une réflexion sur la cybernétique, « L’hypothèse post-cybernétique » (qui fait écho à son livre Le moment cybernétique ainsi qu’à un article de la revue radicale TiqqunWikipédia – qui dans son deuxième et dernier numéro évoquait longuement « L’hypothèse cybernétique » comme hypothèse politique supplantant l’hypothèse libérale…). Les principes théoriques décrits par Norbert Wiener dans son oeuvre entrent désormais en circulation dans la société. Les objets qui relèvent de la technologie cybernétique, comme l’Intelligence artificielle ou la voiture autonome, sont sortis des laboratoires et évoluent désormais parmi nous. Or, les mêmes questions se posent aujourd’hui que celles qui agitaient le début de la cybernétique. Dès 1948, le neurologue Warren McCulloch, initiateurs des conférences Macy, dans son article « Why the Mind is the Head ? », s’inquiétait déjà du remplacement des humains par les machines, de la même manière que le rapport sur l’avenir de l’emploi (.pdf) de 2013 de Carl Frey et Michael Osborne. L’histoire bégaye.

En fait, rappelle Mathieu Triclot, la cybernétique a produit une réflexion critique sur la signification sociale des technologies qui a notamment nourri l’engagement politique de Wiener. Pourtant, la cybernétique n’avait pas tout prévu. Par certains aspects, elle a été rattrapée, dépassée. Mesurer l’écart entre la situation d’aujourd’hui et le moment cybernétique d’origine est un autre moyen pour faire un aller-retour entre passé et futur, un moyen pour mesurer la différence entre la « futurition » passée et notre futur présent.

La cybernétique, rappelle l’historien est un mouvement scientifique de l’après-Seconde Guerre mondiale transdisciplinaire, qui convoque et fait se rejoindre mathématique, physique, ingénierie, sciences du vivant et sciences humaines et sociales. Elle va inventer l’infrastructure technique et matérielle du monde contemporain, ainsi que des concepts nouveaux comme l’information, la rétroaction et le feedback. Si ce mouvement a été un succès extraordinaire par l’infrastructure technique qu’il a bâtie, il a aussi été un échec à la hauteur de son succès : la cybernétique n’a pas réussi à faire science.

Pour comprendre là où la cybernétique a réussi et échoué, il faut revenir à ce qu’elle est et défend. Pour cela, Mathieu Triclot utilise 6 maximes politiques tirées de Wiener permettant de résumer les enjeux originels de la cybernétique pour la confronter à sa réalité d’aujourd’hui.

« En toutes choses, commencer par le mode de production ». Ce constat, cet impératif qu’établit Wiener invite à s’interroger sur le facteur économique de la production de l’infrastructure technique. Un impératif qui fait écho aux engagements politiques mêmes de Wiener, qui, en 1947, dans une lettre ouverte publiée par The Atlantic déclare refuser de transmettre à des responsables de l’aviation ses travaux sur le guidage de missiles, refusant de mettre à la disposition de tous ses travaux les plus sensibles de peur qu’ils soient mal utilisés. Or, le mode de production économique des savoirs, le régime de science, a pourtant considérablement évolué. La science nationalisée pour la guerre contre laquelle s’élevait Wiener n’est plus le mode dominant de la technoscience. Aujourd’hui, nous sommes plutôt dans un régime libéral des connaissances.

« L’information n’est pas faite pour être marchandise », disait Wiener. Pour lui, le changement technologique ne devait pas être piloté par les intérêts privés, car ceux-ci ne savent pas prendre en compte le long terme. Or, aujourd’hui, l’information est plus que jamais une marchandise, rappelle Mathieu Triclot. Et cette appropriation de données est même la source d’une compétition encore plus féroce des technologies, notamment pour l’intelligence artificielle. Aujourd’hui, ce sont des penseurs comme Morozov, qui plaide pour des formes de propriété collective qui serait le plus proche d’un Wiener dans la reconquête d’une puissance sociale commune.

« L’information n’a rien d’immatériel ». Les cybernéticiens ont défendu l’idée d’une quantité physique limitée de l’information. Une matérialité qui se traduit chez Wiener sous la forme d’un humanisme tragique. Or, aujourd’hui, la matérialité de l’information a pris encore plus d’importance, explique Mathieu Triclot qui renvoie par exemple à l’analyse du théoricien des médias Benjamin Bratton et notamment à son livre The Stack, on software and sovereignty où il analyse l’intégration hétérogène d’internet comme un empilement de couches enchevêtrées, allant des ressources matérielles, aux interfaces, en passant par l’informatique des serveurs ou des adresses…, intricant des régimes de spatialités, de temporalités et de souverainetés différents. Pour Triclot, Bratton comme Wiener, nous invitent à résister au vertige de la dématérialisation.


Image : le schéma de l’infrastructure des régimes de matérialité de l’information de Benjamin Bratton.

« Il faut se débarrasser du mythe du robot ». Pour Wiener, dans cette question éminemment critique, les zones de performance de l’homme et de l’intelligence artificielle sont disjointes, comme il le rappelle dans L’usage humain des être humains (traduit sous le titre Cybernétique et société). En fait, lorsqu’on explique que la machine va remplacer l’humain, on dit que la condition de l’humain a déjà été réduite à l’état de machine. Derrière le mythe du robot, il y a l’usage inhumain des êtres humains qui nie l’intelligence adaptative. Pour Mathieu Triclot, cet argument semble aujourd’hui en crise. Face aux progrès du Machine Learning, le dernier bastion de l’humain semble en train de tomber… puisqu’on prête même aux programmes, comme AlphaGo, des capacités d’intuitions surprenantes, comme ce fut le cas de ceux qui commentèrent ses échanges au Go avec le champion humain de la discipline. Pourtant, Wiener nous a mis en garde contre ce réductionnisme. Derrière l’IA, on trouve très vite l’usage inhumain des êtres humains, à l’image des tâcherons du clics qu’évoque le sociologue Antonio Casilli, qui travaillent à faire marcher nos systèmes techniques, à nourrir les robots et les IA, comme à nettoyer les contenus que les intelligences artificielles ne savent pas nettoyer.

« Contre la pensée du gadget, observer les milieux techniques ». Ce qui a changé, estime le philosophe, c’est que la voiture autonome par exemple transporte avec elle son milieu perceptif, alors qu’à l’époque de Wiener, l’outil ne savait pas prendre en compte les contraintes de son environnement. Aujourd’hui, les milieux techniques s’agencent et s’articulent dans le milieu éminemment technique que sont les villes, ces smart cities de l’anthropocène…

Il reste une dernière mise en garde que Mathieu Triclot tire de Norbert Wiener : « Il n’y a pas de machine à gouverner ». Pour Wiener, ce refus des machines à gouverner va être décisive pour le mouvement cybernétique. A l’époque, Wiener argumente son refus sur un argument épistémologique : les séries de données ne sont pas d’assez bonne qualité pour étendre au monde politique et social les techniques de prédiction mises au point en ingéniérie, comme l’a fait Wiener en travaillant sur la prédiction des trajectoires des avions et missiles ennemis. Il y ajoute un argument politique nous confit Mathieu Triclot : « on ne peut pas éliminer le conflit de la politique, prédire est une chose, agir une autre, le savoir ne suffit pas. » Reste que l’argument de Wiener semble aujourd’hui ici aussi en crise. Nous vivons environnés de dispositifs prédictifs. À l’heure du régime libéral des sciences et techniques, tous les domaines semblent désormais à la recherche de leur machine à gouverner, de leur machine prédictive pour discipliner les comportements dans les domaines de la justice, de la police, de la santé, de l’éducation… La machine à gouverner semble devenir un horizon de la société tout entière. L’avertissement de Wiener semble bien loin. Or, il soulignait déjà que ces dispositifs n’avaient pas besoin de marcher réellement pour produire des effets sociaux et des effets de pouvoir, à l’image de la théorie des jeux. Reste que Wiener, lui, était conscient de l’absence de neutralité de l’instrument prédictif. Pour lui, le prédictif sert certains intérêts sociaux plus que d’autres. Quand bien même il dysfonctionne, l’activité politique est d’une autre nature et la complexité ne peut être réduite à un calcul d’optimum.

Hubert Guillaud

Catégories: Veille et actualités

Rétrospective 2017 – Mon best-of vidéo

Blog e-tourisme - mar, 19/12/2017 - 07:00

En cette période de fêtes de fin d’année qui approche, votre blog préféré ne déroge pas au marronnier des rétrospectives et autres best-of.

Storytelling, expérience sont les mots qui reviennent régulièrement dans nos billets. Voici 5 vidéos parmi mes coups de cœur de l’année. Elles ont toutes un petit truc qui font que j’aurais aimé en être le réalisateur. En attendant, ce sont de belles sources d’inspiration.

1/ La + “dual-branding” – We listed the entire country on Airbnb – Suède

Une vraie curiosité que cette vidéo sortie en cette année 2017 qui marque le pic d’un contre-feu des institutions face à la pieuvre tentaculaire Airbnb. Le parti-pris de la Suède: pour apprivoiser la bête, coopérons. Pour ne rien gâcher, la voix-off très flegmatique ne manque pas d’humour.

2/ La + “arty” : The Views Are Different Here – Toronto

Parce que la ville de Toronto m’est complètement inconnue et qu’elle fait partie des destinations de ma wishlist, voici la vidéo qui m’a le plus donné envie de partir pour un urban trip (désolé Paris et ton Anne Hidalgo complètement love au concert de David Guetta sous la Tour Eiffel).

3/ La + politique : #EveryoneIsWelcome – Los Angeles

Quelques semaines après l’investiture de Donald Trump à la présidence des États-Unis, la Cité des Anges prend le contre-pied de l’Amérique qui se replie et dame le pion à sa voisine San Francisco sur le terrain de l’ouverture ethnique et culturelle.

4/ La + manga – Warm, winter Canada – Canada

Makoto Shinkai est un réalisateur plutôt habile de films d’animation (3 films primés sur les 5 qu’il a réalisé). En quelques secondes, l’auteur imprègne de son univers visuel doux quelques sites canadiens (le Parc National de Banff, les chutes du Niagara, Vancouver, Toronto). Le résultat, de par sa forme, est assez inattendu.

5/ La + “british” – British Airways safety video

Comme moi vous aimez le cinéma et l’humour anglais? Cette vidéo est le combo parfait : une flopée de stars (Chiwetel Ejiofor, Gordon Ramsay, Thandie Newton, Gillian Anderson, Rowan Atkinson, etc.) et une écriture qui puise très largement dans l’univers de Ricky Gervais. Ce n’est pas une vidéo de destination mais on reste dans le voyage et j’ai envie de prendre ce vol direct.

Bonnes fêtes de fin d’année.

The post Rétrospective 2017 – Mon best-of vidéo appeared first on Etourisme.info.

Catégories: Veille et actualités

Le top des articles tourisme & digital 2017

Blog e-tourisme - lun, 18/12/2017 - 07:00

La transformation numérique du tourisme et son incroyable rapidité a renforcé le besoin pour les professionnels d’une veille permanente. Veille sur les innovations technologiques, sur les évolutions des usages, sur les expérimentations, sur la concurrence, etc.

C’est la raison d’être de la Revue de presse Tourisme & Digital, hebdomadaire et totalement gratuite que vous connaissez peut-être et êtes même pour certains abonnés !

En cette fin d’année, je vous propose un petit « making of » ou secrets de fabrication et surtout un palmarès 2017 des clics qui reflète bien les préoccupations des professionnels du tourisme et de la culture.

Dans nos vies surchargées et connectées le temps est souvent la ressource la plus rare. L’idée de cette revue de presse hebdo était donc de gagner du temps avec une sélection d’articles déjà réalisée.

Organiser une veille : Le making of

Tout est question d’organisation et d’outils :

La veille s’organise très simplement avec les traditionnelles Alertes Google, quelques abonnements à des newsletters bien senties (Etourisme bien sûr ! mais aussi le Journal du Net, Tourmag, TOM, Les Echos, Skift, Veille tourisme, etc.) … et puis il y a vous : les posts sur les médias sociaux m’orientent souvent vers les articles les plus intéressants. Twitter et LinkedIn sont à ce titre les plus performants.

Tout au long de la semaine, je veille donc ! et là intervient un outil formidable : POCKET !

Dès qu’un article me semble intéressant, que je sois sur mon mobile ou PC, hop je clique sur la petite icone Pocket et zou le voilà stocké dans ma liste, débarrassé de la pub et même accessible off line sur tous mes devices.

C’est donc dans mes micros -moments de la semaine, dans les transports, dans la file d’attente des commerçants, au café, etc. que je parcours les réseaux sociaux, mes alertes, mes newsletters et dès qu’un article semble pertinent je le « pocket ».

Le dimanche soir (eh oui c’est mon moyen à moi de lutter contre le blues du dimanche soir), j’ouvre mon pocket, je lis (ou pas…) les articles, je garde, je jette, bref je sélectionne en me demandant bien ce qui va vous intéresser…

Newsletter entièrement gratuite, la revue de presse est réalisée avec des outils totalement gratuits : Pocket pour la veille, WordPress gratuit pour la parution sur mon site et le routeur de mail Mail Chimp découvert grâce à Etourisme et cet article mythique pour moi de Pierre Eloy (« et mon flux c’est du poulet, toi aussi devient un boss de la CRM de séjour »), même si je n’ai jamais réussi à créé automatiquement la newsletter depuis le flux RSS de mon WordPress, certainement parce que j’utilise la version gratuite.

Le plus difficile, c’est donc la sélection des articles. Nombreux sont articles au titre alléchant et au contenu déceptif… une version de ce que l’on appelle vulgairement les « putaclics ».

Pas facile en effet de savoir ce qui va vous intéresser tellement vous êtes divers ! Les abonnés de la revue de presse, et c’est une grande fierté, sont très divers.

25% des DMO (pardon, OGD comme disent les québécois), 25% du privé du tourisme, 25% de la culture et 25% de divers (agences, consultants, autres).

Lancée en juin 2016 avec 23 abonnés amis, la revue de Presse Tourisme & Digital en compte environ 1000 lecteurs hebdo. Bien entendu, déformation professionnelle et orgueil me poussent à regarder les taux d’ouverture t les taux de clics, c’est pourquoi les abonnés totalement inactifs sont régulièrement « éliminés ».  Avec des taux d’ouverture et de clics supérieurs à 50%, je me dis que la Revue de Presse a rencontré son public.

 

Le Top 3 des articles 2017

Les articles les plus cliqués en 2017 sont :

  1. De très loin, l’article intitulé « Pourquoi il faut liquider Uber » a été le plus lu de 2017. La force de l’affirmative promettait un véritable point de vue et l’article tenait cette promesse. Les points de vue, les coups de gueules, les polémiques (les clash comme on dit) sont appréciés particulièrement sur les sujets disruptifs pour lesquels nous sommes souvent nous-mêmes ambivalents : utilisateurs, voir admirateurs de l’expérience client, du design ou du service tout en regrettant la destruction sociétale ou sociale que provoque la disruption. A ce titre les très nombreux articles sur l’actualité de Airbnb intéressent toujours.

 

  1. Arrivent en deuxième position, à égalité, deux articles plutôt stratégiques : le « Comment voyagent les diverses générations » de l’excellent blog québécois Réseau veille Tourisme ainsi que le rapport de la Caisse des Dépôts « Intégrer le numérique dans les stratégies touristiques ». Le succès des articles qui synthétise une étude qu’on aura du mal à lire par faute de temps (ici le voyage par générations résume une étude Expédia) ne se dément pas et les lecteurs sont véritablement fans des infographies… Enfin, ces clics montrent que les préoccupations stratégiques sont au cœur de vos questions.

 

  1. Le « TOP 10 des sites et des applications de voyage » complète le podium et montre le succès des TOP, Palmarès, classement, Flop, etc. C’est devenu une règle du web connu de tous ceux gèrent des sites, les lecteurs sont fans des classements et sélections (c’est d’ailleurs la sous-catégorie n°1 des « putaclic » avec les chatons !)

 

L’analyse du Top 20 des articles les plus lus de l’année de l’année, quelques enseignements

Les lecteurs de la revue de presse cultiveraient -ils un certain goût pour le morbide ? Les articles annonçant la mort, la fin, la liquidation attirent nettement : le désormais fameux « Pourquoi il faut liquider Uber » incontestable N°1 de l’année mais aussi , « Ce n’est pas la mort du SEO, c’est la mort de la page web » ;  « Vers la fin des musées » etc.

Plus sérieusement, dans un contexte de bouleversements rapides c’est l’avenir qui intéresse, qui inquiète et qui intrigue. L’avenir des technologies, l’évolution des comportements, les tendances de consommations : les articles avec la promesse de décrypter l’avenir cartonnent toujours : ainsi l’avenir du tourisme, le futur des musées, l’hôtel de demain (toues les combinaisons sont possibles) arrivent presque toujours en tête des clics. Les articles consacrés aux Start-up dénotent bien cette préoccupation de ne pas passer à côté des tendances et de l’avenir : “Les 25 start-up françaises sélectionnées pour le CES”

Google nous a annoncé cette année l’avènement du « Moment Mobile », l’article de Etourisme  correspondant est d’ailleurs un top « Google aux #ET13 : le moment mobile est là ! » . Le mobile se retrouve dans vos préoccupations et les articles relatifs au mobile sont plébiscités : « baromètre des usages mobiles »  ou encore « Infographie : dans l’achat de voyage, l’aventure commence sur smartphone ».

On l’a dit les articles les articles relatifs aux études, aux chiffres particulièrement avec des infographies remportent un grand succès.  Ce qui dénote une vraie préoccupation stratégique. Mais cette préoccupation est accompagnée d’un vrai appétit pour les infos pratiques, les trucs, particulièrement ceux qui permettraient de performer sur les Réseaux sociaux : « les meilleurs jours et horaires pour poster sur les réseaux sociaux »  ou « Email marketing, quels sont les meilleurs moments pour envoyer »  ou encore  « Comment utiliser Snapchat dans sa stratégie digitale ».

Enfin, je dois dire que mes lecteurs ne se laissent pas influencer : c’est rarement l’article mis en première position qui emporte le nombre de clics et plus rarement encore celui que je préfère le plus cliqué !

Mon cadeau pour Noël …

La revue de presse Tourisme & Digital se poursuit en 2018, elle continuera d’être totalement gratuite… c’est un peu mon cadeau de Noël à chacun d’entre vous.

Par ICI pour découvrir les Revues de Presse.

Par ici pour s’abonner : formulaire d’abonnement à la Revue de Presse.

Diffuser, faire connaître, inciter à s’abonner telle peut-être votre contribution à cette Revue de presse dont la philosophie réside sur le partage de l’information.

Je vous souhaite de bonnes fêtes à tous.

The post Le top des articles tourisme & digital 2017 appeared first on Etourisme.info.

Catégories: Veille et actualités

IA : un état de l’art

Internet Actu - ven, 15/12/2017 - 07:00

Où en est l’Intelligence artificielle ? Quels sont les marqueurs importants grâce auxquels on peut suivre l’évolution du domaine ? C’est à cette tâche que s’est attelée l’université Stanford, qui a décidé de publier un « index de l’IA (.pdf) » chaque année.

Au moins, une première chose dont on peut se réjouir, c’est que le rapport n’est pas difficile à lire ! En effet, son coeur est essentiellement composé de graphiques accompagnés de courtes légendes.

Une première partie concerne les progrès de l’IA, non pas d’un point de vue technique, mais de celui de l’intérêt académique ou commercial qu’elle suscite. Et là, pas de doute, l’IA connaît un triomphe. On apprend ainsi que le nombre d’articles universitaires consacrés au sujet se sont multipliés par 9 au cours de la dernière décennie. Il y a d’ailleurs 11 fois plus d’étudiants dans ce domaine. L’analyse des conférences montre que l’intérêt des chercheurs s’est déplacé de l’IA symbolique vers le « machine learning » et le deep learning. On s’y attendait. Mais la rapport souligne néanmoins que l’intérêt pour l’IA symbolique, « à la papa », n’a pas disparu, il reste une petite communauté active qui continue à travailler sur le sujet.

Bien sûr, les startups se consacrant à ce domaine ont largement proliféré : il y en a aujourd’hui 14 fois plus qu’en 2000. Et les investissements se sont multipliés par 6…

Des progrès… mais peut mieux faire
La seconde partie aborde les vrais progrès, et se penche sur les potentialités technologiques de l’intelligence artificielle.
Dans le domaine de la détection d’objet, il apparaît ainsi que le meilleur système informatique est capable de plus grandes performances que les humains. En revanche, toujours dans le domaine de la vision, l’IA reste très inférieure à nous autres primates lorsqu’il s’agit de répondre à une question plus ouverte sur le contenu d’une image.

En analyse textuelle, l’être humain a là aussi, un avantage : l’IA est moins performante lorsqu’il s’agit de répondre à une question sur un document. En ce qui concerne la reconnaissance de la parole, les meilleures IA atteignent tout juste le niveau des performances humaines.

Mais même dans les domaines où les machines restent à la traîne, elles continuent néanmoins de progresser.

En fait, ce n’est pas le rapport en lui même qui est le plus intéressant. Finalement, on n’y apprend pas grand-chose. Il ne fait que refléter la « hype » qui entoure cette discipline et nous montrer des progrès, certes existants, mais moins extraordinaires qu’annoncés. La Technology Review, qui a publié un article sur le rapport, titre d’ailleurs : « le progrès en IA est moins impressionnant que vous ne le pensez« .

C’est en fait la dernière partie du texte qui s’avère la plus intéressante. Il s’agit d’une série d’interviews recueillant les avis de divers experts sur ces différentes métriques.

Barbara Grosz, professeur d’IA à Harvard, revient sur le traitement du langage naturel et les difficultés à mesurer le niveau des machines. En effet, bien que le rapport traite des questions de traduction et d’analyse de documents, il ne s’est pas penché sur celle des « chatbots » et de la capacité qu’ont ces programmes d’entamer un dialogue avec les humains (rappelons tout de même que cette faculté est au coeur du fameux « test de Turing »). Les auteurs de l’index expliquent cette absence par le fait que « le dialogue des chatbots est éloigné du dialogue humain et nous manquons de mesures largement acceptées pour évaluer les progrès dans ce domaine. De même, alors que les systèmes d’IA d’aujourd’hui s’avèrent moins capables d’un raisonnement de bon sens qu’un enfant de cinq ans, on ne sait pas comment quantifier cela sous la forme d’une métrique technique. »

Pour Barbara Grosz, « l’analyse textuelle ne nécessite aucune considération sur l’état mental du producteur du document analysé, et pour de nombreuses situations dans lesquelles la traduction automatique et la capacité de répondre à une question ont été testées, il est également possible d’ignorer cet état mental et en particulier, l’intention derrière l’énoncé, qui est crucial pour comprendre sa signification. Ce n’est plus le cas avec un dialogue. »

Michael Wooldridge de l’université d’Oxford s’interroge lui sur le trop plein d’enthousiasme suscité aujourd’hui par cette technologie :

« A l’heure actuelle, il y a clairement une bulle autour de l’IA. La question que ce rapport soulève pour moi est de savoir si cette bulle va éclater (comme cela se produisit lors du boom dot com de 1996-2001), ou se dégonfler doucement. Et quand cela arrivera, que restera-t-il ? Ma grande peur est que nous voyons arriver un autre hiver de l’IA (l’hiver de l’IA est une expression qui désigne la période dans les années 80-90 qui a suivi la chute de l’IA symbolique, celle des systèmes experts, qui s’étaient avérés incapables de tenir leurs promesses – NDT), suscité par la désillusion suite à la spéculation massive et l’investissement auxquels nous assistons en ce moment (…)

Cependant, même si je pense qu’une certaine déflation de la bulle actuelle est inévitable dans les prochaines années, je pense qu’il y a une raison d’espérer que ce sera une digne et lente déflation, plutôt qu’une explosion spectaculaire. La raison principale en est que, comme l’AI Index le démontre clairement, l’IA est de plus en plus compétente. Sur un large spectre de tâches, les systèmes d’IA se montrent de plus en plus performants (et parfois rapidement), et leurs capacités se déploient avec beaucoup de succès dans différentes zones d’application. En d’autres termes, je pense qu’il y a de la substance derrière l’actuelle bulle, et les grandes entreprises comprennent maintenant comment utiliser les techniques d’IA productivement (…). Je ne crois pas que nous assisterons à un contrecoup comme ce fut le cas avec l’hiver de l’IA et la fin du boom des systèmes experts. »

Au-delà de l’Amérique

Autre limite de l’index, souligné par Alan Mackworth, de l’université de Colombie britannique : son caractère ouvertement américano-centrique. Il espère que dans les prochaines versions de l’index, les données venues d’Europe et du Canada pourront affluer. Et précise-t-il, les informations concernant l’Asie devraient aussi être bientôt disponibles.

Le souhait d’Alan Mackworth est appuyé par un autre intervenant, l’investisseur américano-taiwanais Kai Fu-lee, qui se montre particulièrement enthousiaste sur les perspectives de l’IA en Chine. On le sait, la technologie la plus efficace actuellement, celle du deep learning, repose essentiellement sur les data. Or, l’ancien Empire du Milieu est une mine extraordinaire de data. En effet, on y trouve trois fois plus d’utilisateurs d’internet et de téléphones mobiles qu’aux États-Unis ou en Inde. Les Chinois utilisent 50 fois plus leur mobile pour effecteur des achats que les Américains. Dans le domaine des transports, « il y a plus de 20 millions de déplacements à vélo transmettant leur GPS et les informations d’autres capteurs à un serveur, créant 20 téraoctets de données tous les jours ». Kai-Fu Lee souligne aussi la bonne qualité des applications en Chine, donnant en exemple la startup Face++, qui gagna trois concours de reconnaissance faciale, devant Google, Microsoft, Facebook et la Carnegie Mellon University. Le gouvernement chinois est également très investi et a en juillet 2017 lancé le « plan de développement de la prochaine génération d’intelligence artificielle » destiné à favoriser l’innovation dans ce domaine.

Les auteurs de l’index ne pouvaient pas ne pas évoquer au moins rapidement la question des limites de l’IA et sa capacité à atteindre le niveau d’un être humain. Là encore,la conclusion n’est pas très surprenante, et va dans les sens de bons nombres de chercheurs et analystes : « Les tâches effectuées par les systèmes d’IA sont souvent conçues pour des contextes limités afin de réaliser des progrès pour la résolution d’un problème ou une application précise. Alors que les machines peuvent obtenir des performances spectaculaires sur une tâche spécifique, ces performances peuvent se dégrader considérablement si la tâche en question est modifiée même légèrement » (comme nous le soulignions déjà).

Les auteurs du rapport ont avoué ne pas s’être penchés sur les risques sociétaux posés par la multiplication des IA, mais espèrent pouvoir s’y attaquer dans les prochains numéros de l’index. Ces défis sont en revanche souvent mentionnés par certains des commentateurs du rapport. Mais en tout cas pas question de la venue de la Singularité ! A croire que ce mythe est surtout colporté par des observateurs extérieurs au domaine, et bien plus rarement par ceux qui ont le « nez dans le guidon » !

Rémi Sussan

Catégories: Veille et actualités

Crello et Designbold : les petits de Canva

Blog e-tourisme - ven, 15/12/2017 - 07:00

Allez, un easy friday qui va plaire aux community managers : voici deux nouveaux outils de création graphique que je viens de découvrir.

En février dernier, je vous présentais Canva, qui pour moi est un véritable véhicule spatial du graphisme, tant il me permettait de faire de jolies réalisations sans avoir le moindre sens artistique! Encore plus performant qu’Adobe Spark.

Mais le webservice fait des émules, et je vais donc vous présenter deux cousins de Canva : Crello et Designbold.

Crello, le gif animé en plus

Crello, c’est vraiment le cousin germain de Canva : même organisation du webservice, même design, même le nom qui commence par la même lettre. Avec cet outil, la création graphique sera facile.

Après inscription, il vous suffit de choisir parmi les 31 formats proposés, qui vont des publications Facebook aux cartes postales.

L’interface est assez intuitive, et les fonctionnalités de retouches sont assez développées. De nombreux fonds, images, et thèmes déjà designés sont à disposition. Si beaucoup sont gratuits, d’autres sont proposés à petit prix (souvent moins d’un euro). La plateforme est accessible en français.

Particularité de Crello : vous pourrez créer des Gif animés, comme ci-dessous. Reste ensuite à les télécharger en MP4 avant de les republier.

http://www.etourisme.info/wp-content/uploads/2017/12/crello3-1.mp4

 

        Bolddesign, et ses 40 millions de photos en stock!

Bolddesign est une start-up vietnamienne qui propose des services équivalents à Canva mais qui se bat sur les avantages mis à disposition de ses clients : pas moins de 40 millions de photos en stock, dont 300 000 en accès libre; les autres sont facturées 80 cents l’unité.

L’interface ici n’est disponible qu’en anglais. Mais elle est comme pour Canva ou Crello, excessivement intuitive.

Si ces trois webservices sont vraiment cousins, quel avantage à quitter Canva pour se créer un nouveau compte ailleurs?
Surtout, d’après-moi, pour trouver d’autres suggestions de design. Il y a vraiment énormément de choix! J’aime bien chez Crello la rubrique “inspiration”, classée par catégorie. C’est là que j’ai trouvé cette belle illustration, appropriée avant une dernière semaine de boulot! 

The post Crello et Designbold : les petits de Canva appeared first on Etourisme.info.

Catégories: Veille et actualités

Paramétrer notre bulle de filtre… pour en reprendre le contrôle

Internet Actu - jeu, 14/12/2017 - 07:00

Avant l’internet, les grands médias étaient nos filtres sur le monde. Selon le journal que vous achetiez, la chaîne de radio ou de télévision que vous suiviez, votre vision du monde était différente, rappelle sur son blog Ethan Zuckerman (@ethanz), directeur du Centre pour les médias civiques du MIT (@civicMIT). Puis, internet et ses puissants moteurs de recherche ont permis de faire naître des filtres selon ses centres d’intérêts. Les médias sociaux ont ensuite proposé une autre forme de filtre, des filtres basés sur nos relations sociales… jusqu’à ce que celles-ci deviennent trop importantes et qu’elles nécessitent une autre approche : une approche algorithmique qui personnalise le filtrage selon un ensemble complexe de facteurs. La bulle du filtre, posée par Eli Pariser, repose sur l’idée que nos tendances naturelles à l’homophilie sont amplifiées par des filtres conçus pour nous donner ce que nous voulons, plus que des idées qui nous challengent, nous conduisant à des formes d’isolement idéologique et à la polarisation. « Les fausses nouvelles conçues pour tromper le public et recueillir des publicités reposent sur le fait que les algorithmes de Facebook ont du mal à déterminer si les informations sont vraies ou non, alors qu’ils peuvent facilement voir si les informations sont nouvelles et populaires. Lorsque le Congrès américain réclame des actions à l’encontre des fake news ou de la propagande russe, il ne réclame rien d’autre qu’une autre forme de filtrage, basée sur qui crée le contenu et sur la véracité des faits. »

« Pourquoi les plateformes de médias sociaux comme Facebook et Twitter ne donnent-elles pas aux utilisateurs des outils puissants pour filtrer leurs propres flux ? À l’heure actuelle, les algorithmes contrôlent ce que nous voyons, mais nous ne pouvons pas les contrôler. (…) Vous pouvez payer et faire de la publicité auprès des femmes de couleur entre 40 et 60 ans qui vivent à Seattle, mais vous ne pouvez pas choisir de lire les points de vue de ces femmes. Bien qu’il existe des projets très innovants comme BlockTogether (@blocktogether, qui permet aux utilisateurs victimes de harcèlement de partager des listes d’utilisateurs bloqués sur Twitter), les plateformes peinent à offrir des outils de contrôle aux utilisateurs eux-mêmes. Et à moins qu’émerge un jour des plateformes sociales sous forme de services publics (comme le proposait Ethan Zuckerman lui-même en mai dernier), il est peu probable que les plateformes donnent aux utilisateurs plus de contrôle sur ce qu’ils voient. »

Comme le rappelle le chercheur, les filtres algorithmiques optimisent les plateformes pour favoriser l’engagement et la rétention des utilisateurs dans le but de vendre l’attention des utilisateurs aux annonceurs.

Tout l’enjeu à venir consiste donc à proposer d’autres modalités pour filtrer les contenus, ou mieux encore, de permettre aux utilisateurs d’accéder et de décider des paramètres des filtres qui les façonnent, comme nous le soulignions nous-mêmes. Si les paramètres relèvent des prérogatives des plateformes, cela n’empêche pas d’imaginer des services qui ouvrent ces paramètres depuis les services web de ces mêmes plateformes.

C’est ce que propose Gobo, un prototype fonctionnel lancé par le Centre des médias civiques, le Media Lab et le laboratoire d’études comparatives des médias du MIT. Gobo est un agrégateur de médias sociaux qui propose aux utilisateurs des filtres dont ils peuvent contrôler les paramètres. L’outil, lié à nos comptes Facebook et Twitter, permet à chaque utilisateur de choisir différents paramètres pour accéder aux contenus que proposent ces réseaux. Plusieurs filtres sont ainsi disponibles : un filtre politique permet de sélectionner des publications proches de ses points de vue ou éloignées de ses opinions politiques ; un filtre de sérieux permet de contrôler le volume de fun dans les billets qui vous sont proposés ; un filtre de politesse permet de contrôler le ton des billets ; un autre permet d’ajuster un curseur pour définir l’équilibre entre les sexes de votre flux d’information, permettant par exemple de mettre tous les hommes que vous suivez en sourdine… Un autre filtre permet d’ajuster la viralité de ce qui vous est proposé selon que les posts sont peu ou très populaires.

Enfin, chaque article que le système vous affiche explique le critère selon lequel il a été filtré.

Gobo pour l’instant n’est bien sûr qu’un démonstrateur. Il est lent. Il est imparfait puisqu’il dépend des modalités d’accès que proposent Facebook ou Twitter à des services tiers. Il utilise des techniques de machine learning assez basiques pour classer les informations selon les filtres, techniques qui devraient s’améliorer avec le temps… Reste que si l’outil est imparfait, il offre enfin une perspective stimulante pour permettre aux utilisateurs de reprendre la main sur les réseaux sociaux. Il permet de jouer avec les critères et donc de comprendre en partie les logiques algorithmiques à l’oeuvre dans la sélection qui nous est délivrée. Il montre en tout cas que d’autres distributions de l’information sont possibles… et que les boites noires sont à leur tour manipulables. Que l’accès aux critères et aux paramètres des systèmes est la modalité de la reconquête de notre liberté et de notre autonomie.

Espérons que Gobo se développe et inspire nombre de nouveaux services pour aider les utilisateurs à reprendre la main sur les réseaux sociaux !

Hubert Guillaud

Catégories: Veille et actualités

Tous artistes pour rester vivants

Blog e-tourisme - jeu, 14/12/2017 - 07:00

“Quand nous mettons nos photos sur Facebook, sur Whatsapp, nous sommes les idiots utiles de l’IA, nous éduquons gratuitement jours et nuits l’IA, qui va devenir de plus en plus forte et de plus en plus indispensable. Nous nous sommes mis dans un piège. Il faut réfléchir à la façon d’en sortir, et de ne pas sortir de l’Histoire en ayant donné toutes les clefs du futur à l’IA et à ceux qui la possèdent, c’est à dire les géants du numérique : Google, Apple, Facebook, Amazon en Amérique, et puis Baidu, Alibaba, Tencent et Xiaomi en Chine”. Laurent Alexandre, fondateur de Doctissimo nous alerte dans Le Petit Web.

Et si c’était vrai ? Si toutes les invitations à l’économie numérique du partage n’avaient eu pour but que d’alimenter les immenses pompes à flouze que sont les GAFA et Cie ? Plus on parle données et d’Intelligence Artificielle, plus on entend des sonnettes d’alarme se mettre en mouvement. 

Personnellement, je suis un complice et un innocent. Complice d’avoir accepté d’être un cobaye, de confier mes données, mes contenus, mes photos, mes sentiments qui, ajoutés à des centaines de millions d’autres, construisent certes des solutions pour l’instant favorables car porteuses d’innovations et a priori de réseautage social, mais potentiellement dangereuses. Que les GAFA et Cie et les états qui en sont à l’origine évoluent différemment et cela peut arriver à tout moment, au point de brider la liberté des citoyens du monde et nous serons cuits. Privés de liberté. Innocents de n’avoir pas entrevu plus tôt que les formidables machines à cash, masquées par d’excellents storytelling faisant presque paraître les GAFA pour d’aimables ONG, prennent l’ascendant sur tout. Pour le meilleur et pour le pire certainement. Je vous invite vraiment à prendre le temps de visionner ce documentaire et à le partager : Nothing to hide. Il fait froid dans l’échine et invite à la vigilance. 

Il n’y a pas que les GAFA, le monde avance

Bon après, rien n’est jamais perdu. Aux déclinistes qui ne cessent de nous indiquer que tout va de mal en pis, que la misère règne sur terre, rappelons quelques vérités : l’extrême pauvreté a diminué de manière spectaculaire dans le monde en 30 ans ! Allez dire à l’immensité majorité des Asiatiques que le monde s’est appauvri ! Une autre preuve avec le gros pavé de Steven Pinker : La part d’âge en nous, qui nous décrit par le menu que nous vivons dans l’époque la moins violente qui soit. Et le tourisme là-dedans ? 901 millions de visiteurs internationaux entre janvier et août 2017 : + 56 millions, soit +7%, pour la huitième année le tourisme international progresse. Et savez-vous où la progression est la plus forte ? En Afrique à +9% et en Europe à +8%. Côté émissions de CO2 et dégradation de notre planète, le chemin à parcourir dans les consciences et dans les faits est immense, même si de multiples initiatives sont salutaires comme par exemple les efforts de compensation carbone de Voyages du Monde partie prenante de Livelihoods Carbon Fund. L’autre vérité, c’est que 8 milliardaires dans le monde possèdent autant de richesses que la moitié de la population mondiale. Et qui sont-ils ? Tiens donc, ils contrôlent pour partie les GAFA.

Certes en 2050 ou 2060, on ne sait pas, saura-t-on un jour d’ailleurs, les gens avec un QI de moins de 150 ne serviront à rien nous annonce-t-on. J’inverse la supposition : les gens avec un QI supérieur à 150 serviront-ils encore avec l’IA ? Ou bien, l’indicateur de 150 et la définition du QI auront-elles encore un sens au regard de la rapidité d’assimilation et traitement de l’IA ? 

Ce que nous disent tous ces éléments d’horizons différents, c’est que nous ne savons pas anticiper. Mais ce qu’ils ne disent pas c’est qui ne sait pas anticiper ? Car j’ai le sentiment que les cerveaux des GAFA et les stratèges des états qui les abritent, eux, le savent. Les GAFA ont la main : s’ils nous coupent les accès, on est morts compte tenu de notre dépendance. Nous sommes donc asservis.

Mais tout n’est pas fini car je lis beaucoup en ce moment les innombrables articles qui sortent sur l’Intelligence Artificielle, ici en France et ailleurs. Et dans le même je me casse la voix avec ma Google Home qui n’est pour l’instant que sympathique. Quand les tâches sont programmées tout roule, dès qu’il y a de l’improvisation ou une recherche un peu fine les limites apparaissent bien vite. L’écrit sur le clavier ou la voix sur Google Chrome m’apportent pour l’instant plus que la Google Home qui semble surtout conçue pour compliquer des actions simples de domotique. Et pourtant Dieu sait si Google sait ! L’ultra-spécialisation voilà ce à quoi nous conduit le développement de l’Intelligence Artificielle. L’improvisation n’est pas de mise. Normal, l’improvisation c’est la liberté. Alors si vous voulez sauvez votre peau et celle de votre structure touristique, fuyez l’ordre avant de disparaître et jouez de l’improvisation. Autrement dit devenez artistes ! Foutez le bazar, créez de l’émotion, faites tomber les masques de l’accueil formaté.

Face à l’ordre gafaesque je ne vois que ça pour persister et trouver des voies singulières. Et m’est avis que les OGD, si elles veulent survivre, seraient bien inspirées de s’inventer des carrières artistiques au risque de disparaître. Avec la liberté artistique, une autre liberté consiste à vouloir faire à l’échelle locale, y compris dans l’exploitation des données car c’est là que ça se joue. Exemple : l’OGD du Door County dans le Wisconsin a misé sur l’analyse de ses données marchés pour redéfinir précisément les provenances et paniers de ses visiteurs et réorienter ses positions marketing. Et il l’explique dans ses éléments de communication sur sa page membership. Et les spectacles et les arts ont leur place dans sa promo car les locaux sont pris en compte comme étant des consommateurs touristiques. Regardez et écoutez la vidéo jointe, elle est assez exemplaire d’une démarche locale d’intelligence territoriale.

Amsterdam West et l’Intelligence Collective

Autre preuve de la créativité du local contre le global : l’initiative sociale d’Amsterdam West. Là, élus, fonctionnaires et citoyens bénévoles ont mis en place un tissu relationnel hors structure : le micro local, la base absolue, l’instantanéité et on fait remonter les idées et attentes à partir de zones jugées prioritaires. Ce n’est pas le territoire qui est couvert, mais des bouts décisifs, soit parce que laissés à l’abandon, soit très fréquentés. Les animateurs s’assoient sur des bancs et conversent avec les habitants. Les propos collectés sont confrontés à des analyses statistiques où les données prennent toute leur part. Les acteurs locaux sont ainsi directement en prise avec des réalités issues des bases de données et de la vie concrète exprimée. On parle alors et c’est un vieux concept, de l’effet spillover (engrenage) : les nécessités de la base incitent la création de réponses au plus haut niveau (perspective nommée bottom up). Dock.nl est l’un de ces outils d’animation, qui oeuvre notamment dans le quartier difficile de Landhurst pour faciliter les remontées directes et les réponses rapides qui impliquent la population, celle-ci constatant combien la critique est aisée mais l’apport de réponses concrètes difficile et lent à porter ses fruits. La démocratie locale y gagne. Et l’exemple de Livelihoods que j’ai déjà cité témoigne de l’intérêt du local face au mondial, du petit face au super-puissant.

Pour compléter vos lectures, de bien belles approches dans Méta-Media, le cahier de tendances médias de France Télévision. Quelques bribes qui peuvent illustrer mon propos : Amazon vient de s’étoffer de 160 000 salariés en trois mois et en compte 540 000, soit plus que la population de certains pays ! En situation de monopoles ces grands groupes (Google et Facebook ont une influence sur plus de 70% du trafic Internet) se sont enrichis des contenus créés par d’autres. Ils mettent à bas les organisations dites du passé par l’essor de services mondiaux, performants et peu onéreux. Je vous invite à lire ce bel article du non moins magnifique New Yorker. Devenez des havres de créativité, tant dans vos lieux physiques que dans vos actions quotidiennes, dans vos contenus et supports de diffusion, faites humains et complexes, faites localement, soyez artistes, c’est à dire libres, c’est notre seule voie pour rester vivants !

Ressources photos (à la une Amaury Salas – Unsplash ; en coeur d’article Victoria Palacios – Unsplash)

The post Tous artistes pour rester vivants appeared first on Etourisme.info.

Catégories: Veille et actualités

Ne cherchez plus ! Le meilleur job du monde est à Cancún avec un poste de CEO (Cancun Experience Officer)

Blog e-tourisme - mer, 13/12/2017 - 10:00

Vous vous souvenez sans doute de l’incroyable succès du meilleur job du monde proposé par l’Office de Tourisme du Queensland en 2009 ?

Et bien cette année, le meilleur job du monde est à Cancún, au Mexique !

Une recherche sur le propriétaire du nom de domaine Cancun.com nous montre que c’est l’agence de voyage Viajes Beda S.A. de C.V. qui est l’instigatrice de cette opération de communication déguisée en recrutement, même si au final il s’agit bien d’un poste à pourvoir.

Un poste de CEO (Cancun Experience Officer)

Un poste de CEO (Cancun Experience Officer) est donc à pourvoir sur une durée de 6 mois renouvelables. Un clin d’oeil au Chief Executive Officer (Directeur Général) généralement utilisé pour ce sigle.

L’objectif ambitieux est de faire de Cancún l’une des premières destinations touristiques au monde. Parmi les missions confiées, il s’agit de créer des vidéos, raconter des histoires, partager des expériences en ligne (nager avec des requins, explorer la jungle, explorer d’anciens temples, etc.). La production de contenus et l’animation des réseaux sociaux sont au cœur du dispositif. En d’autres mots, il s’agit de devenir le Spielberg de la destination.

Cerise sur le gâteau, le salaire est au delà de tout entendement avec 8 500 euros par mois (10 000 dollars / mois). Ce qui peut paraître complètement déraisonnable voire même outrancier en comparaison avec les salaires moyens des mexicains. C’est un autre débat…

Aucune expérience requise, les candidats doivent simplement posséder un passeport, parler couramment anglais et être majeur.

Pour être l’heureux élu, il va falloir franchir toutes les étapes du recrutement :

  • La première consiste à réaliser une vidéo avec ses motivations, en 60 secondes maximum et en anglais. Les candidats sont invités à déposer leur vidéo sur la plateforme en ligne et à inviter quotidiennement leurs amis, followers, à voter pour eux.
  • Dans la deuxième étape, seulement les 100 meilleurs candidats seront retenus, puis 50.
  • Enfin 5 candidats seront sélectionnés en finale pour passer une semaine d’entretiens à Cancún. Avec la nomination du CEO pour le 31 janvier 2018 !
Un coup de pub pour l’agence de voyage en ligne

Simple calcul pour 6 mois, le coût de l’opération est de 51 000 euros (incluant seulement le salaire sans les frais de promotion de l’opération). On suivra attentivement les résultats de recrutement de fans et de likes. Si le coût peut paraître exorbitant, rapporté au coût final / fan, il pourrait s’avérer peut être plus intéressant qu’une campagne de recrutement classique sur les réseaux sociaux.

En seulement 70 publications sur 3 mois, le nombre d’abonnés et de likes sur Instagram a progressé considérablement. Idem pour la Page Facebook quasiment partie de rien. Il faut dire que les participants sont aussi jugés à leur capacité à faire du buzz autour de Cancun.com en mentionnant le compte de l’agence de voyage dans leurs propres publications relatives au “concours”.

Sources des statistiques avec Ink361

Merci à Marine Goutte, l’alsacienne de l’étape (c’est Paul Fabing qui va être content), pour m’avoir fait découvrir cette opération.

Bonne chance à elle !

Pour la remercier, c’est par ici pour voter quotidiennement sur sa vidéo :

https://ceo.cancun.com/profile/marine-goutte

 

The post Ne cherchez plus ! Le meilleur job du monde est à Cancún avec un poste de CEO (Cancun Experience Officer) appeared first on Etourisme.info.

Catégories: Veille et actualités

Du pistage de nos emails !

Internet Actu - mer, 13/12/2017 - 07:00

Sur Wired (@wired), Brian Merchant (@bcmerchant), l’auteur de L’appareil unique, l’histoire secrète de l’iPhone, revient en détail sur le développement du pistage de nos e-mails. Pour son enquête, il a utilisé Streak, un outil qui s’interface avec sa messagerie et qui permet à tout utilisateur de savoir si ses correspondants ont ouvert leurs e-mails. 40 % des e-mails envoyés seraient pistés, selon une étude faite par une entreprise qui propose des outils pour s’en protéger, One More Company, la société qui est derrière Senders et evercontact.

La technologie utilisée est très simple, elle consiste à insérer du code dans chaque e-mail ou une image invisible d’un pixel par un pixel, qui sera téléchargée dès que le destinataire ouvrira l’e-mail qui lui est adressé. Ce qui permet à l’expéditeur en retour de connaître à quel moment le mail a été lu, sur quel appareil, depuis quelle adresse IP et donc depuis quelle localisation. Autant d’informations qui permettent de savoir si une adresse e-mail est bien utilisée par le destinataire par exemple. Les services marketing utilisent cette technique depuis très longtemps pour connaître le taux d’ouverture de leurs courriers promotionnels. Mais, ils ne sont pas les seuls…

De plus en plus, souligne Merchant, le suivi d’email, comme on l’appelle poliment, n’est plus l’apanage des grandes entreprises. Des particuliers l’utilisent pour surveiller leurs collègues, leurs concurrents, leurs proches. Pour Florian Seroussi, le fondateur de One More Company, 19 % de tous les e-mails conversationnels (c’est-à-dire envoyés par nos relations directes) seraient désormais tracés, soit un e-mail sur 5. Comme le soulignent (.pdf) les chercheurs de Princeton, Steven Englehardt, Jeffrey Han et Arvind Narayanan du Centre pour la politique des technologies de l’information qui pilote un observatoire sur la collecte des données, aucun d’entre nous n’a jamais consenti à ce pistage. Ca n’empêche pas le pistage de se développer, non pas seulement pour valider les e-mails des destinataires ou suivre le taux d’ouverture, mais plus encore pour revendre des informations aux principaux exploiteurs de données que sont Acxiom et ses concurrents.

Pour Florian Seroussi, c’est le développement des liens sponsorisés dans Gmail qui a sonné comme un signal pour prendre d’assaut les boites mails des utilisateurs. Pour Andrei Afloarei, chercheur à Bitdefender, c’est plutôt le développement du spam qui a développé ces techniques, notamment pour pouvoir vendre des listes de mails validés. Aujourd’hui, ce sont les géants de l’internet qui utilisent le plus ces techniques, comme Amazon, Facebook ou Mailchimp. « Lorsque Facebook vous envoie un e-mail vous informant d’une nouvelle activité sur votre compte, il s’informe du lieu où vous êtes, de l’appareil que vous utilisez ou de la dernière photo que vous avez prise – il capte tout ».

Quand il travaillait sur son livre sur l’iPhone, Brian Merchant a installé Streak pour voir si les e-mails qu’il envoyait à des gens d’Apple sans obtenir de réponses étaient lus. Il pouvait même constater qu’ils étaient ouverts plusieurs fois, sur des machines différentes, et donc qu’ils étaient diffusés à l’intérieur d’Apple. Il a même envoyé un mail à Tim Cook, le PDG d’Apple qui a été lu immédiatement, sur une machine Windows (ce qui ne signifie pas que Cook ait nécessairement un ordinateur Windows, peut-être qu’il sous-traite sa correspondance privée à une firme dédiée).

Reste que tout un chacun peut apprendre par exemple où se trouve son correspondant via ces méthodes. En envoyant un message aux candidats aux élections américaines de 2016, il était ainsi possible de connaître les appareils qu’ils utilisaient, leur adresse IP et donc là où ils se trouvaient… On peut aussi déduire l’emploi du temps de quelqu’un selon l’heure où il ouvre ses e-mails. D’ailleurs Brian Merchant a aussi utilisé Streak pour suivre des proches… sans en tirer grande fierté.

Les chercheurs de Princeton soulignent enfin que le pistage de nos e-mails évolue. Ils ont étudié plus de 14 000 newsletters et mailing-list des sites et services les plus populaires du web pour montrer que 85 % contenaient des traceurs et que 30 % récupèrent nos adresses e-mails pour la revendre ou la diffuser ailleurs. Cela signifie que si vous souscrivez à une lettre d’information, même connue, il y a une chance sur 3 que le service marketing partage votre adresse avec des services tiers comme les data brokers, notamment si vous l’ouvrez ou si vous cliquez sur un des liens qui vous sont proposés qui disposent d’identifiants uniques pour savoir qui a cliqué.

Les outils de suivi de mails se démocratisent. Les protections aussi. Ugly Mail, PixelBlock, Senders… permettent d’identifier les courriels qui contiennent une image invisible voire d’empêcher de les ouvrir… et également d’identifier vos amis qui utilisent ces services. L’autre solution consiste à bloquer par défaut toute image dans votre messagerie. Radical, mais efficace. Sauf que les méthodes évoluent. Les systèmes peuvent aussi appeler des couleurs ou des polices de caractères spécifiques… ou des liens. Tout est bon pour vous tracer !

Pour John-Henry Scherck, consultant en marketing, il suffirait pourtant que Gmail décide d’informer un peu mieux les utilisateurs en mettant en lumière ces pratiques pour peut-être aider à prendre conscience du problème. Reste que, à moins que les fournisseurs de services décident où soient obligés de bloquer le pistage, le risque le plus probable est que celui se généralise totalement.

Catégories: Veille et actualités

Réguler par la donnée ?

Internet Actu - mar, 12/12/2017 - 07:00

L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une initiative de la Harvard Kennedy School pour promouvoir une ville réactive aux données.

D’une régulation par l’autorisation à une régulation par la responsabilité ?

Pour lui, il est nécessaire de passer d’une régulation par la permission (et son corollaire, l’interdiction) à une régulation par la responsabilité informée par la donnée. Les plateformes du web ne sont pas tant des plateformes que des « moteurs pour la régulation », expliquait-il au Personal Democracy Forum de 2016 (vidéo, présentation), et ces moteurs de régulation vont directement impacter la manière dont le secteur public pratique la régulation.

Dans le système de régulation traditionnel, explique-t-il, une entreprise ou un individu doivent demander une autorisation, comme c’est le cas des licences de taxis ou des permis de construire. Pour cela, ils doivent apporter une foule de documents, pour prouver qui ils sont ou expliquer ce qu’ils vont faire. Une fois accordée, une surveillance légère est parfois opérée, mais la plupart du temps aucune donnée ne vient informer le régulateur.


Image : la matrice de la régulation par Nick Grossman, de la régulation par l’autorisation à la régulation par la responsabilité.

Dans le monde des plateformes, la régulation se pratique totalement différemment. Il est très simple de devenir un vendeur sur eBay ou un conducteur pour Uber. Par contre, beaucoup de données sont collectées : la surveillance comme la responsabilité sont assez strictes, encadrées et continues. Pour Grossman, la différence entre ces modèles nous fait passer d’une régulation par l’autorisation à une régulation par la responsabilité. Pour lui, c’est là une innovation qui rejoint le nouveau paradigme que décrit Carlota Perez à savoir le paradigme de l’âge de l’information (qui succède aux paradigmes de l’âge du pétrole, de l’électricité et de la vapeur…). Chaque âge a apporté son lot d’innovations spécifiques, non seulement technologiques, mais plus encore en matière de législation et de régulation. Il en conclut que les données apportent des réponses pour transformer nos pratiques de régulation.

En connaissant mieux le trafic automobile par exemple, grâce aux données des plateformes de véhicules avec chauffeurs, de covoiturage ou de GPS communautaire on peut imaginer de nouvelles formes de régulation. Comme en connaissant mieux la boulangerie on peut adapter l’offre (c’est ce que font les plateformes en s’adaptant sans cesse à leurs utilisateurs) mais également la régulation (puisqu’on connaît l’activité des utilisateurs).

Comment expérimenter la politique conduite par la donnée ?

Grossman défend activement une régulation informée par la donnée – ce qu’il appelle « la politique conduite par la donnée » (data-driven policy) – qui imagine que les règles qui s’imposent à tous soient construites sur de l’information statistique pour rétroagir sur la société elle-même. Reste que pour aboutir à cette forme applicative de l’ingénierie sociale, le problème est bien sûr de pouvoir avoir accès aux données, de les partager, entre citoyens, entreprises et autorités et également de trouver les modalités communes de leurs usages.

Mais c’est loin d’être le cas. « Les plateformes sont comme de petites dictatures qui édictent leurs propres règles », rappelle-t-il. Difficile pour les autorités publiques d’avoir accès à ces données, d’autant que tous les accès aux données ne sont pas nécessairement de confiance (comme nous le pointions dans notre article sur les limites à la loyauté des plateformes). Sans compter également que toutes les autorités ne sont pas équivalentes : quand le FBI veut avoir accès aux données des Gafa, ce n’est pas la même chose que quand une ville veut avoir accès aux données de ceux qui organisent du transport ou du logement sur son territoire. Rendre accessibles les données nécessite donc d’imaginer et de construire des formes de régulation (la carotte et le bâton), en partie parce que la valeur de ce partage est loin d’être toujours claire (et ce d’autant plus que ce partage pose des questions de confidentialité et de concurrence). Plutôt que de trouver une solution magique à cette tension, Grossman demeure pragmatique : pour promouvoir de nouvelles formes de transparence, le mieux est encore d’expérimenter, afin de trouver, pour chaque cas, les bonnes modalités de mise à disposition des données, de partage, de valeurs…

Nick Grossman évoque deux exemples en démonstration de sa thèse : Airmap, un système de gestion du trafic aérien sans pilote qui facilite l’échange de données et le contrôle du trafic aérien pour les drones (signalons d’ailleurs que le Secrétariat d’Etat à la modernisation de l’action publique vient de lancer une plateforme assez similaire, drone.beta.gouv.fr). Une plateforme de régulation qui fait le lien entre les pilotes et les autorités, en développant par exemple de la géo-identification pour interdire certains espaces aux drones ou favoriser leur identification par les autorités. Une plateforme qui a le potentiel de créer une régulation adaptée aux utilisateurs depuis les données que les pilotes et les constructeurs partagent. Grossman espère que nous allons voir se démultiplier ce type de plateformes très spécifiques, « verticales », permettant aux différents acteurs de discuter entre eux, très concrètement, par le partage de données.


Image : la carte des drones, avec ses zones de régulation, via drone.beta.gouv.fr.

D’autres plateformes, plus horizontales, permettant de mieux partager des données et de mieux les protéger par exemple devraient également voir le jour, estime l’investisseur, en évoquant Enigma (né au MIT) et le chiffrement homomorphe qui permettent d’interroger les données et de faire des calculs tout en les laissant chiffrées. Une solution technique qui permettrait par exemple de mieux partager des données sans que les systèmes y accèdent en détail tout en leur permettant de les interroger à leur gré. Un exemple éminemment vertueux à nouveau, même si cette opacité sur les données générée par le chiffrement pose aussi des questions sur la validité des données partagées.

Des limites de la « politique conduite par la donnée »

En fait, contrairement à ce qu’avance Grossman, la régulation amont (la licence, l’autorisation ou leur contraire, l’amende…) ne recoupe pas nécessairement le périmètre sur lequel agit la régulation par les données. En fait, les deux formes ne s’opposent pas tant qu’elles se complètent, avec des objectifs et des modalités distinctes. Surveiller la construction des immeubles n’est pas la même chose que leur donner une autorisation de construction selon le respect des critères auxquels les constructeurs doivent se conformer avant la construction. La régulation par les données ne pourra peut-être pas s’appliquer partout et pour tout. L’instauration de boucle de rétroaction vertueuse nécessite de la transparence et du dialogue pour peaufiner les critères (évaluer et surveiller dans le temps leur pertinence) comme le soulignait très bien Cathy O’Neil.

Autre problème : les plateformes sont très fragmentées, ce qui pose la question de l’agrégation des données multiples, pas forcément compatibles entre elles, de leur coordination et de la gestion de cette coordination, comme nous le soulignions déjà. Enfin, autre écueil et non des moindres : la question de la validité et de la pertinence des données. Les politiques conduites par la donnée posent la question des données utilisées et introduisent le risque d’un facile datasolutionnisme, produisant des indicateurs et des politiques depuis des données peu adaptées à cela. Or, tous les problèmes ne sont ni visibles ni solubles dans les données. L’enjeu n’est pas tant de conduire des politiques depuis les données, de produire une régulation à la demande, que de trouver dans les données des modalités de rétroaction vertueuses. D’où l’appel de Grossman à expérimenter, à jouer du « bac à sable réglementaire » pour trouver les modalités effectives du partage des données et des formes de régulation.

Reste que « la politique conduite par la donnée » pose bien d’autres problèmes encore. Démultiplier les données n’abolit pas les choix politiques comme de savoir quelles données et quels critères sont utilisés pour la régulation. A l’image du débat actuel sur les prérequis attendus des lycéens pour postuler dans les formations universitaires : si l’on demande des notes ou compétences minimum, reste à savoir lesquelles, comment et par qui elles sont déterminées et évaluées. Si vous devez avoir au moins un 13 dans telle matière pour concourir à telle formation, comment est calculée cette note ? Est-ce celle des premiers trimestres de terminale ou celle du du Bac ? Est-ce que ce prérequis est calculé depuis les résultats des précédents candidats (aucun de ceux qui sont allés dans cette formation n’ont réussi avec moins de 13 dans cette matière) ? Avec le risque bien sûr, que les critères choisis s’auto-renforcent. Enfin bien sûr, les systèmes automatisés posent la question des possibilités de recours…

Le problème de l’accès aux données n’est pas non plus un petit problème. Même si cet accès était facilement possible, cela ne signifie pas pour autant qu’il soit loyal, comme le soulignait les activistes Murray Cox et Tom Slee en montrant qu’Airbnb ne donnait pas accès à toutes ses données comme les problèmes de manipulation de données d’Uber. A Bordeaux, l’Observatoire Airbnb monté par un élu local, Matthieu Rouveyre, pointe également toutes les limites de confier des formes régulatoires aux plateformes. En fait, l’une des questions de fond que pose « la politique conduite par la donnée » est que bien souvent elle repose sur la nécessaire fusion de la plateforme et de la politique, avec le risque d’être juge et parti. Une perspective qui pose une question de régulation intrinsèque : comment séparer ces deux perspectives dans des outils, qui par nature, tirent leur force de cette double capacité ? Or, nos modalités démocratiques ont toujours veillé à distinguer les pouvoirs. Les plateformes de données, par essence, proposent à la fois des modalités où la mise en oeuvre, le contrôle et l’autorité sont interdépendants, un peu comme si les pouvoirs législatifs, exécutifs et judiciaires procédaient d’une seule et même entité. L’extension de l’action aux données elles-mêmes que recouvre l’enjeu des politiques conduites par les données pose la question de leur contrôle démocratique. Le risque est que mesures et données deviennent performatives, les plateformes deviennent productrices de leurs propres règles favorisant à terme un mandat impératif et une société sans pouvoir.

Le risque d’une Gouvernance par les nombres, soulignait le juriste Alain Supiot dans son ouvrage éponyme, est que la régulation par la donnée transforme la politique en simple fonctionnement, que les mesures et les critères de performances qu’elle produit devienne le critère de la gouvernance. Le risque que cela induit est que le système produise sa propre optimisation depuis des critères retenus sans grand contrôle démocratique et sans séparation des pouvoirs entre le système et la régulation qu’elle produit. Le calcul devient autoréférentiel, produisant à la fois des indicateurs, la mesure et son but.

Quand les machines servent à la fois à rendre compte, à administrer, juger et légiférer… le risque est de voir fusionner la satisfaction des indicateurs et la réalisation des objectifs au détriment de tout contrôle démocratique par ceux qui sont calculés, administrés, jugés et ainsi légiférés.

Hubert Guillaud

Catégories: Veille et actualités

Chartblocks : retour aux fondamentaux du graphique

Blog e-tourisme - mer, 06/12/2017 - 07:00

Petite réflexion du jour suite à mon intervention en analyse statistique devant des étudiants aux yeux écarquillés quand je leur explique que la graphique, la science de la représentation visuelle de données statistiques, répond à des règles précises. Non, on ne représente pas tout et n’importe quoi et surtout pas n’importe comment.

C’est pourtant un des maux du monde professionnel que de produire à tout va des graphiques qui n’ont pas de sens, parce qu’il faut occuper la prochaine réunion et qu’il n’y a rien de mieux que de montrer tous les talents que l’on peut déployer avec Excel (ou LibreOffice). Que celui qui n’est jamais sorti de réunion le front plissé à essayer de comprendre pourquoi on vous a présenté un diagramme circulaire me jette la première pierre. Soit le graphique n’ajoute aucune valeur aux données que l’on communique (autant communiquer le tableau brut). Soit c’est un non-sens dans l’analyse que l’on propose. Par exemple:

Le Tumblr WTF Visualization regorge d’exemples farfelus

“The greatest value of a picture is when it forces us to notice what we never expected to see”, John Tukey. Pour traduire la pensée de ce statisticien américain on dira que la grande force d’un graphique, c’est d’amener à remarquer ce que l’on ne se serait jamais attendu à voir. C’est dans une certaine manière le cas dans l’exemple ci-dessus puisque sur un diagramme circulaire censé représenter une surface de 100%, on peut y loger 380% à contre-courant de toute loi mathématique.

Je ne vais pas m’étendre ici sur les règles de base de la construction d’un graphique, ce n’est pas mon propos. En revanche, j’en viens à mon outil du jour : Chartblocks. Pour faire court, c’est l’anti-Excel : on manipule facilement les données que l’on veut représenter et les modèles de graphique ne sont pas pléthoriques donc on va à l’essentiel (pas de gadgets comme la 3D ou l’éclatement du diagramme). Bref, c’est une application qui répond parfaitement aux attentes du graphique : communiquer simplement sur une série statistique. Petit tour de l’interface.

L’épure domine sur l’ensemble du site, il est donc très intuitif. 1ère étape, renseigner une série de données. Plusieurs options se présentent : rentrer les données brutes sur le tableur intégré ou téléverser un fichier pré-existant.

L’application est encore en version bêta et on pourra prochainement gérer des flux Twitter, espérons Google pour récupérer les résultats d’enquête issus de Form. On pourra également agréger une base de données  (SQL, Oracle, etc.) pour alimenter l’application.

Ci-dessus, les options des différentes séries (à droite) mettent en surbrillance la série de données (à gauche). On sélectionne facilement la série qui nous intéresse. On applique variable et effectifs en abscisse et ordonnée aussi aisément. C’est l’étape que je trouve toujours pénible sous Excel (depuis la version 3, soit en 1991) lorsque la fenêtre de sélection des données s’ouvre sur les données même que l’on veut sélectionner.

Viens l’étape de choix du type de graphique.

Vous remarquez la différence avec Excel là aussi : diagramme en bâton, histogramme, courbe, aire, nuage de points ou diagramme circulaire. Rien de farfelu qui polluerait la lecture de l’information.

Dernière étape, le graphique est affiché et le menu de gauche permet d’opérer quelques retouches esthétiques pour la présentation: orientation, couleurs (fond, effectifs représentés); on affine également le fond (titre, légende, valeur des variables, échelle, etc.).

Les tarifs:

C’est donc un outil complet dès la version freemium. Certains d’entre vous seront peut-être limités de ne pouvoir télécharger leur œuvre qu’au format .png. Toutefois, l’application offre la possibilité d’héberger jusqu’à 50 feuilles de calcul et créer 30 graphiques en ligne. J’ai été convaincu par l’efficacité du produit. Vos retours sont bien entendu les bienvenus, c’est la fin de l’année et l’heure de vos bilans statistiques.

Petit aparté, je vous invite à parcourir le Tumblr de WTF Visualization pour vous interroger sur la pertinence de tel ou tel graphique… et rire un peu.

Un dernier pour la route, si vous n’avez rien compris au Bitcoin ceci ne vous aidera pas.

The post Chartblocks : retour aux fondamentaux du graphique appeared first on Etourisme.info.

Catégories: Veille et actualités

Le niveau des discussions politiques a (encore) baissé

Internet Actu - mer, 06/12/2017 - 07:00

Vous pensez que la qualité des discussions politiques (notamment en ligne) ne cesse de se dégrader ? Mais s’agit-il d’une simple impression subjective, ou cela traduit-il une réalité ? Selon une étude dirigée par Rishab Nithyanand (@rishabn_) de l’institut Data & Society (@datasociety), et rapportée par le New Scientist (@newscientist), il semblerait bien que le niveau des discussions, déjà pas très élevé, ait atteint de nouveaux abîmes…

Les chercheurs ont pris Reddit comme objet de leur analyse. Pourquoi Reddit ? Parce que, nous explique le New Scientist, les commentaires peuvent être plus longs que les proverbiaux 140 (pardon, 280) caractères de Twitter. Et, contrairement à Facebook, on n’est pas obligé de dévoiler son identité sur Reddit, ce qui garantit une plus grande liberté de ton.

Ont donc été analysés pas moins de 3,5 milliards de commentaires publiés par 25,3 millions de personnes entre 2007 et 2017. Ces données étaient divisées en deux groupes : l’un était composé des commentaires sur des sujets non politiques, et l’autre, on l’aura deviné, regroupait toutes les discussions portant sur ce domaine.

Résultat, les usagers des forums politiques utilisaient 35 % de termes agressifs en plus que les auteurs de commentaires non politiques. Et cette tendance s’est montrée encore plus forte entre mai 2016 et mai 2017 (donc, la période englobant la campagne présidentielle américaine et les premiers mois de Donald Trump à la Maison-Blanche) que pendant toutes les autres années.

Les chercheurs ont également analysé le niveau de complexité des messages en utilisant un test éprouvé, celui de Flesch–Kincaid. Ils ont découvert que le niveau global des commentaires était passé du niveau d’un adolescent de 12 ans (ce qui n’était déjà pas terrible) à celui d’un enfant de 6 ans au cours des dernières années.

Quelle peut être la cause d’une telle dégradation ? Cela peut s’expliquer par plusieurs raisons : ainsi, l’équipe a repéré l’arrivée d’un grand nombre de nouveaux utilisateurs Reddit qui auront peut être contribué à dégrader la qualité du discours. Il est également possible que des extrémistes, qui ne postaient pas jusqu’ici sur des sites « mainstream », se soient mis à y participer, donnant ainsi un tour plus violent aux conversations. Autre possibilité, plus inattendue : qu’un grand nombre des posts aient été effectués par des robots. Comme l’a rappelé Nithyanand au New Scientist, c’est une pratique qui s’est déjà largement développée sur Twitter : « pendant le Brexit, ils ont juste retweeté des propos en faveur du camp de Leave… Lors des élections américaines, il s’est agi d’une campagne de propagande complète, qui a excité les gens et alimenté un feu d’insultes partisanes. »

Et quel est le rôle de Trump dans tout ça ? Pour Nithyanand, on ne peut pas déduire avec certitude un rapport de cause à effet entre son accession au pouvoir et la dégradation du discours (ou l’inverse). Mais tout de même, précise-t-il, « L’étude montre une forte corrélation entre la montée de la popularité de Trump et une augmentation de l’agressivité… Les politiciens de haut niveau ont la responsabilité de rester plus civils, parce que les gens imitent leur comportement. »

Catégories: Veille et actualités

GPS : de la valeur par défaut

Internet Actu - mar, 05/12/2017 - 15:42

Sur son blog, Michael Verdi (@michaelverdi), designer pour Firefox, pointe un excellent exemple des ambiguïtés des architectures de choix décidées par-devers nous.

Michael possède un véhicule hybride, une Chevrolet Volt. Pour surveiller sa consommation électrique, il dispose d’un tableau de bord précis qui lui montre par exemple que sa batterie se vide bien plus rapidement lorsqu’il roule plus vite, à 120 qu’à 100 km/h. Or, il a remarqué que les GPS qu’il utilise ont toujours tendance à lui proposer les itinéraires les plus rapides, c’est-à-dire ceux qui passent par les voies les plus rapides. Pour se rendre à son restaurant préféré, Apple Maps et Google Maps l’envoient tous les deux sur la voie rapide, lui faisant faire des itinéraires entre 14 et 12 kilomètres. Or, s’il prend la route la plus courte, sans passer par les voies rapides, il ne fait que 8 kilomètres, mais met 1 à 2 minutes de plus. Or, a-t-il calculé, s’il utilise la route la plus rapide et qu’il va plus vite, sa voiture va consommer bien plus d’énergie que s’il prend la route la plus courte. Il échafaude ensuite, via un rapide calcul, que baser les GPS par défaut sur l’économie d’énergie plutôt que la vitesse permettrait d’enlever de la circulation l’équivalent annuel de quelque 800 000 voitures aux États-Unis.

Qu’en serait-il si les GPS de voiture, par défaut, nous montraient les itinéraires les plus respectueux de la planète, les plus économes en énergie, ou les plus respectueux de nos portefeuilles ? Chiche ?

Catégories: Veille et actualités

De l’automatisation des relations… à notre propre automatisation

Internet Actu - mar, 05/12/2017 - 07:00

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan Polgar (@techethicist) pour Quartz. Mais leur efficacité s’avance sous le masque de la duplicité. Et le risque à venir, à mesure que cette automatisation va investir tous nos outils, est que nous ne sachions bientôt plus à qui nous nous adressons, s’inquiète le journaliste. Avec les e-mails personnalisés, par exemple, le récepteur pense recevoir un message de l’expéditeur, quand il ne communique qu’avec la « marionnette » de l’expéditeur, un programme qui le plus souvent, ne donne pas accès à l’expéditeur (comme le rappellent les messages du type : « Nous vous informons que les messages reçus sur cette adresse e-mail ne sont pas pris en charge » ou « Merci de ne pas répondre à ce message »).

Pour David Polgar, le développement de l’automatisation de portions significatives de nos communications, en les présentant comme réelles, relève indubitablement de la tromperie.

En fait, explique-t-il, ces systèmes automatisés visent à nous aider à élargir le sentiment d’intimité à l’heure où les outils numériques nous permettent d’entretenir de plus en plus de relations. Au lieu de réduire ou limiter nos relations ou d’être transparents sur l’utilisation d’outils automatisés, nous nous dotons de bots, de « marionnettes », censées nous représenter pour démultiplier et entretenir nos relations. Mais cette communication via des bots, qui se présente comme authentique, n’est pas une forme inoffensive d’efficacité communicationnelle : elle méconnaît complètement les qualités fondamentales des relations. Les relations sont construites sur la réciprocité de temps ou d’énergie émotionnelle. Communiquer avec autrui via des systèmes automatisés en faisant croire à un investissement authentique tient donc plus de la duperie qu’autre chose. David Polgar explique ainsi avoir reçu un message automatique personnalisé après s’être abonné à une personne sur Twitter. Un message qu’il a trouvé plus offensant qu’efficace. Le problème estime-t-il, c’est que si nous sommes prêts à utiliser des outils de communication automatisés pour faire passer nos propres relations à l’échelle, nous sommes beaucoup moins enclins à accepter qu’on utilise ces mêmes outils sur nous. Le risque à terme, c’est celui d’une course à des relations complètement automatisées, produisant une communication sans fin et sans frictions… mais entièrement inutiles.

Dans un autre article sur le même sujet écrit pour l’un des blogs d’IBM, David Polgar rappelle d’ailleurs que le test de Turing lui-même, ce Graal de la mesure de l’intelligence artificielle, a pour principe l’imitation : l’intelligence pour Turing consistait à ce que la machine parvienne à se faire passer pour un humain. Pas sûr pourtant que le fait de confier notre communication à des machines représente une grande avancée. Ici, il prend l’exemple de Linked-in qui propose d’envoyer des messages standardisés à ses relations par exemple pour les féliciter de leur anniversaire de travail (un concept qui semble lui aussi provenir des profondeurs de la simplification automatique). Comme dans le cas du rituel des anniversaires sur Facebook, de plus en plus souvent, nous pouvons attacher des messages à nos avatars en ligne, des messages qui se veulent pleins d’humanité, mais qui sont en fait dépouillés de toute humanité, puisqu’ils peuvent être rédigés et adressés sans aucune intervention humaine. Pour la psychologue Liraz Margalit, responsable de la recherche comportementale chez Clicktale, le problème est qu’en prenant l’habitude d’interagir avec des robots, nous réintroduisons dans nos rapports avec des humains des modèles que nous développons dans nos interactions automatisées.

Pour le philosophe Evan Selinger (@evanselinger), responsable des recherches et de l’éthique du Centre pour les médias, les arts, les jeux, l’interaction et la créativité du Rochester Institute of Technology, le développement de nos « liens faibles » qu’entretiennent les réseaux numériques, nous poussent à une communication succincte. « Nous subissons collectivement l’attraction d’adopter des styles de communication marchandisés ». « Quand notre comportement communicatif est conçu pour devenir plus automatique que délibératif, nous pouvons avoir l’impression que c’est notre humanité même qui s’effondre », explique encore Selinger.

Evan Selinger et le juriste Brett Frischmann (@brettfrischmann), qui publieront au printemps 2018 Re-Engineering Humanity, ont récemment produit une réflexion sur une forme de test de Turing inversé, pour tenter d’évaluer nos différents niveaux d’intentionnalité. Pour Selinger et Frischmann, le monde ne se sépare plus seulement entre humains et robots, mais se complexifie d’« humains botifiés » et de « bots humanisés ». Pour les chercheurs, c’est à nous de rester conscients de la manière dont nous communiquons. Tout l’enjeu, expliquent-ils, consiste à mesurer si la technologie augmente ou diminue notre humanité. Sommes-nous en train d’être reprogrammés par les machines ? Selon eux, il nous faut une méthode pour comprendre la valeur des dynamiques relationnelles qui se tissent entre machines et humains. Pour cela, si on mesure l’humanité des machines, il nous faut en regard tenter d’évaluer quand et comment nous nous comportons comme des machines.

Pour eux, la question de savoir ce que signifie être humain face aux machines n’est plus si triviale. Nous ne devrions pas tant avoir peur des robots, que d’avoir peur de devenir nous-mêmes des robots, expliquent-ils. « Il nous faut introduire des valeurs humaines dans la technologie plutôt que la technologie n’introduise ses valeurs dans notre humanité ». Pour cela, il faut être capable de mesurer quand une technologie est déshumanisante ou quand les humains ne pensent pas ou ne se comportement pas en humains.

Comme le soulignait les deux auteurs dans une tribune pour le Guardian, l’enjeu n’est peut-être pas tant de savoir si les robots vont prendre notre travail que de savoir si leur démultiplication ne va pas nous transformer en robots, nous « saper de notre humanité ». Depuis les chaînes de montage de Taylor où les humains se livrent à des tâches répétitives de robots, les hommes sont devenus des rouages de machines programmables. Et la version moderne et numérique du taylorisme est plus puissante et plus déshumanisante que jamais. Avec le Big Data, le taylorisme s’est propagé bien au-delà de l’usine. Des livreurs à vélo aux chauffeurs de voitures qui doivent suivre à la lettre les instructions des machines… partout les humains sont surveillés, monitorés, suivis, tracés, synchronisés, conduits par des capteurs qui mesurent tout, de leurs emplacements permanents à leurs performances. Comme le soulignent certains chercheurs, comme Karen Levy (qui a étudié par exemple la surveillance dans les lieux de travail hypermasculins), les systèmes de gestion intenses réduisent l’autonomie des travailleurs, accroissent les cadences… et donc leurs effets psychosociaux, comme la perte de sommeil.

Pour les auteurs, ce n’est pas seulement que l’intensité de la surveillance s’est accrue, c’est aussi qu’elle s’est dissimulée partout : dans les outils que les employés utilisent, dans les caméras de surveillance, dans les logiciels qu’ils utilisent… Surtout concluent-ils, si sur le papier transformer les humains en machine semble produire de l’efficacité, rien n’est moins sûr (à tout le moins, si c’est le cas, c’est sans mesurer les coûts sociaux et les contreparties qui ne sont pas assumées par ceux qui mettent en place ces techniques).

La déshumanisation n’est pas seulement imputable à l’utilisation croissante de la technologie, expliquent-ils encore dans un autre article pour Quartz. Nous sommes trop confiants et dépendants des développements technologiques et nous supposons donc que chaque nouvelle technologie est bénéfique par nature. L’efficacité également alimente notre engouement : or, être humain est parfois coûteux, notamment en terme d’efficacité. L’optimisation ne peut pas tout.


Vidéo : Sur We Make Money Not Art, Regine Debatty revenait sur le festival DocLab à Amsterdam dont le thème était justement « est-ce que les robots nous imitent ou imitons-nous les robots ? » Elle évoquait notamment le dernier projet de Superflux et Mozilla, mené par Brett Gaylor, le réalisateur du documentaire Do Not Track, Nos amis électroniques (vidéo), une critique des interfaces vocales qui nous rendent fous en nous demandant, comme le feraient des enfants, les raisons à ce qu’on leur demande de faire.

Catégories: Veille et actualités

L’innovation et l’éducation au tourisme : un tour du monde en 80 lignes…

Blog e-tourisme - lun, 04/12/2017 - 06:10
Développer la culture de l’innovation : en parler ou le faire ?

Innovation et éducation ne sont pas forcément synonymes. Il ne convient pas d’invoquer la première, telle un mantra, pour qu’elle s’impose d’elle-même à la deuxième, souvent corsetée par la vie académique. On ne peut pas non plus résumer la confrontation des deux à une simple – et simpliste – comparaison qui opposerait la légèreté, l’anticipation, l’adaptation à la raideur, l’intransigeance, l’ankylose. J’ai tenté d’expliquer dans mes articles précédents la passion française pour le mot « innovation », une passion parfois excessive à la fois dans son usage même et dans son application réelle. L’innovation, l’innovation, l’innovation ! Certains discours innovants peuvent lasser, tant sur la forme que sur le fond. Tout est devenu innovant dans notre beau pays, même si on peut en douter parfois. Comme si les temps précédents le nôtre ne l’avaient jamais été. Il suffit d’aller visiter le Musée des Arts et Métiers (recommandation très forte adressée aux lecteurs avisés de ce billet) pour admirer des innovations incroyables d’audace, de génie, de rupture. La Pascaline ou la machine à calculer de Blaise Pascal, le laboratoire de Lavoisier, le Fardier de Cugnot ou l’aéroplane de Clément Ader appellent quand on les admire à une certaine forme de modestie contemporaine. C’est la raison pour laquelle je milite depuis longtemps pour le développement d’une véritable culture de l’innovation, d’une acculturation numérique et digitale dans l’ensemble des programmes de formation au tourisme. L’usage de nouveaux supports en fait partie (MOOC et autres SPOC) mais cette technologie facilitante ne doit pas constituer la finalité d’un programme éducatif, mais être au contraire un moyen pour diffuser et percoler le langage innovant. Le panorama des premières tentatives françaises, sous de multiples formes et formats, est connu. Il suffit de relire certains articles du blog. Je vous propose de découvrir aujourd’hui six exemples venus à la fois de l’ancien et du nouveau mondes…  

  3 exemples en Europe (Suisse, Danemark et Autriche)

L’Ecole hôtelière de Lausanne a créé en janvier 2016 la chaire d’innovation avec le soutien du groupe METRO[1]. Cette Chaire fait partie du département d’Entrepreneuriat et d’Innovation de l’EHL. Elle a pour mission le développement de la recherche et de l’éducation dans le domaine de la digitalisation afin de contribuer au développement durable de l’industrie de la restauration. Trois problématiques d’études sont identifiées : l’offre digitale dans l’industrie de la restauration et les futures tendances ; le comportement des restaurateurs vis-à-vis de cette offre digitale ; le comportement des clients finals vis-à-vis de cette offre digitale. Les premiers travaux disponibles comparent la maturité digitale des restaurants européens et japonais (« Restaurateurs indépendants et technologie : quel futur ? L’utilisation de la technologie et les freins à son adoption dans les restaurants indépendants européens et japonais ») et présentent la création de l’AMI (Automated Meaning Interpreter) Market Intelligence Software.  

Le « Centre for Tourism, Innovation and Culture (TIC) » de l’Université danoise SDU (University of Southern Denmark[2]) s’est spécialisé dans l’enseignement de l’innovation. Son travail avec le « Danish Centre for Rural Research » est relativement exemplaire. L’innovation y est traitée sous différents aspects aux niveaux bachelor et master ainsi qu’un soutien actif à l’entrepreneuriat.

L’Université de Salzburg, en Autriche, propose un master « Innovation & Management in Tourism », axé notamment sur le design d’expérience. On y forme aux processus de développement des produits, à l’innovation des services et des expériences, aux grandes tendances des innovations touristiques, à l’entreprenariat. Ce sont des sujets même s’ils sont centraux, encore trop rarement traités, pour ne pas etre évoqués ici.[3]

3 exemples hors d’Europe (USA, Hong-Kong, Malaisie)

La Wharton School, à Philadelphie en Pennsylvanie, propose un programme de formation continue (executive education) dont le thème « Travel & Tourism Innovation Program – Becoming the Driver of Transformation in the Travel and Tourism Industry » a retenu mon attention ! Une école qui a formé, entre autres, Warren Buffet et Donald Trump (c’est dire la qualité de l’école) et qui s’intéresse à l’innovation dans le tourisme… Le programme propose au leaders du secteur une vision stratégique du management centrée sur l’innovation, appréhendée comme créatrice de nouveaux business models, de nouveaux marchés et de nouvelles valeurs à long terme. Les enseignements sont fondés sur des analyses des tendances des innovations dans le secteur du voyage et du tourisme, Internal vs. External Innovation, le financement de l’innovation, des études de cas (Amadeus) et des visites (Silicon Valley) etc. La dernière session de cinq jours de formation a eu lieu du 26 au 30 novembre 2017 sur le Campus JSF Travel & Tourism School à San Francisco. Avis aux intéressé(e)s : le tarif était de 14,900 €…[4]

Si la déception se fait ressentir dans votre esprit, dès ce matin, soyez rassuré(e) : vous pouvez vous rattraper grâce à la prochaine session de MOOC proposée par la Hong Kong Polytechnic University qui débutera le 12 janvier 2018[5]. Son thème vous intéressera forcément : « Hospitality and Tourism Technology and Innovation » et son prix ne vous inquiétera pas vraiment ($150 USD). Le programme de six semaines abordera les thèmes suivants : An Introduction to IT and Hospitality & Tourism industry (semaine 1); Information technology adoption and dynamic impact on hospitality & tourism organizations (semaine 2); Value creation through IT and innovation (semaine 3);  Innovation strategy through mobile technology and social media in hospitality & tourism industry (semaine 4); Business analytics for data-based decision making in hospitality and tourism organizations (semaine 5); Technology development and the future of hospitality and tourism organizations (semaine 6).

Enfin, pour celles et ceux d’entre vous qui pensez que l’innovation doit etre vécue là où elle s’écrit au quotidien y compris dans la forme des villes ou les révolutions des modes de vie, notez que le Centre for Research and Innovation in Tourism (CRiT) de la Taylor’s University[6], en Malaisie, aspire à devenir à l’horizon 2020 le centre de référence de l’innovation touristique en Asie, à la fois par le développement de programmes de recherche mais aussi par des enseignements centrés sur le développement du capital humain des entreprises innovantes.   

 

Quelque chose comme une nouvelle école française du tourisme… 

Difficile de faire un tour du monde de l’innovation et de l’éducation au tourisme en 80 lignes… Il est certain que les programmes de formation intègrent différemment cette notion disruptive et essentielle. Les lieux, les programmes, les tarifs, sont en eux-mêmes innovants car disparates, dissemblables. Mais je suis intimement convaincu que de ces quelques exemples esquissés, les programmes français vont devoir s’inspirer, en alliant proximité industrielle et académique, vision stratégique et nécessité économique, réalité technologique et logique de destination. C’est le début d’une nouvelle révolution, me semble-t-il, à la fois en matière de contenus et de contenants pédagogiques. Quelque chose comme une nouvelle école française du tourisme !  

[1] http://www.ehl.edu/fr/la-recherche/chaire-d-innovation-metro

[2] https://www.sdu.dk/en  

[3] https://www.fh-salzburg.ac.at/en/disciplines/business-and-social-sciences/master-innovation-management-in-tourism/degree-programme/

[4] https://www.wharton.upenn.edu

[5] https://www.edx.org/course/hospitality-tourism-technology-hkpolyux-htm540x-0

[6] https://university.taylors.edu.my

The post L’innovation et l’éducation au tourisme : un tour du monde en 80 lignes… appeared first on Etourisme.info.

Catégories: Veille et actualités

Vers une ville numérique ingouvernable (2/2) ? Le modèle de la startup en ses limites

Internet Actu - ven, 01/12/2017 - 11:46

L’innovation n’est pas absente de la ville numérique. Au contraire. Elle est foisonnante. Mais ce foisonnement apparent cache une certaine homogénéité qui se cristallise autour de l’impact d’un modèle ultra-dominant : celui de la startupisation de l’innovation. Or, les enjeux que soulève le programme Audacities de la Fing (éditeur d’InternetActu.net) et de l’Iddri, montrent qu’innovation et gouvernance sont liées, qu’elles sont les deux faces d’une même demande collective. Reste que l’arrivée des startups, ces nouveaux acteurs de l’innovation ne favorisent pas une gouvernance partagée, au contraire. Par essence, chaque startup optimise son propre service, au détriment d’une approche collective. Waze optimise son service pour fournir aux conducteurs le plus court chemin pour aller d’un point A à un point B, au détriment des politiques publiques de mobilité, comme le soulignait très bien le chercheur Antoine Courmont. Airbnb optimise la rentabilité de la location touristique de courte durée professionnalisée au détriment des possibilités de location de logement traditionnelle de longue durée, comme s’en émouvait récemment la fondatrice de Bedy Casa dans une tribune pour Challenges. La récente limitation de location à 120 nuitées à Paris (mais pas pour le reste de la France), à 60 nuitées à San Francisco… semblent autant de tentatives pour limiter une « disruption » sur laquelle l’acteur public est toujours à la peine alors qu’il dispose de moyens d’action limités selon ses compétences.

La startup : solution ou problème ?

On pourrait vouloir voir entre les approches présentées par Etalab et le Numa (voir la première partie de notre dossier) des différences de fond. D’un côté, la Ville de Paris déléguerait son innovation, de l’autre l’État, chercherait lui, à garder le pouvoir. Mais ce n’est pas si simple, remarque Romain Thales d’Etalab. L’outsourcing, le fait de faire développer des services par des tiers, coûte parfois cher. Etre capable de faire en interne, ou de contrôler les projets comme le soulignait un récent article de Libération, d’avoir la main sur les développements peut être parfois important, selon les projets. « L’enjeu n’est pas de chercher à tout faire, ni de faire mieux, mais il est important de laisser aussi sa chance à l’administration de faire aussi bien que leurs délégataires », souligne Romain Tales.

Le programme d’intrapreneuriat de la ville de Paris avec ses startups de Ville, comme les programmes de startups d’État ou d’entrepreneurs d’intérêts général visent à faire monter en compétence les services dans une logique d’innovation interne. L’enjeu n’est pas tant de créer de réelles startups que d’acculturer les services publics à d’autres méthodes d’innovation. Seul Datacity s’inscrit dans une logique externe, qui valorise les compétences des délégataires de services publics et de startups. Mais au-delà de ces programmes spécifiques, la plupart des programmes d’aides à l’innovation sont encore largement dirigés vers les startups technologiques, via de multiples incubateurs, au détriment d’autres formes d’innovation. C’est peut-être là que le bât blesse. Promouvoir la startup comme le seul et unique modèle d’innovation, c’est invisibiliser, pousser dans l’angle mort, tous les autres dispositifs qui existent, toutes les autres formes d’amélioration et de transformation. Comme le soulignait très bien l’entrepreneur Mehdi Medjaoui ou comme le concentraient les critiques que nous formulions à l’encontre de l’État plateforme, la startup n’est pas la seule façon d’innover. A ne promouvoir qu’elle, le risque serait de laisser de côté toute forme d’innovation qui n’entre pas dans cette case ou de forcer tout projet à y entrer. Tous les projets n’ont pourtant pas vocation à se transformer en services commerciaux et tous les projets n’ont pas vocation à devenir des services. Le risque également est de favoriser certaines formes d’innovation technologique… au détriment d’autres, notamment celles qui reposent sur l’innovation sociale, celles proposées par d’autres acteurs comme des associations ou des PME.

La méthode startup en question

La startupisation pose également la question de l’uniformisation des méthodes. Tous les programmes d’incubation, d’accélération et de développement ont tendance à utiliser les mêmes méthodes, comme si l’innovation n’était possible qu’en utilisant celles-ci au détriment de toutes autres, sans voir leur réductionnisme. De partout, on prône l’agilité, le lean management, la rapidité, l’ouverture (avec beaucoup de non-dits sur ces la valorisation d’échanges ouverts qui s’appliquent plus aux données des autres qu’aux méthodes qu’on s’applique à soi-même)…

Dans l’introduction au riche dossier que livre le dernier numéro du magazine Socialter en forme d’appel à faire de la France une terre d’innovation différente (« La France, une sociale Valley »), le journaliste Philippe Vion-Dury rappelle les enjeux du mode d’innovation que constitue la startup, en puisant dans une de ses bibles, le livre De zéro à un, du business angel libertarien Peter Thiel. Une startup a pour objet la perturbation, c’est-à-dire la disruption, des codes, marchés ou règlements. Son second impératif est la croissance et la vitesse. Le troisième c’est de chercher à établir un monopole. D’autant plus que leur dernier enjeu est bien de court-circuiter le législateur, afin que « la loi soit obsolète, le reste le plus longtemps possible, et qu’étant finalement trop puissant pour être sanctionné, on puisse tranquillement faire du lobbying pour aménager la loi selon ses intérêts ». Autant d’objectifs qui ne croisent nulle part ceux des acteurs publics, au contraire. Ça n’empêche pas les acteurs publics de soutenir activement cette forme d’innovation, au prétexte du développement économique, de la compétition économique internationale, de l’innovation…

L’angle des méthodes utilisées pour transformer les projets en startups a tendance à chercher à réduire leurs propositions à l’aune de leur seule efficacité. Le risque est bien, en utilisant partout les mêmes méthodes (valorisation, dumping des prix, optimisation à tout craint, recherche de positions monopolistiques…), de faire advenir les mêmes types de solutions et les mêmes types d’entreprises. C’est d’ailleurs déjà beaucoup le cas, avec des secteurs très embouteillés où de multiples entreprises exploitent les mêmes domaines (la mobilité « flottante », les services de livraisons ou location à la demande, les services de type majordome, les services de « co-« voiturage, de co-location, etc.).

Les mêmes méthodes et les mêmes soutiens aux mêmes formes opératoires d’innovation nous confrontent non seulement à un foisonnement d’innovation, mais plus encore à un foisonnement uniforme d’innovation. La concentration de dispositifs de soutiens à l’innovation similaires (incubateurs, accélérateurs, concours, modes de financement…) bénéficie à ceux qui rentrent dans ces cadres au détriment de ceux qui pourraient proposer des modalités d’action différentes, comme les modèles associatifs, les coopératives, les innovations sociales… Les méthodes utilisées sont dupliquées tant et si bien que tout ce qui ne s’inscrit pas dans ces méthodes, modèles économiques et temporalités ne semblent plus pouvoir exister. Tout projet qui ne devient pas startups semble exclu des modèles de soutien, de financement, d’accompagnement, de développement, de mise en visibilité…

De la célébration des startups à l’heure du triomphe des plateformes

Cette victoire sans conteste de la startupisation est d’autant plus étrange que les beaux jours de cette forme d’innovation semblent derrière elle. La célébration de ce modèle particulier d’innovation est paradoxal : on n’a jamais autant célébré la startup à l’heure du triomphe des plateformes. C’est ce que soulignait Joe Evans (@rezendi) sur Techcrunch en pointant la fin de l’ère des startups. Il expliquait combien toutes les grandes métropoles cherchent à devenir des territoires d’accueils de startups, démultipliant les projets d’incubateurs, les programmes d’accélérateurs (et de « lieux totems » pour les accueillir). Toutes les villes rêvent de devenir la nouvelle Silicon Valley. Or, souligne-t-il, on a changé de décade. Désormais, les entrepreneurs « ont bien plus de chance de finir par travailler pour Mark Zuckerberg que de suivre ses pas ». Du boom du web (1997-2006) à celui des applications (2007-2016), nous sommes entrés dans l’ère des plateformes, où les startups n’ont plus leur place. Les technologies sont devenues plus compliquées, plus chères et les entreprises ont besoin de plus de croissance et de capital pour réussir, sans être toujours assuré d’y parvenir comme l’explique très concrètement le spécialiste de l’économie du partage, Steven Hill (@stevenhill1776), dans une tribune pour le Monde.fr en disséquant le cas Uber, désespérément non rentable. Pour Joe Evans, le ralentissement du financement des startups n’est pas un hasard. Les mégaplateformes que sont Alphabet, Amazon, Apple, Facebook et Microsoft l’ont emporté (tout comme les plateformes chinoises de Tencent, Alibaba et Baidu). La prochaine vague technologique n’est plus accessible aux jeunes pousses : l’intelligence artificielle notamment a plus que jamais besoin de données, et c’est l’affaire des plus grosses entreprises. Le matériel est difficile à prototyper, rapporte peu et est cher à pousser sur les marchés. Les voitures autonomes sont encore bien plus inaccessibles… Pour Joe Evans, les startups rêvent plus que jamais d’être rachetées par les plateformes. Les jeunes pousses prometteuses de Y Combinator, l’un des plus importants fonds d’investissement dans les nouvelles technologies sont les mêmes en 2017 qu’en 2012, à savoir Airbnb, Dropbox et Stripe. Même si Y Combinator a financé bien plus de startups depuis 2012 qu’avant, aucune n’est devenue un géant. À mesure que les titans technologiques accumulent de la puissance, les startups ont de plus en plus de mal à rivaliser.

Il n’y a pas que Techcrunch qui s’en alarme. Le New York Times, Wired, Vox… se sont également fait écho de la disruption de la disruption… En France, on se félicite néanmoins du développement des soutiens aux startups, de la progression de l’investissement et de nos réussites entrepreneuriales, comme le souligne le journaliste Benjamin Ferran pour Le Figaro, même si celles-ci font figure de nains économiques.

En France, le numérique ces dernières années a été un des rares secteurs à connaître une croissance soutenue, dans un contexte général de crise, de chômage de masse… les startups semblent aujourd’hui les structures qui embauchent. Soutenir les startups, c’est donc pour beaucoup soutenir le développement économique et donc l’emploi. Même si les chiffres peinent à réaliser ces espérances. En fait, comme le souligne encore très bien le dossier de Socialter, c’est oublier par exemple que les chiffres de l’innovation sociale et solidaire sont bien plus stimulants que ceux de l’innovation numérique : l’ESS représente 10,5 % du PIB de la France, 220 000 établissements, 2,4 millions de salariés sans compter les 730 000 structures associatives, ses 23 millions d’adhérents, ses 16 millions de bénévoles, ses 21 000 coopératives… L’emploi y a crû de 23 % au cours des 10 dernières années. Comparativement, les startups dont on parle tant ont des résultats plus modestes. On dénombre environ 10 000 startups en France (dont ⅓ en Ile-de-France), soutenus par quelque 284 structures (incubateurs, accélérateurs…). Quant au nombre d’emplois qu’elles génèrent, les sondages parlent de quelques milliers par an. Bien moins que le secteur du numérique dans son entier en tout cas, qui est loin d’être composé uniquement de startups.

Qu’importe. Cela n’empêche pas l’innovation numérique au format startup de s’imposer comme un modèle et d’inspirer bien d’autres secteurs. Tous les grands groupes ont désormais leur portefeuille de startups, leurs élevages. Toutes les villes cherchent à se doter de fermes industrielles d’incubation. Partout les structures de soutiens se multiplient.

Le problème, c’est que la vampirisation de toutes les formes innovantes par la startup (qui colonise jusqu’à certaines formes de l’économie sociale et solidaire) contribue à son déclin et à sa saturation. Certes, dans la grande galerie des méthodes d’innovation, il y a toujours eu des modes, des modèles dominants et des modèles dominés. Aujourd’hui, le modèle dominant de la startup écrase tous les autres modèles, notamment les modèles imparfaits, ceux qui tâtonnent, ceux qui avancent sans méthode préétablie. Le modèle de l’innovation a la gueule de bois, comme l’internet depuis les révélations d’Edward Snowden. Nous sommes passés du rêve d’un internet émancipateur à la réalité du digital labor. Dans le domaine de l’innovation nous sommes passés du rêve d’une innovation libre et sans contrainte, à des méthodes obligées pour produire de l’innovation en série avec ses cohortes de startups qui se ressemblent que ce soit dans le domaine de la rencontre, des petits boulots à la demande, du transport à la demande… Qu’importe si elles ne produisent pas vraiment de valeur ajoutée, ou si elles n’adressent pas vraiment de grands problèmes. L’important est qu’elles produisent vite des résultats. Qu’elles soient agiles. Qu’elles pivotent. Qu’elles utilisent des méthodes dites efficaces… Qu’importe si elles ne produisent pas mieux ni plus d’innovation. Qu’importe si elles ne produisent pas de sens.

Le problème de cette bascule, c’est qu’elle se fait au détriment d’autres modèles et qu’elle réduit la diversité. L’innovation en provenance du tiers secteur, des associations, des PME et PMI, comme le champ de l’innovation sociale, elles, semblent invisibilisées par la célébration des startups. La ville comme plateforme d’innovation ouverte s’est réalisée. Mais la ville n’en a pas été l’opérateur. Les startups utilisent l’infrastructure physique des villes pour opérer, sans plus avoir besoin de délégation. Ce qui laisse les villes assez démunies pour réagir, pour orienter cette innovation, comme le montre l’exemple de l’explosion des systèmes de transports à la demande ou des plateformes de location à la demande que les villes peinent à réguler. Difficile pour elles d’agir, car agir consiste à réglementer voir interdire les startups qu’elles glorifient par ailleurs via les programmes qui les engagent avec elles. Alors que, par nature, les startups cherchent avant tout à « disrupter », c’est-à-dire contourner les infrastructures et règlements nécessaires à la cohésion sociale et urbaine.

Or réguler les flottes de véhicules à la demande, de deux roues flottants, comme l’accès au logement tient, en partie, de la responsabilité des collectivités. De fait, la startupisation, parce qu’elle est le volant politique d’un projet économique, entre en conflit direct avec les politiques sociales pour ne pas dire avec la politique tout court.

A l’heure du foisonnement, où sont les stratégies ?

La startupisation ne regarde l’innovation que sous l’angle du développement de nouveaux services. Or, pour créer du changement, les nouveaux services ne sont que le haut de l’iceberg, résume l’entrepreneur Indy Johar de la Young Foundation dans un intéressant graphique (qu’évoquait longuement le blog de la 27e Région). Produire des changements plus durables nécessite de dépasser la seule innovation servicielle et courtermiste que proposent les startups, pour privilégier d’autres formes d’innovation. En regardant les problèmes que sous l’angle de leurs solutions, l’acteur public se contraint à être confronté à toujours plus de solutions servicielles, sans prioriser entre elles ou sans se doter pour autant d’objectifs ou de stratégies. Sans feuille de route, quels services favoriser ? Quelles orientations prendre ? Face à une innovation devenue foisonnante, bien qu’homogène, comment piloter l’innovation ? Comment soutenir les startups ? Sur quels critères ?… Les nouveaux services ne sont pas toujours raccords avec la stratégie quand elle existe. Comme pour mieux contraindre l’innovation foisonnante, les stratégies réussies ont tendance à devenir plus radicales à l’image de la politique zéro déchet de San Fransisco ou zéro carbone de Copenhague. Sur l’iceberg de l’innovation, on ne célèbre que les nouveaux services, sans regarder ce qui est abandonné sous la ligne de flottaison : la stratégie, la cohérence, l’objectif économique, politique et social.

C’est au final devenu un peu un gros mot dans une innovation startupisée, mais définir des objectifs et des stratégies pour concentrer et orienter les moyens, définir une politique de l’innovation qui ne soit ni courtermiste, ni technosolutionniste, qui donne des objectifs à long terme, qui oriente l’innovation, encourage ses formes sociales et pas seulement la seule valorisation technologique, semble faire défaut.

Dans un monde où les politiques manquent d’objectif, les services des startups semblent occuper tout le terrain. Qu’importe si leurs solutions sont peuplées d’angles morts : le logement social, l’impact écologique, l’emploi… c’est-à-dire les défis environnementaux et sociaux. Pas sûr que la démultiplication des plateformes de covoiturage suffisent à résoudre le problème de l’autosolisme et de la congestion des grandes agglomérations. A nouveau, l’enjeu n’est pas de dire trop simplement que les startups c’est le mal. 40 % des trajets réalisés avec Uber en Ile-de-France sont des trajets banlieue/banlieue. Cela montre que Uber est parvenu à adresser un problème de transport que les politiques publiques du transport en commun n’avaient pas adressé. Uber, en Ile-de-France, a créé 20 000 « emplois » (enfin, plutôt des autoentrepreneurs »). Ce ne sont pas deux petits effets. Et l’enjeu est de trouver les moyens de les améliorer et de les développer tout en limitant leurs effets négatifs. Aujourd’hui on raisonne et on s’affronte dans un périmètre de gouvernance qui n’a pas changé, et qui fonctionne en mode action/réaction, désordre/rappel à l’ordre, les plateformes disruptives comme Uber pratiquant la politique du fait accompli, qui maintient dans une posture réactive et empêcheur de tourner en rond l’acteur public urbain. C’est cette répartition des rôles qu’il convient de changer, et les deux bords nous semblent également prêts à l’accepter. C’est dans cette nouvelle configuration de gouvernance partagée, qui reste à construire, que l’on peut imaginer pouvoir faire le tri entre les externalités positives et négatives d’Uber, et renforcer les unes tout en corrigeant les autres.

Le strapontin des usagers : du rêve de l’émancipation à la réalité du digital labor

Reste enfin à questionner la place de l’usager dans cet écosystème. S’il est toujours valorisé, force est de constater que celui-ci est toujours vu comme un consommateur par les nouveaux services produits par les startups. Si tous les programmes placent l’usager au coeur de leurs dispositifs, le plus souvent, il demeure sur un strapontin, un simple cobaye voire un simple client. L’usager reste bien souvent sur le bord de la route de l’innovation startup, qui travaille pour les collectivités et les gouvernements pour mettre au travail les gouvernés, développent le digital labor au détriment de la capacitation.

L’innovation startup favorise une innovation de consommation. L’émancipation promise se concrétise dans un digital labor qui n’a rien de libérateur. Les usagers et consommateurs ne sont pas des victimes : ils sont demandeurs de services, d’applications, ils livrent leurs données sans états d’âme, ils légitimes les pratiques les plus disruptives qui leur profitent et donnent de la force aux disrupteurs, qu’importe si cela produit de la précarisation, de la prédation, de la liberté sans pouvoir… Pourtant, l’enjeu est bien là. Si les questions d’innovation et de gouvernance sont liées, alors il est nécessaire de réinterroger la place de la gouvernance dans l’innovation, à l’image des propositions faites par le coopérativisme de plateforme (le livre éponyme de Trebor Scholz vient d’ailleurs d’être traduit chez Fyp éditions).

La startup n’est pas le problème, tant qu’elle reste une forme d’innovation parmi d’autres. Mais la concentration et l’uniformisation de l’innovation, qui consistent à ne valoriser que des entreprises dont le modèle n’est pas compatible avec un modèle de société, est le problème. Le problème est bien le modèle de société qu’impose la révolution numérique dont la startup est l’emblème. Comme le dit l’avocat Jean-Baptiste Soufron, la révolution numérique n’a fait que « renforcer les travers les plus évidents du libéralisme et du capitalisme », accélérant le capitalisme numérique, accroissant le pouvoir des dirigeants et du capital, n’améliorant ni la démocratie, ni le lien social ou l’estime de soi. «Si le numérique était vraiment disruptif, Uber appartiendrait à ses chauffeurs et Facebook à ses usagers.» Nous en sommes loin. L’absence d’usagers dans les modalités de gouvernance des entreprises accentue la dissonance.

Le modèle d’innovation a besoin de diversité. La startup ne peut pas rester le seul modèle valorisé et valorisable. Comme le soulignent bien des acteurs de l’innovation sociale auxquels donne la parole Socialter, beaucoup d’ingrédients sont déjà là. Reste à trouver les moyens d’encourager des formes d’innovation sociale. De construire des formes de soutien à une innovation sociale (cf. Pour une French Tech de l’innovation sociale qu’appelait de ses voeux Romain Dichampt, directeur du développement de Ashoka France). Promouvoir des systèmes de travail à la demande qui ne précarisent pas ceux qu’ils embauchent, des systèmes de transport à la demande respectueux des infrastructures et de notre modèle social, des systèmes de location collaborative limités, plafonnés…

Mettre l’innovation en débat
En fait, l’innovation et les politiques de soutien à l’innovation ne sont jamais mises en débat. Or, si nous avons besoin d’une politique de l’innovation, nous avons également besoin de mettre en débat cette politique (et aussi d’une innovation dans la mise en débat elle-même). Le soutien à l’innovation doit également rendre des comptes. L’accountability, la responsabilité, la loyauté et la transparence des systèmes techniques qu’on demande aux algorithmes et qu’on impose aux individus ne doivent-elles pas aussi concerner le soutien à l’innovation ? Nous avons besoin de débattre des modèles d’innovation que notre société promeut. On ne peut pas d’un côté célébrer des startups et des plateformes qui nous font les poches par l’optimisation fiscale et la disruption réglementaire et de l’autre, oublier les mécanismes politiques et sociaux nécessaires à la redistribution. Avec leurs services, les entrepreneurs du numérique nous disent ce qu’il faut faire, comment gérer la société, alors mêmes qu’ils utilisent des techniques pour s’abstraire de la société, en s’abstenant notamment de tout partage de l’argent, du pouvoir et de la gouvernance qu’ils s’accaparent.

On observe les gains de la productivité, mais on oublie les mécanismes politiques et sociaux nécessaires à la redistribution. Les entrepreneurs du numérique nous disent ce qu’il faut faire, comment il faut gérer la société alors même qu’ils l’instrumentent à leurs propres bénéfices. Si l’innovation est un sujet politique, alors il ne peut pas être confisqué par ceux qui s’en appliquent à eux-mêmes les principes et en retirent les bénéfices. C’est d’ailleurs seulement en faisant des politiques d’innovation un sujet de débat politique qu’on arrivera à remettre l’usager des politiques d’innovation au coeur et pas seulement dans la cible. C’est en faisant de l’innovation un sujet politique qu’on parviendra peut-être à faire se rejoindre l’innovation technologique et l’innovation écologique qui pour l’instant peinent à se croiser… C’est en en faisant un sujet politique qu’on sortira l’innovation du solutionnisme pour en faire une innovation inclusive, responsable, durable et créatrice d’emplois et de valeurs pour tous, plutôt qu’une innovation prédatrice. La politique de l’innovation a besoin d’entamer un dialogue avec la société. Quand on constate la différence entre le foisonnement de politiques de soutien à l’innovation économique et aux startups et la modestie des moyens alloués au soutien à l’innovation sociale par exemple, on voit bien qu’il y a une carence à combler, un espace pour innover avec la société plutôt que contre elle. Les modalités de l’innovation sont un sujet peu débattu. Or, nous devons nous interroger pour savoir comment on la fait, avec qui, et selon quels principes et valeurs ?

Le foisonnement d’une innovation homogène où l’acteur public semble plus client que maître d’ouvrage pose une question stratégique et politique forte. C’est à l’acteur public de donner le sens, de trouver les critères pour séparer le bon grain de l’ivraie de l’innovation. Pas sûr que nous en prenions beaucoup le chemin. Le lancement récent par Mounir Mahjoubi, secrétaire d’État chargé du numérique, de Cahiers de doléances à destination des seules startups, afin que le gouvernement puisse trouver les modalités pour faciliter leur activité (minorant et oubliant les doléances du reste de la société) est un signal de plus (de trop) d’un biais qui se renforce dans les politiques de soutien à une seule forme d’innovation.

Ici encore, ici toujours, c’est de diversité dont on a besoin.

Hubert Guillaud et Thierry Marcou, responsable du programme Audacities pour la Fing.

Catégories: Veille et actualités

Pages