Actualités TIC

La conscience, un phénomène historique ?

Internet Actu - jeu, 09/11/2017 - 06:00

La conscience de soi nous apparaît comme une donnée essentielle de notre humanité, comme le fait d’avoir des bras et des jambes. Et si c’était un phénomène culturel, changeant ? Et si la conception du « soi » avait fluctué selon les époques ?
Dans The Atlantic, la journaliste Sigal Samuel interroge le spécialiste de la bible James Kugel, qui dans son dernier livre The Great Shift s’interroge sur la notion que les anciens Hébreux avaient des limites de leur individualité – et comment cela pourrait expliquer un phénomène comme le prophétisme.

Pour Kugel en effet, le moi des personnages de la Bible était « semi-perméable » autrement dit, il était en mesure d’être « envahi » par des entités extérieures (Dieu, dans le cas des prophètes, mais il y avait aussi des anges et des démons), et ils pouvaient alors « entendre des voix » leur disant quels actes accomplir. « Ainsi, quand la Bible dit que Dieu est apparu à Abraham en dehors de sa tente ou a parlé à Moïse depuis un buisson ardent, nous sommes portés à rejeter ces choses comme une sorte de langage figuratif, ou bien nous les ignorons. De telles choses se sont produites dans le passé, mais ne le font plus aujourd’hui. »

Les anciens avaient-ils deux esprits ?
Comme le souligne Deric Bownds dans son court post de blog sur cette interview, à aucun moment ni le journaliste ni Kugel ne mentionnent les théories de Julian Jaynes. Ce qui est étonnant, car Julian Jaynes, depuis la sortie de son livre en 1976, The Origin of Consciousness in the Breakdown of the Bicameral Mind (traduit en 1994 en français sous le titre La naissance de la conscience dans l’effondrement de l’esprit, la suppression du mot « bicaméral » rendant le titre incompréhensible), est considéré comme le géniteur de cette théorie du caractère historique de la conscience de soi.

Jaynes, lui n’a pas commencé ses recherches sur la Bible, mais sur le texte d’Homère, l’Iliade. Dans cette épopée il n’est pas rare non seulement pour les dieux d’apparaître aux différents protagonistes de l’histoire, mais aussi et surtout, d’inspirer les héros, de les pousser à commettre des actes dont certains auront d’ailleurs des conséquences catastrophiques. Pour employer le néologisme de Kugel, leur individualité était « semi-perméable ».

L’origine de cette caractéristique psychologique était, selon Jaynes, le caractère « bicaméral » de notre cerveau. Ce n’est plus un secret pour grand monde que notre cortex est divisé en deux hémisphères, le droit et le gauche. Mais, observe Jaynes dans son livre, alors qu’un bon nombre de fonctions mentales sont bilatéralisées, les aires du langage (celles de Wernicke et de Broca) se trouvent toutes les deux dans la partie gauche. Et ce, bien que rien n’empêcherait théoriquement d’avoir leur équivalent dans la partie droite. Il observe en effet qu’un enfant ayant une lésion de l’aire de Wernicke développera un remplacement dans l’hémisphère droit de son cerveau. Pourquoi donc, se demande-t-il, le langage ne s’est-il développé que dans la partie gauche ? A quoi servent les zones de l’hémisphère droit qui normalement auraient dû servir à la maîtrise du langage ?
Pour Jaynes : « Les pressions sélectives de l’évolution qui auraient pu produire un si puissant résultat sont celles exercées par les civilisations bicamérales. Le langage des hommes n’a été développé que dans un seul hémisphère pour laisser l’autre libre pour le langage des dieux. »

Le héros homérique n’a donc aucune volonté propre, aucune conscience de soi. Selon Jaynes, à part quelques passages interpolés tardivement, L’Iliade ne possède pas de référence à des concepts qui traduisent l’unité de l’être humain. Par exemple, le mot grec « psyche » qui par la suite en viendra à désigner l’âme, n’est employé que pour décrire des substances vitales comme le souffle ou le sang. Par exemple un guerrier agonisant est en train de perdre sa psyche qui se répand sur le sol. Mais, et c’est encore plus surprenant, pas de référence non plus au corps comme une unité unique et autonome. Le mot « soma » (corps) est employé exclusivement pour parler des cadavres. Homère ne mentionne que des parties du corps, les mains, les bras les jambes, etc., mais jamais le corps dans son ensemble.

Pour Jaynes les héros grecs étaient exempts de vie intérieure et étaient menés par les commandements des dieux, ces hallucinations auditives en provenance de leur cerveau droit. « C’étaient de nobles automates qui ne savaient pas ce qu’ils faisaient. »

Mais comment est-on passé de ce monde sans conscience de soi à l’esprit humain tel que nous le connaissons aujourd’hui ? Selon Jaynes, c’est parce qu’il s’est produit un « effondrement » de l’esprit bicaméral qui a marqué la naissance de l’individualité telle que nous la connaissons. Tant que les humains vivaient dans de petites communautés agricoles (Jaynes ne s’occupe pas des sociétés de chasseurs-cueilleurs), ce système fonctionnait à merveille. Chacun possédait un « leader intérieur », un Dieu ou un ancêtre puissant, qui lui disait à chaque instant comment agir. Mais lorsque les communautés se sont agrandies, que les premières cités et empires sont apparus, les prises de décisions sont devenues de plus en plus complexes et il a fallu développer une nouvelle forme de pensée, dans laquelle chaque individu était tenu de prendre des responsabilités personnelles. L’Odyssée, également attribuée à Homère, mais plus tardive que l’Iliade, nous montre des personnages dotés d’une conscience de soi déjà « moderne ».

Une théorie contestée, mais « pop »
Quel a été l’impact de la théorie de Jaynes ? Comme le dit Vaughan Bell sur Mind Hacks : « sa théorie de la conscience est très probablement fausse, mais si terriblement originale qu’elle est largement admirée ». De fait, quelqu’un comme le biologiste Richard Dawkins a dit du livre de Jaynes qu’il était « soit du grand n’importe quoi, soit une œuvre de pur génie ». Le philosophe Daniel Dennett s’est aussi intéressé aux thèses de Jaynes et a même écrit un article assez long sur le sujet (.pdf). Il est intéressant de voir que deux des grands hérauts du « nouvel athéisme » et de l’hyperrationalisme ont une attitude prudente et plutôt sympathique envers les thèses de Jaynes, qui pourraient paraître joyeusement délirantes.

De fait, la thèse de Jaynes n’a jamais été véritablement réfutée, elle a tout simplement été ignorée, note Marcel Kuijsten le directeur de la Julian Jaynes Society, dans une interview pour Inverse.

En fait l’impression générale est que la thèse de Jaynes séduit beaucoup de monde, mais qu’elle est trop excentrique, trop extrême pour être réellement soutenue.

En tout cas, si cette thèse reste assez marginale dans la psychologie aujourd’hui, elle a fait son chemin dans la pop culture.

Dans le comics Uncanny x-men, écrit par Chris Claremont au début des années 80, l’un des mutants, la Bête, se réjouit de lire le livre de Jaynes et se demande quand sortira le film. De fait, il y a bien aujourd’hui un film, ou plus exactement une série, puisque la théorie de l’esprit bicaméral se trouve au coeur d’une récente série de HBO, Westworld.

Westworld nous présente l’histoire d’un parc d’attractions futuriste construit à l’image du Far West, peuplés par des robots jouant de manière indéfiniment répétée leur rôle dans des scénarios interactifs de western à destination des visiteurs. Puis, comme toujours avec les robots, tout se détraque. Mais Westworld est plus fin et plus subtil que la plupart des « révoltes de robots » auxquelles la science-fiction nous a habitués (et certainement plus sophistiqué que le film de 1973 dont la série est tirée). C’est l’accession à la conscience qui est au coeur des épisodes.

La théorie de l’esprit bicaméral est mentionnée de façon explicite à plusieurs reprises lors de la première saison (« the bicameral mind » est même le titre de l’épisode final).

L’intrigue de Westworld repose sur une idée particulièrement importante de Jaynes. Ce serait le développement de notre langage et notre capacité à la métaphore qui aurait généré un « espace intérieur » propice au développement de la conscience de soi. Le langage serait donc un prérequis à l’acquisition de la conscience.

Selon le journaliste d’Inverse, Andrew Burmon : « En présentant le concept, les auteurs de Westworld montrent clairement que les robots dotés d’IA de la série ne sortent pas de la servitude préprogrammée à cause d’un pépin ou d’un virus – comme c’était le cas dans le film original. Ils se détraquent à cause de leur exposition à un langage de plus en plus complexe. »

Marcel Kuijsten, dans son interview avec Burmon, précise que « lorsque nous parlons de l’esprit bicaméral, nous parlons de cette période suivant le développement du langage, mais avant que nous apprenions la conscience. Au lieu d’un esprit-espace introspectif, nous entendions une voix dominante lorsque nous avions des décisions à prendre. À mesure que le langage s’est complexifié à travers la métaphore, nous avons développé la capacité d’introspection et, petit à petit, les hallucinations ont disparu. »

Une longue vidéo (en anglais, mais avec des sous-titres) dégottée par Io9, nous donne encore quelques clés supplémentaires pour comprendre la façon dont Westworld s’inspire des thèses de Jaynes.

Pour l’auteur de ce petit film (attention spoilers !), en dehors du langage et de la métaphore, c’est une autre caractéristique de la conscience qui est mise en lumière par la série : la possibilité de créer des narrations avec nous-mêmes au centre. La conscience serait donc peut-être aussi la capacité de nous raconter nos propres histoires.

Entendre des voix, c’est normal, docteur ?
La thèse de Jaynes est elle convaincante ? A mon humble avis, pas toujours. Ce genre d’hypothèse repose souvent sur des présupposés interprétatifs qui sont difficiles à réfuter ou valider de façon certaine. Autrement dit, le biais de confirmation fonctionne à plein : si vous croyez aux idées de Jaynes, vous verrez le cerveau bicaméral partout. Si vous êtes sceptiques, rien ne pourra véritablement vous convaincre.

Ce qui est sûr, c’est que les civilisations non occidentales ont pour la plupart abrité dans leur sein des « spécialistes » qui recevaient des messages des « dieux » ou des esprits : shamans dans les groupes de chasseurs cueilleurs, « possédés » ou « oracles » dans les sociétés agricoles. Et il est certain que la parole de ces personnes était considérée avec le plus grand sérieux, et que ce comportement était donc encouragé, alors que dans notre civilisation, il serait rejeté comme hallucinatoire et pathologique. Faut il pour autant en déduire que TOUTE la population était sujette à de genre d’hallucination ?

Dans son interview avec Andrew Burmon, Marcel Kuijsten explique que beaucoup de gens critiquent l’idée de l’esprit bicaméral parce qu’elle implique une évolution bien trop rapide du cerveau, quelque chose que la théorie darwinienne ne peut justifier. Mais précise-t-il, « Jaynes n’affirme jamais qu’il s’agit d’un changement biologique et évolutif. Il parle d’un processus appris. Daniel Dennett, le professeur de philosophie, utilise une métaphore : c’est un changement de logiciel, pas un changement de matériel. C’est comme un nouveau système d’exploitation. »

Sans doute, mais un changement au sein de la société et de nouvelles normes sur les comportements provoqueraient sans doute une transition encore plus rapide que le changement d’un « système d’exploitation psychologique » touchant tous les individus.

Cela semble être la différence entre le récent travail de Kugel et la théorie de Jaynes. Si l’on suit son interview de The Atlantic, selon Kugel, le fait « d’entendre des voix » est toujours d’actualité dans de nombreux pays :

« Il cite… une récente étude interculturelle lors de laquelle des chercheurs ont interviewé des auditeurs aux États-Unis, au Ghana et en Inde. Les chercheurs ont enregistré des «différences frappantes» dans la façon dont les différents groupes de personnes ressentaient les voix qu’ils entendaient : Au Ghana et en Inde, de nombreux participants ont insisté sur le fait que leur expérience prédominante ou même unique était positive. … Cela n’a été le cas pour aucun américain. »
« Ces résultats », conclut Kugel, « suggèrent que les » données « d’une société ont beaucoup à voir avec la manière dont l’audition vocale est interprétée. »

Toujours selon Kugel, il existe aujourd’hui 15 % de personnes qui ont entendu des voix au moins une fois dans leur existence (aux Etats-Unis, ils ont même une association). Reporté à l’antiquité biblique, et sans aller chercher un nouveau type de conscience, cela aurait fait 15 % de prophètes, ce qui aurait été largement suffisant (et peut-être même un peu trop).

Évidemment, si la conscience de soi, n’est ni un phénomène biologique, ni même psychologique, mais repose avant tout sur un système de normes, cela veut dire que l’esprit bicaméral ne s’est jamais « effondré ». Et il peut toujours redevenir d’actualité en cas de changement ou de crise de notre logiciel social.

Rémi Sussan

Catégories: Veille et actualités

3 étapes clés pour devenir une destination de tourisme durable

Blog e-tourisme - mer, 08/11/2017 - 07:30

Je reviens juste d’Ajaccio où l’ATC (Agence du Tourisme de Corse) m’avait invité à animer les premières Journées du Tourisme Durable de Corse. C’était l’occasion de rappeler les éléments fondateurs qui font d’un territoire, une destination de tourisme durable.

Une semaine avant, je me rendais à Paris pour coordonner le Jury des premières Palmes du Tourisme Durable en ma qualité de Président des Acteurs du Tourisme Durable avec une dizaine d’experts du sujet afin de sélectionner les finalistes des 6 catégories : Territoires & Destinations, Tour-opérateurs, Hébergements, Loisirs, Informations et Mobilité. Si vous souhaitez voter pour la meilleure pratique, c’est par ici

Oui ! En cette Année internationale du tourisme durable pour le développement, proclamée par les Nations Unies, les initiatives se succèdent sur le thème. Pour rappel, le tourisme durable, ce n’est pas le fait de pratiquer du tourisme à vélo, de dormir dans un arbre ou de partir en Afrique pour faire du volontariat. Le tourisme durable, c’est simplement l’intégration des enjeux de développement durable par l’ensemble du secteur du tourisme. C’est pour cela qu’à travers les Palmes du Tourisme Durable, ce sont l’ensemble des métiers du tourisme qui sont touchés et on retrouve parmi les finalistes tous types d’acteurs, des petits, des plus représentatifs, des structures historiques, des start-ups touchant des formes variées de tourisme, que ce soit sur le tourisme d’aventure, culturel ou même urbain !

Mais alors, pour une destination, un OGD, par quel bout faut-il prendre la question pour transformer un territoire en destination de tourisme durable ? Voilà les 3 points essentiels selon moi :

1 – Porter une ambition politique du développement durable :

Tout commence par une vision, une ambition de la part des élus locaux d’un territoire. Intégrer des engagements en matière de développement durable dans le tourisme, ce n’est pas juste mettre du vert sur les brochures ou mettre à jour son PDIPR, il s’agit de construire avec tous les élus et toutes les parties prenantes du territoire une ambition commune et sincère pour tous. Pour intégrer dans les objectifs stratégiques de long terme d’un territoire (et non pas uniquement dans le tourisme) un équilibre entre les impacts économiques, sociaux et environnementaux, ça ne peut pas être porter uniquement par les techniciens d’un office de tourisme. Les élus doivent s’engager pour un projet de société et un projet de territoire dans lequel les enjeux de développement durable sont intégrés au plus haut niveau. Et ces objectifs doivent toujours rester en ligne de mire ! D’où l’intérêt demain d’intégrer dans les tableaux de bord touristiques non plus uniquement les aspects économiques mais également le bien-être des habitants (comme Copenhague nous l’a présenté aux #ET13), les circuits courts, la dépendance à certains acteurs internationaux, les impacts sur l’environnement, leur bilan carbone, etc.

 

Cette vision, c’est un peu l’ADN de la destination. Elle doit être inscrite, comprise et portée par toutes les parties prenantes du territoire. Et, de manière logique, elle devrait s’intégrer dans un plan de développement durable du territoire, transversale à tous les secteurs d’activités.

Ensuite, afin d’appliquer cette vision, il s’agit de faire évoluer en interne une politique de responsabilité sociétale, que ce soit au sein d’un office de tourisme, d’un CRT ou d’une autre administration publique. Le CRT Bretagne est par exemple labellisé Green Globe depuis quelques années déjà afin de montrer qu’ils balaient aussi devant leur porte avant de pousser leurs adhérents à s’engager. Ainsi, vous ne verrez plus de gobelets en plastique, de gaspillages de papier, etc. là-bas. Ca commence par là et ça continue en faisant par exemple évoluer les critères de sélection sur les appels d’offre, d’organiser des évènements neutre en carbone, etc.

Dans ce cadre, il existe des programmes comme Green Globe mais aussi le Passeport Vert ou Green Destinations qui suivent largement les Critères Mondiaux du Tourisme Durable.

  2 – Engager les socio-professionnels dans cette cohérence d’engagements :

A partir du moment où cette stratégie est validée, il s’agit d’engager les socio-professionnels dans cette démarche globale. On ne parle pas encore de marketing. Il s’agit simplement de pousser les hébergeurs, les réceptifs, les prestataires d’activités ou de services, les restaurateurs à aller dans le sens d’un tourisme durable et de la vision assumée lors du 1er temps.

Bien sûr, pour cela, il faut de la confiance croisée entre les professionnels et l’organisation. Or, en partant sur une vision ambitieuse, une énergie positive et communicative se transmet auprès de l’ensemble des parties prenantes de la destination. Ce leadership est nécessaire. Puis, il est positif d’utiliser certains leviers afin de pousser les socio-professionnels à changer. Parfois, l’ADEME ou l’action publique peuvent soutenir les éco-rénovations dans les hébergements ou pour soutenir de nouveaux projets qui vont dans le sens du tourisme durable. C’est ainsi que des professionnels tendent alors à être certifiés sur l’un des programmes de tourisme durable en particulier Clé Verte ou Ecolabel Européen en France pour les hébergements.

Cette cohérence d’engagement est aussi nécessaire pour le visiteur. Si on lui vend l’image d’une destination engagée et qu’il retrouve des prestataires qui ne font aucun effort sur des démarches sociales ou environnementales, attention au retour de bâton sur Tripadvisor…

Ainsi, à travers ses travaux, on pourra favoriser l’accessibilité du tourisme pour tous, développer des offres de tourisme sans voiture, déployer l’engagement des restaurateurs sur les circuits courts, pousser les hébergements à réduire leurs consommations en énergie et en eau, etc.

  3 – Impliquer les clients & assumer la promesse de tourisme durable :

Enfin, dernier point, il s’agit d’engager le client, à la fois en le faisant venir mais aussi en le transformant en ambassadeur. S’engager dans une démarche sincère de tourisme durable, c’est un excellent moyen de satisfaire le visiteur et de partager avec lui un engagement au service du bien commun. Les touristes vont alors se reconnaître plus largement dans la marque de destination présentée et en devenir un défenseur ! L’Islande en a fait son credo depuis l’explosion de la destination ces 2 dernières années. On a pu voir fleurir à la fois des vidéos pour sensibiliser et engager les visiteurs à travers une Iceland Academy sur Youtube, au ton engagé et décalé. Et dernièrement, ils ont lancé le Serment Islandais afin de pousser les visiteurs à protéger la destination en devenant un touriste responsable. C’est l’une des seules destinations qui a assumée clairement son positionnement de destination de tourisme durable ! Sur le long terme, cette stratégie ne peut être que gagnante surtout en utilisant un ton sympathique et non moralisateur. On peut également citer le Costa Rica qui, historiquement, s’est engagé dans une démarche nationale de tourisme durable à travers sa certification CST. Cette destination a su largement s’appuyer sur son image préservée pour accroître son attractivité !

Le CRT Bretagne en a aussi fait son cheval de bataille en choisissant dès le départ d’en faire une marque propre « Voyagez Responsable en Bretagne » avec un site dédié qui est à la fois utile pour sensibiliser le voyageur et pour présenter l’offre disponible sur le territoire breton.

Alors, pour finir cette Année internationale du Tourisme Durable pour le Développement, quid d’une véritable politique de développement durable du tourisme en France et dans toutes nos grandes régions ?!

The post 3 étapes clés pour devenir une destination de tourisme durable appeared first on Etourisme.info.

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

Internet Actu - mer, 08/11/2017 - 06:00

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.


Image : Comme IFTTT, Yahoo Pipes, l’outil développé par Yahoo et fermé en 2015, pourrait certainement figurer dans cette liste d’outils qui rendent le code plus accessible, puisqu’il permettait, assez simplement, de combiner des données et des actions, de créer des chaînes d’instructions depuis différents services web, sans avoir à les programmer. Un clone du service, Pipes.digital a récemment relancé le service. Via Korben. .

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !


Vidéo : la conférence de Victor Bret, « inventer sur le principe ».

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé (voir Ce n’est pas le code qui importe, c’est le modèle ! »). C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier (@schneierblog), proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Vers un design de la médiation (1/2) : réinventer la programmation

Internet Actu - mar, 07/11/2017 - 08:21

La manière même dont on code arrive-t-elle à bout de souffle ? C’est la thèse que défend un long et passionnant article de The Atlantic signé par le journaliste et programmeur James Somers (@jsomers), qui va nous conduire bien plus loin que la programmation.

Des limites critiques des systèmes logiciels

Commençons d’abord par revenir en détail sur l’article de James Somers. Celui-ci débute par le récit de la panne du 911, le numéro d’urgence, qui a touché l’État de Washington, la région de Seattle, un soir d’avril 2014. Pendant plusieurs heures, impossible de joindre les urgences : tous les appels sonnaient occupés. La raison ? Le système logiciel avait atteint son plafond d’appel, un chiffre maximal que les programmeurs avaient laissé à plusieurs millions, sans penser qu’il serait un jour atteint. D’autres centres de répartition des appels ont été touchés en Californie, Floride, Caroline et Minnesota. Des millions d’Américains signalaient ne pas pouvoir joindre les urgences. Il a fallu attendre le matin pour comprendre et réparer la panne : il suffisait juste de changer un nombre dans un logiciel.

La panne n’a duré qu’une nuit, mais pour Somers, elle montre bien que les systèmes ont changé de nature. Alors qu’avant les appels d’urgence étaient gérés localement, les logiciels ont permis de créer des systèmes à impact global, extrêmement complexe et dont le caractère critique repose sur des millions de lignes de code. Somers rappelle que les défaillances, si elles restent souvent limitées en durée, ont un impact de plus en plus massif et ce d’autant que les logiciels gèrent des infrastructures de plus en plus vastes, complexes et critiques.

« Lorsque nous utilisions des systèmes électromécaniques, nous pouvions les tester de manière exhaustive », regrette Nancy Leveson, spécialiste d’astronautique, d’aéronautique et de sécurité logicielle au MIT. Les systèmes logiciels sont différents parce qu’ils peuvent être changés à moindre coût, qu’ils sont sans cesse mis à jour et bien plus complexes. Pour Leveson, « le problème est que nous essayons de construire des systèmes qui dépassent notre capacité à les gérer intellectuellement ».

Le cadre standard de réflexion sur les défaillances techniques, rappelle Somers, date pourtant des systèmes électromécaniques : on rendait les systèmes fiables en construisant des pièces fiables et en planifiant leurs pannes ou remplacements. Le problème est que le logiciel, lui, ne casse pas comme un rivet défectueux. Quand il échoue, c’est que le logiciel a fait exactement ce qu’on lui a dit de faire : c’est le programmeur qui a été défaillant. « Les échecs logiciels sont des échecs de compréhension et d’imagination ». Mais la complexité de ce qu’on lui demande est invisible à l’oeil nu. Ainsi, aujourd’hui, il n’y a plus de lien mécanique entre la pédale de l’accélérateur et le moteur : vous activez une commande logicielle qui décide de l’air à apporter au moteur. Lorsqu’un programme est en charge de l’accélérateur et des freins, il peut vous ralentir si vous êtes trop près d’une autre voiture ou réguler votre consommation.

Le problème, rappelle Somers, c’est que même ceux qui écrivent des algorithmes ne savent pas toujours vraiment comment ils fonctionnent. Le logiciel nous a permis de fabriquer les machines les plus complexes qui aient jamais existé, sans que nous l’ayons toujours remarqué, car les voitures d’aujourd’hui ressemblent exactement aux voitures d’hier. Le fait que nous ne voyons pas la complexité ne signifie pas qu’elle a disparu, au contraire : elle est plus présente que jamais.

Si les logiciels sont devenus les pivots du monde que nous construisons, notre confiance dans leur complexité est parfois surestimée. Ce qui rendait la programmation difficile était qu’elle obligeait de penser comme un ordinateur. Mais c’est devenu impossible. Personne ne peut anticiper tout ce qui est contenu dans les 100 millions de lignes de code qui font fonctionner une voiture.

Somers rappelle les incidents qui ont affecté certaines Toyota, avec des accélérateurs et des freins bloqués. Si Toyota a blâmé les conducteurs, la National Highway Traffic Safety Administration qui a mené une longue enquête sur le code des voitures n’a pas trouvé la preuve que le logiciel était la cause, mais a souligné qu’ils ne pouvaient pas prouver que ce n’était pas le cas. Un expert indépendant qui a passé encore plus de temps sur le sujet a montré que l’empilage et le tissage du code des voitures, accumulé et modifié année après année, avaient rendu le code impossible à suivre et empêchait de tester exhaustivement ses défauts. L’équipe de l’expert a démontré qu’il y avait en fait plus de 10 millions de façons pour l’ordinateur de bord d’entraîner une accélération involontaire et que la simple transformation d’un bit dans la mémoire de l’ordinateur pouvait mettre la voiture hors de contrôle et que le code de sécurité mis en place par Toyota n’était pas suffisant pour empêcher ces erreurs. Le logiciel qui regarde le logiciel peut lui aussi être victime d’erreurs. Au final, Toyota a rappelé plus de 9 millions de voitures et payé près de 3 milliards de dollars en amendes liées à quelques cas d’accélérations involontaires.

Pour Somers, ces exemples montrent qu’il est nécessaire d’obtenir de meilleurs résultats, car plus les logiciels deviennent sophistiqués et connectés, en prenant le contrôle de fonctions toujours plus critiques, plus ces problèmes pourraient s’aggraver.

Programmer autrement ?

« Le problème est que même les très bons programmeurs peinent à comprendre les systèmes avec lesquels ils travaillent », explique le développeur Chris Granger (@ibdknox) qui a observé comment les développeurs travaillaient à la mise au point de Visual Studio, un système de Microsoft utilisé par nombre de programmeurs professionnels. Visual Studio, c’est plus de 55 millions de lignes de codes, et 98 % d’entre elles ne sont pas pertinentes, estime Granger. Le problème est que c’est un assemblage de plein de travaux différents et pour le comprendre, le parcourir, pour un informaticien, il faut être capable de jouer les fonctions qu’on rencontre dans sa tête. C’est comme jouer aux échecs avec un bandeau sur les yeux : l’essentiel de l’énergie est dépensé à avoir une représentation des pièces et de leurs mouvements… tant et si bien qu’il ne reste plus d’énergie mentale pour penser au jeu lui-même.

John Resig (@jeresig), programmeur de logiciels JavaScript et responsable du programme de formation en informatique de la Khan Academy, a remarqué qu’il était difficile d’apprendre à programmer. Quand vous faites un programme, vous entrez des mots. Si vous souhaitez le changer, vous devez changer le texte. Les étudiants qui réussissaient le mieux étaient ceux capables de parcourir le texte dans leur tête, en tentant de suivre les résultats de chaque calcul générés par le texte. Le problème de cette façon de faire est qu’elle devient éminemment complexe avec la multiplication de la quantité de code. Or, si la puissance des ordinateurs n’a cessé de progresser, la programmation, elle – hormis l’évolution des langages – n’a pas changé.

Bref, nos façons de produire des logiciels sont fondamentalement cassées. Comment les réparer ?

Vers une programmation Wysiwyg

Victor Bret (@worrydream) dirige un laboratoire dédié à l’avenir de l’informatique. Mais il semble moins intéressé par la technologie que par la façon dont pensent les programmeurs. En 2012, il a prononcé une conférence qui l’a fait connaître, intitulée « Inventer sur le principe » (vidéo). Il y expliquait que, pour limiter les bugs, les programmeurs avaient besoin d’un lien immédiat avec ce qu’ils créent. A l’époque des premiers traitements de textes, il fallait coder ce que vous vouliez qui apparaisse sans que vous puissiez le voir à l’écran. Il fallait imaginer comment le code allait être interprété par l’ordinateur, donc « jouer l’ordinateur dans votre tête » ou imprimer le texte pour voir ce qu’il rendait. Tout à changé avec les traitements de textes Wysiwyg (« ce que vous voyez est ce que vous obtenez ») : il suffisait alors de mettre un passage en italique pour que les lettres s’inclinent. Juste en regardant votre document, vous étiez d’un coup capable de voir ce qu’il n’allait pas dans la mise en forme de votre texte. Pour Victor Bret, il était temps que la programmation ressemble à cela ! Qu’elle devienne Wysiwig !

Or, certains éditeurs permettent justement d’apporter des fonctions compliquées d’une manière simple, comme c’est le cas de Photoshop, le célèbre éditeur d’image d’Adobe, ou de Squarespace, un système de création et de gestion de sites web très intuitifs. Mais le plus souvent, pour faire des choses intéressantes, il faut écrire du code. Victor Bret a publié quelques démos pour illustrer la manière dont cela pourrait changer. L’une d’entre elles était un jeu, un peu comme Scratch, modifiant le code en modifiant les éléments visuels du jeu ou les caractéristiques du personnage. Une sorte de traitement en temps réel, permettant au développeur lui-même de jouer avec les paramètres, de les adapter, ne consistant non plus à coder, mais à manipuler directement le comportement du jeu. Bien des développeurs présents à cette conférence ont senti devant cette démonstration combien tous leurs outils allaient devenir obsolètes.

Quand Resig a vu les démonstrations de Bret, il a adapté les cours de programmation de la Khan Academy, avec des exercices en regard des programmes. Pour lui, « dans un environnement vraiment réactif, vous pouvez changer complètement la façon dont un étudiant apprend ». Chris Granger de Visual Studio, après avoir vu les conférences de Bret a construit un nouvel environnement de programmation, qui permettait de donner un retour instantané sur le comportement programmé. C’était le projet Light Table (vidéo), qui a amassé 200 000 $ sur KickStarter en 2012. Ces fonctions Wysiwyg se sont retrouvées dans nombre d’outils de programmation, comme Playground tiré de Swift le langage pour créer des applications Mac et iPhone.

Mais pour Victor Bret, c’était là mal comprendre son propos. Son but n’était pas d’améliorer les outils de programmation. Le code demeurait l’un des pires outils qui soient pour comprendre ce qu’on faisait et lui ajouter un comportement dynamique n’était pas suffisant. Le but de sa conférence « Inventer sur le principe » était de montrer qu’on pouvait atténuer le problème en rendant immédiat le lien entre le comportement d’un système et son code. Mais ce n’était qu’une étape. Dans des conférences ultérieures, il est allé plus loin. Avec « Arrêtez de dessiner des poissons morts » (vidéo) pour les animateurs les invitant à créer des animations intégrant des comportements et « Dessiner des visualisations dynamiques » (vidéo et explication) pour rendre dynamique la visualisation de données scientifiques, il a prolongé le lien entre une interface Wysiwyg et le code. « Je ne suis pas sûr que la programmation doivent continuer à exister », estime Bret. Pour lui, le développeur de logiciel doit créer des outils qui suppriment le besoin de développeurs.

Sortir de l’artisanat de la production logicielle ?

Pour le Français Eric Bantegnie d’Esterel Technologies (Wikipédia) rachetée par Ansys, les seuls produits non industriels qu’on trouve encore dans les produits industriels, c’est le code. Le code est encore trop souvent de l’artisanat par rapport aux autres processus techniques, et quand on parle de logiciels avec 30 millions de lignes de code comme un avion ou 100 millions comme une voiture, ça devient difficile de rester dans l’artisanat. La société d’Eric Bantegnie est l’une des pionnières dans le développement d’applications industrielles logicielles ne nécessitant pas d’écrire de code. Au lieu de cela, les utilisateurs sont amenés à créer des sortes d’organigrammes qui décrivent les règles que les programmes doivent suivre – des modèles – et l’ordinateur génère du code basé sur ces règles. C’est ce qu’on appelle les méthodes formelles. L’idée par exemple est que lorsque vous fabriquez le système de commande d’un ascenseur, la porte s’ouvre ou se ferme quand on appuie sur les boutons adéquats. L’idée est de construire des règles depuis des diagrammes permettant de montrer que la seule façon de faire bouger l’ascenseur est de fermer la porte ou que la seule façon d’ouvrir la porte est de s’arrêter à un étage. Ces méthodes sont surtout utilisées dans le développement de logiciels critiques, car elles permettent de traquer les bugs voire même de les faire totalement disparaître.

Ces logiciels ne ressemblent pas encore tout à fait à Photoshop, où l’image que vous manipulez à l’écran est le produit final. Dans la conception basée sur le modèle, l’image à l’écran ressemble plutôt à un plan. Mais ici, plus besoin de traduire les règles en code. L’énergie est dépensée à architecturer les règles entres elles, pas à coder les règles elles-mêmes. L’enjeu est plus de résoudre le problème que de le coder. Bien sûr, cela nécessite que le travail soit fait en amont, qu’on dispose d’un programme qui transforme des modèles en code et que le code génère ce qu’il est censé faire. En France, Emmanuel Ledinot, directeur des études scientifiques de Dassault Aviation faisait le même constat dès la fin des années 80 : l’industrie nucléaire et aérospatiale française craignait qu’à mesure que la complexité augmentait, il devienne plus difficile de se prémunir des bugs. L’écriture manuelle d’un code de plus en plus complexe n’était plus viable. Il était nécessaire de changer de méthode. Avec l’informaticien Gérard Berry (Wikipédia, qui publie L’Hyperpuissance de l’informatique) il a conçu Esterel, un programme pour gérer la complexité des procédures. L’idée de cette approche par le modèle était de créer un modèle du comportement du système centré sur la façon dont chaque événement individuel devait être traité, priorisé, afin de comprendre comment ils dépendent les uns des autres. Une sorte de plan détaillé des programmes utilisés pour effectuer la programmation proprement dite.

Ledinot et Berry ont travaillé pendant 10 ans pour faire qu’Esterel puisse être utilisé en production. Aujourd’hui, leurs produits sont utilisés pour générer du code dans nombre de systèmes critiques comme l’aérospatiale, la défense, l’industrie lourde, les dispositifs médicaux ou les centrales nucléaires. En fait, comme le montre l’exemple de l’aéronautique, nous savons déjà comment rendre des logiciels complexes fiables, via des normes réglementaires rigoureuses, des procédures de conception et de documentation très rigoureuses elles aussi. « Alors pourquoi ne le faisons-nous pas partout ? », interroge James Somers. L’avantage de l’approche basée sur le modèle réside en grande partie dans le fait de pouvoir ajouter des exigences à la volée tout en s’assurant que les exigences existantes sont respectées. A chaque changement, l’ordinateur peut vérifier que le programme fonctionne toujours, sans craindre d’introduire de nouveaux bugs. Comme le dit l’Administration fédérale de l’aviation américaine, le code est « correct par construction », exempt de bugs par sa conception même.

Les programmeurs doivent s’améliorer

Il n’empêche que bien des logiciels restent fabriqués à l’ancienne. Les ingénieurs écrivent leurs exigences en prose et les programmeurs les codent. Il faut dire que les programmeurs aiment écrire du code. Les outils qui écrivent du code et vérifient son exactitude semblent encore ésotériques à beaucoup, pour ne pas dire trop beaux pour être vrais. Tant et si bien, souligne Somers, qu’il faudrait surtout étudier pourquoi les développeurs sont encore si réfractaires à ces nouvelles méthodes.

En 2011, Chris Newcombe est déjà chez Amazon depuis 7 ans. Ingénieur principal, il a travaillé sur certains des systèmes parmi les plus critiques de l’entreprise, comme le catalogue des produits, l’infrastructure de gestion des Kindle ou encore Amazon Web Services, l’infrastructure de traitement et de stockage à la demande… La complexité des systèmes rend les événements censés être extrêmement rare peut-être plus probable qu’on ne le pense. Pour lui, les algorithmes des systèmes critiques sont souvent parfaits, mais les bugs se révèlent plus difficiles à trouver quand les algorithmes deviennent plus complexes. Et la démultiplication des tests ne suffit pas toujours à les repérer. D’où son excitation quand il a entendu parler de TLA+, un mélange de code et de mathématique pour écrire des algorithmes « parfaits ».

TLA+, qui signifie « Logique temporelle des actions », est similaire en esprit à la conception basée sur le modèle : c’est un langage pour écrire les exigences – TLA+ les appelle « spécifications » – des programmes d’ordinateur. C’est lui aussi un système de méthode formelle. Ces spécifications peuvent ensuite être entièrement vérifiées par un ordinateur. C’est-à-dire, avant d’écrire un code, vous écrivez un bref aperçu de la logique de votre programme, avec les contraintes dont vous avez besoin pour y répondre (par exemple, si vous programmez un guichet automatique, une contrainte pourrait être que vous ne pouvez jamais retirer le même argent deux fois d’un compte chèque). TLA+ vérifie alors de manière exhaustive que votre logique réponde bien à ces contraintes. Sinon, il vous montrera exactement comment ils pourraient être détournés.

Ce langage a été inventé par Leslie Lamport, pionnier des systèmes distribués et dont les travaux ont jeté les bases de nombres de systèmes qui sont utilisés par le web. Pour lui, si le logiciel est plein d’erreurs, c’est parce que les programmeurs se précipitent sur l’écriture du code, sur la granularité qui fait fonctionner les programmes. Mais en faisant cela, ils prêtent trop d’attention aux pièces individuelles oubliant trop souvent comment celles-ci s’harmonisent les unes avec les autres. D’où l’idée de TLA+, qui met l’accent sur la structure du système, sa logique, plutôt que sur le code. Newcombe et ses collègues ont utilisé TLA+ pour trouver les bugs de S3, qui est considérée comme le meilleur service de stockage en ligne d’Amazon. Et TLA+ a été utilisé également pour la Xbox, pour le code de la sonde Rosetta, pour vérifier les puces d’Intel… Reste que TLA+ est peu utilisé, car c’est un langage très mathématique, que les programmeurs maîtrisent peu. Or, souligne Lamport, alors que les enjeux du code n’ont cessé d’augmenter, force est de reconnaître que les développeurs, eux, ne se sont pas améliorés, pas suffisamment en tout cas pour gérer des problèmes de plus en plus complexes…

Pour Newcombe, les programmeurs ne sont pas conscients du fait que les mathématiques puissent les aider à gérer la complexité. Or, pour parvenir à les aider à dépasser leurs limites, il ne suffit pas de leur demander de changer, mais il est nécessaire de changer la manière dont on parle de ces évolutions. Newcombe a créé un cours pour les ingénieurs d’Amazon sur le design du débogage pour arriver à les intéresser à la vérification du code qu’induit TLA+, car ils savent ce que signifie le débogage. Depuis Newcombe a quitté Amazon pour Oracle, mais continue à faire de la pédagogie. « L’utilisation de ces outils est désormais une question de responsabilité. Nous devons nous améliorer ». Aujourd’hui encore, trop de développeurs regardent sur Stack Overflow, l’une des grandes plateformes de partage pour développeurs, les méthodes des autres, copient des bouts de code et de fonctions, les collent ensembles et les ajustent par itération. Ça fonctionne jusqu’à ce qu’on tombe sur un vrai problème !, souligne Newcombe.

Vers une informatique critique ?

Durant l’été 2015, les spécialistes en sécurité des systèmes Charlie Miller (@0xcharlie) et Chris Valasek ont montré que les constructeurs automobiles ne prenaient les failles logicielles au sérieux en prenant le contrôle d’une Jeep Cherokee, comme l’expliquait Wired. Ils ont profité de la connexion du système de divertissement de la voiture pour prendre le contrôle de la direction, de l’accélération, des freins… Ils ont montré qu’il était possible de créer un virus de véhicule capable d’utiliser l’ordinateur de bord d’une voiture pour en pirater d’autres. Pour Valasek, les constructeurs automobiles assemblent leurs produits depuis des pièces logicielles fournies par des centaines de fournisseurs différents. Si certains codes ont rendu la voiture plus sûre (comme le régulateur de vitesse, le freinage ou l’assistance…), ils ont créé un niveau de complexité inédit qui engendre des problèmes inédits.

Contrairement à l’aéronautique, le monde de l’automobile n’a pas encore pris conscience de l’importance du logiciel. Et le ne le prend pas encore suffisamment au sérieux, estime Gérard Berry. Contrairement au monde de l’aviation, il n’y a pas d’organisme de réglementation de la sécurité logicielle des voitures. La raison est peut-être économique, estime Ledinot. Les constructeurs automobiles ne peuvent pas se permettre d’augmenter le prix d’un composant de quelques centimes puisqu’il est multiplié par plusieurs millions, ce qui explique que les ordinateurs soient réduits au minimum. Le développement logiciel basé sur des modèles est trop coûteux pour eux. Mais la voiture autonome (et la norme ISO 26262, norme de sécurité pour les voitures publiée en 2012) va pousser l’industrie à avoir une approche bien plus critique. Le code des véhicules autonome va avoir la responsabilité de millions de vies demain : il doit fonctionner !

Ce que suggère James Somers dans la conclusion de son article, c’est qu’il est temps de prendre en considération le caractère critique du code et pas seulement pour des systèmes qualifiés de critiques. En janvier 2017, suite aux problèmes électoraux américains, le spécialiste de sécurité informatique, Bruce Schneier, proposait de faire passer les machines à voter américaines au statut d’infrastructures critiques, un statut qui réglemente déjà nombre d’infrastructures spécifiques. À mesure que le code innerve notre société tout entière, l’artisanat du code est-il encore possible ?

Hubert Guillaud

Catégories: Veille et actualités

Le bonheur au travail

Blog e-tourisme - mar, 07/11/2017 - 07:00

Lors des #ET13 à Pau j’ai eu la chance de participer à une battle sur « les DMO et les nouvelles générations ». Pour vous résumer un peu le débat : 

  • un manager nous exprimait ces réticences à travailler avec ces nouvelles générations très/trop mobiles, avec un besoin constant de reconnaissance et qui amènent un chamboulement dans l’entreprise.
  • un second manager qui, au contraire, était heureux d’accueillir ces nouvelles générations qui apportaient une vision neuve, de nouveaux outils, de nouvelles façons de travailler et un changement positif au sein d’une équipe.

Face à eux, deux jeunes diplômées exprimaient leur vision :

  • l’une parlait des moyens qui permettent de s’épanouir : une organisation du temps de travail plus souple, un aménagement de l’espace de travail, la mise en place du télétravail … 
  • l’autre défendait une nouvelle vision du travail où l’objectif premier est avant tout de s’épanouir, pour cela il faut aimer les missions que l’on réalise, se sentir bien sur son lieu de travail mais aussi avec son équipe.

Une battle rondement menée ou tous les partis ont fini par se mettre d’accord : les jeunes générations peuvent, certes, bouleverser un mode de fonctionnement mais elles peuvent aussi amener des changements positifs. Le DMO a ici un rôle primordial puisqu’il doit  passer du manager qui s’assure de l’efficience de sa structure, à un leader qui autonomise ses employés et s’assure de leur qualité de vie au travail pour rendre sa structure efficiente. 

 

Le choc des générations ou la culture du changement ? 

Il est vrai que je n’imaginais pas qu’il puisse y avoir des retours négatifs sur cette battle et pourtant … il y a une semaine j’ai eu l’occasion d’échanger avec une collègue du réseau qui était littéralement choquée de ce qui avait pu se dire lors de cette battle. Elle ne comprenait pas les arguments avancés par cette jeune génération. Par exemple, elle ne comprenait pas du tout :

  • qu’on puisse revendiquer de venir en chausson au travail, 
  • qu’on demande à aménager nos horaires,
  • qu’on puisse travailler de chez nous ou depuis un autre lieu que notre bureau habituel, 
  • qu’on prenne du temps à faire des « after-work » car le travail c’est le travail et les collègues ne sont pas des ami(e)s

J’ai essayé de lui expliquer davantage notre position en lui expliquant que: 

  • les chaussons pouvaient nous permettre d’être à l’aise, et à partir du moment qu’on les mets derrière notre bureau et que l’on est pas à l’accueil, pourquoi cela serait refusé ? 
  • arriver plus tard le matin pour pouvoir aller à son cours de yoga pourrait arranger un jeune mais aussi une maman qui en échange pourra partir une heure plus tôt le soir pour chercher son enfant à l’école,
  • le télétravail peut permettre d’être plus efficace, si une personne habite loin de son lieu de travail et doit traiter des dossiers indépendamment de son équipe, pourquoi ne pourrait-elle pas le faire directement depuis chez elle ?
  • les moments de détentes avec son équipe permettent de mieux se connaître, de développer des affinités, de travailler dans la bonne humeur et de travailler sur des missions qu’on aime et avec des personnes qu’on apprécie, ça donne tout de suite beaucoup plus envie !

Malgré mes explications, nous n’étions pas du même avis et cette collègue me rétorquait que cela était peut être possible dans une entreprise à la Google mais certainement pas dans un Office de Tourisme.

Je reste convaincue que des aménagements sont possibles pour être heureux au travail et par conséquent améliorer l’efficience de chacun et la performance collective. Et ceci, même en Office de Tourisme. Et si finalement cette problématique n’était pas liée à un choc de génération mais plutôt à une culture du changement

Pour vous illustrer mes propos, j’ai choisi de vous citer l’exemple de l’Office de Tourisme des Grands Lacs (qui regroupe depuis le 1er janvier 2017, les Offices de Tourisme de Biscarrosse, Sanguinet et Parentis en Born) et qui était mis à l’honneur lors des sixièmes rencontres des Francophonies de l’Etourisme pour leur méthode du bonheur. 

Source des images : http://www.biscarrosse.com/

 

LE #BONHEUR EN ENTREPRISE

Suite à la fusion des 3 Offices de Tourisme en janvier 2017, les équipes se sont réunies pour réfléchir à leur objectif. Un maître mot est apparu d’un commun accord : donner du bonheur aux touristes, aux clients, aux élus, aux partenaires, aux habitants et même à soi-même. L’équipe s’est donc mise à travailler dans ce sens notamment en interne où un véritable défi a été mené pour trouver le bonheur au travail.

Le bonheur n’est pas à voir comme une fête au quotidien mais comme le précise la directrice de l’Office de Tourisme « c’est un état d’esprit, c’est savoir pourquoi on se lève le matin, c’est l’épanouissement » (source des citations: Sud Ouest). L’idée va donc au delà d’une simple ambiance agréable en voulant mener tout salarié à un épanouissement au travail

Pour créer une véritable dynamique l’équipe à mis en place plusieurs outils : 

  • une mascotte qui identifie l’équipe et permet de répartir le temps de parole lors de réunions de travail
  • une newsletter interne a été créée, sous forme de bi-hebdomadaire #OnEnEstOù permet de faire le point sur les actions de chaque membre de l’équipe
  • la mesure hebdomadaire du taux de bonheur de chaque employé via un outil anonyme (pour aller plus loin sur la thématique)
  • l’installation d’une cloche du bonheur utilisée à l’annonce d’une bonne nouvelle (à l’image des pubs irlandais sonnant la cloche à chaque pourboire donné)
  • Le meilleur salarié du mois est élu sous la forme du #happygirl ou #happyboy du mois et reçoit en guise de récompense des bonbons Dragibus transformés en #happypièce
  • des réunions de travail mais aussi des moments plus informels et conviviaux : apéritifs, repas encore collègues, célébration des anniversaires des employés …
  • des moments de partage et de détente sont mis en place au long de la semaine tels que des moments de sieste, des courses à pieds entre collègues … 

 

L’HUMAIN D’ABORD

On y revient toujours : l’humain est au coeur du dispositif. L’idée de Frédérique Dugeny, directrice de l’Office de Tourisme, est de remettre l’humain au coeur de l’entreprise en l’encourageant à prendre des initiatives. Pour cela, différents dispositifs sont mis en place sur l’idée d’une « entreprise libérée » où le système hiérarchique traditionnel est remplacé par un système horizontal ou les collaborateurs s’autogouvernent.

Bien sûr, nous ne sommes pas dans une startup ou dans une entreprise « à la Google », il y a des limites. L’idée n’est pas de contester le rôle décisionnaire d’un membre de l’équipe, chacun ayant sa mission et étant en mesure de prendre une décision adaptée. Tout ne se fait pas en un claquement de doigts, pour y parvenir, il faut également écouter, comprendre et valoriser le travail de ses collègues. C’est un long processus auquel chaque membre de l’équipe se doit de participer. 

Comme le dit Frédérique Dugeny : « On est sur quelque chose de collaboratif, qui repose sur l’intelligence collective ». Les outils précédemment cités permettent de créer une ambiance de travail agréable, une relation entre les membres de l’équipe mais aussi de leur donner de nouvelles idées, une envie de développer de nouveaux projets et ainsi de s’épanouir au travail.

Pour donner la parole à chacun et pour faciliter l’organisation de réunions, un objet à été mis en place : un petit canard en plastique jaune. Cette mascotte de l’office de tourisme devient alors un véritable moyen d’expression, chaque membre de l’équipe parle une fois le canard en main. Idéalement la parole n’est prise qu’une fois ainsi cela permet aux plus loquaces de limiter leur temps de parole et aux plus timides de s’exprimer quand même. 

 

Autant d’outils qui peuvent bouleverser l’organisation du travail ou le management traditionnel d’une entreprise (comme quoi ce ne sont pas toujours les nouvelles générations qui en sont la cause!) mais qui restent professionnalisants et qui permettent un épanouissement personnel et ainsi une amélioration de la performance de l’entreprise. 

 

OSER LE BONHEUR AU TRAVAIL

Cette nouvelle stratégie va au delà du bonheur en entreprise puisque les objectifs initiaux étaient de développer un meilleur esprit d’équipe, de créer une ambiance conviviale et d’accroître la motivation par la responsabilisation. Tout ceci a également permis d’optimiser la performance collective mais aussi d’améliorer l’image de l’office de tourisme et ainsi d’attirer de nouvelles clientèles. 

Bien sûr, pour arriver à ce stade il faut d’abord mettre en place une culture du changement. Ce qui est inévitable dans le contexte actuel des regroupements effectués suite à la loi NOTRe, pour en savoir plus à ce sujet, je vous invite d’ailleurs à redécouvrir l’article de Jean-Baptiste sur la culture du changement.

En guise de conclusion, je vous laisse méditer sur cette phrase de la directrice Frédérique Dugeny : « On tente, on se plante, on avance… En tout cas, on est en évolution permanente et maintenant, il y a de la vie ! ».

The post Le bonheur au travail appeared first on Etourisme.info.

Catégories: Veille et actualités

Quel « nootropique » pour quel génome ?

Internet Actu - lun, 06/11/2017 - 06:00

Les utilisateurs de nootropiques s’intéressent aujourd’hui à la génomique personnelle, nous apprend Motherboard. Comme le définit l’article, un nootropique est « une certaine quantité de vitamines, de nutriments et de médicaments que les personnes combinent en cocktails… dans le but d’améliorer leur fonction cognitive, leur bien-être quotidien et leur santé à long terme ». Il ne s’agit donc pas (forcément) de « smart drugs » comme la ritaline ou le modafinil…, plutôt ici de compléments et restrictions alimentaires.

Mais comment en effet savoir si un « nootropique » possède les qualités nécessaires à ce qu’on attend et ne provoquera pas d’effets secondaires ? A cette fin, les adeptes se tournent aujourd’hui vers la génomique personnelle.

Pour cela, il faut passer bien sûr par un site d’analyse d’ADN comme, le plus célèbre d’entre eux 23andme, puis ensuite le soumettre à d’autres sites, comme Promethease, Nutrahacker ou DNAFit, qui effectueront une analyse plus spécifique des gènes. Selon Mensal Denton, qui tient le site nootropedia, « Ce n’est qu’avec ces autres outils que les données de 23andMe deviennent réellement utiles, c’est donc un phénomène relativement nouveau », à l’image des nouvelles applications que propose Helix avec sa plateforme d’analyse d’ADN que nous avions récemment évoqué.

Par exemple, cela peut permettre de détecter la présence de gènes provoquant une déficience en vitamine D, ce qui peut amener à conseiller de prendre des suppléments… On peut également apprendre comment son corps métabolise la caféine, et agir en conséquence… Quelqu’un qui la métabolise lentement peut réaliser que la caféine le rend anxieux ou qu’elle peut augmenter son risque cardiovasculaire par exemple.

Des sites comme Vinome proposent ainsi de vous conseiller du vin selon vos particularités génomiques. DNAFit a fait un partenariat avec la chaîne de restaurants britannique Vita Mojo pour proposer des menus personnalisés et adaptés aux résultats délivrés par les tests génétiques.

Est-ce sérieux ? Le professeur Nathaniel Comfort a expliqué au journaliste de Motherboard que : « Si cela permet d’économiser de l’argent en signalant qu’il est inutile pour une certaine personne d’utiliser un supplément particulier, par exemple, je n’y vois aucun inconvénient. Mais dissimulée en arrière-plan, il y a toujours cette idée que vous êtes votre génome. Ce type de pop-science suppose inévitablement plus de certitudes que nous n’en possédons vraiment, car l’environnement, l’humeur, le régime alimentaire et le reste de votre génome affectent tous ces types d’effets métaboliques. »

Ce à quoi Denton réplique que ce genre de service n’est qu’une ressource supplémentaire, à utiliser parmi d’autres…

L’un comme l’autre semblant oublier que ces systèmes favorisent la dissémination d’informations génomiques, donc éminemment personnelles, de service en service. Ainsi que le fait que ces services semblent nous faire glisser, insidieusement, de la gestion du risque à l’injonction comportementale. Pourrons-nous demain manger autre chose que ce qui nous est recommandé ?

Catégories: Veille et actualités

Les 3 défis du marketing d’influence en tourisme

Blog e-tourisme - lun, 06/11/2017 - 03:00

Blogueurs, Instagramers, YouTubers… ah, que voilà le nouveau klondike du marketing touristique! Imaginez, plus besoin de solliciter des journalistes et médias traditionnels quand on peut obtenir de la visibilité gratuite auprès de ces travel writers et autres digital nomads, hein? Pas si vite!

D’abord, quand il est question d’influenceurs, il importe avant toute chose de faire la distinction avec les ambassadeurs, qui eux sont souvent les citoyens d’un territoire – ou les habitants – ou encore des fans de votre produit ou service, si vous êtes un hôtelier, un attrait, un resto ou autre prestataire du tourisme. Alors qu’un influenceur… c’est quoi au fait?

un influenceur est un individu qui par son statut, sa position ou son exposition médiatique peut influencer les comportements de consommation dans un univers donné – (Lexique Marketing)

Appliqué au monde du voyage et l’industrie touristique, on peut ainsi décliner cette définition d’un influenceur comme étant quelqu’un qui aura une influence sur la décision d’une destination ou l’achat d’une prestation touristique en particulier.

Je vous invite d’ailleurs à (re)visionner cette battle fort instructive lors des #ET13 à Pau le mois dernier.

Aujourd’hui, on ne parle plus d’une mode passagère quand il est question de travailler avec les blogueurs et autres influenceurs, mais bien d’une tendance lourde. Et pas que pour le tourisme d’agrément, comme l’a démontré Atout France un peu plus tôt cette année avec son initiative #BizinFrance pour mousser le marché MICE (réunions, congrès, incentive et événements).

Toutefois, on constate trois défis universels pour les institutionnels et agents de relations publiques travaillant dans l’industrie et faisant face à cette nouvelle réalité:

  • Comment choisir le bon influenceur
  • Comment mesurer le retour sur l’investissement
  • Comment engager et maintenir une relation avec des influenceurs

Regardons chacun de ces défis pour mieux les comprendre et adopter une approche optimale lors de campagnes futures.

1. Choisir le bon influenceur

Selon une étude de Econsultancy parue plus tôt cette année, c’est le plus grand dilemme pour près de 73% des marketers sondés, toutes industries confondues. On veut certes travaillers avec un influenceur, mais quel critère est le plus important?

  • La taille de sa communauté en ligne (nb d’abonnés Instagram, YouTube, etc.)
  • Le niveau d’engagement de cette communauté: likes, commentaires, questions, interactions
  • La niche de cette communauté: généraliste ou spécialisée (lifestyle, sports, foodie, aventure, voyage solo, voyage famille, etc.)
  • Le style de l’influenceur: corpo, humoristique, pratico-pratique, etc.
  • La plateforme de choix de l’influenceur: blogue, Instagram, YouTube, Facebook, vidéo sur mesure, etc.

Bref, comme on peut le voir, on ne peut se fier qu’à un seul critère, et surtout pas la taille de la communauté, mais bien à un ensemble de facteurs. Vous savez, ça s’achète des abonnés, hein? Si, si. Comme on peut acheter aussi de « l’interaction ». Si, si. Faut donc valider et faire un petit effort pour aller au-delà des indicateurs de base.

Plusieurs influenceurs ont d’ailleurs un kit média, incluant notamment le volume de trafic sur leur site web et des extraits de données provenant de Google Analytics. Ça ne garantit pas le travail qui sera effectué, mais c’est déjà plus sérieux comme approche pour mettre en confiance dans une relation à venir avec la destination qui le recevra, par exemple.

Des outils à découvrir pour valider les indicateurs d’influenceurs: HYPR et Julius ou encore NeoReach (tous en anglais)

2. Mesurer le ROI

C’est un défi qui se pose dans plusieurs initiatives à l’échelle d’une destination, mais le retour sur l’investissement (ROI) est particulièrement difficile avec le marketing d’influence… surtout quand on n’a pas d’objectifs clairs en amont! Car voilà justement où est l’os dans l’équation: trop souvent, je remarque des campagnes mal ficelées, sans attentes clairement évoquées de part et d’autre.

Du côté de la destination, on voudra clarifier les termes de l’entente souhaitée:

  • Rédaction d’un ou plusieurs billets, et sur quelle plateforme (blogue de la destination? du blogueur?)
  • Fréquence de publication lors du séjour: une photo par jour sur Instagram? Une vidéo en fin de séjour ou pendant, notamment dans les Stories d’Instagram ou Snapchat?
  • Limites et cadre du droit d’auteur pour les photos: pour usage sur les médias sociaux? le site web de destination? à des fins commerciales par la suite?

Du côté blogueur, il y aura également des attentes légitimes:

  • Temps libre versus itinéraire programmé au quart de tour? (Exemple: un blogueur foodie veut-il vraiment participer au site inspection de trois hôtels en un après-midi?)
  • Collaboration rémunérée ou pro bono? Si rémunérée, quels sont les termes exacts et attentes au niveau de la production de contenu?
  • Accès à du wifi de qualité tout au long du séjour, à des fins personnelles et professionnelles
  • Une fois le contenu publié, le voir repartagé par la destination ou le prestataire touristique

Ce dernier point, aussi étonnant que cela puisse paraitre, ne va pas de soi. Selon une étude de DCI parue en 2017 et partagée lors du congrès de Destinations International à Montréal l’été dernier, plus des trois quarts des destinations sondées partagent peu, voire pas du tout, le contenu des influenceurs! (Pour être plus précis, 58.7% disent le faire parfois, et 18.5% le font rarement, pour un total de 77.2%)

Bref, la mesure de ROI d’une campagne auprès d’influenceurs pourra se mesurer de différentes manières selon les objectifs fixés au départ: portée des publications, niveau d’engagement, nb d’articles produits, photos prises et utilisables dans de futures campagnes, etc.

3. Entretenir la relation avec les influenceurs

Dernier point, et non le moindre: quelle est la nature de la relation que vous souhaitez entretenir avec le, la ou les influenceurs visés? Une campagne ad hoc ou une relation à long terme?

Les blogueurs, YouTubers et Instagramers populaires sont de plus en plus sollicités. Le minimum requis est donc de faire votre travail de recherche en amont, cibler les quelques influenceurs potentiels pour les besoins d’une campagne spécifique, puis de prendre contact avec ces influenceurs. Idéalement, au moyen d’une approche personnalisée, et non pas générique.

La personne que vous approchez n’est peut-être pas disponible pour un prochain voyage de presse, mais elle pourra vous recommander d’autres collègues influenceurs, quand elle voit que la démarche est courtoise et professionnelle. Et l’inverse sera aussi vrai, car le mot se passe rapidement dans la communauté: des influenceurs vous approcheront de manière spontanée quand ils savent qu’ils auront une oreille attentive et une réponse diligente.

Alors, les influenceurs font-ils partie de votre plan d’action marketing pour 2018?

À lire ou à relire: Faut-il travailler avec les blogueurs de voyage?

Ou encore: Blogueurs voyages et relationnistes, même combat?

En anglais: Your 10-Step Roadmap for Influencer Marketing

Save

The post Les 3 défis du marketing d’influence en tourisme appeared first on Etourisme.info.

Catégories: Veille et actualités

Que devient Second Life ?

Internet Actu - ven, 03/11/2017 - 08:51

Ars Technica revient sur la plate-forme qui a fait le buzz il y a environ 10 ans. Eh oui, Second Life existe encore, et, selon l’auteur de l’article, elle serait même prospère ! Du moins selon les dirigeants de la société mère, Linden Labs. Côté utilisateurs, continue la revue, les choses sont plus ambiguës.

Question fréquentation, il semblerait que le nombre d’aficionados du monde virtuel n’ait que légèrement diminué par rapport à la grande époque : il y aurait environ aujourd’hui entre 800 000 et 900 000 « utilisateurs actifs ».

Ensuite, en tant que plate-forme de commerce, spécialisée dans la vente de « biens virtuels » (objets 3D, etc.), Second Life marche toujours plutôt bien. Mais le marché s’est professionnalisé, et les amateurs de 2007 ont cédé la place à des professionnels plus aguerris. Comme l’a confié un utilisateur à l’auteur de l’article :
« Auparavant, il n’était pas trop difficile d’être capable de construire, par exemple, une maison qui aurait eu l’air d’être aussi bien modélisée qu’une autre achetée dans un magasin… Vous pouvez toujours continuer à faire les choses à l’ancienne, mais comme les résultats auront manifestement l’air vieillots et moins impressionnants que ceux obtenus avec les moyens actuels, vous êtes découragés de le faire. »

Autre transformation, toujours liée au commerce. Dans les premières années, il y avait des tas de boutiques virtuelles, qu’on pouvait découvrir en parcourant Second Life avec son avatar. Aujourd’hui, une très grosse partie des ventes se fait via un système de transaction web géré par Linden Labs, ce que la revue appelle avec beaucoup de justesse une « amazonification » de Second Life.

En conclusion, nous dit Ars Technica « la découverte et la navigation sont devenues difficiles aujourd’hui sur Second Life ».

Un avis confirmé par une utilisatrice, qui a expliqué qu’ « aujourd’hui les gens achètent leur terrain et restent sur leur territoire. C’est devenu une expérience bien plus solitaire ».

Catégories: Veille et actualités

Retours #ET13 : Les contenus qui cartonnent sur les réseaux sociaux

Blog e-tourisme - ven, 03/11/2017 - 08:00

Aujourd’hui nous revenons sur un des ateliers des #ET13, animé par Sébastien Répéto sur « Les contenus qui cartonnent sur les réseaux sociaux ». Une thématique de plus en plus importante surtout depuis la démocratisation des appareils numériques de types smartphones avec appareil photos haute définition, appareil photo, drones, caméras embarquées … La vidéo est devenue un moyen incontournable pour faire découvrir son territoire et touche plus efficacement qu’une photo. Depuis peu, la vidéo prend un tout autre tournant car elle ne doit plus convenir à un seul format d’écran mais elle doit s’adapter à tous les terminaux utilisés par l’internaute et surtout au smartphone. 

En effet, aujourd’hui en France plus de 80% des moments digitaux se font sur mobile. En chiffre cela représente :

  • 177 minutes d’utilisation par jour,
  • 150 consultations par jour par utilisateur
  • les 2/3 du trafic web français qui se fait sur mobile et plus de 80% des connexions sur Facebook se font depuis un smartphone
  • 300 millions d’heures de vidéos consultés par mois dont 50% sur mobile

Pour toucher au mieux ses cibles il faut créer le bon contenu, au bon moment et au bon endroit. Mais avec le développement de l’utilisation des réseaux sociaux sur mobile une nouvelle vision du contenu se développe. Pour optimiser l’expérience utilisateur, il faut s’adapter à ses nouvelles pratiques et produire une nouvelle approche de l’affichage mobile, notamment pour les vidéos. 

Avant d’aborder la question des formats de vidéos sur les différents réseaux, voici un résumé des formats les plus populaires sur le web :

  • Youtube : une approche plutôt « recherche » du format vidéo, des formats plutôt longs et en 16/9
  • Facebook : une lecture automatique (autoplay), la possibilité de lecture sans le son, un fort potentiel de viralité mais un temps de lecture moyen assez faible (16.7 secondes)
  • Instagram : des publications sur différents formats (carré, portrait, paysage), des stories en format 9/16, un réseau 100% mobile, un contenu qui doit être compréhensible sans le son
  • Snapchat : essentiellement un format 9/16, un réseau 100% mobile, un contenu éphémère, une utilisation de géofiltres

 

  Comment optimiser la forme de son contenu video sur Facebook ?

Aujourd’hui sur Facebook la vidéo la plus répandue est la vidéo carrée en 1:1. Son format est court et adapté aux mobiles.

Ce format paraissait assez déroutant au début mais il prend de plus en plus de place sur le feednews Facebook. On peut également noter qu’un grand nombre de ces vidéos sont accompagnées de sous-titres directement intégrés et ne nécessitant ainsi pas de son. Un exemple caractéristique est celui du site d’actualité « Brut » qui communique uniquement sur facebook grâce à ce système de sous-titres intégrés.

Un autre format de vidéo qui est de plus en plus utilisé est le format 9/16 qui provient des applications Instagram et Snapchat notamment avec le format des « stories ».

Pourquoi s’orienter vers ces nouveaux formats ? Tout simplement car que le newsfeed Facebook aura tendance à mettre en avant les vidéos au format carré ou 9/16 qui sont bien plus immersif sur mobile.

 

L’utilisation des stories sur instagram

 

Sur Instagram, les formats de vidéos sont déjà adaptés. Là où la différence se joue c’est sur les stories. Le reach est souvent supérieur sur les stories plutôt que sur les publications.

Comment optimiser ses stories sur instagram ?

  • Poster tout au long de la journée
  • Mixer les formats (photo, vidéo, boomerang, hyperlapse)
  • Utiliser les fonctionnalités mises à disposition (stickers, polls, hastags cliquables) 
  • Utiliser la géolocalisation pour apparaître dans la story du lieu
  • Construire une histoire afin que le contenu ne soit pas décousu

 

 

Snapchat et les Géo-filters !

En bonus par rapport à l’atelier, je souhaitais vous parler de Snapchat, qui malgré le passage d’Instagram aux stories, il reste un réseau toujours utilisé, en particulier par les jeunes générations. Depuis plusieurs mois l’accès aux géo-filtres est devenu ouvert. C’est à dire que vous pouvez maintenant créer vos propres géofiltres localisés … sous certaines conditions bien sûr.

Concrètement il existe 3 catégories de géofiltres sur Snapchat :

  • La communauté :  il permet de créer un filtre Snapchat pour une ville, un quartier, une école… Tous ces filtres sont gratuits mais réservés aux lieux publics
  • Le personnel : il permet de créer un filtre Snapchat pour un anniversaire, un mariage, une fête, des vacances… pour un tarif de 5€ minimum

  • Le professionnel : il permet de créer un filtre Snapchat pour une marque, une enseigne, un restaurant, un événement… celui là est payant pour les marques

 

Pour résumer, n’importe quel utilisateur souhaitant créer un geofiltre localisant un quartier ou des lieux publics, peut le faire et ça totalement gratuitement. Pour les entreprises ou marques souhaitant créer des geofiltres éphémère (pour un événement) ou pour une marque devront payer. Cependant vous pouvez créer des géofiltres proche géographiquement de votre marque (sans inclure le logo) qui représenteront des lieux de votre territoire, peut-être que certains d’entre vous le font déjà ou vont le faire ?

La leçon à retenir de cet atelier est simple : la vidéo est un moyen d’expression incontournable qui doit s’adapter à l’usage de l’utilisateur pour que son expérience soit satisfaisante. Maintenant, il ne vous reste plus qu’à mettre en pratique et utiliser ces nouveaux formats. D’ailleurs, si vous les utilisez déjà n’hésitez pas à nous en faire part dans les commentaires et à nous confier vos retours d’expériences (réussi ou pas) !

The post Retours #ET13 : Les contenus qui cartonnent sur les réseaux sociaux appeared first on Etourisme.info.

Catégories: Veille et actualités

Le dual n-back augmente bien la mémoire de travail

Internet Actu - jeu, 02/11/2017 - 11:30

Cela fait maintenant plusieurs années qu’un exercice cognitif, le dual n-back – qui consiste à être soumis à des stimulis visuels et auditifs pour voir s’ils se répètent – possède la réputation d’être le seul type d’entraînement capable de réellement augmenter certaines capacités cognitives. Cela a même été confirmé chez des enfants… Et la nouvelle étude de la John Hopkins University va dans le même sens…

Dans cette expérience, les chercheurs ont avant tout cherché à comparer deux exercices d’amélioration cognitive bien connus : d’un côté le dual n-back, donc, et de l’autre le « complex span », une tâche qui consiste à se rappeler de différents éléments alors que des distractions empêchent le joueur de se concentrer.

Les chercheurs ont donc utilisé trois groupes : l’un utilisant le dual n-back, le second le « complex span » et le troisième bien sûr faisant office de groupe témoin et n’ayant rien à faire de spécial.
L’équipe a tout d’abord mesuré, grâce à des tests cognitifs et l’EEG, les caractéristiques mentales de chacun des participants. Ensuite, ceux-ci ont eu un mois pour s’entraîner avec la tâche qui leur avait été assignée, à raison d’une séance de 30 minutes 5 fois par semaine.

Le résultat a été largement en faveur du dual n-back : les participants ont montré une augmentation de 30 % de leur mémoire de travail, par rapport à ceux qui avaient pratiqué le « complex span ». De plus, les usagers du n-back ont montré un accroissement de l’activité du cortex préfrontal après ce mois d’entraînement. Le cortex préfrontal est corrélé à nos capacités de décision et de planification.

Reste à comprendre ce qui se passe vraiment, et pourquoi cela marche. Sur ce point, on est encore largement dans le noir.

Pour le docteur Susan Courtney, co-auteure de l’étude :
« La plus grande leçon à retenir, c’est que l’entraînement intensif renforce la cognition et le cerveau, mais nous ne comprenons toujours pas pourquoi ni comment… nous ne pouvons pas nous précipiter sur un jeu vidéo et espérer que cela guérira tous nos problèmes cognitifs. Nous avons besoin d’interventions plus ciblées. »

Catégories: Veille et actualités

Facebook est-il devenu incontrôlable ?

Internet Actu - jeu, 02/11/2017 - 06:00

Courrier international (@courrierinter) a eu la bonne idée de traduire l’excellent article de Max Read (@max_read) pour le New York Magazine (@NYMag) qui montre comment FB échappe à son créateur. A l’heure où FB est sommé de s’expliquer devant le Congrès américain sur les ingérences publicitaires russes dans l’élection de Donald Trump, Read décortique les publications de Mark Zuckerberg où il a présenté les enjeux de FB pour mieux en souligner les contradictions. Ainsi, remarque-t-il, quand Zuckerberg annonce qu’il va rendre les publicités politiques plus transparentes, l’entreprise présente ses nouveaux outils marketing permettant de cibler les utilisateurs de FB passant en magasin pour mieux les harceler de publicités.

Read pointe une à une les contradictions de l’ogre FB, qui assure, désormais, comme le ferait un État ou une Organisation non gouvernementale, « veiller à garantir l’intégrité des élections ». John Lanchester pour la London Review of Books (LRB) rappelait très bien dans un article au vitriol, que derrière les belles annonces promotionnelles visant à « connecter le monde entier », FB était d’abord conçu pour récupérer des données sur les utilisateurs et les vendre à des annonceurs. Pour Lanchester, Facebook est « sans boussole morale ».

Pour Read, la tournée de Zuckerberg à travers les États-Unis ressemble plus à une introspection qu’à une précampagne présidentielle : elle reflète plus les hésitations de Zuckerberg face au fléau des Fake News et à la démultiplication des dénonciations de l’inaction de FB face aux problèmes qui minent le réseau social. L’un des rares engagements de FB pour contrer la désinformation, à savoir le lancement d’un outil de vérification des faits, lancé en mars 2017 à titre expérimental avec des médias, présenté comme une arme décisive dans cette lutte, se révèle inutile. C’est en tout cas ce que souligne une étude de l’université de Yale, relayée par Policito qui montre que pour les utilisateurs, tout ce qui ne serait pas tagué comme fausse information serait par défaut véridique. Pas sûr que ce soit une solution pour améliorer le discernement effectivement (voir « Bulle de filtre et désinformation : Facebook, une entreprise politique ? » et « Peut-on répondre à la désinformation ? »).

L’échec de cette tentative d’autorégulation, redonne de la valeur au fait d’agir sur le modèle économique même de FB pour remédier au problème, comme le soulignait Quartz.

L’enquête du Congrès en tout cas change la donne. Non pas que les 100 000 dollars de publicités achetés par le gouvernement russe aient vraiment pu changer la donne (cela aurait été circonscrit à 3000 annonces ayant touché environ 10 millions d’Américains – bien moins que les millions de dollars dépensés par les candidats Américains eux-mêmes en publicité sur les réseaux sociaux), mais elles montrent que l’autorégulation dont se glorifiait FB ne fonctionne pas. Read rappelle que FB a d’abord nié avoir vendu de la publicité aux Russes, avant de le reconnaître, puis de dire au Congrès qu’il ne pouvait pas révéler plus d’information, avant d’obtempérer et de livrer des données face à la menace d’un mandat de perquisition. Pour Tim Wu (@superwuster), professeur de droit à l’université de Columbia et auteur des Marchands d’attention, la solution est d’obliger FB à lever le voile sur ses pratiques publicitaires et d’interdire l’achat de publicité à caractère politique par un gouvernement étranger. Au Congrès, les démocrates souhaitent que les publicités en ligne soient désormais encadrées. D’autres aimeraient même imaginer un démantèlement sur le modèle de Bell, sans savoir très bien comment diviser l’empire FB. Ce qui est sûr, souligne Tim Wu, c’est que FB profite d’un environnement très très peu réglementé.

Et Read de conclure en rappelant un épisode assez oublié de FB : celui où, entre 2009 et 2012, les internautes pouvaient voter pour faire évoluer la politique du site. Peu le faisaient, le système favorisait plutôt la quantité que la qualité des contributions… ce qui explique que FB l’a donc abandonné. Reste que c’était peut-être encore une époque où FB était à l’écoute de ses utilisateurs. « FB était devenu trop grand, et ses membres trop complaisants, pour la démocratie », conclut Max Read.

En attendant, devant la commission du Congrès, FB a concédé qu’elle devait faire des efforts pour mieux identifier les annonceurs, ses vrais clients, ceux dont nous sommes le produit, rapporte Le Monde.


Image : Buzzfeed vient de publier une infographie montrant comment FB divisait ses utilisateurs Américains en 14 segments politiques issus de 5 grandes tendances, pour les proposer aux annonceurs politiques (une segmentation qui ne serait plus disponible aux annonceurs actuellement, mais qui l’a été durant la campagne présidentielle américaine).

MAJ : Le New York Times, quant à lui, a invité plusieurs experts à donner leur avis sur comment réparer FB. Pour Jonathan Albright, directeur de la recherche du Tow Center for Digital Journalism de l’université de Columbia, FB ne devrait pas prioriser les réactions dans le fil d’information et limiter la recommandation émotionnelle. Pour Eli Pariser, l’auteur de la Bulle de filtre, Fb devrait s’ouvrir aux chercheurs et changer ses critères de mesure pour mieux prendre en compte l’impact de l’information sur le temps long. Ellen Pao de Reddit, elle invite les dirigeants de FB à introduire de la diversité dans son équipe et à se doter de principes d’ordre journalistique. Quant à Tim Wu, il invite FB à devenir une ONG.

Catégories: Veille et actualités

#ET13 : jette ton app, plus personne ne l’utilise

Blog e-tourisme - mar, 31/10/2017 - 07:57

Un petit billet pour vous donner à revoir un bon moment des #ET13 en ce jour un peu tranquille pour beaucoup.

Il s’agît de l’intervention de Fred Cavazza dont la première slide est parlante : « oubliez les applications et soignez plutôt votre écosystème mobile!« 

Dans son intervention, le spécialiste du web démontre le peu d’intérêt d’éditer une application pour le tourisme : e, france, un possesseur de smartphone utilise moins de dix applications par jour « et surtout pas la votre »! Pour se faire une place sur les plateformes Androïd ou Appstore, c’est mission impossible. 

ET13 – C1 – Fred Cavazza – Ecosystème mobile de Rencontres Nationales du etourisme institutionnel

 

Soignez l’écosystème

Pour Fred Cavazza, il faut avant tout éditer un site « mobile friendly », qui est satisfaisant dans la plupart des cas, mais surtout soigner un écosystème en définissant une stratégie de présence sur le parcours client de l’utilisateur de smartphone. Et là, les possiblités d’intervenir sont nombreuses, comme le montre la diapositive ci-dessous

Pour revoir l’ensemble de la présentation de Fred Cavazza, en vidéo, en très bonne qualité, c’est ci-dessous.

Un conseil : branchez ça sur la TV, préparez-vous un thé, et regardez ça comme au cinéma, c’est un bon sujet pour un 31 octobre!

The post #ET13 : jette ton app, plus personne ne l’utilise appeared first on Etourisme.info.

Catégories: Veille et actualités

Pages