Fils RSS agrégés

[Publication] Revue NETCOM : Communs urbains et équipements numériques

Bretagne - MARSOUIN - ven, 15/12/2017 - 15:51

Un nouveau numéro de a revue Netcom, consacré à la problématique des "Communs urbains et équipements numériques", vient de paraître. La chercheuse Flavie Ferchaud, membre du GIS M@rsouin, y publie notamment un article intitulé "Les communs urbains à l'épreuve du terrain : le cas des lieux de fabrication numérique". La revue est disponible à l'adresse suivante : http://journals.openedition.org/netcom/2593

En voici le sommaire :

  • Le Crosnier Hervé et Vidal Philippe, « Entre fragilité et innovation sociale, les communs urbains à l'heure du numérique » (Avant-propos)
  • Hervé Le Crosnier et Philippe Vidal, « Le rôle du numérique dans la redéfinition des communs urbains ”
  • François Huguet, « Le déploiement des réseaux communautaires sans fil (MESH) - De la nécessité de former à la médiation infrastructurelle »
  • Flavie Ferchaud, « Les communs urbains à l'épreuve du terrain : le cas des lieux de fabrication numérique »
  • Marina Duféal et Matthieu Noucher, « Des TIC au TOC. Contribuer à OpenStreetMap : entre commun numérique et utopie cartographique »
  • Adrien Labaeye, « Collaboratively mapping alternative economies - La cartographie collaborative des économies alternatives : co-produire une connaissance transformative »
  • Marie Mellac et Jean-Christophe Diepart, « Les communs fonciers à l'ère d'internet au Cambodge, une approche par les conflits »

Note de recherche

  • Gwendoline L'Her, Myriam Servières et Daniel Siret, « Participer et transformer les territoires - Interactions entre habitants, techniques et milieux à partir de la notion de « citoyen-capteur »

Paroles d'acteurs

  • Myriam Bouré, « Réappropriation des systèmes alimentaires par les citoyens : une logique de Communs urbains »
  • Michel Briand et Bernard Brunet, « Appropriation sociale du numérique, communs et politique publique, retours sur l'expérience de la Ville de Brest »

Varia

  • Dany Lapostolle et Sophie Demonceaux,n « Les territorialités numériques en action - Etude de cas au sein de la communauté urbaine Creusot Montceau »
Voir en ligne : Revue en ligne

[Appel à articles] Nouvelles formes d'entreprises et collaborations à l'ère de l'économie digitale

Bretagne - MARSOUIN - ven, 15/12/2017 - 15:30

La revue Interventions économiques lance un appel à articles pour un numéro intitulé "Nouvelles formes d'entreprises et collaborations à l'ère de l'économie digitale", coordonné par Diane-Gabrielle Tremblay et Amina Yagoubi.

CALENDRIER GÉNÉRAL

  • 20 janvier 2018 : Date limite de dépôt des propositions d'article (demi-page environ)
  • 5 février : Réponses du comité évaluateur de la revue Interventions Économiques
  • 20 mars, les articles (15-25 pages) sont attendus

Extrait de l'appel à articles : "Le nouveau contexte industriel est caractérisé :

  • 1-Premièrement, par la globalisation des marchés soumettant les industries traditionnelles à une forte compétition mondiale ;
  • 2-deuxièmement, par l'avènement de la 4e révolution industrielle, la révolution numérique, accompagnée de la recherche systématique de l'innovation et de la créativité ;
  • 3-troisièmement, par une forte mobilisation civique, privée et publique, nationale/locale, où travaillent de concert des écosystèmes variés composés d'acteurs industriels, associatifs, éducatifs/universitaires et politiques. Ce travail de collaboration permet en même temps de développer un ensemble des stratégies d'adaptation en vue de se distinguer sur des marchés à valeur ajoutée en innovant et en intégrant de nouvelles pratiques digitales (Yagoubi, Tremblay, 2017) ;
  • 4-et quatrièmement, par un nouveau statut de travailleur, intermittent, par projet : le travailleur 2.0 que l'on retrouve dans des réseaux d'innovation ouverte (peer production, P2P) (Chesbrough, 2003) par exemple, ou encore à l'autre extrémité, dans le cas de l'ubérisation du travail, un travailleur s'inscrivant dans une économie dite collaborative ou de partage. Cette ubérisation du travail reste par ailleurs critiquée. On observe également de nouvelles formes d'organisation du travail, comme le coworking, les espaces ouverts (open space ), le ‘blended work', le ‘job crafting', etc.

La revue souhaite surtout voir traités les thèmes 3 et 4dans ce numéro."

Cliquez pour ouvrir 'appel à articles

[Appel à communications] Marketization and the Digital Economy

Bretagne - MARSOUIN - ven, 15/12/2017 - 15:20

Un appel à communications est lancé pour les mini-conférences à la SASE Annual Conference, sur le thème "Global Reordering : Prospects for Equality, Democracy and Justice", du 23 au 23 juin 2018, à l'université de Doshisha à Kyoto (Japon). Toutes les informations sont disponibles sur https://sase.org/event/2018-kyoto/#mini.

DEADLINE FOR ABSTRACTS : January 8th, 2018

Global reordering in the economy is occurring at many levels – between geographical regions, within geographical regions, between economic sectors, between different players in the same sector, and between market and non-market models of economic provisioning. The digital economy is at the forefront of these processes of reordering. For this miniconference we invite papers on all aspects of the socio-economic changes related to marketization and the contemporary digital economy, in all regions and sectors. Topics may include, for example :

Collaborative forms of digital economy

Digital technology has created new spaces for non-market and non-profit forms of economy, whether we call them collaborative, sharing, gift, or collective economies – from Wikipedia to Couchsurfing, from the open source software communities to Freecycle. How are these faring in their continuing competition with market forms ? How do they combine or collide with more commercial forms ? Are they able to deliver more equal and democratic forms of work and consumption ?

Marketization processes

On the other hand, many practices previously considered as recreational or domestic are increasingly becoming marketized. Web platforms such as Airbnb.com, Craigslist.org, Etsy.com or Vizeat.com, encourage ordinary people to commodify their personal possessions as well as their common domestic or leisure practices. Human bodies and personal data are becoming commodified. Ordinary people are encouraged to turn themselves into entrepreneurs, changing forms of work-life articulation and generating altered social recognition. What are the causes and effects of these extensions of the market ? How do market and domestic orders of worth combine ? What are the consequences for the regulation of professions and the new challengers ?

The platform economy

Platform sites like Amazon and Alibaba are well established, but the platform model is now breaking into vast new areas, most notoriously through taxi services like Uber and Didi. How do these new intermediaries benefit or harm competitors, states, workers and consumers ? How can, and how should, they be regulated ? Can those harmed by them find new ways to organize in response ? Do the participants in the platform economy bring new values or moral economies to the markets that they impact ? How do algorithm-based orderings, filterings and decisions fit with online platforms and their participants ?

Digital market processes

The new economic sociology was largely defined by its account of embeddedness. Are digital commodity transactions and business models embedded in the social in different ways ? How have the means of qualifying and valuing commodities changed, and who do these changes favour ? Does digitalization favour specific forms of industrial organization ? How does the massive collection of data on consumers affect the balance of power in and across markets and what risks does this generate ? To what extent does digital automation (through algorithms, “artificial intelligence”) redistribute agencies and the balance of power within markets ? What are the prospects for a digital transformation of the monetary form of commodity transactions ?

Systemic consequences

What is the overall effect of these changes on macrosocial variables such as inequality, governance capacities, systemic risk, environmental change, and political engagement with economic issues ? Does digital technology offer a prospect of greater economic and financial inclusion or is it systematically stacked against the poorest and most marginalized ?

Abstracts of no longer than 1000 words should be submitted by January 8th, 2018 through the SASE web site https://sase.org/event/2018-kyoto.

Voir en ligne : Page du colloque

IA : un état de l’art

Internet Actu - ven, 15/12/2017 - 07:00

Où en est l’Intelligence artificielle ? Quels sont les marqueurs importants grâce auxquels on peut suivre l’évolution du domaine ? C’est à cette tâche que s’est attelée l’université Stanford, qui a décidé de publier un « index de l’IA (.pdf) » chaque année.

Au moins, une première chose dont on peut se réjouir, c’est que le rapport n’est pas difficile à lire ! En effet, son coeur est essentiellement composé de graphiques accompagnés de courtes légendes.

Une première partie concerne les progrès de l’IA, non pas d’un point de vue technique, mais de celui de l’intérêt académique ou commercial qu’elle suscite. Et là, pas de doute, l’IA connaît un triomphe. On apprend ainsi que le nombre d’articles universitaires consacrés au sujet se sont multipliés par 9 au cours de la dernière décennie. Il y a d’ailleurs 11 fois plus d’étudiants dans ce domaine. L’analyse des conférences montre que l’intérêt des chercheurs s’est déplacé de l’IA symbolique vers le « machine learning » et le deep learning. On s’y attendait. Mais la rapport souligne néanmoins que l’intérêt pour l’IA symbolique, « à la papa », n’a pas disparu, il reste une petite communauté active qui continue à travailler sur le sujet.

Bien sûr, les startups se consacrant à ce domaine ont largement proliféré : il y en a aujourd’hui 14 fois plus qu’en 2000. Et les investissements se sont multipliés par 6…

Des progrès… mais peut mieux faire
La seconde partie aborde les vrais progrès, et se penche sur les potentialités technologiques de l’intelligence artificielle.
Dans le domaine de la détection d’objet, il apparaît ainsi que le meilleur système informatique est capable de plus grandes performances que les humains. En revanche, toujours dans le domaine de la vision, l’IA reste très inférieure à nous autres primates lorsqu’il s’agit de répondre à une question plus ouverte sur le contenu d’une image.

En analyse textuelle, l’être humain a là aussi, un avantage : l’IA est moins performante lorsqu’il s’agit de répondre à une question sur un document. En ce qui concerne la reconnaissance de la parole, les meilleures IA atteignent tout juste le niveau des performances humaines.

Mais même dans les domaines où les machines restent à la traîne, elles continuent néanmoins de progresser.

En fait, ce n’est pas le rapport en lui même qui est le plus intéressant. Finalement, on n’y apprend pas grand-chose. Il ne fait que refléter la « hype » qui entoure cette discipline et nous montrer des progrès, certes existants, mais moins extraordinaires qu’annoncés. La Technology Review, qui a publié un article sur le rapport, titre d’ailleurs : « le progrès en IA est moins impressionnant que vous ne le pensez« .

C’est en fait la dernière partie du texte qui s’avère la plus intéressante. Il s’agit d’une série d’interviews recueillant les avis de divers experts sur ces différentes métriques.

Barbara Grosz, professeur d’IA à Harvard, revient sur le traitement du langage naturel et les difficultés à mesurer le niveau des machines. En effet, bien que le rapport traite des questions de traduction et d’analyse de documents, il ne s’est pas penché sur celle des « chatbots » et de la capacité qu’ont ces programmes d’entamer un dialogue avec les humains (rappelons tout de même que cette faculté est au coeur du fameux « test de Turing »). Les auteurs de l’index expliquent cette absence par le fait que « le dialogue des chatbots est éloigné du dialogue humain et nous manquons de mesures largement acceptées pour évaluer les progrès dans ce domaine. De même, alors que les systèmes d’IA d’aujourd’hui s’avèrent moins capables d’un raisonnement de bon sens qu’un enfant de cinq ans, on ne sait pas comment quantifier cela sous la forme d’une métrique technique. »

Pour Barbara Grosz, « l’analyse textuelle ne nécessite aucune considération sur l’état mental du producteur du document analysé, et pour de nombreuses situations dans lesquelles la traduction automatique et la capacité de répondre à une question ont été testées, il est également possible d’ignorer cet état mental et en particulier, l’intention derrière l’énoncé, qui est crucial pour comprendre sa signification. Ce n’est plus le cas avec un dialogue. »

Michael Wooldridge de l’université d’Oxford s’interroge lui sur le trop plein d’enthousiasme suscité aujourd’hui par cette technologie :

« A l’heure actuelle, il y a clairement une bulle autour de l’IA. La question que ce rapport soulève pour moi est de savoir si cette bulle va éclater (comme cela se produisit lors du boom dot com de 1996-2001), ou se dégonfler doucement. Et quand cela arrivera, que restera-t-il ? Ma grande peur est que nous voyons arriver un autre hiver de l’IA (l’hiver de l’IA est une expression qui désigne la période dans les années 80-90 qui a suivi la chute de l’IA symbolique, celle des systèmes experts, qui s’étaient avérés incapables de tenir leurs promesses – NDT), suscité par la désillusion suite à la spéculation massive et l’investissement auxquels nous assistons en ce moment (…)

Cependant, même si je pense qu’une certaine déflation de la bulle actuelle est inévitable dans les prochaines années, je pense qu’il y a une raison d’espérer que ce sera une digne et lente déflation, plutôt qu’une explosion spectaculaire. La raison principale en est que, comme l’AI Index le démontre clairement, l’IA est de plus en plus compétente. Sur un large spectre de tâches, les systèmes d’IA se montrent de plus en plus performants (et parfois rapidement), et leurs capacités se déploient avec beaucoup de succès dans différentes zones d’application. En d’autres termes, je pense qu’il y a de la substance derrière l’actuelle bulle, et les grandes entreprises comprennent maintenant comment utiliser les techniques d’IA productivement (…). Je ne crois pas que nous assisterons à un contrecoup comme ce fut le cas avec l’hiver de l’IA et la fin du boom des systèmes experts. »

Au-delà de l’Amérique

Autre limite de l’index, souligné par Alan Mackworth, de l’université de Colombie britannique : son caractère ouvertement américano-centrique. Il espère que dans les prochaines versions de l’index, les données venues d’Europe et du Canada pourront affluer. Et précise-t-il, les informations concernant l’Asie devraient aussi être bientôt disponibles.

Le souhait d’Alan Mackworth est appuyé par un autre intervenant, l’investisseur américano-taiwanais Kai Fu-lee, qui se montre particulièrement enthousiaste sur les perspectives de l’IA en Chine. On le sait, la technologie la plus efficace actuellement, celle du deep learning, repose essentiellement sur les data. Or, l’ancien Empire du Milieu est une mine extraordinaire de data. En effet, on y trouve trois fois plus d’utilisateurs d’internet et de téléphones mobiles qu’aux États-Unis ou en Inde. Les Chinois utilisent 50 fois plus leur mobile pour effecteur des achats que les Américains. Dans le domaine des transports, « il y a plus de 20 millions de déplacements à vélo transmettant leur GPS et les informations d’autres capteurs à un serveur, créant 20 téraoctets de données tous les jours ». Kai-Fu Lee souligne aussi la bonne qualité des applications en Chine, donnant en exemple la startup Face++, qui gagna trois concours de reconnaissance faciale, devant Google, Microsoft, Facebook et la Carnegie Mellon University. Le gouvernement chinois est également très investi et a en juillet 2017 lancé le « plan de développement de la prochaine génération d’intelligence artificielle » destiné à favoriser l’innovation dans ce domaine.

Les auteurs de l’index ne pouvaient pas ne pas évoquer au moins rapidement la question des limites de l’IA et sa capacité à atteindre le niveau d’un être humain. Là encore,la conclusion n’est pas très surprenante, et va dans les sens de bons nombres de chercheurs et analystes : « Les tâches effectuées par les systèmes d’IA sont souvent conçues pour des contextes limités afin de réaliser des progrès pour la résolution d’un problème ou une application précise. Alors que les machines peuvent obtenir des performances spectaculaires sur une tâche spécifique, ces performances peuvent se dégrader considérablement si la tâche en question est modifiée même légèrement » (comme nous le soulignions déjà).

Les auteurs du rapport ont avoué ne pas s’être penchés sur les risques sociétaux posés par la multiplication des IA, mais espèrent pouvoir s’y attaquer dans les prochains numéros de l’index. Ces défis sont en revanche souvent mentionnés par certains des commentateurs du rapport. Mais en tout cas pas question de la venue de la Singularité ! A croire que ce mythe est surtout colporté par des observateurs extérieurs au domaine, et bien plus rarement par ceux qui ont le « nez dans le guidon » !

Rémi Sussan

Catégories: Veille et actualités

Crello et Designbold : les petits de Canva

Blog e-tourisme - ven, 15/12/2017 - 07:00

Allez, un easy friday qui va plaire aux community managers : voici deux nouveaux outils de création graphique que je viens de découvrir.

En février dernier, je vous présentais Canva, qui pour moi est un véritable véhicule spatial du graphisme, tant il me permettait de faire de jolies réalisations sans avoir le moindre sens artistique! Encore plus performant qu’Adobe Spark.

Mais le webservice fait des émules, et je vais donc vous présenter deux cousins de Canva : Crello et Designbold.

Crello, le gif animé en plus

Crello, c’est vraiment le cousin germain de Canva : même organisation du webservice, même design, même le nom qui commence par la même lettre. Avec cet outil, la création graphique sera facile.

Après inscription, il vous suffit de choisir parmi les 31 formats proposés, qui vont des publications Facebook aux cartes postales.

L’interface est assez intuitive, et les fonctionnalités de retouches sont assez développées. De nombreux fonds, images, et thèmes déjà designés sont à disposition. Si beaucoup sont gratuits, d’autres sont proposés à petit prix (souvent moins d’un euro). La plateforme est accessible en français.

Particularité de Crello : vous pourrez créer des Gif animés, comme ci-dessous. Reste ensuite à les télécharger en MP4 avant de les republier.

http://www.etourisme.info/wp-content/uploads/2017/12/crello3-1.mp4

 

        Bolddesign, et ses 40 millions de photos en stock!

Bolddesign est une start-up vietnamienne qui propose des services équivalents à Canva mais qui se bat sur les avantages mis à disposition de ses clients : pas moins de 40 millions de photos en stock, dont 300 000 en accès libre; les autres sont facturées 80 cents l’unité.

L’interface ici n’est disponible qu’en anglais. Mais elle est comme pour Canva ou Crello, excessivement intuitive.

Si ces trois webservices sont vraiment cousins, quel avantage à quitter Canva pour se créer un nouveau compte ailleurs?
Surtout, d’après-moi, pour trouver d’autres suggestions de design. Il y a vraiment énormément de choix! J’aime bien chez Crello la rubrique “inspiration”, classée par catégorie. C’est là que j’ai trouvé cette belle illustration, appropriée avant une dernière semaine de boulot! 

The post Crello et Designbold : les petits de Canva appeared first on Etourisme.info.

Catégories: Veille et actualités

Paramétrer notre bulle de filtre… pour en reprendre le contrôle

Internet Actu - jeu, 14/12/2017 - 07:00

Avant l’internet, les grands médias étaient nos filtres sur le monde. Selon le journal que vous achetiez, la chaîne de radio ou de télévision que vous suiviez, votre vision du monde était différente, rappelle sur son blog Ethan Zuckerman (@ethanz), directeur du Centre pour les médias civiques du MIT (@civicMIT). Puis, internet et ses puissants moteurs de recherche ont permis de faire naître des filtres selon ses centres d’intérêts. Les médias sociaux ont ensuite proposé une autre forme de filtre, des filtres basés sur nos relations sociales… jusqu’à ce que celles-ci deviennent trop importantes et qu’elles nécessitent une autre approche : une approche algorithmique qui personnalise le filtrage selon un ensemble complexe de facteurs. La bulle du filtre, posée par Eli Pariser, repose sur l’idée que nos tendances naturelles à l’homophilie sont amplifiées par des filtres conçus pour nous donner ce que nous voulons, plus que des idées qui nous challengent, nous conduisant à des formes d’isolement idéologique et à la polarisation. « Les fausses nouvelles conçues pour tromper le public et recueillir des publicités reposent sur le fait que les algorithmes de Facebook ont du mal à déterminer si les informations sont vraies ou non, alors qu’ils peuvent facilement voir si les informations sont nouvelles et populaires. Lorsque le Congrès américain réclame des actions à l’encontre des fake news ou de la propagande russe, il ne réclame rien d’autre qu’une autre forme de filtrage, basée sur qui crée le contenu et sur la véracité des faits. »

« Pourquoi les plateformes de médias sociaux comme Facebook et Twitter ne donnent-elles pas aux utilisateurs des outils puissants pour filtrer leurs propres flux ? À l’heure actuelle, les algorithmes contrôlent ce que nous voyons, mais nous ne pouvons pas les contrôler. (…) Vous pouvez payer et faire de la publicité auprès des femmes de couleur entre 40 et 60 ans qui vivent à Seattle, mais vous ne pouvez pas choisir de lire les points de vue de ces femmes. Bien qu’il existe des projets très innovants comme BlockTogether (@blocktogether, qui permet aux utilisateurs victimes de harcèlement de partager des listes d’utilisateurs bloqués sur Twitter), les plateformes peinent à offrir des outils de contrôle aux utilisateurs eux-mêmes. Et à moins qu’émerge un jour des plateformes sociales sous forme de services publics (comme le proposait Ethan Zuckerman lui-même en mai dernier), il est peu probable que les plateformes donnent aux utilisateurs plus de contrôle sur ce qu’ils voient. »

Comme le rappelle le chercheur, les filtres algorithmiques optimisent les plateformes pour favoriser l’engagement et la rétention des utilisateurs dans le but de vendre l’attention des utilisateurs aux annonceurs.

Tout l’enjeu à venir consiste donc à proposer d’autres modalités pour filtrer les contenus, ou mieux encore, de permettre aux utilisateurs d’accéder et de décider des paramètres des filtres qui les façonnent, comme nous le soulignions nous-mêmes. Si les paramètres relèvent des prérogatives des plateformes, cela n’empêche pas d’imaginer des services qui ouvrent ces paramètres depuis les services web de ces mêmes plateformes.

C’est ce que propose Gobo, un prototype fonctionnel lancé par le Centre des médias civiques, le Media Lab et le laboratoire d’études comparatives des médias du MIT. Gobo est un agrégateur de médias sociaux qui propose aux utilisateurs des filtres dont ils peuvent contrôler les paramètres. L’outil, lié à nos comptes Facebook et Twitter, permet à chaque utilisateur de choisir différents paramètres pour accéder aux contenus que proposent ces réseaux. Plusieurs filtres sont ainsi disponibles : un filtre politique permet de sélectionner des publications proches de ses points de vue ou éloignées de ses opinions politiques ; un filtre de sérieux permet de contrôler le volume de fun dans les billets qui vous sont proposés ; un filtre de politesse permet de contrôler le ton des billets ; un autre permet d’ajuster un curseur pour définir l’équilibre entre les sexes de votre flux d’information, permettant par exemple de mettre tous les hommes que vous suivez en sourdine… Un autre filtre permet d’ajuster la viralité de ce qui vous est proposé selon que les posts sont peu ou très populaires.

Enfin, chaque article que le système vous affiche explique le critère selon lequel il a été filtré.

Gobo pour l’instant n’est bien sûr qu’un démonstrateur. Il est lent. Il est imparfait puisqu’il dépend des modalités d’accès que proposent Facebook ou Twitter à des services tiers. Il utilise des techniques de machine learning assez basiques pour classer les informations selon les filtres, techniques qui devraient s’améliorer avec le temps… Reste que si l’outil est imparfait, il offre enfin une perspective stimulante pour permettre aux utilisateurs de reprendre la main sur les réseaux sociaux. Il permet de jouer avec les critères et donc de comprendre en partie les logiques algorithmiques à l’oeuvre dans la sélection qui nous est délivrée. Il montre en tout cas que d’autres distributions de l’information sont possibles… et que les boites noires sont à leur tour manipulables. Que l’accès aux critères et aux paramètres des systèmes est la modalité de la reconquête de notre liberté et de notre autonomie.

Espérons que Gobo se développe et inspire nombre de nouveaux services pour aider les utilisateurs à reprendre la main sur les réseaux sociaux !

Hubert Guillaud

Catégories: Veille et actualités

Tous artistes pour rester vivants

Blog e-tourisme - jeu, 14/12/2017 - 07:00

“Quand nous mettons nos photos sur Facebook, sur Whatsapp, nous sommes les idiots utiles de l’IA, nous éduquons gratuitement jours et nuits l’IA, qui va devenir de plus en plus forte et de plus en plus indispensable. Nous nous sommes mis dans un piège. Il faut réfléchir à la façon d’en sortir, et de ne pas sortir de l’Histoire en ayant donné toutes les clefs du futur à l’IA et à ceux qui la possèdent, c’est à dire les géants du numérique : Google, Apple, Facebook, Amazon en Amérique, et puis Baidu, Alibaba, Tencent et Xiaomi en Chine”. Laurent Alexandre, fondateur de Doctissimo nous alerte dans Le Petit Web.

Et si c’était vrai ? Si toutes les invitations à l’économie numérique du partage n’avaient eu pour but que d’alimenter les immenses pompes à flouze que sont les GAFA et Cie ? Plus on parle données et d’Intelligence Artificielle, plus on entend des sonnettes d’alarme se mettre en mouvement. 

Personnellement, je suis un complice et un innocent. Complice d’avoir accepté d’être un cobaye, de confier mes données, mes contenus, mes photos, mes sentiments qui, ajoutés à des centaines de millions d’autres, construisent certes des solutions pour l’instant favorables car porteuses d’innovations et a priori de réseautage social, mais potentiellement dangereuses. Que les GAFA et Cie et les états qui en sont à l’origine évoluent différemment et cela peut arriver à tout moment, au point de brider la liberté des citoyens du monde et nous serons cuits. Privés de liberté. Innocents de n’avoir pas entrevu plus tôt que les formidables machines à cash, masquées par d’excellents storytelling faisant presque paraître les GAFA pour d’aimables ONG, prennent l’ascendant sur tout. Pour le meilleur et pour le pire certainement. Je vous invite vraiment à prendre le temps de visionner ce documentaire et à le partager : Nothing to hide. Il fait froid dans l’échine et invite à la vigilance. 

Il n’y a pas que les GAFA, le monde avance

Bon après, rien n’est jamais perdu. Aux déclinistes qui ne cessent de nous indiquer que tout va de mal en pis, que la misère règne sur terre, rappelons quelques vérités : l’extrême pauvreté a diminué de manière spectaculaire dans le monde en 30 ans ! Allez dire à l’immensité majorité des Asiatiques que le monde s’est appauvri ! Une autre preuve avec le gros pavé de Steven Pinker : La part d’âge en nous, qui nous décrit par le menu que nous vivons dans l’époque la moins violente qui soit. Et le tourisme là-dedans ? 901 millions de visiteurs internationaux entre janvier et août 2017 : + 56 millions, soit +7%, pour la huitième année le tourisme international progresse. Et savez-vous où la progression est la plus forte ? En Afrique à +9% et en Europe à +8%. Côté émissions de CO2 et dégradation de notre planète, le chemin à parcourir dans les consciences et dans les faits est immense, même si de multiples initiatives sont salutaires comme par exemple les efforts de compensation carbone de Voyages du Monde partie prenante de Livelihoods Carbon Fund. L’autre vérité, c’est que 8 milliardaires dans le monde possèdent autant de richesses que la moitié de la population mondiale. Et qui sont-ils ? Tiens donc, ils contrôlent pour partie les GAFA.

Certes en 2050 ou 2060, on ne sait pas, saura-t-on un jour d’ailleurs, les gens avec un QI de moins de 150 ne serviront à rien nous annonce-t-on. J’inverse la supposition : les gens avec un QI supérieur à 150 serviront-ils encore avec l’IA ? Ou bien, l’indicateur de 150 et la définition du QI auront-elles encore un sens au regard de la rapidité d’assimilation et traitement de l’IA ? 

Ce que nous disent tous ces éléments d’horizons différents, c’est que nous ne savons pas anticiper. Mais ce qu’ils ne disent pas c’est qui ne sait pas anticiper ? Car j’ai le sentiment que les cerveaux des GAFA et les stratèges des états qui les abritent, eux, le savent. Les GAFA ont la main : s’ils nous coupent les accès, on est morts compte tenu de notre dépendance. Nous sommes donc asservis.

Mais tout n’est pas fini car je lis beaucoup en ce moment les innombrables articles qui sortent sur l’Intelligence Artificielle, ici en France et ailleurs. Et dans le même je me casse la voix avec ma Google Home qui n’est pour l’instant que sympathique. Quand les tâches sont programmées tout roule, dès qu’il y a de l’improvisation ou une recherche un peu fine les limites apparaissent bien vite. L’écrit sur le clavier ou la voix sur Google Chrome m’apportent pour l’instant plus que la Google Home qui semble surtout conçue pour compliquer des actions simples de domotique. Et pourtant Dieu sait si Google sait ! L’ultra-spécialisation voilà ce à quoi nous conduit le développement de l’Intelligence Artificielle. L’improvisation n’est pas de mise. Normal, l’improvisation c’est la liberté. Alors si vous voulez sauvez votre peau et celle de votre structure touristique, fuyez l’ordre avant de disparaître et jouez de l’improvisation. Autrement dit devenez artistes ! Foutez le bazar, créez de l’émotion, faites tomber les masques de l’accueil formaté.

Face à l’ordre gafaesque je ne vois que ça pour persister et trouver des voies singulières. Et m’est avis que les OGD, si elles veulent survivre, seraient bien inspirées de s’inventer des carrières artistiques au risque de disparaître. Avec la liberté artistique, une autre liberté consiste à vouloir faire à l’échelle locale, y compris dans l’exploitation des données car c’est là que ça se joue. Exemple : l’OGD du Door County dans le Wisconsin a misé sur l’analyse de ses données marchés pour redéfinir précisément les provenances et paniers de ses visiteurs et réorienter ses positions marketing. Et il l’explique dans ses éléments de communication sur sa page membership. Et les spectacles et les arts ont leur place dans sa promo car les locaux sont pris en compte comme étant des consommateurs touristiques. Regardez et écoutez la vidéo jointe, elle est assez exemplaire d’une démarche locale d’intelligence territoriale.

Amsterdam West et l’Intelligence Collective

Autre preuve de la créativité du local contre le global : l’initiative sociale d’Amsterdam West. Là, élus, fonctionnaires et citoyens bénévoles ont mis en place un tissu relationnel hors structure : le micro local, la base absolue, l’instantanéité et on fait remonter les idées et attentes à partir de zones jugées prioritaires. Ce n’est pas le territoire qui est couvert, mais des bouts décisifs, soit parce que laissés à l’abandon, soit très fréquentés. Les animateurs s’assoient sur des bancs et conversent avec les habitants. Les propos collectés sont confrontés à des analyses statistiques où les données prennent toute leur part. Les acteurs locaux sont ainsi directement en prise avec des réalités issues des bases de données et de la vie concrète exprimée. On parle alors et c’est un vieux concept, de l’effet spillover (engrenage) : les nécessités de la base incitent la création de réponses au plus haut niveau (perspective nommée bottom up). Dock.nl est l’un de ces outils d’animation, qui oeuvre notamment dans le quartier difficile de Landhurst pour faciliter les remontées directes et les réponses rapides qui impliquent la population, celle-ci constatant combien la critique est aisée mais l’apport de réponses concrètes difficile et lent à porter ses fruits. La démocratie locale y gagne. Et l’exemple de Livelihoods que j’ai déjà cité témoigne de l’intérêt du local face au mondial, du petit face au super-puissant.

Pour compléter vos lectures, de bien belles approches dans Méta-Media, le cahier de tendances médias de France Télévision. Quelques bribes qui peuvent illustrer mon propos : Amazon vient de s’étoffer de 160 000 salariés en trois mois et en compte 540 000, soit plus que la population de certains pays ! En situation de monopoles ces grands groupes (Google et Facebook ont une influence sur plus de 70% du trafic Internet) se sont enrichis des contenus créés par d’autres. Ils mettent à bas les organisations dites du passé par l’essor de services mondiaux, performants et peu onéreux. Je vous invite à lire ce bel article du non moins magnifique New Yorker. Devenez des havres de créativité, tant dans vos lieux physiques que dans vos actions quotidiennes, dans vos contenus et supports de diffusion, faites humains et complexes, faites localement, soyez artistes, c’est à dire libres, c’est notre seule voie pour rester vivants !

Ressources photos (à la une Amaury Salas – Unsplash ; en coeur d’article Victoria Palacios – Unsplash)

The post Tous artistes pour rester vivants appeared first on Etourisme.info.

Catégories: Veille et actualités

[Shiny M@rsouin] Publication des données de l'enquête Wikipédia 2015

Bretagne - MARSOUIN - mer, 13/12/2017 - 16:22

La plateforme de visualisation et d'analyse de données Shiny M@rsouin s'enrichit d'une nouvelle enquête. Elle est accessible via cette page Web en sélectionnant l'enquête "Wikipédia 2015" dans le menu déroulant "Quelle enquête ?" sur la partie gauche.

L'enquête nationale Wikipédia a été réalisée en 2015 par questionnaire en partenariat avec l'association Wikimédia France. Le questionnaire portait sur les usages des lecteurs de Wikipédia en français et à la valeur qu'ils accordent à l'encyclopédie en ligne.

16277 personnes ont répondu en ligne au questionnaire entre fin février et fin mars 2015. Celui-ci était accessible depuis un lien apposé en entête de l'encyclopédie Wikipedia pendant le mois de mars 2015. Retrouvez plus d'information sur l'enquête, ainsi que le questionnaire, en cliquant ici.

Les thématiques abordées sont les suivantes :

  • Les usages de l'encyclopédie Wikipédia
  • L'opinion sur Wikipédia et les informations qui y sont disponibles
  • La connaissance du fonctionnement de l'encyclopédie en ligne
  • Les contributeurs à Wikipédia
  • La disposition à aider financièrement Wikipédia
  • La disposition à payer un abonnement à Wikipédia

Téléchargement des données d'enquête
Au même titre que l'ensemble des enquêtes M@rsouin, la base de données Wikipédia 2015 ainsi que les éléments de visualisation graphique proposés sont mis à disposition gratuitement sur la plateforme Shiny M@rsouin. Seule une acceptation des conditions d'utilisation, telles que définies ci-après, est requise, en cochant la case à cet effet située en bas à gauche de l'encadré de renseignements des options sur la plateforme.

Conditions d'utilisations :
L'utilisateur s'engage à citer le GIS M@rsouin lors de la publication de résultats issus du traitement des données d'enquêtes M@rsouin ou de la plateforme Shiny M@rsouin, et à informer le GIS M@rsouin desdites publications. Aucune utilisation commerciale ne peut être faite de la plateforme ou des résultats.

Raphaël Suire : "La monétisation excessive de l'attention conduit-elle à l'addiction ? L'urgence à la déconnexion numérique"

Bretagne - MARSOUIN - mer, 13/12/2017 - 16:18

Raphaël Suire publie dans The Conversation un article intitulé "La monétisation excessive de l'attention conduit-elle à l'addiction ? L'urgence à la déconnexion numérique". L'article est disponible en ligne en cliquant ici.

Extrait : "Et soudain, de proche en proche, les ténors de la Silicon Valley se sont interrogés. Et si le modèle économique historique des marchands du numérique était en train d'échapper à ses concepteurs ? Un Frankestein qui ne dit pas encore son nom. En effet, la monétisation excessive de l'attention des usagers non seulement impose des dispositifs techniques et logiciels de plus en plus verrouillants, c'était connu, mais ils conduisent également au développement de pathologie addictive et c'est plus inquiétant."

Voir en ligne : Lire en ligne

Ne cherchez plus ! Le meilleur job du monde est à Cancún avec un poste de CEO (Cancun Experience Officer)

Blog e-tourisme - mer, 13/12/2017 - 10:00

Vous vous souvenez sans doute de l’incroyable succès du meilleur job du monde proposé par l’Office de Tourisme du Queensland en 2009 ?

Et bien cette année, le meilleur job du monde est à Cancún, au Mexique !

Une recherche sur le propriétaire du nom de domaine Cancun.com nous montre que c’est l’agence de voyage Viajes Beda S.A. de C.V. qui est l’instigatrice de cette opération de communication déguisée en recrutement, même si au final il s’agit bien d’un poste à pourvoir.

Un poste de CEO (Cancun Experience Officer)

Un poste de CEO (Cancun Experience Officer) est donc à pourvoir sur une durée de 6 mois renouvelables. Un clin d’oeil au Chief Executive Officer (Directeur Général) généralement utilisé pour ce sigle.

L’objectif ambitieux est de faire de Cancún l’une des premières destinations touristiques au monde. Parmi les missions confiées, il s’agit de créer des vidéos, raconter des histoires, partager des expériences en ligne (nager avec des requins, explorer la jungle, explorer d’anciens temples, etc.). La production de contenus et l’animation des réseaux sociaux sont au cœur du dispositif. En d’autres mots, il s’agit de devenir le Spielberg de la destination.

Cerise sur le gâteau, le salaire est au delà de tout entendement avec 8 500 euros par mois (10 000 dollars / mois). Ce qui peut paraître complètement déraisonnable voire même outrancier en comparaison avec les salaires moyens des mexicains. C’est un autre débat…

Aucune expérience requise, les candidats doivent simplement posséder un passeport, parler couramment anglais et être majeur.

Pour être l’heureux élu, il va falloir franchir toutes les étapes du recrutement :

  • La première consiste à réaliser une vidéo avec ses motivations, en 60 secondes maximum et en anglais. Les candidats sont invités à déposer leur vidéo sur la plateforme en ligne et à inviter quotidiennement leurs amis, followers, à voter pour eux.
  • Dans la deuxième étape, seulement les 100 meilleurs candidats seront retenus, puis 50.
  • Enfin 5 candidats seront sélectionnés en finale pour passer une semaine d’entretiens à Cancún. Avec la nomination du CEO pour le 31 janvier 2018 !
Un coup de pub pour l’agence de voyage en ligne

Simple calcul pour 6 mois, le coût de l’opération est de 51 000 euros (incluant seulement le salaire sans les frais de promotion de l’opération). On suivra attentivement les résultats de recrutement de fans et de likes. Si le coût peut paraître exorbitant, rapporté au coût final / fan, il pourrait s’avérer peut être plus intéressant qu’une campagne de recrutement classique sur les réseaux sociaux.

En seulement 70 publications sur 3 mois, le nombre d’abonnés et de likes sur Instagram a progressé considérablement. Idem pour la Page Facebook quasiment partie de rien. Il faut dire que les participants sont aussi jugés à leur capacité à faire du buzz autour de Cancun.com en mentionnant le compte de l’agence de voyage dans leurs propres publications relatives au “concours”.

Sources des statistiques avec Ink361

Merci à Marine Goutte, l’alsacienne de l’étape (c’est Paul Fabing qui va être content), pour m’avoir fait découvrir cette opération.

Bonne chance à elle !

Pour la remercier, c’est par ici pour voter quotidiennement sur sa vidéo :

https://ceo.cancun.com/profile/marine-goutte

 

The post Ne cherchez plus ! Le meilleur job du monde est à Cancún avec un poste de CEO (Cancun Experience Officer) appeared first on Etourisme.info.

Catégories: Veille et actualités

Du pistage de nos emails !

Internet Actu - mer, 13/12/2017 - 07:00

Sur Wired (@wired), Brian Merchant (@bcmerchant), l’auteur de L’appareil unique, l’histoire secrète de l’iPhone, revient en détail sur le développement du pistage de nos e-mails. Pour son enquête, il a utilisé Streak, un outil qui s’interface avec sa messagerie et qui permet à tout utilisateur de savoir si ses correspondants ont ouvert leurs e-mails. 40 % des e-mails envoyés seraient pistés, selon une étude faite par une entreprise qui propose des outils pour s’en protéger, One More Company, la société qui est derrière Senders et evercontact.

La technologie utilisée est très simple, elle consiste à insérer du code dans chaque e-mail ou une image invisible d’un pixel par un pixel, qui sera téléchargée dès que le destinataire ouvrira l’e-mail qui lui est adressé. Ce qui permet à l’expéditeur en retour de connaître à quel moment le mail a été lu, sur quel appareil, depuis quelle adresse IP et donc depuis quelle localisation. Autant d’informations qui permettent de savoir si une adresse e-mail est bien utilisée par le destinataire par exemple. Les services marketing utilisent cette technique depuis très longtemps pour connaître le taux d’ouverture de leurs courriers promotionnels. Mais, ils ne sont pas les seuls…

De plus en plus, souligne Merchant, le suivi d’email, comme on l’appelle poliment, n’est plus l’apanage des grandes entreprises. Des particuliers l’utilisent pour surveiller leurs collègues, leurs concurrents, leurs proches. Pour Florian Seroussi, le fondateur de One More Company, 19 % de tous les e-mails conversationnels (c’est-à-dire envoyés par nos relations directes) seraient désormais tracés, soit un e-mail sur 5. Comme le soulignent (.pdf) les chercheurs de Princeton, Steven Englehardt, Jeffrey Han et Arvind Narayanan du Centre pour la politique des technologies de l’information qui pilote un observatoire sur la collecte des données, aucun d’entre nous n’a jamais consenti à ce pistage. Ca n’empêche pas le pistage de se développer, non pas seulement pour valider les e-mails des destinataires ou suivre le taux d’ouverture, mais plus encore pour revendre des informations aux principaux exploiteurs de données que sont Acxiom et ses concurrents.

Pour Florian Seroussi, c’est le développement des liens sponsorisés dans Gmail qui a sonné comme un signal pour prendre d’assaut les boites mails des utilisateurs. Pour Andrei Afloarei, chercheur à Bitdefender, c’est plutôt le développement du spam qui a développé ces techniques, notamment pour pouvoir vendre des listes de mails validés. Aujourd’hui, ce sont les géants de l’internet qui utilisent le plus ces techniques, comme Amazon, Facebook ou Mailchimp. « Lorsque Facebook vous envoie un e-mail vous informant d’une nouvelle activité sur votre compte, il s’informe du lieu où vous êtes, de l’appareil que vous utilisez ou de la dernière photo que vous avez prise – il capte tout ».

Quand il travaillait sur son livre sur l’iPhone, Brian Merchant a installé Streak pour voir si les e-mails qu’il envoyait à des gens d’Apple sans obtenir de réponses étaient lus. Il pouvait même constater qu’ils étaient ouverts plusieurs fois, sur des machines différentes, et donc qu’ils étaient diffusés à l’intérieur d’Apple. Il a même envoyé un mail à Tim Cook, le PDG d’Apple qui a été lu immédiatement, sur une machine Windows (ce qui ne signifie pas que Cook ait nécessairement un ordinateur Windows, peut-être qu’il sous-traite sa correspondance privée à une firme dédiée).

Reste que tout un chacun peut apprendre par exemple où se trouve son correspondant via ces méthodes. En envoyant un message aux candidats aux élections américaines de 2016, il était ainsi possible de connaître les appareils qu’ils utilisaient, leur adresse IP et donc là où ils se trouvaient… On peut aussi déduire l’emploi du temps de quelqu’un selon l’heure où il ouvre ses e-mails. D’ailleurs Brian Merchant a aussi utilisé Streak pour suivre des proches… sans en tirer grande fierté.

Les chercheurs de Princeton soulignent enfin que le pistage de nos e-mails évolue. Ils ont étudié plus de 14 000 newsletters et mailing-list des sites et services les plus populaires du web pour montrer que 85 % contenaient des traceurs et que 30 % récupèrent nos adresses e-mails pour la revendre ou la diffuser ailleurs. Cela signifie que si vous souscrivez à une lettre d’information, même connue, il y a une chance sur 3 que le service marketing partage votre adresse avec des services tiers comme les data brokers, notamment si vous l’ouvrez ou si vous cliquez sur un des liens qui vous sont proposés qui disposent d’identifiants uniques pour savoir qui a cliqué.

Les outils de suivi de mails se démocratisent. Les protections aussi. Ugly Mail, PixelBlock, Senders… permettent d’identifier les courriels qui contiennent une image invisible voire d’empêcher de les ouvrir… et également d’identifier vos amis qui utilisent ces services. L’autre solution consiste à bloquer par défaut toute image dans votre messagerie. Radical, mais efficace. Sauf que les méthodes évoluent. Les systèmes peuvent aussi appeler des couleurs ou des polices de caractères spécifiques… ou des liens. Tout est bon pour vous tracer !

Pour John-Henry Scherck, consultant en marketing, il suffirait pourtant que Gmail décide d’informer un peu mieux les utilisateurs en mettant en lumière ces pratiques pour peut-être aider à prendre conscience du problème. Reste que, à moins que les fournisseurs de services décident où soient obligés de bloquer le pistage, le risque le plus probable est que celui se généralise totalement.

Catégories: Veille et actualités

Réguler par la donnée ?

Internet Actu - mar, 12/12/2017 - 07:00

L’entrepreneur et investisseur Nick Grossman (@nickgrossman), investisseur chez Union Square Venture défend depuis longtemps une régulation informée par la donnée, comme il l’explique dans plusieurs billets de son blog ou dans un plus long article (intitulé « Regulation, the internet way »), publié en 2015, pour Data Smart City Solutions (@datasmartcities), une initiative de la Harvard Kennedy School pour promouvoir une ville réactive aux données.

D’une régulation par l’autorisation à une régulation par la responsabilité ?

Pour lui, il est nécessaire de passer d’une régulation par la permission (et son corollaire, l’interdiction) à une régulation par la responsabilité informée par la donnée. Les plateformes du web ne sont pas tant des plateformes que des « moteurs pour la régulation », expliquait-il au Personal Democracy Forum de 2016 (vidéo, présentation), et ces moteurs de régulation vont directement impacter la manière dont le secteur public pratique la régulation.

Dans le système de régulation traditionnel, explique-t-il, une entreprise ou un individu doivent demander une autorisation, comme c’est le cas des licences de taxis ou des permis de construire. Pour cela, ils doivent apporter une foule de documents, pour prouver qui ils sont ou expliquer ce qu’ils vont faire. Une fois accordée, une surveillance légère est parfois opérée, mais la plupart du temps aucune donnée ne vient informer le régulateur.


Image : la matrice de la régulation par Nick Grossman, de la régulation par l’autorisation à la régulation par la responsabilité.

Dans le monde des plateformes, la régulation se pratique totalement différemment. Il est très simple de devenir un vendeur sur eBay ou un conducteur pour Uber. Par contre, beaucoup de données sont collectées : la surveillance comme la responsabilité sont assez strictes, encadrées et continues. Pour Grossman, la différence entre ces modèles nous fait passer d’une régulation par l’autorisation à une régulation par la responsabilité. Pour lui, c’est là une innovation qui rejoint le nouveau paradigme que décrit Carlota Perez à savoir le paradigme de l’âge de l’information (qui succède aux paradigmes de l’âge du pétrole, de l’électricité et de la vapeur…). Chaque âge a apporté son lot d’innovations spécifiques, non seulement technologiques, mais plus encore en matière de législation et de régulation. Il en conclut que les données apportent des réponses pour transformer nos pratiques de régulation.

En connaissant mieux le trafic automobile par exemple, grâce aux données des plateformes de véhicules avec chauffeurs, de covoiturage ou de GPS communautaire on peut imaginer de nouvelles formes de régulation. Comme en connaissant mieux la boulangerie on peut adapter l’offre (c’est ce que font les plateformes en s’adaptant sans cesse à leurs utilisateurs) mais également la régulation (puisqu’on connaît l’activité des utilisateurs).

Comment expérimenter la politique conduite par la donnée ?

Grossman défend activement une régulation informée par la donnée – ce qu’il appelle « la politique conduite par la donnée » (data-driven policy) – qui imagine que les règles qui s’imposent à tous soient construites sur de l’information statistique pour rétroagir sur la société elle-même. Reste que pour aboutir à cette forme applicative de l’ingénierie sociale, le problème est bien sûr de pouvoir avoir accès aux données, de les partager, entre citoyens, entreprises et autorités et également de trouver les modalités communes de leurs usages.

Mais c’est loin d’être le cas. « Les plateformes sont comme de petites dictatures qui édictent leurs propres règles », rappelle-t-il. Difficile pour les autorités publiques d’avoir accès à ces données, d’autant que tous les accès aux données ne sont pas nécessairement de confiance (comme nous le pointions dans notre article sur les limites à la loyauté des plateformes). Sans compter également que toutes les autorités ne sont pas équivalentes : quand le FBI veut avoir accès aux données des Gafa, ce n’est pas la même chose que quand une ville veut avoir accès aux données de ceux qui organisent du transport ou du logement sur son territoire. Rendre accessibles les données nécessite donc d’imaginer et de construire des formes de régulation (la carotte et le bâton), en partie parce que la valeur de ce partage est loin d’être toujours claire (et ce d’autant plus que ce partage pose des questions de confidentialité et de concurrence). Plutôt que de trouver une solution magique à cette tension, Grossman demeure pragmatique : pour promouvoir de nouvelles formes de transparence, le mieux est encore d’expérimenter, afin de trouver, pour chaque cas, les bonnes modalités de mise à disposition des données, de partage, de valeurs…

Nick Grossman évoque deux exemples en démonstration de sa thèse : Airmap, un système de gestion du trafic aérien sans pilote qui facilite l’échange de données et le contrôle du trafic aérien pour les drones (signalons d’ailleurs que le Secrétariat d’Etat à la modernisation de l’action publique vient de lancer une plateforme assez similaire, drone.beta.gouv.fr). Une plateforme de régulation qui fait le lien entre les pilotes et les autorités, en développant par exemple de la géo-identification pour interdire certains espaces aux drones ou favoriser leur identification par les autorités. Une plateforme qui a le potentiel de créer une régulation adaptée aux utilisateurs depuis les données que les pilotes et les constructeurs partagent. Grossman espère que nous allons voir se démultiplier ce type de plateformes très spécifiques, « verticales », permettant aux différents acteurs de discuter entre eux, très concrètement, par le partage de données.


Image : la carte des drones, avec ses zones de régulation, via drone.beta.gouv.fr.

D’autres plateformes, plus horizontales, permettant de mieux partager des données et de mieux les protéger par exemple devraient également voir le jour, estime l’investisseur, en évoquant Enigma (né au MIT) et le chiffrement homomorphe qui permettent d’interroger les données et de faire des calculs tout en les laissant chiffrées. Une solution technique qui permettrait par exemple de mieux partager des données sans que les systèmes y accèdent en détail tout en leur permettant de les interroger à leur gré. Un exemple éminemment vertueux à nouveau, même si cette opacité sur les données générée par le chiffrement pose aussi des questions sur la validité des données partagées.

Des limites de la « politique conduite par la donnée »

En fait, contrairement à ce qu’avance Grossman, la régulation amont (la licence, l’autorisation ou leur contraire, l’amende…) ne recoupe pas nécessairement le périmètre sur lequel agit la régulation par les données. En fait, les deux formes ne s’opposent pas tant qu’elles se complètent, avec des objectifs et des modalités distinctes. Surveiller la construction des immeubles n’est pas la même chose que leur donner une autorisation de construction selon le respect des critères auxquels les constructeurs doivent se conformer avant la construction. La régulation par les données ne pourra peut-être pas s’appliquer partout et pour tout. L’instauration de boucle de rétroaction vertueuse nécessite de la transparence et du dialogue pour peaufiner les critères (évaluer et surveiller dans le temps leur pertinence) comme le soulignait très bien Cathy O’Neil.

Autre problème : les plateformes sont très fragmentées, ce qui pose la question de l’agrégation des données multiples, pas forcément compatibles entre elles, de leur coordination et de la gestion de cette coordination, comme nous le soulignions déjà. Enfin, autre écueil et non des moindres : la question de la validité et de la pertinence des données. Les politiques conduites par la donnée posent la question des données utilisées et introduisent le risque d’un facile datasolutionnisme, produisant des indicateurs et des politiques depuis des données peu adaptées à cela. Or, tous les problèmes ne sont ni visibles ni solubles dans les données. L’enjeu n’est pas tant de conduire des politiques depuis les données, de produire une régulation à la demande, que de trouver dans les données des modalités de rétroaction vertueuses. D’où l’appel de Grossman à expérimenter, à jouer du « bac à sable réglementaire » pour trouver les modalités effectives du partage des données et des formes de régulation.

Reste que « la politique conduite par la donnée » pose bien d’autres problèmes encore. Démultiplier les données n’abolit pas les choix politiques comme de savoir quelles données et quels critères sont utilisés pour la régulation. A l’image du débat actuel sur les prérequis attendus des lycéens pour postuler dans les formations universitaires : si l’on demande des notes ou compétences minimum, reste à savoir lesquelles, comment et par qui elles sont déterminées et évaluées. Si vous devez avoir au moins un 13 dans telle matière pour concourir à telle formation, comment est calculée cette note ? Est-ce celle des premiers trimestres de terminale ou celle du du Bac ? Est-ce que ce prérequis est calculé depuis les résultats des précédents candidats (aucun de ceux qui sont allés dans cette formation n’ont réussi avec moins de 13 dans cette matière) ? Avec le risque bien sûr, que les critères choisis s’auto-renforcent. Enfin bien sûr, les systèmes automatisés posent la question des possibilités de recours…

Le problème de l’accès aux données n’est pas non plus un petit problème. Même si cet accès était facilement possible, cela ne signifie pas pour autant qu’il soit loyal, comme le soulignait les activistes Murray Cox et Tom Slee en montrant qu’Airbnb ne donnait pas accès à toutes ses données comme les problèmes de manipulation de données d’Uber. A Bordeaux, l’Observatoire Airbnb monté par un élu local, Matthieu Rouveyre, pointe également toutes les limites de confier des formes régulatoires aux plateformes. En fait, l’une des questions de fond que pose « la politique conduite par la donnée » est que bien souvent elle repose sur la nécessaire fusion de la plateforme et de la politique, avec le risque d’être juge et parti. Une perspective qui pose une question de régulation intrinsèque : comment séparer ces deux perspectives dans des outils, qui par nature, tirent leur force de cette double capacité ? Or, nos modalités démocratiques ont toujours veillé à distinguer les pouvoirs. Les plateformes de données, par essence, proposent à la fois des modalités où la mise en oeuvre, le contrôle et l’autorité sont interdépendants, un peu comme si les pouvoirs législatifs, exécutifs et judiciaires procédaient d’une seule et même entité. L’extension de l’action aux données elles-mêmes que recouvre l’enjeu des politiques conduites par les données pose la question de leur contrôle démocratique. Le risque est que mesures et données deviennent performatives, les plateformes deviennent productrices de leurs propres règles favorisant à terme un mandat impératif et une société sans pouvoir.

Le risque d’une Gouvernance par les nombres, soulignait le juriste Alain Supiot dans son ouvrage éponyme, est que la régulation par la donnée transforme la politique en simple fonctionnement, que les mesures et les critères de performances qu’elle produit devienne le critère de la gouvernance. Le risque que cela induit est que le système produise sa propre optimisation depuis des critères retenus sans grand contrôle démocratique et sans séparation des pouvoirs entre le système et la régulation qu’elle produit. Le calcul devient autoréférentiel, produisant à la fois des indicateurs, la mesure et son but.

Quand les machines servent à la fois à rendre compte, à administrer, juger et légiférer… le risque est de voir fusionner la satisfaction des indicateurs et la réalisation des objectifs au détriment de tout contrôle démocratique par ceux qui sont calculés, administrés, jugés et ainsi légiférés.

Hubert Guillaud

Catégories: Veille et actualités

[Séminaire] De la captation à l'archivage des données de recherche : écosystème numérique et bonnes pratiques

Bretagne - MARSOUIN - jeu, 07/12/2017 - 12:02

Le quatrième séminaire du cycle de rencontres autour du traitement et de l'analyse de données quantitatives en SHS se tiendra le jeudi 21 décembre 2017 de 14h00 à 16h00 dans la salle C206 à l'UFR des Lettres et Sciences Humaines à Brest.

Vous pouvez retrouver l'ensemble du programme de l'année, ainsi que le détail des précédentes interventions, sur le carnet hypothèses dédié. Les Outils du Quanti en Sciences Humaines et Sociales : https://outiquanti.hypotheses.org/

Organisation : Nicole Roux, Laurent Mell, Jean-Baptiste Pressac, Aurélie Seznec, Sarah Bellemare

Contacts et inscription : laurent.mell@univ-brest.fr

Voir en ligne : Page dédiée au séminaire

Quelles compétences numériques ont les Français ?

Bretagne - MARSOUIN - mer, 06/12/2017 - 16:58

À travers ce travail, nous proposons une nouvelle exploration des données de l'enquête Capacity en focalisant notre attention sur les questions portant sur les compétences numériques.

[Appel à projets] Appel à projets 2018 de la plateforme Loustic

Bretagne - MARSOUIN - mer, 06/12/2017 - 11:59

L'appel à projets 2018 de la plateforme Loustic est à présent ouvert. Il concerne des projets de recherche collaboratifs dans le champ des usages et de la conception centrée utilisateur des technologies de l'information et de la communication.

La durée de ces projets est généralement de 12 mois et ils doivent impliquer au moins une des équipes de recherche de la plateforme Loustic ne finance pas directement les projets de recherche, mais peut mettre à disposition des moyens techniques (par exemple en attribuant pour une période donnée une salle de test ou des matériels) ou humains (par exemple sous forme de temps d'ingénieur ou de stagiaires). La plateforme peut également mettre à disposition des projets sa base de testeurs rregroupant plus de 1700 personnes de profils variés habitant dans la région rennaise). Toutefois, pour des raisons liées au mode de financement de la plateforme, la gratification des testeurs devra être prise en charge par les porteurs de projet. Les projets financés par d'autres appels à projets (MSHB, GIS M@rsouin, Pôle de compétitivité, ANR, etc.) peuvent être soumis à la plateforme.

Ces projets seront examinés par le comité de pilotage de Loustic en janvier 2018. Les projets privilégiant une approche pluridisciplinaireet/ou impliquant plusieurs équipes de Loustic seront considérés comme prioritaires. Les doctorants sont encouragés à soumettre des projets même s'ils ne remplissent pas toutes ces conditions. Les responsables des projets validés par le comité de pilotage s'engagent à remettre en fin de projet un rapport scientifique synthétique.

Les fiches projet sont téléchargeables ici : http://www.loustic.net/actualite

Les fiches projet complétées sont à renvoyer à Eric Jamet et Sylvain Fleury avant le 08/01/2018.

Voir en ligne : Fiches projets

Chartblocks : retour aux fondamentaux du graphique

Blog e-tourisme - mer, 06/12/2017 - 07:00

Petite réflexion du jour suite à mon intervention en analyse statistique devant des étudiants aux yeux écarquillés quand je leur explique que la graphique, la science de la représentation visuelle de données statistiques, répond à des règles précises. Non, on ne représente pas tout et n’importe quoi et surtout pas n’importe comment.

C’est pourtant un des maux du monde professionnel que de produire à tout va des graphiques qui n’ont pas de sens, parce qu’il faut occuper la prochaine réunion et qu’il n’y a rien de mieux que de montrer tous les talents que l’on peut déployer avec Excel (ou LibreOffice). Que celui qui n’est jamais sorti de réunion le front plissé à essayer de comprendre pourquoi on vous a présenté un diagramme circulaire me jette la première pierre. Soit le graphique n’ajoute aucune valeur aux données que l’on communique (autant communiquer le tableau brut). Soit c’est un non-sens dans l’analyse que l’on propose. Par exemple:

Le Tumblr WTF Visualization regorge d’exemples farfelus

“The greatest value of a picture is when it forces us to notice what we never expected to see”, John Tukey. Pour traduire la pensée de ce statisticien américain on dira que la grande force d’un graphique, c’est d’amener à remarquer ce que l’on ne se serait jamais attendu à voir. C’est dans une certaine manière le cas dans l’exemple ci-dessus puisque sur un diagramme circulaire censé représenter une surface de 100%, on peut y loger 380% à contre-courant de toute loi mathématique.

Je ne vais pas m’étendre ici sur les règles de base de la construction d’un graphique, ce n’est pas mon propos. En revanche, j’en viens à mon outil du jour : Chartblocks. Pour faire court, c’est l’anti-Excel : on manipule facilement les données que l’on veut représenter et les modèles de graphique ne sont pas pléthoriques donc on va à l’essentiel (pas de gadgets comme la 3D ou l’éclatement du diagramme). Bref, c’est une application qui répond parfaitement aux attentes du graphique : communiquer simplement sur une série statistique. Petit tour de l’interface.

L’épure domine sur l’ensemble du site, il est donc très intuitif. 1ère étape, renseigner une série de données. Plusieurs options se présentent : rentrer les données brutes sur le tableur intégré ou téléverser un fichier pré-existant.

L’application est encore en version bêta et on pourra prochainement gérer des flux Twitter, espérons Google pour récupérer les résultats d’enquête issus de Form. On pourra également agréger une base de données  (SQL, Oracle, etc.) pour alimenter l’application.

Ci-dessus, les options des différentes séries (à droite) mettent en surbrillance la série de données (à gauche). On sélectionne facilement la série qui nous intéresse. On applique variable et effectifs en abscisse et ordonnée aussi aisément. C’est l’étape que je trouve toujours pénible sous Excel (depuis la version 3, soit en 1991) lorsque la fenêtre de sélection des données s’ouvre sur les données même que l’on veut sélectionner.

Viens l’étape de choix du type de graphique.

Vous remarquez la différence avec Excel là aussi : diagramme en bâton, histogramme, courbe, aire, nuage de points ou diagramme circulaire. Rien de farfelu qui polluerait la lecture de l’information.

Dernière étape, le graphique est affiché et le menu de gauche permet d’opérer quelques retouches esthétiques pour la présentation: orientation, couleurs (fond, effectifs représentés); on affine également le fond (titre, légende, valeur des variables, échelle, etc.).

Les tarifs:

C’est donc un outil complet dès la version freemium. Certains d’entre vous seront peut-être limités de ne pouvoir télécharger leur œuvre qu’au format .png. Toutefois, l’application offre la possibilité d’héberger jusqu’à 50 feuilles de calcul et créer 30 graphiques en ligne. J’ai été convaincu par l’efficacité du produit. Vos retours sont bien entendu les bienvenus, c’est la fin de l’année et l’heure de vos bilans statistiques.

Petit aparté, je vous invite à parcourir le Tumblr de WTF Visualization pour vous interroger sur la pertinence de tel ou tel graphique… et rire un peu.

Un dernier pour la route, si vous n’avez rien compris au Bitcoin ceci ne vous aidera pas.

The post Chartblocks : retour aux fondamentaux du graphique appeared first on Etourisme.info.

Catégories: Veille et actualités

Le niveau des discussions politiques a (encore) baissé

Internet Actu - mer, 06/12/2017 - 07:00

Vous pensez que la qualité des discussions politiques (notamment en ligne) ne cesse de se dégrader ? Mais s’agit-il d’une simple impression subjective, ou cela traduit-il une réalité ? Selon une étude dirigée par Rishab Nithyanand (@rishabn_) de l’institut Data & Society (@datasociety), et rapportée par le New Scientist (@newscientist), il semblerait bien que le niveau des discussions, déjà pas très élevé, ait atteint de nouveaux abîmes…

Les chercheurs ont pris Reddit comme objet de leur analyse. Pourquoi Reddit ? Parce que, nous explique le New Scientist, les commentaires peuvent être plus longs que les proverbiaux 140 (pardon, 280) caractères de Twitter. Et, contrairement à Facebook, on n’est pas obligé de dévoiler son identité sur Reddit, ce qui garantit une plus grande liberté de ton.

Ont donc été analysés pas moins de 3,5 milliards de commentaires publiés par 25,3 millions de personnes entre 2007 et 2017. Ces données étaient divisées en deux groupes : l’un était composé des commentaires sur des sujets non politiques, et l’autre, on l’aura deviné, regroupait toutes les discussions portant sur ce domaine.

Résultat, les usagers des forums politiques utilisaient 35 % de termes agressifs en plus que les auteurs de commentaires non politiques. Et cette tendance s’est montrée encore plus forte entre mai 2016 et mai 2017 (donc, la période englobant la campagne présidentielle américaine et les premiers mois de Donald Trump à la Maison-Blanche) que pendant toutes les autres années.

Les chercheurs ont également analysé le niveau de complexité des messages en utilisant un test éprouvé, celui de Flesch–Kincaid. Ils ont découvert que le niveau global des commentaires était passé du niveau d’un adolescent de 12 ans (ce qui n’était déjà pas terrible) à celui d’un enfant de 6 ans au cours des dernières années.

Quelle peut être la cause d’une telle dégradation ? Cela peut s’expliquer par plusieurs raisons : ainsi, l’équipe a repéré l’arrivée d’un grand nombre de nouveaux utilisateurs Reddit qui auront peut être contribué à dégrader la qualité du discours. Il est également possible que des extrémistes, qui ne postaient pas jusqu’ici sur des sites « mainstream », se soient mis à y participer, donnant ainsi un tour plus violent aux conversations. Autre possibilité, plus inattendue : qu’un grand nombre des posts aient été effectués par des robots. Comme l’a rappelé Nithyanand au New Scientist, c’est une pratique qui s’est déjà largement développée sur Twitter : « pendant le Brexit, ils ont juste retweeté des propos en faveur du camp de Leave… Lors des élections américaines, il s’est agi d’une campagne de propagande complète, qui a excité les gens et alimenté un feu d’insultes partisanes. »

Et quel est le rôle de Trump dans tout ça ? Pour Nithyanand, on ne peut pas déduire avec certitude un rapport de cause à effet entre son accession au pouvoir et la dégradation du discours (ou l’inverse). Mais tout de même, précise-t-il, « L’étude montre une forte corrélation entre la montée de la popularité de Trump et une augmentation de l’agressivité… Les politiciens de haut niveau ont la responsabilité de rester plus civils, parce que les gens imitent leur comportement. »

Catégories: Veille et actualités

GPS : de la valeur par défaut

Internet Actu - mar, 05/12/2017 - 15:42

Sur son blog, Michael Verdi (@michaelverdi), designer pour Firefox, pointe un excellent exemple des ambiguïtés des architectures de choix décidées par-devers nous.

Michael possède un véhicule hybride, une Chevrolet Volt. Pour surveiller sa consommation électrique, il dispose d’un tableau de bord précis qui lui montre par exemple que sa batterie se vide bien plus rapidement lorsqu’il roule plus vite, à 120 qu’à 100 km/h. Or, il a remarqué que les GPS qu’il utilise ont toujours tendance à lui proposer les itinéraires les plus rapides, c’est-à-dire ceux qui passent par les voies les plus rapides. Pour se rendre à son restaurant préféré, Apple Maps et Google Maps l’envoient tous les deux sur la voie rapide, lui faisant faire des itinéraires entre 14 et 12 kilomètres. Or, s’il prend la route la plus courte, sans passer par les voies rapides, il ne fait que 8 kilomètres, mais met 1 à 2 minutes de plus. Or, a-t-il calculé, s’il utilise la route la plus rapide et qu’il va plus vite, sa voiture va consommer bien plus d’énergie que s’il prend la route la plus courte. Il échafaude ensuite, via un rapide calcul, que baser les GPS par défaut sur l’économie d’énergie plutôt que la vitesse permettrait d’enlever de la circulation l’équivalent annuel de quelque 800 000 voitures aux États-Unis.

Qu’en serait-il si les GPS de voiture, par défaut, nous montraient les itinéraires les plus respectueux de la planète, les plus économes en énergie, ou les plus respectueux de nos portefeuilles ? Chiche ?

Catégories: Veille et actualités

[Conférence] Faut-il avoir peur de l'économie numérique ?

Bretagne - MARSOUIN - mar, 05/12/2017 - 09:26

Thierry Pénard, chercheur au CREM et co-directeur du GIS M@rsouin, donnera une conférence intitulée "Faut-il avoir peur de l'économie numérique ?" le 9 décembre 2017 de 15h00 à 17h00 dans l'Auditorium - Médiathèque François Mitterrand à Lorient.

"Google, Amazon, Facebook, Apple, ces quatre entreprises dont la valorisation boursière est équivalente au PIB de la France, sont emblématiques de la révolution numérique que nous vivons. Cette révolution amène de nouveaux modes de production et de consommation, de nouvelles formes d'organisation et de sociabilité. Tous les secteurs d'activité sont concernés par ces transformations numériques. Si les consommateurs se réjouissent d'accéder à de nouveaux services et applications, les entreprises et les salariés sont plus inquiets. Les premières redoutent d'être « uberisées » et les seconds de perdre leur emploi.
Faut-il avoir peur du numérique ? Quel sera l'impact de la révolution numérique sur la société ? Comment réguler l'économie numérique ?"

Voir en ligne : Page de la conférence

De l’automatisation des relations… à notre propre automatisation

Internet Actu - mar, 05/12/2017 - 07:00

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan Polgar (@techethicist) pour Quartz. Mais leur efficacité s’avance sous le masque de la duplicité. Et le risque à venir, à mesure que cette automatisation va investir tous nos outils, est que nous ne sachions bientôt plus à qui nous nous adressons, s’inquiète le journaliste. Avec les e-mails personnalisés, par exemple, le récepteur pense recevoir un message de l’expéditeur, quand il ne communique qu’avec la « marionnette » de l’expéditeur, un programme qui le plus souvent, ne donne pas accès à l’expéditeur (comme le rappellent les messages du type : « Nous vous informons que les messages reçus sur cette adresse e-mail ne sont pas pris en charge » ou « Merci de ne pas répondre à ce message »).

Pour David Polgar, le développement de l’automatisation de portions significatives de nos communications, en les présentant comme réelles, relève indubitablement de la tromperie.

En fait, explique-t-il, ces systèmes automatisés visent à nous aider à élargir le sentiment d’intimité à l’heure où les outils numériques nous permettent d’entretenir de plus en plus de relations. Au lieu de réduire ou limiter nos relations ou d’être transparents sur l’utilisation d’outils automatisés, nous nous dotons de bots, de « marionnettes », censées nous représenter pour démultiplier et entretenir nos relations. Mais cette communication via des bots, qui se présente comme authentique, n’est pas une forme inoffensive d’efficacité communicationnelle : elle méconnaît complètement les qualités fondamentales des relations. Les relations sont construites sur la réciprocité de temps ou d’énergie émotionnelle. Communiquer avec autrui via des systèmes automatisés en faisant croire à un investissement authentique tient donc plus de la duperie qu’autre chose. David Polgar explique ainsi avoir reçu un message automatique personnalisé après s’être abonné à une personne sur Twitter. Un message qu’il a trouvé plus offensant qu’efficace. Le problème estime-t-il, c’est que si nous sommes prêts à utiliser des outils de communication automatisés pour faire passer nos propres relations à l’échelle, nous sommes beaucoup moins enclins à accepter qu’on utilise ces mêmes outils sur nous. Le risque à terme, c’est celui d’une course à des relations complètement automatisées, produisant une communication sans fin et sans frictions… mais entièrement inutiles.

Dans un autre article sur le même sujet écrit pour l’un des blogs d’IBM, David Polgar rappelle d’ailleurs que le test de Turing lui-même, ce Graal de la mesure de l’intelligence artificielle, a pour principe l’imitation : l’intelligence pour Turing consistait à ce que la machine parvienne à se faire passer pour un humain. Pas sûr pourtant que le fait de confier notre communication à des machines représente une grande avancée. Ici, il prend l’exemple de Linked-in qui propose d’envoyer des messages standardisés à ses relations par exemple pour les féliciter de leur anniversaire de travail (un concept qui semble lui aussi provenir des profondeurs de la simplification automatique). Comme dans le cas du rituel des anniversaires sur Facebook, de plus en plus souvent, nous pouvons attacher des messages à nos avatars en ligne, des messages qui se veulent pleins d’humanité, mais qui sont en fait dépouillés de toute humanité, puisqu’ils peuvent être rédigés et adressés sans aucune intervention humaine. Pour la psychologue Liraz Margalit, responsable de la recherche comportementale chez Clicktale, le problème est qu’en prenant l’habitude d’interagir avec des robots, nous réintroduisons dans nos rapports avec des humains des modèles que nous développons dans nos interactions automatisées.

Pour le philosophe Evan Selinger (@evanselinger), responsable des recherches et de l’éthique du Centre pour les médias, les arts, les jeux, l’interaction et la créativité du Rochester Institute of Technology, le développement de nos « liens faibles » qu’entretiennent les réseaux numériques, nous poussent à une communication succincte. « Nous subissons collectivement l’attraction d’adopter des styles de communication marchandisés ». « Quand notre comportement communicatif est conçu pour devenir plus automatique que délibératif, nous pouvons avoir l’impression que c’est notre humanité même qui s’effondre », explique encore Selinger.

Evan Selinger et le juriste Brett Frischmann (@brettfrischmann), qui publieront au printemps 2018 Re-Engineering Humanity, ont récemment produit une réflexion sur une forme de test de Turing inversé, pour tenter d’évaluer nos différents niveaux d’intentionnalité. Pour Selinger et Frischmann, le monde ne se sépare plus seulement entre humains et robots, mais se complexifie d’« humains botifiés » et de « bots humanisés ». Pour les chercheurs, c’est à nous de rester conscients de la manière dont nous communiquons. Tout l’enjeu, expliquent-ils, consiste à mesurer si la technologie augmente ou diminue notre humanité. Sommes-nous en train d’être reprogrammés par les machines ? Selon eux, il nous faut une méthode pour comprendre la valeur des dynamiques relationnelles qui se tissent entre machines et humains. Pour cela, si on mesure l’humanité des machines, il nous faut en regard tenter d’évaluer quand et comment nous nous comportons comme des machines.

Pour eux, la question de savoir ce que signifie être humain face aux machines n’est plus si triviale. Nous ne devrions pas tant avoir peur des robots, que d’avoir peur de devenir nous-mêmes des robots, expliquent-ils. « Il nous faut introduire des valeurs humaines dans la technologie plutôt que la technologie n’introduise ses valeurs dans notre humanité ». Pour cela, il faut être capable de mesurer quand une technologie est déshumanisante ou quand les humains ne pensent pas ou ne se comportement pas en humains.

Comme le soulignait les deux auteurs dans une tribune pour le Guardian, l’enjeu n’est peut-être pas tant de savoir si les robots vont prendre notre travail que de savoir si leur démultiplication ne va pas nous transformer en robots, nous « saper de notre humanité ». Depuis les chaînes de montage de Taylor où les humains se livrent à des tâches répétitives de robots, les hommes sont devenus des rouages de machines programmables. Et la version moderne et numérique du taylorisme est plus puissante et plus déshumanisante que jamais. Avec le Big Data, le taylorisme s’est propagé bien au-delà de l’usine. Des livreurs à vélo aux chauffeurs de voitures qui doivent suivre à la lettre les instructions des machines… partout les humains sont surveillés, monitorés, suivis, tracés, synchronisés, conduits par des capteurs qui mesurent tout, de leurs emplacements permanents à leurs performances. Comme le soulignent certains chercheurs, comme Karen Levy (qui a étudié par exemple la surveillance dans les lieux de travail hypermasculins), les systèmes de gestion intenses réduisent l’autonomie des travailleurs, accroissent les cadences… et donc leurs effets psychosociaux, comme la perte de sommeil.

Pour les auteurs, ce n’est pas seulement que l’intensité de la surveillance s’est accrue, c’est aussi qu’elle s’est dissimulée partout : dans les outils que les employés utilisent, dans les caméras de surveillance, dans les logiciels qu’ils utilisent… Surtout concluent-ils, si sur le papier transformer les humains en machine semble produire de l’efficacité, rien n’est moins sûr (à tout le moins, si c’est le cas, c’est sans mesurer les coûts sociaux et les contreparties qui ne sont pas assumées par ceux qui mettent en place ces techniques).

La déshumanisation n’est pas seulement imputable à l’utilisation croissante de la technologie, expliquent-ils encore dans un autre article pour Quartz. Nous sommes trop confiants et dépendants des développements technologiques et nous supposons donc que chaque nouvelle technologie est bénéfique par nature. L’efficacité également alimente notre engouement : or, être humain est parfois coûteux, notamment en terme d’efficacité. L’optimisation ne peut pas tout.


Vidéo : Sur We Make Money Not Art, Regine Debatty revenait sur le festival DocLab à Amsterdam dont le thème était justement « est-ce que les robots nous imitent ou imitons-nous les robots ? » Elle évoquait notamment le dernier projet de Superflux et Mozilla, mené par Brett Gaylor, le réalisateur du documentaire Do Not Track, Nos amis électroniques (vidéo), une critique des interfaces vocales qui nous rendent fous en nous demandant, comme le feraient des enfants, les raisons à ce qu’on leur demande de faire.

Catégories: Veille et actualités

Pages