Fils RSS agrégés

[Tribune] Enfants face aux écrans, « ne cédons pas à la démagogie » : une tribune publiée par Le Monde co-signée par Pascal Plantard

Bretagne - MARSOUIN - lun, 19/02/2018 - 17:41

Pascal Plantard, co-directeur du GIS M@rsouin, co-signe avec des professionnels du soin, de la prévention, et d'autres chercheurs, une tribune publiée le 14 février 2018 par le journal Le Monde.

Ils y mettent en garde contre le caractère alarmiste, voire sensationnaliste, du message délivré par certains médias, qui n'est utile en rien dans la prévention des risques liés à la surexposition des enfants aux écrans.

La tribune est en ligne sur le site du Monde : pour y accéder, cliquez ici

Extrait (source : Le Monde, 14/02/2018)
"[...] Conscients des dangers des écrans chez les plus jeunes, nous souhaitons pourtant témoigner de nos inquiétudes face aux affirmations erronées dont certains médias se font l'écho, notamment dans le reportage d'« Envoyé spécial » « Accros aux écrans » (18 janvier, France 2).

[...] [U]n enfant laissé de façon aussi importante devant un récepteur est de facto victime d'une carence éducative et/ou affective grave. Si la régulation de cette consommation est indispensable, elle ne suffira en aucun cas à compenser l'ensemble des effets du défaut de soins sur le développement de l'enfant. A l'évidence de telles situations requièrent une prise en charge pluridisciplinaire rapide et conséquente.

Par ailleurs, aucune étude à ce jour ne permet d'établir une relation de causalité entre consommation d'écrans et autisme. [...]"

Voir en ligne : Lire la tribune sur le site du Monde

[Colloque] Tourism and the digital revolution : New practices, behaviours and reshaping of the tourism offer

Bretagne - MARSOUIN - ven, 16/02/2018 - 12:12

Marie Delaplace (UPEM lab'Urba) et P-O. Schut (UPEM, ACP) du groupe tourisme du Labex Futurs urbains organisent une session spéciale dans le cadre du congrès de l'ERSA (28-31/8 à Cork), S20. Tourism and the digital revolution : New practices, behaviours and reshaping of the tourism offer

Les résumés sont attendus avant le 28 février 2018.Voici le lien vers la plateforme de soumission des résumés : https://ersa.eventsair.com/PresentationPortal/58th-ersa-congress-cork-28-31-august-2018/sa

Tourism and the digital revolution : New practices, behaviours and reshaping of the tourism offer
Voir en ligne : Site du congrès

Septième séminaire sur l'analyse de données quantitatives en SHS - IRaMuTeQ

Bretagne - MARSOUIN - ven, 16/02/2018 - 12:07

La prochaine séance du cycle de rencontres autour du traitement et de l'analyse de données quantitatives en SHS se tiendra le vendredi 2 mars 2018 de 14h00 à 16h00.

Ce séminaire pourra être suivi sur 2 sites :

  • En présentiel en salle TD1 (2ème étage) au Pôle Numérique Brest Bouguen (PN2B) à Brest ;
  • À distance en salle TD1 (1er étage) au Pôle Numérique Rennes Villejean (PNRV) à Rennes.

Le séminaire s'articulera autour de l'intervention suivante :
Sarah BELLEMARE et Julien MICHON
"IRaMuteQ : De la découverte à la pratique d'un outil polyvalent dans le champ d'étude des représentations sociales"

IMPORTANT : Pour celles et ceux qui disposent du logiciel Iramuteq et de données à tester, vous pouvez les apporter. Un des objectifs de cette séance de séminaire sera de manipuler le logiciel en direct.

Contacts et inscription : laurent.mell@univ-brest.fr

La fracture numérique n’est plus, elle est redevenue une fracture sociale

Internet Actu - ven, 16/02/2018 - 12:00

Selon une étude de la Northwestern University de 2011, les enfants Afro-Américains regardent deux fois plus longtemps la télévision que les enfants blancs. Les enfants noirs ou d’origine espagnole passent en moyenne 13 heures par jours devant un écran, quand les enfants blancs passent 8 heures et 36 minutes souligne une étude (.pdf) de la Kaiser Family Foundation de 2010. Si dans les quartiers dangereux, le temps d’écran est préférable que de jouer ou de trainer dans la rue, reste que cette surexposition pose question et problème. Le temps d’écran est en effet corrélé à des difficultés attentionnelles, au risque d’obésité, etc.

Pour Naomi Schaeffer Riley (@NaomiSRiley), auteure de Soyez parents : arrêter d’interdire la balançoire, interdisez plutôt Snapchat« , trop souvent, le message que nous envoyons aux parents les plus pauvres et les moins éduqués est que le temps d’écran va aider leurs enfants, explique-t-elle dans une tribune pour le New York Times. Trop longtemps, nous avons incité les parents à s’équiper en informatique pour aider leurs enfants. Trop longtemps nous avons parlé de « résoudre la fracture numérique » et nous avons travaillé à améliorer l’accès des plus pauvres. Selon une étude du Pew de 2015, désormais, 87 % des adolescents américains entre 13 et 17 ans ont accès à un ordinateur. Chez les familles qui gagnent moins de 50 000 $ par an, 80 % des adolescents ont désormais un accès. En fait, les adolescents afro-américains ont plus tendance à posséder un smartphone que tous les autres adolescents américains. Force est de constater que la fracture numérique, la disparité d’accès aux technologies, s’est transformée. « La vraie fracture numérique en Amérique n’est plus entre les enfants qui ont accès à l’internet et ceux qui ne l’ont pas. Elle est entre les enfants dont les parents restreignent le temps d’écran et ceux qui pensent que plus de temps d’écran est la clef du succès ».

A croire que la fracture numérique n’est plus. Elle a été résorbée. Elle est redevenue une fracture sociale, entre ceux qui passent trop de temps derrière leurs écrans et les autres, c’est-à-dire entre les enfants pauvres et les enfants riches.

Reste que regarder le problème sous le seul angle du temps d’écran ne suffit certainement pas. La question, derrière le temps d’écran est plus certainement celle des usages qui en sont faits. La diversité d’utilisation d’internet, comme le soulignait une étude déjà ancienne du DEPS, reste certainement une clef pour comprendre les différences sociales dans l’utilisation du réseau. Le temps d’écran cache aussi des questions autour de la diversité d’usage et de la curiosité culturelle. Et l’enjeu n’est certainement pas seulement de diminuer le temps d’écran qu’élargir les pratiques culturelles.

Catégories: Veille et actualités

Vers des applications d’intelligence artificielle accessibles à tous ?

Internet Actu - ven, 16/02/2018 - 07:00

Chez l’opérateur de télécommunications américain AT&T, Mazin Gilbert, responsable des technologies avancées, veut rendre les technologies d’intelligence artificielle accessibles à tous et d’abord à ceux qui ne les maîtrisent pas. Pour accomplir cet objectif de « démocratisation de l’IA », il a lancé une plateforme accessible aux employés d’AT&T leur permettant d’utiliser des outils d’intelligence artificielle très simplement, simplement en y insérant des fichiers de données sous la forme de simples tableurs. Pour Mazin Gilbert, le manque de spécialistes de l’IA nécessite de trouver de nouvelles solutions, notamment en permettant à des utilisateurs d’y avoir recours.

Cette démocratisation de l’IA nécessite que chacun puisse développer ses propres outils et que demain, ces applications soient accessibles à chacun : employés, clients, entreprises partenaires, etc. Pour lui, les tableurs ont largement contribué à démocratiser l’analyse de données, et l’accès à des applications d’intelligence artificielle va permettre de pousser cette analyse un cran plus loin. Pour l’instant, la plateforme d’AT&T propose des « widgets » sur le modèle IFTTT (que nous évoquions dans notre dossier sur le renouveau des interfaces pour la médiation), qui peuvent être assemblées pour créer des applications dédiées.

Le Machine Learning as a service

Alors qu’AT&T réfléchit à commercialiser cette plateforme pour la rendre accessible à d’autres entreprises, James Wilson (@hjameswilson) et Paul Daugherty (@pauldaugh) d’Accenture, auteurs du livre Human + machine : reimagining work in the age of AI pour la Harvard Business Review nous rappellent que d’autres outils de ce style existent, comme DataRobot (vidéo) qui permet de construire des modèles prédictifs depuis n’importe quelles données. Ou Petuum, qui via une interface visuelle, permet également de créer rapidement des applications d’analyse et d’apprentissage sans avoir à écrire la moindre ligne de code.

Bien évidement, rappellent les deux auteurs qui en profitent pour glisser un peu de promotion pour Accenture Insights, l’outil de même type d’Accenture, les Gafams ne sont pas en reste.

Avec AutoML (pour Automatic Machine Learning), Google construit un système d’apprentissage automatique capable de développer des applications de machine learning. Avec son moteur de Machine Learning et ses interfaces de programmation dédiées pour la reconnaissance de l’image, la reconnaissance vocale, l’analyse de texte, la traduction l’interconnexion et le dernier né, AutoML, Google ambitionne de proposer une gamme de produits permettant à chacun de faire du Machine Learning, à nouveau par l’intermédiaire d’interfaces permettant de déposer simplement des fichiers pour entraîner et développer des applications. Après avoir ouvert ses logiciels d’IA, Google les propose sur le Cloud, sous forme d’interfaces de programmation, de AIaS (Artificial Intelligence as service). Comme le souligne FastCompany, l’accessibilité de programmes d’IA sous forme de services dans le Cloud semble l’ingrédient clef de l’intégration de l’IA. Après l’ouverture des logiciels, la nouvelle étape consiste assurément à développer des services à la demande.

Salesforce, avec myEinstein, propose une suite d’outils pour que leurs clients construisent leurs propres chatbots et leurs propres modèles de prédiction de ventes. Quant à Uber, sa plateforme Michelangelo, a permis à l’entreprise de déployer UberEats, une application qui prédit le temps de préparation d’un repas et de sa livraison. Pour James Wilson et Paul Daugherty, l’avantage compétitif de l’IA pourrait bientôt passer des entreprises proposant la technologie à celles qui ont des idées innovantes pour l’exploiter. De là à avancer, comme ils le font, que plutôt que de perdre leur emploi, l’IA pourrait permettre demain aux non-techniciens de développer leurs talents, il y a un pas que les consultants d’Accenture franchissent peut-être avec un peu trop d’enthousiasme. Pas sûr que cela s’applique aux mêmes personnes ou que la hauteur des besoins soit à la hauteur des enjeux en terme d’emplois.

Comme le soulignait une grande enquête du New York Times signée Cade Metz en novembre dernier, la recherche sur des systèmes d’intelligence artificielle capable de construire des machines intelligentes est en plein boom. AutoML, cette « machine algorithmique capable de construire des machines algorithmiques », est un outil qui vise à pallier le déficit de compétences en matière d’IA, afin de générer des outils d’IA simples d’utilisation. Amazon et son MXNet, Microsoft et son CNTK sont aussi de la partie. Et d’autres que les Américains ne sont pas en reste, à l’image du chinois Malong Technologies… Comme le souligne le New York Times, construire des solutions de Machine learning n’est pas encore aussi simple que de construire un site web : passer de l’entraînement des données qui peut être assez simple effectivement, à leur intégration dans un service, nécessite malgré tout encore beaucoup de compétences. Mais cette tendance appelée « meta-apprentissage » (meta-learning ou learning to learn) est visiblement en plein développement.

L’IA comme service, mais pour quoi faire ?

Reste que pour l’instant, il est difficile pour le néophyte de voir concrètement ce que ces outils transforment. Les exemples d’utilisation que valorise Google reposent sur l’amélioration de la classification d’images pour des magasins en ligne, permettant d’améliorer la catégorisation de produits. Autre exemple, évoqué encore sur le blog de Google, l’application agricole Connecterra (vidéo), un collier de surveillance d’activité pour les vaches – qui utilise, lui, la version logicielle des outils de Google, TensorFlow – permet d’analyser et interpréter le comportement des vaches afin d’améliorer la surveillance sanitaire et leur productivité.

ClarifAI, un système de reconnaissance d’image, développe des outils pour permettre aux sites de catégoriser des images, permettant ainsi à Trivago ou Buzzfeed de créer des descriptions automatiques d’images et des modèles de recherche personnalisés. Watson Analytics d’IBM permet également de générer de l’analyse de données et étaye les relations trouvées dans les données pour proposer des visualisations et des analyses. Chez AT&T, les agents du support client peuvent par exemple utiliser un module qui leur permet d’analyser les sentiments d’un client en déposant leurs e-mails ou le texte récolté lors de tchats.

Si tenter de faire la recension des outils de Machine Learning qui se présentent comme accessibles est en passe de devenir une gageure, comprendre ce qu’ils transforment ou permettent l’est tout autant. Pour l’instant, comme le soulignent les responsables de Google AI, l’enjeu demeure technique : personnaliser et améliorer les modèles, améliorer l’exécution et la production des systèmes. Bref, optimiser les modèles d’affaires.

Hubert Guillaud

Catégories: Veille et actualités

Les modèles du climat deviennent plus précis

Internet Actu - jeu, 15/02/2018 - 13:00

Modéliser le climat est notoirement difficile, comme c’est toujours le cas avec les systèmes complexes. Mais la science progresse. Jusqu’à il y a peu, nous explique la Technology Review, il était très compliqué de relier un événement local (par exemple une tempête ou un ouragan) aux variations globales du climat. C’est ce qui s’améliore avec les méthodes actuelles. Et la montée en puissance de la vitesse de calcul des ordinateurs a joué un grand rôle dans ces progrès.

Pour analyser les conditions climatiques, les modèles informatiques divisent la planète en une série de « boites » en 3D. Jusqu’à récemment la résolution de ces boites était assez basse : autrement dit, elles avaient chacune environ 500 km de côté, ce qui rendait bien entendu difficile une analyse un peu fine des conditions locales. Aujourd’hui, il est possible d’obtenir des « boites » d’environ 25 km de diamètre, ce qui permet d’avoir des modélisations bien plus précises.

La résolution spatiale n’est pas la seule avancée. Les programmes actuels utilisent aussi bien plus de données. Dans les années 60, on se contentait de travailler sur l’atmosphère. Les modèles actuels, nous explique la Technology Review, prennent également en compte « les surfaces terrestres, les glaces maritimes, les aérosols, le cycle du carbone, la végétation et la chimie atmosphérique ». Et, continue la revue, on commence aussi à intégrer les activités humaines comme la déforestation ou les migrations.

On dispose maintenant non seulement d’une plus grande quantité de data, mais également d’un plus grand nombre de modèles. Un exemple de cette montée en puissance est illustré par le travail de Kerry Emanuel, chercheur au MIT spécialisé dans les ouragans, qui a pu ainsi, en utilisant les données fournies par sept modèles climatiques différents, et en faisant tourner ses simulations des dizaines de milliers de fois, calculer la fréquence possible de la survenue au Texas d’un ouragan d’une puissance comparable à l’ouragan Harvey. Il a pu établir qu’un tel événement, qui à la fin du XXe siècle devait se produire environ une fois tous les 100 ans, pourrait se manifester tous les cinq ans et demi à la fin du XXIe.

Mais, conclut l’article, on est encore loin d’avoir résolu toutes les difficultés. Il reste beaucoup d’incertitudes et même des régions de 25 km de côté ne constituent pas une résolution suffisante…

Catégories: Veille et actualités

Et si l’informatique quantique ne marchait vraiment pas ?

Internet Actu - jeu, 15/02/2018 - 07:00

La fabrication d’ordinateurs quantiques, on le sait, se heurte à de nombreuses difficultés, la plus importante étant la gestion des erreurs possibles gênées par les qubits « intriqués ». Récemment nous mentionnions un article du magazine Quanta qui se penchait sur le problème, et qui, toute étant très prudent, ne sombrait pas dans un pessimisme complet. Mais le même magazine a publié récemment une interview du mathématicien Gil Kalai , qui a une vision bien plus sombre de l’avenir du domaine.

Pour lui, il sera impossible de réduire le bruit inhérent à la computation quantique. Ce n’est pas un problème d’ingénierie, c’est une limite fondamentale, mathématique.

Il rappelle que pour créer un ordinateur quantique capable de surmonter ses erreurs, il faudrait élaborer des qubits « logiques », qui seraient en fait constitués d’entre 100 et 500 qubits physiques environ. Ce qui est en fait une estimation assez modeste, puisque, rappelons-le, l’article précédent de Quanta mentionnait des chiffres bien plus élevés, entre 800 et 10 000 qubits .

Pour lui il n’y pas d’espoir de surmonter ce niveau de bruit, et les ordinateurs quantiques de la première génération, qui culminent à 50 ou 100 qubits (les machines de l’ère NISQ, comme les nomme John Preskill), ne pourront jamais dépasser un certain niveau : « Les ordinateurs quantiques bruités à petite et moyenne échelle fournissent une puissance de calcul primitive. Ils sont trop primitifs pour atteindre la «suprématie quantique» – et si la suprématie quantique n’est pas possible, alors la création de codes quantiques correcteurs d’erreurs, qui est plus difficile, est également impossible. »

Catégories: Veille et actualités

Vers une portabilité des données de réputation des travailleurs des plateformes ?

Internet Actu - mer, 14/02/2018 - 14:09

Depuis plusieurs mois, certains syndicats européens ont décidé de se pencher sur la question des droits de travailleurs indépendants, notamment ceux de l’économie des plateformes, grandes pourvoyeuses de petits boulots et de travail à la tâche. Des résolutions émergent localement dans différents pays d’Europe, à l’initiative de syndicats (par exemple, au Danemark avec l’élaboration de conventions collectives avec les plateformes ou en Allemagne avec la mise en place de comités d’entreprises) ou d’individus travaillant sur ces plateformes (comme la création d’une plateforme de revendication sociale des employés des entrepôts d’Amazon en Allemagne sous le nom Make Amazon Pay !, création de coopératives de livreurs en France comme Coopcycle ou du Clap, collectif des livreurs autonomes de Paris).

Ces différentes initiatives ont été évoquées lors de la journée « Starting a European dialogue on the platform economy », organisée à Bruxelles le 23 janvier par le réseau français Sharers & Workers en partenariat avec l’Institut syndical européen et la Confédération européenne des syndicats, et qui avait pour objectif de construire par le dialogue une économie des plateformes performante et responsable.

Quelques semaines plus tôt était organisé le Future World of Work Leadership Summit par le syndicat UNI Global Union, réunissant une centaine d’experts, activistes et chercheurs. Durant ce sommet, Christina Colclough (@cjcolclough), directrice de Plateform and Agency Workers chez UNI, déclarait que “dans le futur, 15 à 20 % du PIB mondial sera basé sur les données. Les employeurs peuvent suivre, tracer et exploiter les données des travailleurs ; les utiliser pour faire des statistiques, embaucher ou renvoyer des travailleurs. » Mais l’inverse n’est pas vrai. Pour elle :  « La donnée est la nouvelle frontière pour les syndicats et les droits des travailleurs dans les lieux de travail numériques”.

L’avocate de la Web Foundation, Avila Pinto (@avilarenata), ajoutait que les syndicats devaient non seulement protéger les données des travailleurs, mais aussi penser à la façon dont les travailleurs pouvaient utiliser ces données. « Nous pouvons travailler ensemble pour créer un espace de résistance et de créativité et utiliser nos données pour notre bénéfice et non pour le bénéfice des entreprises ».

Valerio De Stefano (@valeriodeste), professeur en droit du travail à l’université KU Leuven, rappelait que contrairement à ce que l’on croit, la vie de nombreux travailleurs dépendent de cette économie de petits boulots, qu’elle ne fournit pas seulement un revenu complémentaire, mais un revenu de subsistance et qu’elle doit donc être régulée. Il suggérait notamment que, pour donner plus de pouvoir aux travailleurs des plateformes sur les termes de leur emploi, il faudrait leur donner le contrôle de leur notation, notation qu’ils ont souvent mis des années à construire. « La notation peut bloquer un travailleur sur une plateforme. Elle doit être portable. C’est la plus grande source de capital pour les travailleurs dans l’économie des plateformes. Si les travailleurs veulent aller de plateforme en plateforme, ils doivent être en mesure d’utiliser ailleurs les notes qu’ils ont obtenues. »

Une bonne réputation est en effet ce qui permet au travailleur de plateforme d’obtenir de nouvelles missions. D’où l’importance de pouvoir porter cette réputation sur d’autres plateformes, pour ne pas avoir à reconstruire sa réputation à zéro. Or, les plateformes souhaitent garder captif les indépendants et ne permettent pas pour le moment qu’ils partent avec leurs notes et retours clients. Cassie Robinson (@Cassie Robinson), directrice en design stratégique chez DotEveryone, entre autres, fait le même constat que Valerio de Stefano, et s’est donc penché avec son équipe sur la question de la portabilité de la notation des plateformes (voir également leur présentation) :  quelles technologies, quelles données, quels investissements seraient nécessaires pour rendre la portabilité réelle ? Comment les travailleurs des plateformes utilisent-ils ces notes ? Se sentent-ils vraiment coincés sur une plateforme du fait de l’absence de portabilité de la notation ?

À cette question, les réponses varient selon les professions : les chauffeurs privés ne se sentent pas concernés par la question de la notation, car ils ont confiance dans leurs compétences et dans leur capacité à trouver un travail en dehors de leur plateforme (d’autant qu’ils en utilisent souvent plusieurs). Ils voient la notation comme un indicateur de performance pour les propriétaires des plateformes et leur seule crainte est de voir leur moyenne passée en dessous du niveau de note qui mène au bannissement et à l’exclusion. Les livreurs de repas se sentent encore moins concernés par la question et se concentrent plus sur les données de livraison, comme le nombre de sessions de travail, d’annulations, d’heures de présence pendant les gros pics d’activité. Quand un client utilise les plateformes de livraison, l’important est d’être livré vite, pas l’identité du livreur. Par contre, pour ceux qui fournissent une prestation sur les plateformes de travail à la tâche (comme Malt BeMyEye, YouPiJob… et tant d’autres), la notation en ligne est très importante et ils préfèrent en garder le contrôle. Se faire supprimer son compte sans avertissement ni explication est la pire chose qui puisse arriver à un indépendant qui a mis des mois à construire sa réputation sur une plateforme. Pouvoir partir de la plateforme avec ses évaluations et commentaires est donc un vrai enjeu.

Cassie Robinson propose cinq solutions, qui montent crescendo en complexité et posent différentes questions. La 1re proposition, appelée « Références personnelles » (Personal reference), évoque la situation actuelle des travailleurs avec un CV, plus ou moins standardisé, en se demandant si les nouvelles technologies peuvent permettre d’offrir de nouvelles opportunités pour les travailleurs des plateformes en améliorant le système.

La 2e solution est appelée « Réputation hébergée publiquement » (Publicly hosted réputations) devrait permettre de s’assurer qu’une plateforme héberge une archive web accessible facilement avec toutes les données de réputation du travailleur, incluant les profils qui ont été désactivés. Ainsi, les utilisateurs des plateformes pourraient envoyer un lien à toute personne qui souhaiterait connaître leur réputation sur une ancienne plateforme.

La 3e solution, « la vérification de profil » (Profile vérification) devrait permettre à un travailleur de prouver qu’il est bien le propriétaire du profil hébergé en ligne, via une clé de vérification publique/privée par exemple, dans un système sécurisé.

La 4e proposition, la création d’« un standard décentralisé en open data » (Decentralised open data standard) devrait permettre de transférer et d’utiliser automatiquement les données de réputation de plateformes concurrentes ou de services externes. Créer ce standard est bien sur assez compliqué, car il faudrait réussir à traduire les différences techniques des plateformes (entre celles qui utilisent des étoiles et celles qui utilisent un pourcentage par exemple), mais aussi la valeur qu’il y a derrière chaque système de notation.

Enfin, la 5e idée est la mise en place d’un « porteur de données centralisé » (Centralised data holder), c’est-à-dire une entité légale responsable de la détention et du transfert des données de réputation, et qui serait donc la garantie de la standardisation des notations. Cette entité serait-elle un gouvernement, une association ? Ne créerait-elle pas de facto un monopole ?

Derrière toutes ces propositions, au-delà de leur faisabilité, il y a cette même question centrale, qui a été beaucoup évoquée ces derniers jours : les données de réputation sont-elles des données personnelles comme les autres ? Comment permettre aux utilisateurs de les récupérer et comment faire levier de leur valeur, collectivement, socialement ? Avoir un usage de ces données, en dehors des plateformes où elles ont été produites, pourrait en tout cas permettre de gagner en symétrie entre les plateformes et les travailleurs, qui sont clairement désavantagés actuellement. Les différentes initiatives évoquées plus haut sont également des moyens de ramener un peu plus d’équité dans la relation, mais l’on voit bien qu’il reste encore beaucoup à faire.


Image : exemple d’intégration dans une plateforme de commentaires d’utilisateurs provenant de plusieurs, proposé par DotEveryone.

Catégories: Veille et actualités

L’enfer de la maison intelligente

Internet Actu - mer, 14/02/2018 - 07:00

Sur Gizmodo, la journaliste Kashmir Hill (@kashhill) raconte comment elle a décidé de transformer son petit appartement de San Francisco en maison connectée. Elle s’est équipée d’un assistant vocal Echo d’Amazon, de lumières connectées, d’une cafetière connectée, d’un roomba, a branché sa brosse à dents, sa télé, son lit, un cadre photo… Un peu tout ce qui est disponible sur le marché. L’enjeu était de regarder ce que sa maison pourrait lui apprendre. Avec l’aide d’un collègue artiste et ingénieur, Surya Mattu (@suryamattu), elle a enregistré toutes les données que ces appareils échangeaient avec l’extérieur.

Le premier constat que la journaliste a tiré de cette expérimentation est que ces objets ont été une « source constante d’agacement ». Vivre dans une maison intelligente est exaspérant. Il lui a fallu télécharger 14 applications différentes sur son téléphone pour faire fonctionner ces appareils. Les configurer reste chronophage, notamment parce qu’ils ne sont pas toujours conçus pour discuter les uns avec les autres, au contraire ! Par exemple, elle a passé du temps à configurer Alexa pour qu’il allume une guirlande de Noël à la demande. Mais du jour au lendemain, cette configuration a cessé de fonctionner. Autre problème : il fallait demander tous les soirs à Alexa d’éteindre les lumières les unes après les autres (« Alexa, éteint la guirlande », « Alexa était la lumière du salon »…) : ce qui est bien plus ennuyant que de les éteindre à la main !

Faire travailler ensemble différents appareils de différentes marques signifie en fait que ça prend bien plus de temps à faire que de le faire à la main !

Autre problème bien sûr : la difficulté de connecter les appareils entre eux ! Impossible par exemple de connecter sa machine à café avec Alexa d’Amazon, tant et si bien qu’il lui a fallu en changer. Mais le modèle qui fonctionnait avec Alexa ne fonctionnait pas avec le capteur de son matelas ni avec ses prises électriques connectées : donc impossible de déclencher automatiquement son café au saut du lit ! Sans compter que le capteur vocal d’Amazon avait du mal à reconnaître le nom de la machine à café… tant et si bien qu’il était le plus souvent plus simple de se lever pour se faire le café !

Si Kashmir Hill a beaucoup apprécié son aspirateur autonome, notamment parce qu’il faisait très bien son travail, celui-ci n’a cessé de la harceler sur son téléphone, lui envoyant des notifications dès qu’il était coincé ou plein ! « Je pensais que ma maison prendrait soin de moi », alors qu’en fait, elle était plus sollicitée encore par les choses connectées qui lui demandaient de prendre soin d’elles !

En ce qui concerne la vie privée, l’analyse des données s’est révélée préoccupante. Les interrupteurs électriques connectés permettant de faire fonctionner les lumières à distance n’ont pas cessé d’envoyer des informations à l’extérieur, et pas seulement quand on les faisait fonctionner. La caméra de sécurité connectée a pris une vidéo d’elle se promenant nue dans son salon pour l’envoyer dans le cloud ! Celle-ci envoyait d’ailleurs constamment de grosses quantités de données. Pareil pour la télé !

Dans ce panoptique familial infernal, la conclusion qu’en tire Kashmir Hill, c’est que notre surveillance à l’heure de l’internet des objets ne va pas cesser de s’étendre. En analysant les données envoyées par ses objets, sont collègue savait quand ils se levaient, se couchaient, quand ils regardaient la télé ou quand ils se brossaient les dents. Pour lui, l’aspect le plus inquiétant a été de constater en fait que « tous les appareils téléphonaient chez eux tous les jours, même s’ils n’avaient pas été utilisés » (et pour Amazon Echo, la connexion aux serveurs d’Amazon se fait même toutes les deux minutes !). L’ingénieur était capable de voir quand la maison était vide, car la quantité de données était ralentie mais jamais inexistante. Son constat est assez clair : la maison connectée s’apprête à créer de nouveaux flux d’information, un open-bar sur vos données !

« Tous les appareils connectés téléphonent constamment à leurs fabricants. Vous ne serez pas au courant que ces conversations se déroulent à moins que vous soyez techniquement avertis ou que vous surveillez votre routeur comme nous l’avons fait. Et même si vous l’êtes, parce que les conversations sont généralement chiffrées, vous ne serez pas en mesure de voir ce que vos affaires disent de vous. Lorsque vous achetez un appareil intelligent, il ne vous appartient pas seulement : vous en partagez la garde avec la compagnie qui l’a fabriqué ! »

De quoi relativiser pleinement le fameux adage : si c’est gratuit, c’est vous le produit ! Car si c’est payant, c’est toujours vous le produit !

Catégories: Veille et actualités

Comment s’exprime la dépression

Internet Actu - mar, 13/02/2018 - 12:00

La dépression se manifeste-t-elle par un usage spécifique du langage ? C’est une question à laquelle des chercheurs de l’université de Reading ont cherché à répondre, nous explique un article de The Conversation, relayé par Discover Magazine. Pour cela, ils ont utilisé une analyse logicielle des différents témoignages, journaux intimes, discussions en ligne, etc. de personnes atteintes par cette maladie. Jusqu’ici, précise l’article, on procédait plutôt manuellement, mais les machines permettent de saisir en quelques minutes des détails qui restent invisibles à des lecteurs humains.

Sur le contenu, rien de surprenant, les émotions négatives y sont le plus largement exprimées. Mais les découvertes les plus intéressantes se portent sur le style d’écriture, par exemple l’usage des pronoms : la personne dépressive utilise bien plus des pronoms à la première personne du singulier, comme « je », « moi », « le mien » et beaucoup moins à la seconde ou troisième personne.

Autre caractéristique, peut être encore plus importante : l’usage de mots ayant un caractère d’absolu, rejetant toute forme d’ambiguïté : « complètement », « absolument », « totalement », etc. Ce genre d’adverbe est 50 % plus fréquent sur les forums de discussion traitant de la dépression que sur des forums portant sur d’autres sujets. Et sur les sites parlant du suicide, cette proportion atteint les 80 %. Ce qui laisse à penser que la dépression tend à faire voir les choses de manière manichéenne, en noir et blanc.

Les chercheurs ont découvert à ce sujet une chose curieuse. En analysant les textes issus des forums rassemblant des personnes guéries, sorties de leur état dépressif, ils ont découvert que si les mots trahissant des émotions négatives n’étaient pas supérieurs à la moyenne, et que ceux exprimant des sentiments positifs étaient même en augmentation, l’usage des mots « absolus » restait très important. C’est vrai aussi pour les pronoms. Ce qui pose la question de la cause et de l’effet : en effet, précise l’article ceux qui sont passés par des épisodes dépressifs auront tendance à en connaître de nouveau. Se pourrait-il, se demande l’auteur, que certaines habitudes de pensée présentes même en l’absence de symptômes, puissent jouer un rôle dans la survenue du mal ?

Catégories: Veille et actualités

Transports autonomes : le double risque de l’explosion du transport et du développement des inégalités

Internet Actu - mar, 13/02/2018 - 07:00

Et si le développement des transports autonomes favorisait l’emploi ? C’est la thèse que défend une étude menée par Uber – qui est loin d’être un acteur neutre sur cette question puisque la licorne américaine est l’un des acteurs les plus actifs dans le développement de véhicules autonomes. Selon les experts d’Uber, rapporte Alexis Madrigal pour The Atlantic, les camions autonomes devraient développer l’emploi plus que le réduire. En effet, l’efficacité induite par le déploiement de camions autonomes devrait stimuler la demande et réduire le coût du fret… ce qui devrait se traduire par davantage d’activités et donc une augmentation du transport routier plutôt qu’une diminution.

L’autonomisation des véhicules ne signifierait pas pour autant la disparition des chauffeurs estime Uber, qui doute que les véhicules puissent rapidement se déployer au-delà des autoroutes. Il faudra donc des chauffeurs pour leurs faire accomplir les premiers et derniers kilomètres.

Enfin, souligne l’étude, les chauffeurs ne font pas que conduire : ils prennent soin à la fois du véhicule et de ce qu’ils transportent, deux activités qui ne seront pas facilement automatisables. En fait, le développement des camions autonomes pourrait bien améliorer l’existence des chauffeurs routiers, en leur permettant de se reposer plus souvent, souligne non sans cynisme Uber. Les camions autonomes pourraient également améliorer la vie des conducteurs qui passent beaucoup de temps loin de leur famille ce qui rend la profession assez peu attractive. En permettant l’automatisation du transport au long cours, on pourrait imaginer développer des espaces de transit, permettant aux conducteurs de récupérer des camions pour qu’ils n’aient qu’à accomplir les voyages locaux.

Ce scénario idyllique proposé par Uber n’est heureusement pas du goût de tout le monde, on s’en douterait. Le sociologue américain Steve Viscelli, auteur d’un livre sur les routiers et le déclin du rêve américain, rappelle par exemple que dans les ports, ce type de conducteurs, chargés d’amener les marchandises à leurs propriétaires locaux, existent déjà. Ce sont des emplois très précaires, payés le plus souvent à la charge. Pour le syndicaliste routier Doug Bloch, cette perspective risque surtout encore plus de dévaloriser le métier, en généralisant les chauffeurs indépendants et contractuels ! Pour Karen Levy, sociologue à Cornell, ce modèle n’a de sens qui si l’on réforme profondément le métier et qu’on s’en empare comme une question sociale, économique et politique. Le risque est plutôt qu’Uber s’arroge le marché des conducteurs précarisés avec des applications pour maximiser les roulements. A croire qu’Uber n’a pas encore fini d’ubériser !

Rappelons tout de même que la majorité des études sur le développement des camions autonomes ne sont pas très optimistes pour l’emploi. Goldman Sachs, McKinsey ou le Forum international des transports évoquent plutôt des pertes conséquentes d’ici les 10 prochaines années. Et les perspectives plus globales sur l’avenir de l’emploi lié à l’automatisation sont le plus souvent apocalyptiques, comme le résume une récente synthèse menée par la Technology Review (qui pointe surtout le fait que les experts ne savent pas vraiment ce qu’il en sera, tant les écarts varient d’une hypothèse à l’autre).

Dans un autre article pour The Atlantic, Alexis Madrigal pointe un autre risque que fait peser le développement de transports publics automatisés. Si le sujet est un peu différent du précédent, ce qu’il dit des transformations à venir n’en est pas moins intéressant. En effet, aux États-Unis, les chauffeurs de bus proviennent majoritairement de la communauté afro-américaine. Pour la sociologue Katrinell Davis, auteure de Travailler dur ne suffit pas : des inégalités de genre et de race dans l’espace de travail urbain, la technologie des véhicules autonomes s’annonce comme une extension de l’oppression économique à l’encontre de cette communauté : l’automatisation menace plus les Afro-Américains que les autres notamment parce qu’ils sont principalement employés dans des professions peu qualifiées vulnérables aux innovations technologiques. Alors que des expérimentations de transports publics autonomes ont déjà lieu dans plusieurs villes américaines, l’administration des transports américaine a lancé une consultation pour réfléchir à comment lever les barrières à leur automatisation.

En attendant le déploiement des bus et camions autonomes, la ville de Pittsburgh s’est investie d’une nouvelle responsabilité : établir des règles pour les voitures autonomes. Pour cela, rapporte Jessica Gourdon pour Le Monde, la ville a ouvert ses portes au laboratoire de R&D d’Uber et a autorisé la circulation d’une centaine de VTC autonomes en test. Elle héberge également tout un écosystème de startups autour de la voiture autonome, essaimage du célèbre département d’informatique et de robotique de l’université Carnegie-Mellon, comme Argo AI, Aptiv, Aurora… Pour le maire de Pittsburgh, la voiture autonome va redessiner la ville de demain, et notamment les transports publics, d’où l’intérêt d’observer très directement leur impact – notamment sur l’emploi -, explique-t-il. Pas sûr pour autant que l’expérimentation en cours permette de mesurer ce que donnera l’avenir de la voiture autonome, puisque pour l’instant, les voitures sans chauffeurs en test disposent d’un chauffeur, du fait des contraintes légales.

Sur Medium enfin, Paris Marx rappelle que la voiture vraiment autonome (capable de circuler dans toutes les conditions de conduite, de circulation et de météo – une voiture qui ne dispose d’ailleurs même plus de volant – on parle de stade « 5 » dans le niveau de développement de l’autonomie) n’est certainement pas pour demain. Il souligne que son arrivée ne cesse d’être repoussée. Google l’a promettait pour 2017. Musk également avant qu’il ne demande un nouveau délai. Volvo l’avait promis pour 2017 également et vient de repousser la date pour 2021. Ford a fait des promesses pour 2021, mais a ensuite annoncé que ça prendrait plus de temps. Seul GM maintient la date de 2019, mais ses modèles en tests ont connu plusieurs accidents en 2017… ce qui laisse planer des doutes sur son annonce. La raison de cet échec annoncé ? Les progrès qui restent à faire sont trop compliqués et trop spécifiques : le brouillard, la neige et la pluie notamment, les conditions de circulations très complexes… semblent rendre l’automatisation totale très difficile à approcher.

Pour Paris Marx, il va nous falloir nous contenter d’un niveau 3 où l’humain doit toujours être prêt à reprendre le volant, voire d’un niveau 4 ou l’autonomie n’est assurée qu’en conditions délimités (sur autoroute notamment ou sur des voies réservées). De quoi donner du crédit au scénario d’un renforcement de l’ubérisation de la conduite…


Image : les 5 niveaux d’automatisation des véhicules.

Catégories: Veille et actualités

API Days : neutre, l’informatique ?

Internet Actu - lun, 12/02/2018 - 08:05

Par nature, les interfaces de programmation (API) proposent des modalités d’interaction assez définies pour les services qui souhaitent les utiliser. Elles reposent sur des autorisations spécifiques et proposent des modalités d’échanges balisées, normalisées. La grande question qui se pose alors est de savoir si elles permettent vraiment d’innover. Elles permettent assurément d’améliorer les services, de les interconnecter, d’accélérer les échanges … Mais ne sont-elles pas conçues pour innover là où on nous dit de faire ? C’est la question que soulevait la très intéressante présentation du designer Simone Cicero (@meedabyte), lors de la conférence APIDays qui se tenait fin janvier à Paris, en invitant à concevoir des API pour la désobéissance.

Si innover c’est désobéir, alors où sont les systèmes informatiques qui permettent de désobéir ?
« Aujourd’hui, toutes les stratégies API se concentrent sur la monétisation. Au final, cette approche se réduit à encapsuler des composants, des services et à mettre un prix dessus pour qui souhaite les utiliser. Mais cette stratégie n’est-elle pas une course vers le pire ? » Les stratégies autour des interfaces de programmation préfèrent la simplicité à la difficulté. Reste que la complexité ne se réduit pas, rappelle Simone Cicero. Bien souvent, cette approche a pour but de simplifier la consommation de données et de services que l’organisation fournit déjà. Ils ne valorisent que ce que l’on fait. Mais la tâche la plus difficile de l’innovation ne consiste pas à rendre la consommation de ce que l’on fait déjà plus efficace. Dans un environnement qui change tout le temps, complexe par nature, incertain, volatile… c’est insuffisant. Pour Simone Cicero, il faut développer des capacités de coopérations, passer d’une conception centrée sur l’utilisateur à une conception centrée sur l’écosystème, c’est-à-dire passer de la fourniture de solutions à des « invitations à en discuter ».


Image : Simone Cicero sur la scène des APIDays, photographié par API Handyman.

On ne peut pas définir une organisation isolément de son écosystème, car c’est lui qui nous fait évoluer. Les entreprises ne doivent pas tant fournir des solutions, que créer des invitations à interagir, à explorer, à créer. Les stratégies doivent ouvrir des possibilités de co-évolution, de remix, de réinterprétation plus que les fermer. Il est nécessaire de permettre aux écosystèmes d’exprimer de la désobéissance, de diverger, de recombiner… Un bon exemple de cette capacité d’adaptation pour Simone Cicero c’est Airbnb, qui ne cesse d’intégrer à son offre des expériences supplémentaires, comme des offres de conciergerie ou de réservation de restaurant… Cela suppose à la fois d’être capable de créer une vision, une histoire… Mais également d’ajouter des moyens pour permettre l’auto-organisation et soutenir le développement de nouvelles capacités. Quand les besoins des utilisateurs sont hétérogènes, l’une des solutions consiste à leur permettre de modifier les produits via des boites à outils permettant l’innovation, remarquait déjà Eric Von Hippel. Pour Simone Cicero, il faut concevoir des plateformes qui permettent de créer des relations écosystémiques, qui favorisent et organisent une interconnexion des valeurs. Il faut favoriser « l’interconception ». Trop souvent, les organisations conçoivent des systèmes contraints, qui recopient la structure de leur organisation. Les entreprises doivent ouvrir les frontières de leurs organisations. Elles doivent pour cela accepter de perdre le contrôle. Pour y parvenir, le designer a mis au point une méthode : une boite à outil de conception de plateformes. Une méthode pour concevoir autrement… voilà qui semble toujours antinomique. Espérons que la méthode soit à la hauteur du discours !

« La technologie n’est pas neutre, elle est un but en soi ! »

Daniel Kaplan (@kaplandaniel), qui a été pendant 17 ans Délégué général de la Fing (éditeur d’InternetActu.net), se consacre désormais à Imaginizing The Future, un projet qui souhaite reconstruire les imaginaires de demain.

« Ceux qui développent des interfaces de programmation aujourd’hui ne travaillent-ils pas pour les robots du futur ? Leur objectif caché est-il d’oeuvrer à l’asservissement de l’humanité par les machines ? » Dans les entrepôts d’Amazon, chaque mouvement humain est contrôlé par des machines. Les cyclistes des plateformes de livraison de repas à domicile reçoivent leurs ordres des machines. Nous-mêmes quand nous appelons un support client, n’avons-nous pas l’impression de parler à une machine plus motivée à réduire la durée de la conversation qu’à résoudre notre problème ? Ne parlons-nous pas déjà à des machines qui prétendent être des gens ? A des humains programmés et contrôlés de manière à agir comme les représentants aveugles de la « machine de l’entreprise » ? Cette automatisation a-t-elle un but, un agenda, un programme ? N’est-il pas de réduire le nombre de personnes vivantes dans les organisations pour les remplacer par des automates ? En formalisant et automatisant les processus et les interactions, par exemple au moyen d’interfaces de programmation, n’assiste-t-on pas à la disparition des relations ? Les services clients semblent ne plus être en lien avec personne, autres que des chiffres et des écrans. Peu à peu, à mesure qu’on éloigne les personnes, l’empathie disparaît. Si elle fait disparaître la rébellion, elle fait aussi disparaître le sens et la confiance. Dans son roman, Accelerando, Charles Stross imaginait déjà des économies totales, où l’efficacité serait absolue, car parfaitement automatique, à l’image des entreprises autonomes que promet la blockchain.


Image : Arthur de Grave et Daniel Kaplan, photographiés par Gareth Jones.

« Les développeurs poursuivent-ils le but caché des technologies ? » Participent-ils eux aussi à substituer des logiciels aux interactions humaines, à transformer les échanges humains en API ? Comme nous y invitait Simone Cicero, il nous faut revoir les questions auxquelles ont répond avec des interfaces de programmation. Où sont les réseaux de valeurs ouvertes ? Où sont les API irrationnelles ? Où sont les API permettant d’oublier délibérément des choses ? Ce modèle de l’efficacité parfaite, absolue, que nous participons à construire n’oublie-t-il pas les gens ? Si nous ne construisons pas des failles dans ces systèmes parfaits, pourrons-nous échapper à leur totalitarisme ? La question n’est pas tant technologique que celle de l’ordre du jour, de l’agenda que ces systèmes nous proposent, estime Daniel Kaplan. Comme le soulignait Simone Cicero, nous devons revoir les questions auxquelles nous fournissons des réponses. Nous devons revoir la façon dont les API contribuent à des programmes d’entreprise qui utilisent des logiciels pour remplacer les personnes et transformer des interactions humaines en transactions entre des entités abstraites. Pour cela, on pourrait imaginer des API qui donnent un aperçu du fonctionnement des systèmes et permettent des discussions significatives sur leurs objectifs, leurs ressources, leurs hypothèses. Pourrait-on imaginer des API qui au lieu d’habiliter un chatbot, permettraient aux clients de résoudre leurs problèmes ensemble ? Comme le disaient (.pdf) Rob Kitchin et Martin Dodge en critiquant le modèle de l’informatique omniprésente, nous avons besoin de systèmes faillibles. « Bien que la faillibilité d’un système semble compromettre son exploitation vitale, elle nous semble la seule façon de nous assurer que les humains peuvent oublier, retravailler leur passé, parvenir à une politique progressiste basée sur le débat et la négociation et faire en sorte que la discipline totalitaire d’une informatique omniprésente ne se produise pas. (…) L’oubli ne peut être qu’un ingrédient essentiel de l’informatique omniprésente. »

« On a beau ajouter des adjectifs : loyal, éthique, durable… la technologie demeure l’objectif », précise Arthur de Grave de Ouishare. « La technologie n’est pas neutre, elle est un but en soi ! » Oui, la technologie n’existe pas sans objectifs. Mais elle ne résout pas pour autant les questions complexes, rappelle Daniel Kaplan. « On n’a pas d’exemple de technologie qui réponde à un problème complexe, comme les problèmes socio-environnementaux. Le plus souvent, la technologie déplace les problèmes plus qu’elle ne les résout. »

Plus que de robots diaboliques, n’est-ce pas plutôt un problème lié au modèle même de l’entreprise. Depuis le taylorisme, on remplace les humains par des machines pour des raisons économiques. Oui, l’automatisation envisage le monde comme un grand remplacement, répond Daniel Kaplan. On remplace ce charpentier par un charpentier de l’autre bout du monde. On remplace les échanges humains par des transactions de plus en plus segmentées, tant et si bien que même les graphistes sont désormais prolétarisés.

L’enjeu n’est pas tant celui d’une déshumanisation, c’est aussi celui d’une rationalisation : on réduit le monde et la société à des nombres. On enlève l’humain de l’équation, car c’est lui qui fait des erreurs. « Comment aller contre ce mouvement qui semble irrémédiable ? », interroge Arthur de Grave. On ne cesse de voir les organisations comme des machines complexes à réparer. Peut-être serait-il temps de les regarder comme des organismes complexes, de les regarder comme des éléments interdépendants, des écosystèmes. Changer de métaphore, suggère Daniel Kaplan. Les interfaces de programmation permettent de créer des écosystèmes, mais elles ne produisent que des écosystèmes d’entreprises. Comment leur ajouter les gens, les clients, l’environnement ? C’est très différent de proposer des solutions toutes faites que de construire des API avec d’autres après avoir ouvert les codes et les processus. L’enjeu n’est pas tant de faire peser le poids de ces systèmes sur chacun que de construire des réponses collectives, conclut-il.

Après la neutralité des réseaux, la neutralité des terminaux !

Ces deux discussions ne sont pas la seule manière d’interroger la question de la neutralité des technologies. Lors des APIdays, une autre nous en a été présentée, tout aussi passionnante. Celle qui consiste à l’étendre et à la renforcer.

« Nous avons besoin de remanier la manière dont on construit le service public, et les API y joueront un rôle important », estime Sébastien Soriano (@sorianotech), président de l’Arcep (@arcep), l’autorité de régulation des communications électroniques et des postes. Mais les interfaces de programmation ne suffiront pas, explique-t-il sur la scène des APIdays. Nous avons avant tout besoin d’une neutralité d’internet. La neutralité dont on parle n’est pas celle de celui qui ne prend pas parti. Au contraire. Celle dont on parle, la neutralité du net, il est plus que jamais nécessaire de la défendre. D’en poser les cadres et principes. Elle était évidente pour les premiers concepteurs d’internet. Elle consistait à pouvoir se connecter au réseau sans avoir à demander d’autorisations. Aujourd’hui qu’internet est devenu un business, il est plus que jamais nécessaire de prendre parti pour la défendre. Elle n’adviendra pas d’elle-même. « Le but de la neutralité du net est d’assurer la liberté », de définir les règles du jeu, d’établir une architecture avec des principes.


Image : Sébastien Soriano, président de l’Arcep, sur la scène des APIDays, photographié par OuiShare France.

Aujourd’hui, la neutralité du net est défendue à travers un règlement européen qui nous assure que ce principe est là pour longtemps. L’Europe ne défait pas facilement ce qu’elle construit. Cela ne va pas empêcher des gens de tenter de le remettre en cause. Aux États-Unis, ce principe, qui n’est pas défini par le parlement, mais par le régulateur, la FCC, a été retiré fin 2017 (voir les très claires explications qu’en livrait Sébastien Soriano pour Usbek & Rica). Reste que le principe ne se suffit pas à lui seul. On pourrait demain se réveiller en se rendant compte qu’il était insuffisant. Demain, pourrait voir naître un monde sans abonnement à internet. Tous les services pourraient être sur le modèle du Kindle d’Amazon : la connexion entre le terminal et le service d’achat de livre dépend du fournisseur de service. Ce modèle pourrait se généraliser demain : vous pourriez avoir internet dans votre voiture, sans avoir à payer d’abonnement ; des oreillettes connectées via un abonnement direct à Spotify ou à Apple… Le risque est que les opérateurs disparaissent. Que votre expérience soit conçue et limitée par ceux qui distribueront le terminal, qu’ils limitent votre accès à un réseau spécialisé, fermé. C’est ce qu’on appelle le risque de la Kindlisation de l’internet.

Cela signifie qu’il faut regarder plus loin que la neutralité des réseaux. Qu’il faut s’intéresser à la neutralité des terminaux, afin qu’ils ne prennent pas le pouvoir. C’est le sens d’un rapport que doit publier l’Arcep le 15 février qui organise d’ailleurs une après-midi pour débattre de ce sujet. L’enjeu est similaire avec les agents conversationnels ou les assistants vocaux que lancent les grands acteurs du net. Quand vous allez demander à votre voiture de mettre de la musique ou des infos, c’est un agent intelligent qui va décider pour vous. Le risque est qu’ils ne laissent pas le choix à l’utilisateur et qu’ils imposent des services plutôt que d’autres, une chaîne plutôt qu’une autre, alors que vous n’aurez choisi que votre modèle de voiture. D’où le besoin d’affirmer un principe de neutralité des terminaux. « Les interfaces de programmes sont un pan d’avenir de la régulation. Hier, on a poussé à l’interconnexion dans le domaine des télécommunications. Demain, il faudra certainement pousser les acteurs à travailler ensemble dans le secteur du numérique ».

« On ne se battra pas contre Google ou Facebook en faisant comme eux ! »

Dans la table ronde qui suivait cette intervention, le toujours très pertinent Benjamin Bayart (@bayartb), cofondateur de la Quadrature du Net et président de la Fédération des fournisseurs d’accès à Internet associatif revenait sur l’importance de la neutralité du net. « La neutralité du net est une innovation sans permis. Elle nous dit qu’on peut créer un service, un réseau, sans avoir à demander une autorisation. Ça, c’est pour le côté business. Mais elle a aussi une importance sur le plan des libertés fondamentales. Dire que le réseau est neutre, c’est dire que quiconque peut diffuser et accéder à des services sans qu’ils ne déforment la réalité. » Ce problème ne nous touche pas tous d’une manière égale. « Les gens qui ont un accès bridé, c’est d’abord ceux qui ont le moins d’argent. Aux États-Unis, l’accès bridé est d’abord pour les pauvres. » Ceci étant dit, le débat sur la neutralité doit également montrer ce que veulent faire les opérateurs : monétiser l’accès au réseau des plateformes ! En gros, explique Benjamin Bayart, Orange dit à YouTube, tes vidéos prennent de la place, paye-moi. Or, cet accès au réseau, chacun d’entre nous le paye avec son abonnement. Mais ce que cherchent à vendre Orange à YouTube, c’est l’utilisateur. « Vous devenez l’objet du contrat : vous êtes la marchandise qu’Orange vend à YouTube. » Cet enjeu pose la même question que la « loyauté » des plateformes ou que la neutralité des terminaux : à quel moment l’humain passe du statut de sujet à celui d’objet. Or, il faut se souvenir que « les entreprises maltraitent toujours la marchandise ! »

Maryant Fernandez Perez, chercheuse à l’association European Digital Rights (Edri), rappelle que ce débat désormais s’appuie sur un règlement européen qui assure qu’il n’y a pas de discrimination du trafic. Reste qu’on trouve en Europe des offres zero-rating, c’est-à-dire des forfaits limités en données, qui donnent accès à certains services en illimités (comme YouTube, Spotify, Deezer ou Facebook), c’est-à-dire non décomptés du forfait, ce qui va à l’encontre d’un traitement égal de tous les acteurs présents sur le réseau. Sur ce sujet, Sébastien Soriano rappelle que si le règlement européen est un point d’équilibre, il est aussi fortement lié à la concurrence qui existe entre les opérateurs. Aux États-Unis, du fait d’une moindre concurrence, les abonnements sont bien plus chers qu’en Europe. En Europe, la concurrence discipline le marché. En France, il existe très peu d’offres zero-rating parce que la concurrence a développé des offres très avantageuses pour les consommateurs. Les autorités de régulation en Europe jugent les offres de ce type au cas par cas, mais ont adopté une grille d’analyse commune. Cette grille spécifie notamment qu’un opérateur ne peut pas faire une offre avec un seul service, mais doit proposer une classe de service, comme un abonnement avec 10 Giga et réseaux sociaux illimités. Le second principe est que leurs offres ne peuvent pas discriminer un plan technique : si vous épuisez votre forfait, tout doit être bridé. Les autorités de régulation ont donc un droit de regard sur les offres et peuvent demander la modification des offres, si elles vont à l’encontre de ces principes.


Image : Benjamin Bayart, Maryant Fernandez Perez, Sarah Sermondadaz et Sébastien Soriano, photographiés par OuiShare France.

Si cette approche est modérée, on voit bien qu’elle tout de même problème, souligne Benjamin Bayart. « Qui définit les réseaux sociaux ? Quels réseaux sociaux sont illimités dans de telles offres ? Facebook ? Twitter ? Diaspora ? Mastodonte ? Quelles vidéos sont illimitées ? YouTube ? Framatube ? Ca marche avec le fichier vidéo que je télécharge sur bittorrent ?…. Non seulement ces offres interdisent les nouveaux entrants, mais surtout, elle donne le droit aux opérateurs de définir qui est un réseau social et qui ne l’est pas, quelles vidéos sont des vidéos et lesquelles ne le sont pas. » « Construire des jurisprudences prend du temps », rappelle Sébastien Soriano qui ne défend pas ce type d’offres. Les autorités locales réagissent souvent au cas par cas, pointe Maryant Fernandez Perez, soulignant que la Hollande a prohibé ces offres, alors qu’on en trouve en Allemagne et au Portugal notamment, dont une un peu problématique. Le Berec, l’organe des régulateurs européens des communications électroniques, a construit une plateforme d’échange pour discuter de ce type de cas et travailler à une approche commune. L’Arcep Portugais travaille sur cette offre qui pourrait devenir illicite. Le problème est qu’au Portugal, les usagers ne se plaignent pas de cette offre, parce que le marché y est insuffisamment concurrentiel. Si le régulateur fait sa part, on voit qu’il a aussi besoin de la mobilisation des consommateurs.

Ce que les opérateurs comprennent mal, c’est que la neutralité les protège, s’amuse Benjamin Bayart. « Dans l’offre GoogleTV par exemple, l’opérateur disparaît, il n’est plus qu’un revendeur local. Le risque à terme, c’est que les opérateurs prennent de l’argent aux plateformes, mais disparaissent. Vous prendrez un abonnement Netflix et c’est tout ! En terme de business, c’est mortifère pour Orange. La fin de la neutralité risque surtout de tuer les opérateurs, alors qu’ils ne la défendent pas. C’est à croire qu’ils ne comprennent pas leur métier. Or, les services comme Netflix peuvent disparaître demain. Alors que la vidéo arrivera toujours au bout de la fibre optique qui arrive jusque chez moi. Certes, être fournisseur d’accès ne permet pas de faire une croissance annuelle de 90 %. Cela assure des bénéfices industriels très modérés. Mais faire du réseau proprement est une garantie. Lors des ruées vers l’or, souvenons-nous que celui qui s’enrichit, c’est toujours celui qui vend des pelles ! Orange et les grands opérateurs de réseaux sont dans cette position. Ils ont la position la plus saine et la plus pérenne. Le seul défaut, c’est qu’ils ne feront pas les taux de croissance des plateformes et des startups ! »

Aujourd’hui, les géants d’internet que sont Google ou Facebook cherchent à proposer de l’accès à internet, notamment en Afrique ou en Inde, pointe Sarah Sermondadaz de Sciences et Avenir qui modère la table ronde. « Oui », réplique Benjamin Bayart ironique. « Le client chez Facebook ou Google c’est l’annonceur publicitaire, c’est pas vous. Ils vendent des humains à des publicitaires. En Afrique comme en Inde, ils ont trouvé une nouvelle mine d’humain à exploiter. » Au niveau du Berec, nous sommes allés en Inde pour créer des ponts sur ces questions de neutralité, explique Sébastien Soriano. En décembre dernier, l’Inde a adopté un dispositif de neutralité du net et a pris une décision à l’encontre de Facebook. Partager des standards, des référentiels communs permet à chacun d’être plus fort et nous permet d’arrêter de regarder les États-Unis comme l’unique modèle.

La question de la neutralité du net ne s’arrête pourtant pas là. Benjamin Bayart prend un autre exemple, celui de l’offre du groupe SFR qui propose un accès aux titres de presse du groupe en même temps qu’un abonnement d’accès à l’internet. Si le but de SFR semble plutôt de jouer de la fiscalité, cette offre n’est pas neutre politiquement. Les clients de SFR sont incités à aller lire Libé plutôt qu’un titre qui n’appartient pas au groupe SFR. Reste que ce n’est pas anodin de distordre ainsi l’accès à de l’information. Pourtant, cette offre ne relève pas de la régulation des télécommunications. SFR n’agit pas sur le réseau. « Les pages de Libé sont aussi lentes depuis SFR que depuis Orange ! » Ce n’est certes pas un problème de neutralité du net comme on l’entend, mais l’exemple montre bien que de grands acteurs économiques cherchent toujours à déformer le réseau et que le règlement européen est encore trop faible.

Pour Benjamin Bayart, cela montre qu’on peut améliorer cette question de neutralité du net. En renforçant la neutralité des intermédiaires techniques. « Les intermédiaires nous doivent la neutralité ! Que le terminal soit dans ma box ou sur ma montre, on me doit une neutralité. » L’autre moyen consiste à renforcer le pouvoir de l’utilisateur, c’est-à-dire de permettre aux gens d’exercer un choix et d’avoir du pouvoir sur leurs outils. « Un lecteur de DVD ne doit pas nous interdire de zapper la pub. Quand il le fait, il répond à des intérêts qui ne sont pas les nôtres, il ne nous obéit pas. Sur nos téléphones, on doit pouvoir mettre le logiciel que l’on veut. Il faut renforcer le droit des utilisateurs à contrôler les éléments qu’ils utilisent ». Pour Maryant Fernandez Perez, il est aussi nécessaire de renforcer la confidentialité des communications.

Reste à savoir si l’absence de neutralité des États-Unis ou de la Chine va nous impacter. La neutralité est toujours théorique, consent Sébastien Soriano. « Le grand danger dans la transformation numérique qu’on connaît, c’est qu’il y a des pays comme la Chine ou les États-Unis qui sont organisés pour prendre le pouvoir à l’échelle mondiale. Ils le font avec succès. Ce qui m’inquiète, c’est que l’Europe soit en train de disparaître de la carte des acteurs du numérique. Nos valeurs et notre histoire ne sont pas représentées. On peut certes agir en régulant, mais ça ne suffit pas. Parmi nos objectifs, il y a la protection des droits humains. Et une manière de les protéger, c’est aussi de développer du business en Europe. Les entrepreneurs européens peuvent apporter des solutions qui défendent mieux les droits humains, comme le font déjà certains dans le domaine des moteurs de recherche. Le problème, c’est que nous n’avons pas de stratégie continentale pour y arriver. Ce qui est, pour moi, un motif d’inquiétude. Il nous faut développer des entreprises massives qui proposeront des instruments pour concurrencer les Gafa, plus respectueux qu’eux des droits des utilisateurs. S’il faut effectivement donner du pouvoir aux utilisateurs, il nous faut également soutenir des entreprises et des organisations qui portent des solutions. Ce qui pourrait arriver de pire est de penser que la protection des utilisateurs nous empêche de développer des géants, que la liberté des utilisateurs empêche le développement des affaires. On a désormais besoin d’une stratégie de développement des entreprises européennes. Si on ne s’en dote pas, les digues de la protection des utilisateurs risquent de céder un jour. »

Benjamin Bayart acquiesce. S’il faut continuer à défendre les libertés, il faut effectivement construire des stratégies industrielles. On a besoin de créer des entreprises qui fournissent de grands services tout en respectant la vie privée des utilisateurs. Reste qu’il faut pour autant se défier des stratégies industrielles qu’on a cherché à mettre en place jusqu’à présent et qui n’ont pas fonctionné. On n’aura pas demain de Capgemini de l’hébergement comme on a eu un Airbus. « Le moteur de l’innovation aujourd’hui est dans les associations, les petites structures… » Les grandes entreprises voient le RGPD comme une menace et cherchent plutôt à le contourner que d’en faire une force. L’Europe offre un espace économique possible pour une autre innovation. Le moteur de recherche Qwant en est effectivement un stimulant contre-exemple. « On ne se battra pas contre Google ou Facebook en faisant comme eux ! » Aujourd’hui, force est de constater que les modèles intelligents sont portés par des associations. Et les entrepreneurs devraient s’y intéresser. L’enjeu n’est pas forcément d’aider les grands groupes ou de créer un grand acteur, « ,mais d’imaginer des modèles de petites acteurs qui se consolident les uns les autres ». Nous avons du potentiel, mais nous ne le soutenons pas. Le travail réalisé par Framasoft via Degooglisons l’internet est remarquable. Le système d’exploitation libre Replicant est un logiciel qui garantie la sécurité et la vie privée des utilisateurs et n’a coûté que 15 000 euros à mettre au point… Ce ne sont que quelques exemples d’une longue liste… En attendant, l’armée, malgré ses besoins sensibles, achète toujours ses logiciels chez Microsoft. « La commande publique n’est pas prévue pour aider les petits qui peuvent devenir gros, ceux qui sont différents. »

Effectivement. Si le modèle européen se fonde sur d’autres valeurs. Il va falloir activement soutenir les initiatives qui proposent une autre innovation !

Hubert Guillaud

Catégories: Veille et actualités

API Days : responsable, l’informatique ?

Internet Actu - ven, 09/02/2018 - 07:00

Cette année la conférence APIDays qui se tenait fin janvier à Paris avait choisi une thématique ambitieuse : le développement durable. Force est de constater qu’il n’en aura pas été beaucoup question, autrement que sous la forme un peu facile d’appels à l’action, tant le sujet semble loin d’être effectif dans les interfaces de programmation. L’efficience énergétique des systèmes est certainement beaucoup moins audible que les opportunités d’affaires que les API, ces systèmes d’échanges de données, permettent de développer. Au final, les ateliers pour rendre les API conformes au Règlement général sur la protection des données (RGPD) étaient bien plus nourris que les conférences sur l’amélioration de l’efficacité énergétique des systèmes d’échange de données. A croire que la question écologique ne semble pas encore à très audible dans le numérique.

Comme le soulignait Patrice Slupowski (@slupowski) responsable de l’innovation numérique d’Orange, l’enjeu reste d’abord de construire les outils pour faciliter les échanges, expliquait-il en évoquant les nombreuses initiatives d’Orange à l’égard des développeurs, comme les « Trust Badge » (des badges lisibles visant à clarifier les droits liés aux données), le DataShare (le répertoire des ressources ouvertes disponibles chez l’opérateur), ou encore Mobile Connect, un système d’authentification distribué… Même son de cloche chez IBM, où Alan Glickenhouse (@arglick, responsable de l’unité d’affaires API était plus disert pour expliquer comment les API permettent d’accélérer la mise sur le marché des projets… qu’à améliorer l’efficience énergétique des outils d’échanges d’information entre systèmes.

Le sympathique évangéliste en chef des interfaces de programmation, Mike Amundsen (@mamund), directeur de API Academy, responsable de l’architecture des API chez CA Technologies et auteur de très nombreux livres sur la question, avait beau s’escrimer sur la scène des APIdays, dans une présentation un peu onirique, ses constats avaient de la peine à dépasser les évidences. Les références à John Elkington (@volansjohn), pionnier de la responsabilité sociale des entreprises (RSE), qui invite à évaluer la performance des entreprises d’un point de vue économique, social et environnemental à celles du pionnier du développement logiciel durable, Kevin Tate auteur de Développpement logiciel durable, semblaient évoquées comme des perspectives à prendre en compte à l’avenir, malgré leurs anciennetés. Plus tard, lors d’une table ronde, il se voulait plus velléitaire : « Nous sommes capables de connaître l’impact environnemental de chaque produit, de chaque service. Mais il nous faut le mesurer et le rendre visible ! » Pour Eric Hoesnyi de Streamdata.io, rien n’empêche les interfaces d’échanges de données que sont les API de préciser leurs modalités en terme énergétique par exemple. Les protocoles sont encore balbutiants, mais on peut techniquement imaginer des API qui évaluent leur coût environnemental. Certes, concède ce dernier, la RSE appliquée à la technologie nécessite encore beaucoup d’efforts. Force est pourtant de constater que ces questions sont souvent laissées de côté. Pour créer de l’attention sur ses sujets, il faut les faire remonter dans les cahiers des charges comme dans les argumentaires. La question écologique de l’écosystème numérique ne se résoudra pas spontanément, comme par magie, sans faire remonter cette préoccupation au coeur des systèmes techniques.

Améliorer les indicateurs pour mettre la question écologique à l’agenda du numérique

C’est lors d’une autre table ronde consacrée à l’obsolescence programmée que les questions les plus pratiques ont finalement été abordées.

Laetitia Vasseur (@laetitiavsr), présidente et cofondatrice de Halte à l’obsolescence programmée (HOP, @halteop) a d’abord rappelé ce qu’on entend par obsolescence programmée, à savoir une stratégie pour raccourcir la durée de vie d’un produit. Cette obsolescence peut prendre plusieurs formes : technique (comme les appareils qui ne permettent pas de changer de batterie facilement), esthétique (lié aux effets de mode) et logicielle (à l’image des mises à jour qui ralentissent le fonctionnement des appareils). Si le problème n’est pas nouveau, il va à l’encontre de la durabilité et de la réparabilité des produits qu’on est en droit d’en attendre.


Image : Flore Berlingen de ZeroWaste France, Laetitia Vasseur et Frédéric Bordage sur la scène des APIDays, photographiés par Stephane Kersulec.

Frédéric Bordage, fondateur de GreenIT (@greenit), rappelle quelques chiffres. On estime que le numérique représente 2 % des émissions mondiales de gaz à effet de serre. Il participe très activement à l’épuisement des matières premières non renouvelables : il faut 32kg de matières premières pour faire une simple puce. Chaque Français produit 20 kilos de déchets électroniques par an… Derrière, ces chiffres – et Frédéric Bordage pourrait en citer beaucoup d’autres – il faut surtout entendre que le problème est avant tout lié à la fabrication matérielle, plus que dans l’utilisation (sauf pour la consommation électrique, bien sûr). La fabrication d’un ordinateur portable émet 100 fois plus de gaz à effet de serre que la phase d’utilisation, explique le spécialiste qui plaide pour l’allongement de la durée de vie de nos équipements électroniques (et ce alors qu’elle a plutôt tendance à raccourcir : la durée de vie d’un ordinateur est passée de 10 ans à moins de 3 ans en 30 ans). HOP plaide également pour l’allongement de la durée de vie de nos équipements, d’autant plus nécessaire à l’heure de l’obsolescence accélérée. L’enjeu, dans les deux plaintes qu’a lancé l’association – l’une contre les fabricants d’imprimantes, étayée par un rapport nourri, l’autre contre Apple qui avait reconnu avoir bridé les performances de ses anciens smartphones afin que leurs batteries usées ne se vident trop rapidement -, c’est de pousser le secteur à mettre l’écologie à son agenda. « L’innovation aujourd’hui doit être dans la durabilité. Le contraire n’est pas soutenable ! » Dans le cas d’Apple, le ralentissement des performances des téléphones a un impact : celui de vous pousser à changer de téléphone, du fait que son ralentissement le rend moins utilisable. En fait, « l’utilisateur est pris en étau » et l’enseigne décide pour lui de ce qu’il doit privilégier entre performance et longévité. Pour Frédéric Bordage, nous sommes pris dans les rets des obésiciels, ces couches logicielles qui ralentissent les appareils au fil des mises à jour. Comme le pointe la loi de Wirth, le logiciel ralentit plus vite que le matériel. « Il faut 115 fois plus d’octets pour délivrer un même contenu en ligne aujourd’hui qu’il y a 20 ans ! » L’utilisateur est pris en otage par les mises à jour, entre protection et utilisabilité, estime-t-il en invitant à ce que les mises à jour de sécurité soient distinctes des autres. Et c’est sans compter sur le développement de l’incompatibilité des formats qui rend les anciennes versions inaccessibles. Avec le collectif « conception numérique responsable », Frédéric Bordage a développé une méthodologie d’éco-conception pour créer des services plus responsables permettant de réduire considérablement l’empreinte technique des services (voir le dossier sur l’éco-conception logicielle de Greenit, ainsi que le livre sur les 115 bonnes pratiques d’éco-conception web).

Pour Laetitia Vasseur, les utilisateurs ont besoin d’indicateurs plus pertinents pour faire leurs choix et les industriels doivent se saisir de la question de la réparabilité et de l’efficacité énergétique des produits qu’ils proposent. Ils doivent nous montrer par exemple que les commandes électroniques des machines à laver ou que leur connectivité permettent vraiment d’avoir des gains en matière d’énergie, explique-t-elle en militant pour que les machines affichent le cycle total de tous leurs lavages, c’est-à-dire leur durée de vie. HOP souhaite développer une plateforme pour évaluer la durabilité des produits : leur robustesse, la disponibilité de pièces détachées, l’apport de leur connectivité… Pour Frédéric Bordage, la disponibilité d’API ouvertes et de logiciels open sources pour allonger la durée de vie des produits sont des facteurs essentiels pour assurer la maintenance et la réparabilité des objets connectés afin de lutter contre l’obsolescence accélérée. Il faut également lutter contre des pratiques marketing peu responsables, comme celle qui consiste de rendre la batterie des téléphones inamovibles pour empêcher son remplacement : « Faiphone a montré qu’il était possible de produire un téléphone plus responsable ».

Sous la pression des consommateurs, le sujet bouge, estime Laetitia Vasseur. La consultation sur la proposition de feuille de route de l’économie solidaire, la loi sur la disponibilité des pièces détachées, le rapport européen pour une durée de vie plus longue des produits… sont autant d’éléments qui montrent que la question gagne en importance. Aux Etats-Unis, une règlementation s’assure que les fabricants n’utilisent pas de minerais provenants de zones de conflits, pointe Frédéric Bordage. La filière du diamant travaille à mettre en place un système de traçabilité… montre-t-il en invitant les fabricants d’appareils électroniques à être exemplaires. « C’est nous, utilisateurs, qui avons le pouvoir. C’est à nous, consommateurs de prendre nos responsabilités ». Allonger la durée de vies des produits, favoriser la réparabilité (comme le proposent iFixit ou SosAV) ou le réemploi (comme le propose BackMarket par exemple) sont des comportements essentiels. « C’est aussi à nous de prendre garde à nos usages ! »

Pour une autre innovation !

« Nous ne sommes ni dans une société dématérialisée ni dans une société postindustrielle, mais dans une société hypermatérielle et hyperindustrielle. Le problème est que cela ne se voit pas. La fabrication matérielle est délocalisée en Asie et les énormes centres de données que nous sollicitons sans arrêt sont invisibles, disséminés derrière nos usages quotidiens. Or l’impact écologique de l’écosystème numérique a un coût, qui est de plus en plus visible et qui progresse de plus en plus vite », rappelle l’ingénieur Philippe Bihouix, auteur de L’âge des low tech (voir notre article : « Vers l’effondrement : aurons-nous encore un futur ? »).

Il est difficile de connaître la facture écologique exacte du numérique. Si la consommation énergétique se voit le mieux, c’est loin d’être le seul impact de notre système technique. De nombreuses études et de multiples rapports ont tenté d’évaluer les choses, mais il est très difficile de ramener nos pratiques à des actes unitaires, d’autant que ceux-ci sont d’une grande diversité. Cela n’empêche pas d’être conscient de quelques ordres de grandeur. On estime par exemple que la consommation énergétique des serveurs et équipements informatiques dans le monde totalise environ 10 % de l’électricité mondiale et que cette consommation progresse plus vite que le trafic aérien qui pourtant progresse vite. Si la consommation énergétique est ce qui se voit le mieux, nos appareils consomment également beaucoup de ressources, et notamment de métaux rares issus d’une extraction minière extrêmement polluante, non renouvelable, qu’on n’économise pas et qu’on ne recycle pas. La principale caractéristique de l’utilisation des métaux rares est de reposer sur des alliages en des quantités infimes qui rendent leur recyclage très compliqué. Aujourd’hui, ces métaux rares sont utilisés pour améliorer la conductivité des écrans tactiles, pour créer des batteries toujours plus performantes ou pour construire des aimants toujours plus miniatures et puissants qui sont les moteurs de nos appareils électroniques.


Image : Philippe Bihouix sur la scène des APIdays, photographié par OuiShare France.

Pourtant, estime Philippe Bihouix, on pourrait améliorer les choses. En diminuant les fonctionnalités de nos terminaux par exemple (a-t-on vraiment besoin de gyroscopes dans tous nos appareils mobiles ?). En améliorant la durée de vie de ces appareils, en luttant contre l’obsolescence marketing. L’éco-conception est certes un levier, mais l’abaissement des coûts de stockage et le recours au temps réel permanent n’aident pas à avoir des réflexes de sobriété. En fait, on ne se dirige pas vraiment vers l’amélioration énergétique, constate Bihouix. Si l’écosystème numérique ne cesse de faire des progrès unitaires spectaculaires en terme de consommation énergétique, l’effet rebond est hallucinant : des 8 zettaoctets de données stockés dans le cloud (soit 2000 Go par internaute), on devrait passer à 20 d’ici quelques années. Malgré les progrès en responsabilité de conception et d’architecture des technologies, la facture du numérique ne cesse d’exploser.

L’internet plus vert qu’on nous promet repose sur un solutionnisme assez naïf. L’intelligence – de la smart car, de la smart home, de la smart city… – promettant d’abaisser nos consommations souffre de deux écueils principaux pour réaliser sa promesse d’optimisation : la complexité et le temps. Transformer 30 millions de bâtiments en bâtiments intelligents prend du temps. Faire advenir la voiture autonome (qui aura une durée de vie plus courte que celles qui ne le sont pas du fait de son équipement électronique) nécessite de faire disparaître toutes celles qui ne le sont pas. « Dans le monde physique de l’énergie, il n’y a pas de loi de Moore ! »

L’autre contrainte est bien sûr, encore et encore, l’effet rebond. « Intel estime qu’une voiture autonome qui roulerait durant 1h30 produirait 4000 Gigas de données. Si on multiplie ce chiffre par 1 million de voitures autonomes, cela produirait l’équivalent du trafic internet actuel. Or, il y a plus d’un milliard de voitures en circulation ! » Ce que nous dit l’effet rebond, c’est qu’on ne maîtrise pas du tout l’évolution de la demande. On ne distingue pas assez l’efficacité qui permet effectivement de générer des gains d’énergie unitaire importants de la démultiplication des volumes liée aux modifications de comportements.

Nous sommes envahis par les outils numériques parce qu’ils sont pratiques et qu’ils produisent de la productivité, rappelle Philippe Bihouix. Mais, notre système fiscal date du XIXe siècle, à un moment où les ressources étaient peu chères contrairement au travail humain. Aujourd’hui, d’un point de vue environnemental, l’énergie et les ressources sont devenues coûteuses et ce d’autant plus qu’il faut aller les extraire toujours plus profondément à un coût énergétique toujours plus élevé. A l’inverse, le travail est devenu plus abondant. Or, on continue à remplacer l’humain par la machine !

Changer de modèle nécessite une révolution culturelle. Nous pourrions faire un peu plus d’effort pour l’envisager. Comme il le détaille dans une interview réalisée par le magasine Ouishare, « Si l’on se mettait à taxer le carbone, les énergies et les ressources, le calcul économique des entreprises serait tout autre et cela deviendrait “mécaniquement” moins intéressant de remplacer le travail humain par de l’énergie et des machines ».

Nous n’allons pas heurter demain, brutalement, un mur de ressources, estime l’ingénieur. Nos technologies ne cessent de progresser, nous permettant d’extraire et d’exploiter des minerais de moins en moins concentrés, mais aux dépens de dégâts environnementaux de plus en plus lourds. Le risque auquel nous faisons face n’est pas seulement celui de l’effondrement des ressources, il est bien plus systémique. Nous avons un devoir moral face à l’avenir…

Comme il le soulignait il y a peu de temps dans une tribune très synthétique de ses propositions, « l’innovation doit d’abord être facteur de sobriété ou de frugalité ». Elle doit également « permettre ensuite de recycler au mieux les ressources et augmenter la durée de vie de nos objets, les repenser en profondeur, les concevoir simples, robustes et conviviaux, réparables et réutilisables, standardisés, modulaires, à base de matériaux simples, faciles à démanteler, n’utiliser qu’avec parcimonie les ressources rares et irremplaçables, limiter le contenu électronique ». Elle doit enfin « réinventer nos modes de production, remettre en question la course à la productivité et aux effets d’échelle dans les giga-usines, revoir la place de l’humain, le degré de mécanisation et de robotisation parfois injustifié, notre manière d’arbitrer entre main-d’œuvre et ressources. »

Nous ne ferons pas l’économie de repenser notre rapport à l’innovation, d’en établir des limites, aussi désagréables soient-elles.

Hubert Guillaud

Catégories: Veille et actualités

Aux origines de CRISPR

Internet Actu - jeu, 08/02/2018 - 07:00

Il est bien connu que les meilleurs vulgarisateurs sont souvent ceux-là mêmes qui ont fait les découvertes. Le bouquin d’Einstein et Infeld sur la relativité est par exemple l’une des meilleures expositions du sujet pour le grand public. A Crack in Creation, le premier livre sur CRISPR écrit par l’une de ses deux co-découvreuses, Jennifer Doudna, associée à Samuel Sternberg, un chercheur de son équipe, entre dans cette catégorie. On comprend vraiment grâce à eux le mécanisme de cette nouvelle biotechnologie ainsi que ses implications.

Le livre est divisé en deux parties, la première nous raconte l’historique de la découverte, la seconde est consacrée aux futurs impacts de CRISPR, ainsi qu’aux inévitables questions éthiques. Bien que l’ouvrage possède deux auteurs, il est néanmoins écrit à la première personne, et c’est la voix de Jennifer Doudna qui s’exprime.

De l’importance de la recherche fondamentale

La première partie est bien plus qu’un simple historique. Elle nous permet de comprendre la nature de CRISPR. C’est la portion la plus scientifique du livre.

Qu’apprend-on ? Tout d’abord que CRISPR n’est pas sorti du néant… En fait ce système existe depuis bien longtemps dans la nature, c’est un élément du système immunitaire de nombreuses bactéries. En gros CRISPR est constitué de deux éléments. Le premier s’apparente, nous dit Doudna, à un « GPS » capable de repérer la signature ADN d’un virus et de diriger vers celui-ci le second élément du dispositif, une enzyme capable de détruire le génome de l’envahisseur, la molécule Cas. Il existe plusieurs sortes de Cas. Par exemple Cas3 éparpille l’ADN hostile en petits morceaux façon puzzle. Impressionnant, mais pas très utile. C’est la découverte d’un système CRISPR utilisant la molécule Cas9 qui allait se révéler révolutionnaire : celle-ci est en effet capable de couper proprement une portion d’ADN repérée par le GPS. Lorsqu’un ADN est ainsi sectionné, il cherche à se réparer en intégrant un échantillon susceptible de prendre sa place au sein de la chaîne. Il suffit alors que soit présente une version modifiée de la séquence supprimée pour que celle-ci prenne sa place.

C’est après de longues études sur ce système immunitaire bactérien que Jennifer Doudna, Emmanuelle Charpentier et leur équipe ont pu élaborer la technologie CRISPR. C’est la première remarque qu’on peut faire sur la découverte : il s’agit, avant tout, de science fondamentale. CRISPR n’est pas un bricolage technologique, c’est la mise en application d’un phénomène naturel. Un ingénieur de la Silicon Valley avait dit a Jennifer Doudna : « Donnez-moi n’importe quel problème et je vais y investir 10 millions de dollars puis j’embaucherai la meilleure équipe et je résoudrai le problème. ». Cela s’applique-t-il à CRISPR ? Probablement pas, car, comme elle l’explique dans la conclusion de son livre, cette découverte « a été inspirée par une recherche motivée par la curiosité envers les phénomènes naturels. La technologie que nous avons créée n’a pas demandé dix à vingt millions de dollars pour être développée, mais elle nécessitait une compréhension approfondie de la chimie et de la biologie de l’immunité adaptative bactérienne, un sujet qui peut sembler sans rapport avec l’édition de gènes. Ceci n’est qu’un exemple de l’importance que revêt la recherche fondamentale – la poursuite de la recherche scientifique afin de comprendre notre monde naturel – et de sa pertinence dans le développement de nouvelles technologies. »

Des perspectives vertigineuses

Dans la seconde partie de son ouvrage, Jennifer Doudna se penche sur les applications de la nouvelle technologie, dans trois domaines notamment : l’élevage et l’agriculture, tout d’abord, la médecine, ensuite. Enfin, elle aborde le délicat problème de la modification génétique sur la lignée, autrement dit la mise en place de transformations du génome susceptibles d’être transmises à la génération suivante.

On a déjà parlé dans InternetActu.net des interventions possibles sur des espèces animales et végétales (par exemple ici et ici), on ne reviendra pas dessus. Mais oui, on devrait pouvoir ressusciter des espèces disparues comme le souhaitent les partisans de la dé-extinction, voire en créer de nouvelles, comme des dragons volants ou des licornes, ou encore faire totalement disparaître des animaux nuisibles, comme les moustiques.

Mais Jennifer Doudna pose dans son livre une problématique qui mérite d’être soulignée. L’édition génétique, précise-t-elle, n’appartient pas à la même catégorie que les OGM. Dans cette dernière technologie, on introduit dans un organisme un fragment du génome d’une autre espèce. Dans l’édition génétique de type CRISPR, on n’introduit pas d’éléments étrangers : on se contente de modifier un gène, parfois très légèrement. Or, c’est précisément ce que font les agriculteurs et des éleveurs depuis des millénaires, en utilisant la sélection artificielle pour obtenir les mutations les plus avantageuses. CRISPR ne change pas la nature d’un organisme, il accélère seulement son évolution dans un sens. Au final, rien ne permet de distinguer un animal ou une plante modifiée via CRISPR et un autre qui aurait développé ces caractéristiques de manière « naturelle » (si tant est qu’on peut encore utiliser ce terme pour l’agriculture ou l’élevage).

De fait certaines modifications rendues possibles par CRISPR peuvent donner froid dans le dos et nous interroger sur nos motivations ; mais en réalité, elles renvoient juste à une réalité millénaire dont nous étions jusqu’ici inconscients. Par exemple, certains chercheurs envisagent de créer de nouvelles races d’animaux de compagnie, par exemple des microcochons, qui ont au départ été créés à des fins de recherche par l’institut de Génomique de Pékin. Cela peut paraître futile, et surtout cruel pour les animaux concernés. Sans doute. Mais pourquoi dans ce cas ne nous sommes pas alarmés sur le sujet des centaines d’années plus tôt ? Car nous rappellent les auteurs, la plupart des races de chiens ont été ainsi créées, artificiellement, et cela n’a pas été sans conséquence sur leur bien-être.

« Contrairement aux microcochons, dont la santé n’est pas différente de celle de leurs parents de taille normale, la consanguinité extensive des chiens a eu des conséquences dévastatrices sur leur santé. Les labradors sont sujets à une trentaine de maladies génétiques, 60 % des golden retrievers succombent au cancer, les beagles sont souvent atteints d’épilepsie et les Cavaliers King Charles Spaniels souffrent de crises et de douleurs persistantes dues à leurs crânes déformés. « 

Une nouvelle approche de la médecine

En gros, on peut diviser les thérapies par CRISPR en deux grandes catégories. Les modifications somatiques qui concernent la plupart des cellules du corps et celles effectuées sur les cellules sexuelles, qui affecteront toutes les générations suivantes. Bien sûr, dans le domaine thérapeutique, la plupart des recherches portent sur les modifications somatiques, qui permettront de guérir des malades. Elles sont cependant plus difficiles à effectuer que les modifications sur la lignée, car, comme l’expliquent Doudna et Sternberg : « Inverser une mutation causant une maladie dans une seule cellule germinale humaine est beaucoup plus simple que d’essayer d’obtenir le même résultat avec certaines des cinquante billions de cellules somatiques qui composent un corps humain. « 

Ces traitements somatiques peuvent à leur tour se diviser en deux sous-catégories. L’application de CRISPR peut se faire in vivo ou ex vivo. Dans le second cas, on extrait un certain nombre de cellules malades du corps du patient, qu’on traite alors en tube à essai. Une fois le gène de ces cellules convenablement modifié, on réintroduit ces dernières à l’intérieur du corps. C’est le genre de pratique idéale pour les maladies du sang, le patient pouvant ainsi s’autotransfuser avec des cellules guéries, ou se faire son propre don de moelle épinière.

Mais parfois, l’approche in vivo, plus difficile, est indispensable. Pour ce faire on utilise des virus transportant le système CRISPR près des cellules malades.

Dans le domaine de l’immunothérapie notamment, CRISPR pourrait s’avérer très précieux. Cette nouvelle thérapie contre le cancer se base sur la tentative de rendre nos anticorps plus efficaces pour combattre la maladie. Jennifer Doudna cite comme exemple de réussite le cas d’une petite fille atteinte d’un cancer avancé, qui en dernier recours expérimenta une technologie d’immunothérapie basée sur l’édition génétique (on n’utilisa pas CRISPR, mais une des technologies plus anciennes) et qui connut ainsi une rémission complète de son mal.

Mais des inquiétudes à l’horizon

S’il n’existe guère d’objections éthiques à l’usage des modifications somatiques des gènes, ce n’est bien sûr pas le cas de celles qui s’effectuent sur toute une lignée, surtout si l’être humain est concerné.

Sur ce point, Jennifer Doudna reste très modérée, ne cherchant pas à répondre aux interrogations par des formules rapides. En tout cas, elle n’évite pas les motifs d’inquiétudes, qui ont même hanté ses cauchemars, comme celui-ci :

« Dans ce rêve, un collègue m’approchait et me demandait si j’étais disposée à enseigner à quelqu’un le fonctionnement de la technologie d’édition génétique. Je suivis mon collègue dans une pièce pour rencontrer cette personne et je fus choqué de voir Adolf Hitler, en chair et en os, assis devant moi. (…) Fixant ses yeux sur moi avec un vif intérêt, il me dit : « Je veux comprendre les utilisations et les implications de cette technologie étonnante que vous avez développée. »

Ces inquiétudes l’ont poussé à sortir du confort de son labo pour se pencher sur les implications de sa découverte. En janvier 2015, elle réunit un petit groupe afin de publier un « livre blanc » contenant des recommandations sur les futures recherches. Cet article fut publié en mars de la même année sous le titre : « A prudent path forward for genomic engineering and germline gene modification« .

« Nous avons demandé aux scientifiques de s’abstenir d’essayer d’effectuer des changements héréditaires sur le génome humain. Même dans les pays où la réglementation est laxiste, nous voulions que les chercheurs se restreignent jusqu’à ce que les gouvernements et les sociétés du monde entier aient l’occasion d’examiner la question. Bien que nous ayons finalement évité d’utiliser les mots « interdiction » ou « moratoire », le message était clair : pour le moment, de telles applications cliniques devraient être interdites. « 

Un mois après, en avril 2015, étaient publiés les fameux travaux de l’équipe chinoise sur les embryons humains (non viables)… Cette expérimentation eut pour conséquence d’exciter le débat qui jusqu’ici était resté plutôt confiné à une discussion entre spécialistes.

Malgré ses inquiétudes, Jennifer Doudna n’est pas insensible aux arguments en faveur de manipulations sur les cellules germinales. Mais tout d’abord elle prend soin de préciser que CRISPR et l’édition génétique en général ne pourront probablement pas créer des changements profonds dans le comportement ou les capacités mentales, ce genre de caractéristiques impliquant probablement trop de gènes, de l’épigénétique et un rôle fondamental de l’environnement. Non, les transformations qu’on peut attendre en premier lieu de ce genre de technologie seraient l’éradication de maladies génétiques, ainsi que quelques améliorations comme l’augmentation de la capacité musculaire. Jennifer Doudna s’étend peu sur ces dernières : il est vrai que dans notre monde mécanisé, créer une lignée d’Arnold Schwarzenegger n’est ni utile, ni urgent, ni même spécialement souhaité par la plupart des gens.

Que dire alors de l’éradication des maladies génétiques ? Bien sûr, il y a la fameuse opposition réparation/augmentation qui peut servir de guide pour la réflexion. Qui en effet pourrait contester l’élimination de maladies génétiques mortelles comme la maladie de Huntington ou la mucoviscidose ? Mais, rappellent les auteurs, cette opposition entre réparation et augmentation a quelque chose de factice et trouve bien vite ses limites. A partir d’un certain point, la réparation est une forme d’augmentation. Pour exemple le gène PCSK9, susceptible de réguler le taux de mauvais cholestérol. Manipuler cette zone permettrait à toute une lignée d’humains d’être protégée contre ce cholestérol, et donc contre les maladies cardiovasculaires. S’agit-il de réparation ou augmentation ? On pourrait très bien imaginer des dynasties de familles riches possédant ainsi un ensemble de mutations les protégeant contre la plupart des pathologies affectant leurs congénères humains, leur donnant ainsi un avantage certain.

Sur ces questions, Jennifer Doudna évite toute posture dogmatique, dans un sens comme dans l’autre. Mais il semble évident que pour elle, le caractère cruel et douloureux de certaines maladies génétiques justifie tout à fait leur éradication de l’espèce humaine. Citant Charles Sabine, une personne atteinte de la maladie de Huntington : « Quiconque doit faire face à la réalité de l’une de ces maladies ne va pas se mettre à avoir des scrupules et à penser qu’il y a là un problème moral. »

« Qui sommes-nous pour lui dire le contraire ? », répond Jennifer Doudna.

Le livre soulève une série de questions auxquelles il va falloir trouver des réponses assez vite, tant sont rapides les progrès dans ce domaine. Il est hors de doute que la décennie 2010 restera dans l’histoire comme « les années CRISPR » et que cette découverte va changer la nature de notre rapport au corps, à l’environnement et à la société dans un futur très proche. Espérons que cet ouvrage trouvera vite un traducteur français !

Rémi Sussan

Catégories: Veille et actualités

[Journées d'étude] Journalisms and Social Worlds

Bretagne - MARSOUIN - mer, 07/02/2018 - 14:25

Journées d'étude sur les thèmes Journalismes & mondes sociaux

ULB – Bruxelles – 12-13 février 2018

Organisateurs :

  • Joël Langonné (Université de Rennes 1, France) : joel.langonne@gmail.com
  • Fábio Henrique Pereira (ReSIC-Université Libre de Bruxelles et Universidade de Brasília, Brasil) fabiop@gmail.com
  • Olivier Tredan (Université de Rennes 1, France) : olivier.tredan@univ-rennes1.fr
  • Florence Le Cam (Université Libre de Bruxelles) flecam@ulb.ac.be

Programme :

Pourquoi mes données personnelles ne peuvent pas être à vendre !

Internet Actu - mar, 06/02/2018 - 11:41

Permettre à chacun de vendre ses données personnelles a toujours été une réponse simpliste, plusieurs fois avancée, toujours repoussée. Quand on entend un minimum ce que sont les données personnelles, on comprendra très vite qu’en fait, cette marchandisation des données, cette « patrimonisation » comme on l’appelle, est impossible.

La dernière tribune en date, qui fait suite au rapport du think tank libéral Génération Libre, estime que la meilleure réponse à l’exploitation de nos données personnelles consiste à en laisser la maîtrise à chacun leur permettant d’en vendre des accès comme bons leur semble. C’est bien mal comprendre ce que sont les données personnelles. Sans la possibilité pour les services d’accéder aux données personnelles des utilisateurs, l’internet et le web ne pourraient tout simplement pas exister puisque des utilisateurs pourraient refuser le seul enregistrement de leur accès à un service, c’est-à-dire l’enregistrement de leur adresse IP qui leur permet de se connecter. Sans la possibilité pour les services publics de constituer des bases de données, ceux-ci ne pourraient pas fonctionner : la seule collecte des impôts par exemple ne pourrait pas être possible, puisque des citoyens pourraient refuser que les impôts collectent des informations sur eux, ne serait-ce que leur adresse pour les leur notifier (ce qui ne déplairait certainement pas aux libéraux qui ont signé cette tribune). Les élèves pourraient refuser l’inscription de leurs notes sur leurs bulletins scolaires. Les clients de refuser de payer leurs courses ou leurs factures. Établir les données personnelles comme un droit de propriété que chacun pourrait librement décider de vendre au plus offrant ou décider de ne pas céder signerait donc rien de moins que la fin de l’Etat de droit.

Il est donc en fait impossible de ranger les données personnelles sous le sceau de la propriété. Au mieux, comme le soulignent certains, peut-on dire qu’elles sont co-créées, co-produites, entre le service et son utilisateur : nos données de consommation sont créées à la fois par mon acte d’achat et par l’acte d’enregistrement du magasin, mes données de connexion par le site web auquel je me connecte et ma navigation, mes notes par le professeur qui met une note et l’élève qui la reçoit, ma facturation par la personne qui donne son adresse et autorise l’enregistrement de sa consommation et le service qui l’enregistre. C’est pour cela qu’elles ont été rangées sous le sceau de la liberté. Que ce soit celle qui établit des limites aux collectes et traitements comme celle qui garantit le respect de la vie privée.

Faire entrer les données personnelles dans le champ de l’exclusivité aurait des conséquences en cascade qui ne permettraient certainement pas de rééquilibrer les rapports des individus avec les plateformes, mais qui viendrait bloquer et compliquer bien des usages légitimes à nos échanges. Même en élargissant les exceptions, les servitudes d’usages… la marchandisation compliquerait incroyablement nos rapports économiques et sociaux.

Si les données personnelles n’ont jamais relevé d’un régime d’exclusivité, mais toujours d’un faisceau de droits équilibrés et répartis entre les individus, les administrations et les acteurs commerciaux, c’est au fond qu’il y a bien une raison : leur commerce est par nature impossible parce qu’elles ne peuvent pas nous appartenir. L’enjeu des données personnelles n’est donc pas qu’elles relèvent un jour de la propriété individuelle. C’est de comprendre que leur valeur se maintient et se construit collectivement. Que l’enjeu n’est pas tant d’élargir notre consentement individuel que d’élargir toujours et encore les droits qui limitent collectivement la collecte et le traitement et garantissent la vie privée.

Élargir le champ des garanties et des contreparties collectives qui permettent de protéger les individus qui seront toujours mis à mal dans une négociation personnelle entre leurs données et des entités plus fortes et plus puissantes qu’eux. Là où l’on peut rejoindre les libéraux, c’est effectivement en soulignant que cette protection et que l’étendu des garanties n’est jamais suffisante pour protéger les individus. La réponse ne peut passer par des solutions où nous sommes mis dans une relation asymétrique, mais au contraire, dans des solutions où la défense de nos droits et nos libertés sont défendues par delà chacun, collectivement. Nos données personnelles ne peuvent se défendre que sous la forme d’une responsabilité collective et c’est elle qu’il faut continuer à bâtir et à construire !

Hubert Guillaud

Pour aller plus loin :

Catégories: Veille et actualités

L’austérité est un algorithme

Internet Actu - mar, 06/02/2018 - 07:00

L’excellent webzine Logic (@logic_magazine) revient sur le remplacement récent par le gouvernement australien de services sociaux par un logiciel. Non sans échos aux propos de Virginia Eubanks qui s’intéressait à ce phénomène aux États-Unis, l’écrivaine Gillian Terzis (@gillianterzis) nous montre à quoi ressemble l’austérité automatisée en Australie.

En Australie, les prestations sociales sont conditionnées aux ressources des bénéficiaires et le contrôle des ressources est vu comme un moyen d’assurer l’équité des prestations. Tout le problème est que ceux qui ne répondent pas aux exigences strictes du système doivent alors rembourser leur « dette » aux autorités. La « dette » est la différence entre ce que vous recevez effectivement et ce que vous êtes censé recevoir. Le système s’appuie sur un algorithme qui compare ce que les gens reçoivent de l’aide sociale et leurs revenus déclarés aux impôts. En 2016, la recherche d’anomalies a été complètement automatisée par l’agence CentreLink chargée d’administrer les prestations sociales. Le résultat, rapporte Gillian Terzis a été désastreux : e-mails et appels automatiques menaçants, difficulté voire impossibilité de contester… Suite à une enquête du Sénat en mai 2017, le gouvernement australien a été contraint de suspendre le système.

Pour Gillian Terzis, l’automatisation, ici, a éliminé l’expérience humaine. Les gens étaient dépourvus de recours pour expliquer ou contester leur situation, comme le soulignent les milliers de témoignages récoltés sur le site NotMyDebt : 29 millions d’appels à Centerlink sont restés sans réponses en 2016 ! L’enquête a montré pourtant que la plupart de ces réclamations étaient mal calculées voire inexistantes. En fait, la méthode de calcul retenue ne parvenait notamment pas à prendre en compte les fluctuations de revenus des travailleurs occasionnels et contractuels, d’où des variations entre le calcul de revenus estimé et le niveau de droit de prestation ouvert. De simples fautes de frappe entre les noms des employeurs des deux systèmes pouvaient générer des demandes de remboursement. Le logiciel, capable de générer 20 000 réclamations automatisées par semaines semblait d’autant plus prolifique que les agences chargées de récupérer les dettes travaillaient à la commission.

Le système australien, n’est pas le seul système défaillant. Un article du Guardian de 2016 rapporte par exemple les déboires de l’agence pour l’emploi du Michigan aux États-Unis, qui a émis des demandes de remboursement auprès de 93 % de ses bénéficiaires entre 2013 et 2015 !

Pour Gillian Terzis, ces dysfonctionnements n’étaient pas tant des bugs que des caractéristiques, visant notamment à décourager les gens à s’expliquer, à rendre le système le plus punitif possible, à générer des recouvrements… L’automatisation des services sociaux et le développement de systèmes de contrôles automatisés sont le résultat de politiques libérales délibérées, souligne Terzis. Les libéraux n’ont cessé de marteler que le chômage relevait de la responsabilité des chômeurs plutôt que d’être le symptôme des dérives du capitalisme. L’aide sociale a de plus en plus été associée à des obligations en retours où le moindre manquement était sévèrement sanctionné. Pour Gillian Terzis, comme pour Virginia Eubanks, l’automatisation du contrôle des plus pauvres est une conséquence logique de politiques visant à limiter l’Etat-providence et à confier des prérogatives d’État à des entreprises privées. « La technologie devrait être utilisée pour rendre les services sociaux plus transparents, plus équitables et plus accessibles à ceux qui en dépendent », rappelle-t-elle en soulignant qu’un outil n’est bon qu’à hauteur de la bienveillance de la politique qui le conçoit.

Les outils automatisés sont assurément très efficaces pour traiter les grands volumes et la répétition. C’est ce qui légitime leur utilisation dans le secteur social. Sauf que c’est un secteur plus sensible que bien d’autres à l’automatisation, qui nécessite en contrepartie des garanties, des voies de recours et de contestations qui, elles, ne peuvent pas être automatisées. Le développement des outils de traitements massifs nécessite assurément, à rebours, plus d’interactions individuelles. Comme le souligne l’éditorial du numéro de Logic consacré à la Justice, « si la justice peut avoir une composante technique, l’injustice, elle, n’a jamais de solution purement technique ».

Catégories: Veille et actualités

Créer une arborescence en mode #KISS

Blog e-tourisme - mar, 06/02/2018 - 06:00

Je vous partage aujourd’hui une de mes dernières trouvailles en matière d’outil #KISS (Keep It Simple & Smart) !

Finis les fichiers excels peu séduisants ou bien encore les post-its écrits à la main raturés 3 fois collés sur le paperboard qu’il faut ensuite déchiffrer puis retranscrire au propre dans un document après la réunion…

Gloomaps est un outil que j’ai découvert il y a peu de temps et que j’utilise désormais fréquemment dès que j’ai à mener un projet de création ou de refonte de site web en mode collaboratif.

Cet outil en ligne, à la prise en main rapide, permet de créer de manière très simple et intuitive des arborescences ou organigrammes de complexité variable.
Même s’il ne comporte pas de fonctionnalités révolutionnaires ou réellement innovantes, Gloomaps s’avère particulièrement ergonomique, bien pensé et pratique notamment lorsqu’on débute un nouveau projet en mode brainstorming collectif ou en travail avec des personnes à distance (agences de communication / freelances en coworking / collègues éloignés géographiquement ou en télétravail…).

=> Les plus :
– Pas besoin de se créer de compte au préalable
– Une simple connexion internet suffit pour créer son arborescence
– Une ergonomie intuitive “glissez-déposez“
– Des possibilités de mise en forme suffisantes pour des arbos peu complexes
– Une fois le projet crée, vous pourrez le partager via une simple URL avec les personnes de votre choix qui pourront également l’éditer
– Possibilité d’exporter le projet en pdf, png ou XML

=> Le moins :
– Pensez néanmoins à bien sauvegarder l’URL de votre projet car ce sera le seul moyen de pouvoir y accéder à nouveau pour l’éditer…

Un exemple que j’ai réalisé en 5 minutes chrono

Les fonctionnalités en vidéo

Plutôt que de vous exposer la longue liste des fonctionnalités, je vous invite à visionner ce tutoriel vidéo qui présente l’outil de manière exhaustive.

Et vous ?

Vous connaissez d’autres outils collaboratifs #KISS indispensables à toute gestion de projet Web (wireframing / mindmapping / recettage / gestion d’équipe…) ? N’hésitez pas à les partager dans les commentaires de cet article !

The post Créer une arborescence en mode #KISS appeared first on Etourisme.info.

Catégories: Veille et actualités

L'appel à projets M@rsouin 2018 est lancé.

Bretagne - MARSOUIN - lun, 05/02/2018 - 09:12

L'appel à projets M@rsouin 2018 est lancé.

Les projets M@rsouin ont pour objectif d'initier de nouvelles recherches en sciences humaines et sociales autour des usages numériques. Ils sont également l'occasion de permettre à de jeunes chercheurs de se faire connaître au sein du réseau en leur donnant des moyens pour développer leurs propres thèmes de recherche.

Financés par le Conseil régional de Bretagne, ils sont sélectionnés par le conseil scientifique de M@rsouin. Les projets doivent s'inscrire dans les axes de recherche de M@rsouin présentés dans le PDF de l'appel.

Vous trouverez ci-joints la présentation complète de l'appel à projets, le formulaire de présentation des projets ainsi que la fiche financière à remplir.

Présentation (PDF) de l'appel à projets :

Formulaire de présentation de projet (document Word) :

Modèle de fiche financière :

Les dossiers doivent être envoyés au plus tard le 4 mai 2018 à minuit à l'adresse suivante : projets [at] marsouin [point] org

D'ici début juin, le conseil scientifique procédera à une sélection, après évaluation par des pairs.

Les projets sélectionnés seront ensuite proposés au vote du conseil régional.

Facebook : des interactions significatives, vraiment ?

Internet Actu - lun, 05/02/2018 - 07:00

Facebook a donc décidé à nouveau de changer ses règles algorithmiques. A nouveau, comme si ce changement unilatéral du fonctionnement algorithmique allait résoudre par magie les problèmes que connaît le géant des réseaux sociaux.

Désormais, « il priorisera les messages qui qui suscitent des conversations et des interactions significatives entre les gens », comme l’a expliqué l’entreprise. Ou, comme l’a souligné Mark Zuckerberg, FB va pousser les utilisateurs à être plus réactifs, à avoir « des interactions sociales plus significatives »pour leur propre bien, bien sûr. Mais n’était-ce pas déjà ce qui nous avait été promis la dernière fois ?… Nous continuons à être enfermés « dans la tête de Mark Zuckerberg »… comme les cobayes permanents d’une expérimentation infinie, qui, nous promet sans cesse un monde de félicités sociales, toujours remises à plus tard.

De la tautologie de la signification

Sur Internal Exile, Rob Horning (@robhorning) se pose la question du sens de ces « interactions significatives » promises. Significatif ne signifie pourtant ni engageant ni informatif, rappelle-t-il. FB n’a pas de vision éditoriale : il ne sait apprécier que des métriques. Après les accusations nourries que FB a reçu suite aux enquêtes du Sénat américain sur la diffusion de fausses informations, le site a décidé de s’auto-réguler, certainement pour éloigner la perspective d’une régulation qui lui serait imposée. Reste que cette annonce ne modifie pas vraiment son modèle d’affaires… C’est à peine si FB remplace ses slogans tautologiques par d’autres alibis pour continuer à capturer de l’audience, collecter des données et vendre de l’espace publicitaire – plus cher puisqu’il sera plus difficile aux marques d’accéder aux utilisateurs – ce qui ne les empêche pas, notamment la presse, d’inviter leurs lecteurs à ajuster leurs paramètres pour remonter dans leur flux d’actualité. FB souhaite déterminer toujours mieux qui vous amène à plus l’utiliser pour que vous l’utilisiez plus à votre tour. « Le significatif renvoie à une mesure interne à Facebook. L’utilisateur n’est ni plus actif ni moins passif : c’est une sorte de passivité collective (ou interpassivité) où nous laissons FB interagir pour nous pour nous pousser à interagir ». L’objectif « d’authenticité » de FB, qui vise à « rapprocher les gens », est une cible toujours mouvante, qui s’éloigne à mesure qu’on s’en rapproche.

« «Significatif» pour Facebook exprime le fantasme d’un algorithme imputable qui permettrait à ses métriques de mesurer quelque chose de pur. Chaque réglage algorithmique aspire à l’idéal de pouvoir lire le comportement mesurable de l’utilisateur en tant qu’expression parfaite de «qui sont réellement les utilisateurs» et de «ce que les utilisateurs veulent vraiment». Mais en fait, l’algorithme change constamment les utilisateurs de Facebook, en leur enseignant qui ils sont censés être et ce qu’ils sont censés vouloir faire… »

Du point de vue de l’entreprise, un utilisateur « authentique » serait donc celui qui coopère pleinement avec le processus, qui le facilite, qui rend ses relations dépendantes de Facebook. L’utilisateur « authentique » est celui qui se dit que pour avoir une interaction significative avec ses relations, il doit aller sur Facebook, alors que par nature, l’utilisation de Facebook est une expérience de consommation individualisée et solitaire.

Mais toute interaction que nous avons avec Facebook est significative du point de vue de Facebook. Et la logique de la plate-forme est que plus il y a de données sur nous, mieux cela fonctionne pour nous permettre d’avoir des interactions significatives.

Pour produire de la signification, de l’authenticité, FB doit créer de la rareté. S’il nous montrait ce que produisent nos amis dans l’ordre ante-chronologique, ce serait à nous d’être actifs dans le filtrage. Lorsqu’il place au sommet le plus pertinent, notre activité est réduite à la réponse que Facebook nous soumet, aux interactions qu’il détermine pour nous.

Le problème rappelle néanmoins Horning, est qu’en vendant cet espace attentionnel limité, en « vendant les vies sociales des gens », FB rend lui-même l’interaction sociale moins significative et moins authentique.

Pour motiver son changement, FB a distingué le « contenu public » comme le nouveau bouc-émissaire. Se faisant, souligne Horning, FB établi une étrange distinction entre public et privé – mais FB n’a-t-il pas toujours eu un problème à établir cette distinction, notamment parce que c’est au coeur de cette confusion qu’il prospère ? Pour FB, public, renvoie à du contenu qui s’adresse à n’importe qui. Mais n’est-ce pas justement cela que vend FB ? Pour FB, l’enjeu a toujours été de transformer le contenu privé en contenu public par défaut, pour favoriser les interactions. Aujourd’hui, il affirme vouloir revenir de la viralité, au profit de la discussion («certaines mesures d’engagement vont diminuer», écrit Zuckerberg, «mais je m’attends aussi à ce que le temps que vous consacrez à Facebook soit plus précieux»).

Pour la presse, souligne Horning, FB est un générateur de trafic, alors que pour FB, cette génération de trafic n’est qu’un sous-produit du profilage des utilisateurs : le contenu est insignifiant par rapport au partage. FB ne veut pas tenir les gens au courant de l’actualité, il cherche à promouvoir FB. FB se soucie plus des likes et des commentaires de vos relations que des contenus qu’ils partagent ou que de ce que ces contenus disent. En fait, « FB regarde la sphère publique sans s’intéresser à la démocratie, mais en la regardant comme une marchandisation, une dépolitisation à grande échelle », conclut Horning. Pour FB, c’est comme si les gens continuaient de parler pour le plaisir de parler. Pour FB, nos interactions sont significatives tant qu’elles restent inoffensives.

Le risque, comme le pointe le sociologue Antonio Casilli, c’est que nos usages deviennent encore plus prescrits et surdéterminés. Après une année de difficultés, Facebook nous promet de changer. Comme le dit très bien le chercheur Olivier Ertzscheid, dans sa dernière analyse de l’algocratie, « les promesses n’engagent que ceux qui y croient ». D’autres sont plus confiants, comme le spécialiste des médias, Lev Manovich. Reste que la modification de l’algorithme de Facebook a effectivement eu des effets concrets.
Chartbeat annonce déjà une baisse de 15 % du trafic généré par Facebook depuis la modification de l’algorithme.

Zuckerberg s’est d’ailleurs empressé de communiquer sur les premiers résultats effectifs de ce changement algorithmique, en signalant – d’une manière assez inédite, reconnaissons-le – que le temps passé sur FB avait été réduit de quelque 50 millions d’heures par jour. Comme le pointe encore dans un autre article le chercheur Olivier Ertzscheid, en sortant sa calculette, l’opération a réduit notre activité sur FB de 90 secondes par jour, ce qui nous laisse encore en moyenne passer 48 minutes et 30 secondes par jour dans la tête de Mark Zuckerberg. 90 secondes… ça doit être un indicateur significatif effectivement !

Bloomberg souligne d’une manière plus insidieuse encore que la diminution d’audience de FB serait bien antérieure au changement algorithmique, comme le pointe l’agressivité de FB pour adresser ses utilisateurs les moins engagés, notamment via des courriels pour inviter ceux-ci à se reconnecter pour s’assurer de l’intégrité de leur compte ou en démultipliant les invitations à célébrer de pseudo-événements. A se demander si la problématique attentionnelle n’est pas en train de devenir un « attention-washing »… un procédé de marketing pour se donner une allure plus respectueuse des utilisateurs, sans répondre vraiment à leurs attentes.

Significatif… est-ce de bien dépenser son temps ?

Dans son article, Mark Zuckerberg a promis que l’enjeu de FB en 2018 sera d’aider les utilisateurs de FB à mieux dépenser leur temps sur FB. Une référence explicite (ou implicite) au mouvement Time Well Spent lancé par Tristan Harris (voir notamment notre article « Répondre au design de nos vulnérabilités »). Une perche qu’a pris au bond le philosophe et designer Joe Edelman (@edlwawx), l’un des cofondateurs du mouvement, qui en a profité pour écrire une lettre ouverte au patron de FB.

Pour Endelman, les problèmes de FB résident dans son logiciel lui-même. Répondre au sens que les utilisateurs veulent trouver nécessite une conception bien différente. Cela nécessite notamment de prendre en compte leurs valeurs, c’est-à-dire, les idées que chacun a sur la façon dont il souhaite vivre, interagir et agir. « Les valeurs orientent la manière dont vous agissez ». Or, FB ne permet pas aux gens de vivre selon leurs valeurs. Les logiciels sociaux « simplifient et accélèrent certaines relations sociales et certaines actions, au détriment des autres »… et au final, nous poussent à agir en contradiction avec nos valeurs. C’est ce qu’Edelman appelle le coût caché des logiciels sociaux, le « coût des systèmes désalignés ».

« Tout environnement social peut être désaligné avec nos valeurs, mais avec les logiciels sociaux, il est plus difficile de résister. Comparé aux systèmes sociaux passés – régis par des conventions sociales, des normes ou des lois – le logiciel donne moins d’espace pour la réinterprétation personnelle ou la désobéissance. Il tend à coder exactement comment nous sommes censés interagir. »

Face à cela, nous sommes à la fois coincés par les normes et conventions sociales, mais aussi et surtout par la structuration d’interaction des logiciels eux-mêmes.

« Le logiciel social est donc différent des lois et des conventions sociales. Il nous guide beaucoup plus strictement à travers certaines actions et manières de relation. En conséquence, nous avons moins de chance de poursuivre nos propres valeurs. La structure codée des notifications push rend plus difficile la priorisation de la valeur de l’attention personnelle ; la structure codée des goûts faits qu’il est plus difficile de prioriser de ne pas se fier aux opinions des autres ; et des structures similaires interfèrent avec d’autres valeurs, comme être honnête ou gentil avec les gens, être réfléchi, etc. »

Endelman invite Zuckerberg à réviser son logiciel en produisant un logiciel moins contraignant, pouvant être remodelé par l’utilisateur et lui permettant d’implémenter des valeurs différenciées. Il intrique sa proposition de questions :

  • Pour chacune de ces valeurs, existe-t-il des caractéristiques des espaces sociaux qui facilitent la pratique ?
  • Comment les utilisateurs décident-ils des valeurs à intégrer dans leur socialisation ? Comment le logiciel peut-il supporter cette décision ?
  • Y a-t-il des types de conversations plus ou moins significatifs ? Existe-t-il un moyen d’identifier des conversations moins alignées sur les valeurs ?
  • Pouvons-nous accomplir tout cela sans imposer nos propres valeurs corporatives ou personnelles ?

Dans un second texte un peu ésotérique à mon goût, Edelman invite à réimaginer les systèmes sociaux en tant « qu’espaces de pratiques » pour les valeurs des utilisateurs.

« Lorsque nous demandons conseil à des amis – si vous regardez attentivement – nous ne leur demandons pas tant ce que nous devrions faire. Nous leur demandons plutôt ce qui est important dans notre situation. Nous demandons des valeurs qui pourraient être nouvelles pour nous. Les humains se demandent constamment «ce qui est important» – pour un conjoint, un vin, un langage de programmation… »

Or, les plateformes, sont meilleures pour partager des choses que de la sagesse. Et Edelman d’en appeler à des plateformes pour partager des valeurs, afin qu’elles soient plus empathiques qu’elles ne le sont. Nous ne disions pas autre chose quand nous pointions la question des valeurs que masque la promesse de la société en réseau comme la question de la taille afin que nos réseaux demeurent à l’échelle de nos possibilités d’action.

Reste que, comme le constate Casey Newton pour TheVerge, la question attentionnelle vient de progresser. Les dénonciations de ses partisans avaient jusqu’à présent rencontré peu d’échos dans les entreprises. En utilisant ce terme, Zuckerberg le légitimise. « L’avantage moral se fait toujours au profit de ceux qui ont inventé le terme ».

Hubert Guillaud

MAJ : Reste que le mouvement Times Well Spent prend néanmoins de la force. En janvier, dans Washington monthly, l’investisseur Roger McNamee, ancien de Facebook, livrait une longue tribune pour inviter à réguler Facebook. On y apprenait que c’est accompagné du designer Tristan Harris qu’il s’était rendu au Congrès pour attirer l’attention des sénateurs américains sur la question attentionnelle. Harris vient d’ailleurs de regrouper un certains nombres de « repentis » (ces anciens de Google, Facebook et autres startups de la Silicon Valley qui s’effrayent du monstre attentionnel qu’ils ont créés) dans un nouveau mouvement de résistance (et de collecte de fonds) rapporte le New York Times, le Centre pour une technologie humaine dont le premier objectif est de recueillir les doléances des utilisateurs.

Catégories: Veille et actualités

Pages