La confidentialité bientôt twitterminée ?

Le succès de Twitter est toujours aussi impressionnant (des statistiques nombreuses et significatives ici), même si l’entreprise continue d’enregistrer des pertes, trimestre après trimestre. Ce qui est constant aussi avec Twitter c’est sa désinvolture caractérisée vis-à-vis des données que nous lui laissons récolter.

Calimaq analysait déjà en 2012, à l’occasion de la revente de données à des tierces parties, les multiples entorses au respect de la vie privée dont Twitter est familier.

Un pas nouveau est sur le point d’être franchi, Twitter annonce qu’il va renoncer au Do Not Track.

Pour tout savoir sur Do Not Track, en français Ne pas me pister, vous pouvez parcourir la page DNT de Wikipédia ou encore cette page d’information de Mozilla Firefox.

Do Not Track ? Cette sorte d’avertissement figure dans l’en-tête de requête HTTP, et revient un peu à déclarer « Hep, je ne veux pas être pisté par vos régies publicitaires ». Emboîtant le pas à d’autres entreprises du Web bien décidées à ne pas tenir compte de cette demande des utilisateurs et utilisatrices, Twitter préfère un autre protocole hypocrite et malcommode et prend date : le DNT, c’est fini à partir du 18 juin.

18 juin…  Bon sang, voilà qui nous rappelle les heures les plus sombres de… euh non, justement ce serait plutôt le contraire : voilà une date marquante de l’Histoire de France, celle du fameux Appel de Londres du général de Gaulle.

Et si nous profitions de cette coïncidence pour ranimer la flamme de la résistance à Twittter ? OK les trolls, Twitter n’est pas une armée d’occupation, mais avouez que ce serait assez drôle si nous lancions une campagne avec un appel à quitter Twitter pile le 18 juin ?

Ça vous dirait d’y participer un peu partout sur les réseaux sociaux ? Ouvrez l’œil et le bon, on va s’organiser 😉

En attendant, parcourez la traduction de cet article paru sur le site de l’Electronic Frontier Foundation : New Twitter Policy Abandons a Longstanding Privacy Pledge

Le billet s’achève par quelques recommandations pour échapper au pistage de Twitter. Mais la meilleure solution ne serait-elle pas de fermer son compte Twitter et d’aller retrouver les copains sur des réseaux sociaux plus respectueux comme Mastodon et Diaspora* ?

Traduction Framalang :  goofy, mo, roptat, Opsylac, xi, Asta, FranBAG, fushia, Glouton

La nouvelle politique de Twitter abandonne un engagement de confidentialité longtemps maintenu

par Jacob Hoffman-Andrews

Twitter a l’intention de mettre en œuvre sa nouvelle politique de confidentialité à partir du 18 juin 2017, et, dans le même élan, reviendra probablement sur son engagement pris depuis longtemps de se conformer à la politique de confidentialité associée à l’en-tête DNT. L’entreprise préfère adopter le programme d’auto-régulation Digital Advertising Alliance, boiteux et inefficace. L’entreprise profite aussi de cette l’occasion pour ajouter une nouvelle option de pistage et deux nouvelles possibilités de ciblage, qui seront l’une et l’autre activées par défaut. Cette méthode est indigne d’une entreprise censée respecter les choix de confidentialité des personnes.

Twitter implémente diverses méthodes de pistage dont l’une des plus importantes est l’utilisation de boutons : Tweet, Suivre, et les Tweets embarqués pour enregistrer une bonne partie de votre historique de navigation. Lorsque vous visitez une page dotée de l’un de ces éléments, votre navigateur envoie une requête aux serveurs de Twitter. Cette requête contient un en-tête qui dit à Twitter quel est le site que vous visitez. En vous attribuant un cookie unique, Twitter peut construire un résumé de votre historique de navigation, même si vous n’utilisez pas Twitter. Twitter a été le premier à mettre en place ce pistage : à l’époque, Facebook et Google+ étaient prudents et n’utilisaient pas leurs boutons sociaux pour pister, dû aux préoccupations sur la vie privée. Twitter a adouci sa nouvelle initiative de pistage pour les internautes soucieux du respect de leur vie privée en adoptant Do Not Track. Cependant, quand les autres réseaux sociaux ont discrètement emboîté le pas à Twitter, l’oiseau bleu a décidé d’ignorer Do Not Track.

Maintenant Twitter envisage d’abandonner le standard Do Not Track pour utiliser l’outil « WebChoices », qui fait partie du programme d’auto-régulation Digital Advertising Alliance (DAA), c’est-à-dire une alliance d’entreprises pour la publicité numérique. Ce programme est inefficace car le seul choix qu’il permet à ses utilisateurs et utilisatrices est de refuser les « publicités personnalisées » alors que la plupart souhaitent refuser carrément le pistage. Beaucoup d’entreprises qui participent au DAA, et Twitter en fait partie, continuent de collecter vos informations même si vous avez manifesté votre refus, mais cacheront cette pratique car ne vous seront proposées que des publicités non ciblées. C’est comme demander à quelqu’un d’arrêter d’espionner ouvertement vos conversations et le voir se cacher derrière un rideau pour continuer à vous écouter.

De plus, WebChoices est déficient : il est incompatible avec les autres outils de gestion de la vie privée et nécessite une vigilance constante pour être utilisé. Il repose sur l’utilisation d’un cookie tiers de désinscription sur 131 sites publicitaires. Ce qui est incompatible avec l’une des fonctionnalités les plus basiques des navigateurs web : la désactivation des cookies tiers. D’ailleurs, même si vous acceptez les cookies tiers, votre désinscription ne durera que jusqu’à la prochaine fois où vous effacerez vos cookies, autre comportement habituel que beaucoup utilisent pour protéger leur vie privée en ligne. Sans compter que de nouveaux sites de publicité apparaissent tout le temps. Vous devrez donc recommencer et répéter votre désinscription lorsque le 132e site sera ajouté à WebChoices, ce dont, à moins de suivre la presse sur les publicitaires, vous ne serez pas au courant.
Ces problèmes avec le programme DAA sont justement la raison pour laquelle Do Not Track existe. Il est simple, compatible avec les autres mesures de protection de la vie privée et fonctionne sur tous les navigateurs.

Twitter connaît la différence entre une vraie désinscription et une fausse : pendant des années, Twitter a implémenté DNT comme une véritable option de « stop au pistage », et vous pouvez toujours choisir cette option dans l’onglet « Données » des paramètres Twitter, que vous soyez ou non utilisateur ou utilisatrice de Twitter. Cependant, si vous utilisez la nouvelle option de désinscription DAA que Twitter envisage de proposer à la place de DNT, l’entreprise traitera ce choix comme une fausse désinscription : Twitter continuera de vous pister, mais ne vous montrera pas de publicités en rapport avec les données collectées.

Que pouvez-vous faire à titre individuel pour vous protéger du pistage de Twitter ? Pour commencer, allez dans les paramètres de votre compte Twitter pour tout désactiver :

 

Ensuite, installez Privacy Badger, l’extension pour navigateur de l’Electronic Frontier Foundation qui, en plus d’activer DNT, essaie de détecter et de bloquer automatiquement tout comportement de pistage sur un site provenant de tierces parties. Privacy Badger remplace aussi certains widgets des réseaux sociaux par des versions statiques non-intrusives.

Twitter fait faire un grand bond en arrière à la confidentialité des internautes en abandonnant Do Not Track. L’entreprise devrait plutôt envisager une nouvelle politique de confidentialité avant le 18 juin pour conserver le respect de DNT et considérer tant DNT que DAA comme de vraies options clairement destinées à dire STOP au pistage.




Addictions en série

Gouvernements européens, il est temps de chasser le colon Microsoft

Une enquête réalisée par un consortium de neuf journalistes européens met à jour les risques qui dérivent de la dépendance des gouvernements à Microsoft — aucun n’est indemne…

Même si çà et là des efforts sont notés pour migrer vers des solutions open source voire libres, l’adversaire est impitoyable et utilise un arsenal bien rodé.

Combien faudra-t-il encore de telles enquêtes pour provoquer une prise de conscience et pour que les décisions nécessaires soient prises et mises en œuvre ?

 

Traducteurs : PasDePanique, Paul, dominix, Asta, Luc, MO, lyn., Jérochat, simon, LP, Opsylac, Paul, Hello, Mika + 5 anonymes

L’addiction de l’Europe à Microsoft, un énorme risque pour la sécurité

Nous vous proposons ici une traduction de l’article paru dans Der Tagesspiegel, qui correspond à une partie de l’enquête menée par neuf journalistes européens dans leurs pays respectifs sur les relations entre Microsoft et les institutions publiques, chacun traitant de la situation particulière dans son pays (voir les différents articles déjà publiés ici). L’hebdomadaire Marianne a publié l’article de de Leila Minano dans son édition du 19 mai sur la situation française, intitulé Microsoft : menace sur la sécurité de l’État.

Le 13 mai 2017

par Crina Boros, Wojciech Ciesla, Elisa Simantke, Ingeborg Eliassen, Leila Minano, Nikolas Leontopoulos, Maria Maggiore, Paulo Pena et Harald Schumann

Le Parlement européen de Strasbourg – Photo par Frédéric Chateaux (CC BY-SA 2.0)

 

Le 12 mai 2017, des hackeurs ont frappé plus d’une centaine de pays à l’aide d’un outil volé à la NSA, en ciblant des vulnérabilités des logiciels Microsoft. Les attaques ont infecté uniquement des appareils fonctionnant avec le système d’exploitation Windows. Parmi les victimes, on compte plusieurs organismes publics, par exemple les hôpitaux du NHS (National Health Service, Service national de santé) au Royaume-Uni. Investigate Europe a passé des mois à enquêter sur l’extrême dépendance des pays européens envers Microsoft et les risques que cela implique pour la sécurité. Lisez notre enquête complète.

Nota bene : cet article est une traduction de la version anglaise d’un billet d’Investigate Europe publiée le 13 mai 2017. Pour savoir dans quelles publications de presse, pays et langues le billet est disponible, veuillez consulter cette page.

En général, lorsque le conseil municipal de Munich se réunit, ça n’intéresse pas grand-monde en dehors du périmètre de la ville. Mais en ce jour de février, tout est différent. Dans le grand hall du magnifique hôtel de ville néogothique, tous les sièges réservés à la presse et aux spectateurs sont occupés. Ceux qui n’ont pas trouvé de place se tiennent debout dans les allées. Des membres du conseil rapportent qu’ils ont reçu des courriels et des demandes de médias en provenance de toute l’Allemagne et de toute l’Europe.

Et pourtant l’événement semble purement technique. Pendant dix ans, des experts ont travaillé à migrer le système informatique de la ville vers des logiciels libres et ouverts. Les coûteux logiciels de l’entreprise américaine Microsoft ne sont désormais plus utilisés qu’exceptionnellement. Cela n’a pas seulement permis à la ville d’économiser plusieurs millions d’euros de frais de licences, mais a aussi rendu le système plus sûr – « un franc succès », ainsi que l’annonçaient en 2014 les responsables politiques de la ville. Mais, aujourd’hui, le maire, Dieter Reiter, et sa grande coalition rassemblant le Parti Social-Démocrate (SPD), de centre-gauche, et l’Union Chrétienne Sociale (CSU), de centre-droit, souhaitent ramener chez Microsoft les 24 000 ordinateurs de la ville.

Les débats sont animés. M Reiter et ses sympathisants ne réussissent pas à donner d’arguments convaincants – ni à dire combien pourrait coûter la transition. La décision est donc reportée. Le chef du groupe parlementaire des Verts, Florian Roth, est agacé : « Cela ne semble être rien de plus qu’un jeu de pouvoir politique, dit-il, mais un jeu à haut risque ». Il ajoute en guise d’avertissement : « Voulons-nous vraiment rendre notre administration éternellement dépendante du monopole de l’américain Microsoft ? »

Dans toute l’Europe, les systèmes informatiques des administrations publiques reposent sur les programmes de Microsoft

Le problème n’est absolument pas exagéré et ne se limite pas à Munich. Dans l’Europe entière, de la Finlande au Portugal, de l’Irlande à la Grèce, les technologies informatiques dans les administrations publiques reposent sur les programmes de l’éditeur de logiciels états-unien. Et puisque les systèmes numériques continuent à grandir et à prendre de plus en plus d’importance, les États deviennent de plus en plus dépendants de cette unique entreprise. La Commission européenne a même admis qu’elle était « concrètement captive de Microsoft ».

Quelles sont les conséquences de ce lock-in, comme on l’appelle dans le jargon technique, qui nous attache à un seul fournisseur ? Et comment les gouvernements peuvent-ils gérer cela ? L’équipe de journalistes d’Investigate Europe s’est lancée pendant trois mois dans une mission d’exploration pour établir des faits et interviewer des économistes, des responsables informatiques, des experts en sécurité et des politiciens dans douze pays européens, ainsi qu’à la Commission et au Parlement européens. Les résultats sont inquiétants.

La dépendance des États envers Microsoft :

  • engendre des coûts en hausse constante et bloque le progrès technique au sein des autorités publiques ;
  • contourne systématiquement les lois européennes en matière de passation des marchés et de règles de concurrence ;
  • introduit une influence politique étouffante de la part de cette entreprise ;
  • crée pour les systèmes informatiques étatiques, ainsi que pour les données de leurs citoyens, un grand risque technique et de sécurité politique.

Microsoft n’a souhaité répondre à aucune des questions d’Investigate Europe sur ces sujets. Et les personnels qui travaillent au sein des services informatiques des administrations savent pourquoi.

« De nombreuses administrations publiques sont tellement dépendantes de cet unique fournisseur qu’elles n’ont plus aucune liberté quand il s’agit de choisir un logiciel. Cela signifie que les États européens risquent de perdre le contrôle sur leurs propres infrastructures informatiques », avertit l’ingénieur informaticien et avocat Martin Schallbruch. Jusqu’à 2016, il était directeur du département des nouvelles technologies et de la cybersécurité au ministère de l’Intérieur fédéral allemand. Schallbruch n’est que trop familier de cette situation précaire. Si on voulait écarter ce danger et « basculer vers une architecture numérique indépendante, cela demanderait d’énormes investissements », déclare ce responsable informatique expérimenté, qui mène désormais des recherches au sein de l’école de commerce de Berlin ESMT.

Le problème n’est pas seulement grave, il est aussi complexe. Au cœur des enjeux se trouve le modèle économique de Microsoft. Le géant des logiciels, basé à Redmond dans l’État de Washington aux États-Unis, vend ses logiciels, en particulier le système d’exploitation Windows et les programmes de bureautique tels que Word, Excel, Powerpoint et Outlook, en tant que produits sous licence. Dans le métier, on qualifie ce type de logiciel de « propriétaire », ce qui signifie qu’il interdit à tout concurrent d’utiliser ses propres logiciels pour interpréter correctement les données encodées par les programmes de Microsoft. Concrètement, ce seront, par exemple, des titres, des tableaux ou des dates dont les données de mise en forme ou en page seront modifiées ou perdues.

C’est là la clé du monopole global de Microsoft – un business de rêve aussi ! Année après année, ce sont ainsi quelques 50 milliards de dollars que la multinationale empoche sous la forme de redevances de licences qui ne couvrent rien d’autre que la distribution de copies de ses programmes. Et parce que vos collègues, vos relations commerciales ou personnelles utilisent des fichiers Microsoft, cela paraît logique de faire de même, même si cela engage des frais, encore et toujours. La plupart des utilisateurs d’ordinateurs Apple, eux aussi, continuent d’acheter la suite Microsoft Office.

Les autorités administratives à la merci de Microsoft

Les administrateurs des services informatiques de l’État sont parfaitement avertis de cet état de fait. Cette monoculture présente de sérieux désavantages. Dans d’autres secteurs, le développement logiciel adhère depuis longtemps à un principe complètement différent. Google ou Siemens, par exemple, travaillent en priorité avec des programmes dits open source, en d’autres termes des programmes dont le code est partagé librement. Dans ce cadre, n’importe quel programmeur ou entreprise peut utiliser le code, à la condition que le dernier arrivé mette chaque amélioration qu’il apporte au code à la disposition de tous. Cela signifie que les entreprises ne peuvent pas gagner d’argent en vendant ce genre de logiciel. Mais, dans le même temps, elles bénéficient du travail des programmeurs du monde entier sans avoir à les rémunérer.

Quels que soient les produits, de la centrale électrique à l’appareil de radiographie, Siemens a besoin d’un ensemble étendu de logiciels. « Or, 90 % d’entre eux réalisent des tâches de pure routine », explique Karsten Gerloff, informaticien du service concerné au sein de l’entreprise. « Pour cela, nous utilisons bien sûr des solutions open source ». L’entreprise utilise du « code propriétaire » uniquement pour des fonctionnalités précises, propres aux machines de Siemens. Si tous les logiciels devaient être mis au point par des équipes de l’entreprise, « ce sont 1 000 programmeurs de plus que nous devrions employer et nous ne serions plus compétitifs », indique M. Gerloff.

Le recours à la créativité d’une masse de cerveaux de par le monde engendre une dynamique bien plus forte que celui qui serait restreint aux seuls cerveaux d’une entreprise. C’est pourquoi « l’open source est maintenant la norme dans le domaine scientifique et économique » pour Matthias Kirschner, président de la Free Software Foundation Europe (FSFE), qui plaide pour une plus grande autonomie dans l’usage des technologies de l’information. Cela s’applique autant aux smartphones qu’aux superordinateurs, systèmes de commande des machines ou serveurs web. L’ancien modèle du monopole ne concerne plus que les logiciels d’ordinateurs de bureau et les suites bureautiques.

Il n’en reste pas moins que les administrations publiques s’appuient toujours sur ce vieux monopole, et pas uniquement pour la bureautique. Il existe des milliers d’applications dont seules les autorités ont l’usage. Qu’il s’agisse d’augmenter les impôts, de payer les retraites ou de calculer le coût de la collecte des déchets, que ce soit dans la police, à la sécurité sociale ou dans les services de l’urbanisme, pour quasiment chaque service que rend l’État, il existe un logiciel opérationnel spécifiquement conçu pour cette tâche. Or, parce que le système d’exploitation Windows est utilisé partout, la plupart de ces « applications spécifiques » reposent sur ce système, mettant les autorités à la merci de son éditeur.

On a vu jusqu’où cela pouvait aller quand, à la fin de l’année 2014, Microsoft a cessé de fournir des mises à jour de sécurité pour Windows XP. Du jour au lendemain, des services publics partout en Europe se sont vus contraints de souscrire des contrats de service onéreux avec Microsoft afin de s’assurer que l’entreprise continuerait de colmater les failles de sécurité de son vieux système d’exploitation. Le gouvernement britannique a ainsi déboursé 6,5 millions de livres afin de disposer d’une année supplémentaire pour migrer ses ordinateurs vers Windows 7. Les Pays-Bas, ainsi que les länder allemands de Basse-Saxe et de Berlin, ont, eux aussi, payé plusieurs millions d’euros pour disposer d’un délai. « Il s’est passé la même chose dans toute l’Europe », confirme un expert de la Commission européenne. Et cela risque de se reproduire, vu que dans trois ans, c’en sera terminé des mises à jour de Windows 7.

La Commission européenne n’écoute pas ses propres experts

Dans le même temps, les États prennent du retard à cause du verrouillage de Microsoft. « Il n’existe pas de preuves formelles de ceci actuellement, mais il est logique de supposer que la dépendance envers un fournisseur unique ralentit le progrès technique dans le secteur public », prévient Dietmar Harhoff, directeur de l’institut Max-Planck pour l’innovation et la concurrence à Munich. Par exemple, si les municipalités pouvaient développer leurs centaines d’applications dédiées sur la base de programmes open source, chaque innovation pourrait être immédiatement utilisée par les services d’autres villes sans coût supplémentaire. « Ce potentiel est énorme pour le secteur public », selon D. Harhoff.

Dès 2012, la Commission européenne avait, par conséquent, lancé un programme au nom évocateur : « Contre le verrouillage ». L’idée était que les futurs appels d’offres publics portant sur l’achat de technologies informatiques et de logiciels ne comporteraient plus la mention explicite de noms d’entreprises et de technologies « propriétaires » de ces dernières. À la place, les administrations publiques devaient s’astreindre à demander le recours à des « normes ouvertes » accessibles à l’ensemble des fabricants et éditeurs logiciels. Ce faisant, le monopole de Microsoft disparaîtrait au fil du temps dans la mesure où les problèmes de compatibilité ne se poseraient plus : les fichiers pourraient être lus par des logiciels concurrents, et cela sans perte de données. Si tous les services administratifs publics utilisaient les mêmes formats ouverts, on économiserait le prix des licences. « Les normes ouvertes créent de la concurrence, mènent à l’innovation et font économiser de l’argent », expliquait la commissaire à la Concurrence d’alors, Nellie Kroes. Selon ses experts, « le manque de concurrence » dans le secteur informatique et télécoms « coûte à lui seul 1,1 milliards d’euros par an au secteur public ».

Mais l’inertie des bureaucrates de l’État a eu raison des bonnes intentions, et l’initiative n’a abouti à rien. Pourtant, la législation européenne définit désormais des règles précises. Les administrations publiques nationales sont tenues de passer par des appels d’offres européens pour toute commande dont le montant excède 135 000 euros. Pour les autres organismes publics, cette règle s’applique pour des montants supérieurs à 209 000 euros. Quand ils achètent des logiciels standards pour leurs administrations, les gouvernements des États membres, comme un seul homme, passent outre la loi en vigueur et privilégient le fournisseur habituel Microsoft.

La mise en concurrence remplacée par de curieuses procédures

Une curieuse façon de procéder. Sans passer d’appel d’offres publics, les administrations négocient des réductions avec l’entreprise états-unienne et concluent des contrats-cadres sur cette base. Tous les groupements publics peuvent ensuite en profiter. Dans les offres ultérieures, ils cherchent uniquement des revendeurs qui leur vendront des licences Microsoft selon ces conditions. Il n’y a de facto aucune concurrence pour ces contrats publics.

En Allemagne aussi. En 2015, le ministère de l’Intérieur a convenu de nouvelles « conditions contractuelles » avec la filiale irlandaise de Microsoft, d’où la firme conduit ses affaires européennes pour optimiser ses impôts. Les rabais identifiés dans le nouvel accord peuvent être utilisés par tous les pouvoirs publics, du ministère fédéral jusqu’à la petite municipalité. La ville de Dortmund a ainsi passé un appel d’offres, par exemple pour trouver un « distributeur pour le contrat BMI de licences Microsoft en volume ».

« C’est comme si l’État publiait une offre pour acheter des voitures, mais uniquement de revendeurs Volkswagen », se moque l’avocat néerlandais Matthieu Paapst, dont le doctorat à l’Université de Groningen a porté sur l’achat de logiciels dans le secteur public. Sa conclusion : « Se fournir en produits Microsoft, pour une administration publique, sans passer d’appel d’offres ouverts, viole la législation européenne en vigueur ». En vérité, selon l’avocat, la Commission européenne devrait engager des poursuites contre ce phénomène. L’unique raison pour laquelle elle s’en garde bien, c’est qu’elle n’applique pas elle-même les recommandations.

En effet, la Commission européenne a un contrat exclusif avec Microsoft, valable pour toutes les institutions de l’UE – elle ignore de ce fait les recommandations de ses propres experts. C’est aussi « parfaitement légal » se défend Gertrud Ingestad, qui est responsable de la Direction générale pour l’Informatique (DG Digit), dans une interview à Investigate Europe. Il n’y aurait « pas d’autres possibilités » de garantir la continuité du travail de l’Union européenne. Et, dans ce cas, la législation permet explicitement le recours à une « procédure de négociation » non publique. Mais ce n’est pas exact : cette exception est explicitement valable « seulement quand il n’existe pas d’alternative raisonnable ou de solution de remplacement », selon l’article 32 du livret de recommandations de l’UE. Et c’est justement ce que la Directrice générale G. Ingestad et ses collègues ne peuvent pas prouver. Il existe des alternatives viables.

Le général italien Camillo Sileo, par exemple, a beaucoup à dire sur ce sujet. Ce militaire, qui travaille au ministère de la Défense, à Rome, reçoit dans une petite bibliothèque. Là, un sourire aux lèvres, d’une voix douce, il parle de son projet comme d’une affaire mineure. Pourtant, il est à la tête d’une opération peu commune, voire révolutionnaire, l’opération «Libre Défense ». Son objectif est de migrer les quelques 100 000 ordinateurs de l’armée italienne vers des logiciels open source. « Nous avons constaté que les deux types de logiciels sont capables de satisfaire de la même façon nos besoins », explique le général. « Voyez par vous-même », dit-il en montrant à l’écran la première page d’une étude récente du ministère. « Ici, vous avez un fichier Microsoft Word », dit-il avant de cliquer, « Et, ici, la version open source LibreOffice. Le logo, le titre, la structure, tout est là. Aucune différence, » dit-il, radieux. «La migration permettra une économie de 28 millions d’euros d’ici 2020 », a prévu le général. Par temps de crise en Italie, l’armée, elle aussi, doit faire des économies.

Le fait est que si la migration s’est déroulée sans accroc jusqu’ici, c’est grâce à une solide planification, selon le général. Le logiciel libre de remplacement peut satisfaire tous les besoins, mais il se manipule différemment et les utilisateurs doivent donc être formés. Pour cela, des volontaires de l’association « LibreItalia » ont formé des personnels de tous les services de l’armée devenus à leur tour formateurs et conseillers pour former leurs collègues. Ainsi, il y aura bientôt assez d’experts dans tous les services de l’armée. « Bien communiquer est un préalable à la réussite du projet », précise le général Sileo. « Si les gens comprennent l’objectif du changement, ils sont capables de surmonter toutes leurs résistances mentales ». Il n’a pas encore été décidé si l’armée migrera aussi son système d’exploitation un jour,  pour être totalement indépendante de Microsoft, mais la question sera examinée de très près », accorde le général Sileo.

La gendarmerie nationale française, l’une des deux forces de police nationales, a déjà mené à bien une opération de migration démarrée dès 2005. Aujourd’hui, 72 000 ordinateurs de la gendarmerie nationale sont équipés d’une version particularisée du système d’exploitation Linux, avec LibreOffice comme application principale. La gendarmerie affirme que l’économie réalisée depuis le début du projet s’élevait en 2014 à quelques 20 millions d’euros. Précisons que jusqu’à cette année-là, la migration s’était déroulée pratiquement dans le secret. « La migration vers Linux pourrait  être vue par Microsoft comme une menace de son monopole », peut-on lire dans une note interne obtenue par Investigate Europe. Cela aurait pu « déclencher des actions visant à discréditer cette politique de la gendarmerie ». C’est pour cette raison que la migration s’est effectuée « sans publicité » jusqu’au moment où le processus est devenu irréversible.

Les institutions mettent la pression sur ceux qui se désengagent

Ces précautions étaient fondées. Encore aujourd’hui, 12 ans après le lancement du projet, la direction de la gendarmerie est sous « pression permanente » pour faire marche arrière, rapporte un membre de l’équipe du département Informatique et Télécom du ministère de l’Intérieur à Paris, qui ne souhaite pas être nommé de peur de représailles. « Chaque jour de fonctionnement du système est une gifle pour notre administration qui maintient que seul Microsoft fonctionne correctement » dit-il.

Le bras de fer entre le ministère de tutelle et les partisans de Linux au sein de la gendarmerie est confirmé par une lettre du ministre, d’avril 2016, qu’Investigate Europe a eue entre les mains. Dans cette lettre, le ministre demande aux fonctionnaires responsables de la gendarmerie un retour définitif et intégral à Windows – prescription dont la direction de la police n’a pas tenu compte jusqu’à présent. Interrogé sur la question, un porte-parole faisait savoir « avec regret » qu’il était dans « l’incapacité de fournir une explication ». En parallèle, cependant, il écrivait de façon clairement subversive que la migration vers le logiciel libre « se passait en douceur et pour longtemps ». « Nous avons choisi Linux parce que le rapport coût/bénéfice est meilleur et, au final, nous gagnons en indépendance».

Ce conflit est caractéristique de ce que vivent partout les pionniers d’une émancipation vis-à-vis du monopole. Partout en Europe, il y a eu et il y a des centaines d’administrations et de municipalités qui ont migré ou tentent de migrer vers des logiciels open source : que ce soit l’administration des retraites de l’État en Suède, les écoles de Jaworzno en Pologne, les services municipaux de la ville de Rome, l’arrondissement de Camden à Londres, la grande ville de Nantes en France, le gouvernement de la communauté autonome d’Estrémadure en Espagne ou encore la ville de Vieira do Minho au Portugal. Ces projets sont à ce jour autant d’îlots perdus dans l’océan Microsoft. Pour cette raison, nombreux sont ceux qui subissent régulièrement des pressions pour rentrer dans le rang, parce que les produits et les lobbyistes de Microsoft sont omniprésents et peuvent créer de nouveaux ennuis.

Des lobbyistes à l’œuvre au sein des ministères

Dans le différend concernant l’administration municipale de Munich, ce qui se passe en coulisses est aussi un élément à prendre en considération. Dans cette ville, le maire centre-gauche SPD a besoin des voix du centre-droit CSU. Or, ce dernier est étroitement lié à l’entreprise étasunienne. Dorothee Belz, par exemple, vice-présidente chez Microsoft Europe jusqu’en 2015, fait partie du comité exécutif du conseil économique du parti conservateur.

Des épisodes identiques « d’allers-retours » se constatent partout en Europe. En Italie, un ancien directeur chez Microsoft pilote aujourd’hui la « transformation numérique » des affaires de la ville de Milan. Au Portugal, c’est un cadre de Microsoft qui a organisé la campagne pour l’élection du président conservateur. Plus de six cadres et directeurs ont des liens étroits avec des ministres et des politiciens. Dans le même temps, des techniciens de Microsoft travaillent directement dans les services informatiques des administrations. Au moins cinq d’entre eux possèdent une adresse électronique qui les identifie comme s’ils faisaient partie du personnel administratif, ce qui leur permet de « faire leur travail de lobbying pour Microsoft à l’intérieur de l’administration », affirme un fonctionnaire à Investigate Europe. En Allemagne aussi, l’accès aux ordinateurs du gouvernement est largement ouvert. Il existe plusieurs milliers d’experts dans les centres informatiques du gouvernement, y compris des personnels de Microsoft et ses partenaires, indique l’ex-responsable informatique du gouvernement fédéral, Martin Schallbruch.

Microsoft peut également instrumentaliser sans restriction les écoles et les universités à des fins marketing. Les écoliers et les enseignants reçoivent en général les produits Microsoft gratuitement, de sorte que les enfants grandissent sans rien connaître d’autre. La stratégie veut qu’après leurs études ils payeront des frais de licence pendant le reste de leur existence. « Une telle méthode est un classique du modèle « crack », utilisé dans le trafic de drogue », explique Rufus Pollock du Centre pour la propriété Intellectuelle et les lois de l’information (CIPIL) à l’Université de Cambridge. Les produits sont gratuits jusqu’à ce que les utilisateurs soient rendus accros.
Cela démontre que les gouvernements européens approuvent tacitement leur propre dépendance envers Microsoft. Ainsi que le formule Anna Strezynska, ministre polonaise du numérique : « Oui, nous sommes dépendants, mais je pense que c’est raisonnable ».
Cela signifie aussi que ces décideurs exposent leurs pays et leurs citoyens à d’innombrables risques de sécurité, tant techniques que politiques.

Ce n’est pas un hasard si les attaques informatiques majeures qui, ces dernières années, ont pris pour cible des institutions de l’État comme le Bundestag allemand ou encore la Commission et le Parlement européens, ont systématiquement exploité des failles de sécurité des logiciels Microsoft. La suite bureautique de Microsoft, notamment, et les fichiers qu’elle permet de créer, sont une des portes d’entrée privilégiée par les hackeurs, selon le rapport 2011 du Bureau fédéral allemand pour la Sécurité des technologies de l’information (BSI). D’après ce rapport, la moitié des attaques ciblées avait pour origine des documents infectés de type Microsoft, tels les fichiers « .docx », dans lesquels les hackeurs avaient dissimulé leur logiciel malveillant. « La particulière complexité de ces fichiers facilite la tâche des hackeurs », affirment les experts du BSI. Ces fichiers contiennent bien plus de code que nécessaire, ne serait-ce que pour empêcher d’autres logiciels de les lire facilement. « Ce constat est toujours d’actualité, confirme Joachim Wagner, porte-parole du BSI. Le format des fichiers Microsoft est bien plus complexe que celui des logiciels open source, ce qui augmente d’autant la « surface d’attaque» de la cible pour les hackeurs ».

Italo Vignoli, un des experts qui travaillent sur le logiciel libre LibreOffice, l’a testé pour Investigate Europe avec un simple texte de 5 500 caractères. Sous la version courante de Microsoft Word, le code du fichier couvre 390 pages. Par comparaison, le format libre OpenDocumentText ne fait que onze pages.

Les programmes de Microsoft sont confus et vulnérables

La particulière vulnérabilité des logiciels de bureautique de Microsoft se voit au nombre de failles de sécurité. « Aux États-Unis, le National Institute for Standards and Technology (NIST, Institut national des normes et de la technologie) a repéré 188 nouvelles failles dans la suite Microsoft Office au cours des trois années précédant le mois d’avril 2017. Les trois quarts de ces failles font partie de la catégorie des failles les plus graves. Sur la même période, on n’a découvert que onze failles dans LibreOffice. D’après M. Vignoli, cela n’a rien à voir avec le fait que LibreOffice est moins répandu. Simplement, malgré tous leurs efforts, même les meilleurs experts n’ont pu dénicher d’autres failles dans LibreOffice.

Cela n’a rien de surprenant. N’importe quel utilisateur chevronné peut contrôler le code source de LibreOffice. Pour l’un des meilleurs experts européens, Michael Waidner, directeur de l’institut Fraunhofer pour la sécurité des technologies de l’information, c’est la clef de voûte : « Si l’Union européenne ou un État entend vraiment préserver sa souveraineté, il doit être en mesure de vérifier que ses matériels informatiques et ses logiciels font bien ce qu’ils sont censés faire et rien d’autre, explique-t-il. Cela ne revient pas à dire que l’Europe doit devenir autonome. « Mais nous devons faire en sorte que nos experts aient accès à toute l’information requise pour tester les logiciels là où la sécurité est en jeu. Il est essentiel d’avoir accès au code source », exige l’expert. Sans cela, affirme-t-il, il ne peut y avoir de « souveraineté numérique ».

Or, c’est précisément ce que Microsoft refuse de fournir. L’entreprise a créé un « centre de la transparence», à Bruxelles, où les représentants gouvernementaux sont invités à inspecter le code source. Mais le BSI allemand juge la proposition insuffisante. « Microsoft doit satisfaire à un éventail complet de prérequis techniques pour créer un climat de confiance », a expliqué le BSI au magazine spécialisé C’t. Or Microsoft n’autorise même pas les experts à conserver leurs notes écrites et exige la signature d’un accord de non-divulgation, a confirmé un expert de la BSI à Investigate Europe.
Même si une inspection du code était possible, les conclusions en seraient probablement obsolètes dès la mise à jour suivante. En outre, le risque que représentent les produits Microsoft n’est pas seulement technique, il est aussi politique.

Déclasser l’Europe au rang de colonie numérique

L’entreprise est soumise aux lois des États-Unis. Cela signifie qu’à tout moment l’administration de ce pays peut la forcer à collaborer afin d’accéder aux données des citoyens et des pouvoirs publics d’autres pays. Pour satisfaire cet objectif, il existe ce qu’on appelle « la lettre du renseignement » dans la loi américaine, autorisant des tribunaux secrets à délivrer de telles instructions, avec obligation de se taire sous peine de poursuites légales. Les révélations de l’ancien agent Edward Snowden ont montré que les services de renseignement américain font un usage démesuré de leurs pouvoirs. Les documents qu’il a publiés révèlent que Microsoft coopère étroitement avec les services secrets de la NSA.

Un document de la NSA du 8 mars 2013 explique avec force détails que Microsoft a ouvert aux autorités américaines l’accès à ses services dans le nuage (cloud), autrement dit aux dispositifs de stockage de données auxquels recourent un nombre grandissant d’organisations privées, mais aussi publiques, qui confient ainsi à un prestataire externe leurs données informatiques par souci d’économiser sur les coûts de leur informatique interne. Les documents de Snowden ont aussi révélé que la NSA utilise une cyber-arme, Regin, en collaboration avec ses partenaires britanniques pour espionner la Commission et le Parlement européens via une faille de sécurité du programme Windows.

Wikileaks a publié des documents secrets qui prouvent que ce n’était pas un cas isolé. Ils montrent que la CIA a même développé un véritable arsenal de logiciels malveillants (malwares) ciblant exclusivement les logiciels de Windows. La NSA n’est pas en reste, un de ses outils exploitant, ainsi que l’a révélé récemment le groupe de hackeurs Shadow Brokers, quatre failles de sécurité du système d’exploitation Windows inconnues jusqu’alors (vulnérabilités Jour Zéro).

De fait, l’utilisation de produits Microsoft par les institutions de l’État « n’est plus compatible avec un État de droit », affirme le juriste et député Vert du Parlement européen Jan Philipp Albrecht. Beaucoup le considèrent comme le père de la loi européenne sur la protection des données. Albrecht précise qu’il y a pléthore de données individuelles stockées dans des ordinateurs appartenant à l’État, tels les montants acquittés pour les impôts, l’état de santé, les fichiers de police et les données sociales. « Cependant, les institutions ne peuvent garantir la confidentialité de ces données tant qu’elles travaillent avec des logiciels dont elles n’ont pas le contrôle », prévient Albrecht. Il va falloir changer cela, sous peine de « transformer l’Europe en une colonie numérique ».

M. Albrecht n’est pas le seul à exprimer ce genre d’opinion. En 2014, après les révélations d’E. Snowden, une grande majorité du Parlement européen appelait les États membres de l’UE à s’unir pour « développer des compétences-clés autonomes dans le domaine des technologies de l’information », qui devraient « être basées sur des standards ouverts et des logiciels open source », de manière à pouvoir « être testées ».

Un an plus tard, le Parlement nouvellement élu appelait à nouveau à l’adoption d’« une stratégie européenne pour l’indépendance du secteur des technologies de l’information ». Il indiquait aussi comment cela pouvait être acté : il est important d’établir « un code source publiquement accessible comme critère de sélection obligatoire dans toutes les procédures d’attribution des technologies de l’information du secteur public », ainsi que le préconisait l’expert en sécurité Michael Waidner.

 

Si l’open source devenait la norme obligatoire pour le développement logiciel, « les acteurs européens deviendraient immédiatement compétitifs ».

Si cela se faisait, M. Albrecht pense qu’il y aurait un effet sur les technologies de l’information « semblable à celui du projet Airbus ». De la même manière que l’Europe s’est autrefois affranchie de Boeing, elle pourrait s’affranchir aujourd’hui de sa dépendance à Microsoft, et cela pour un coût bien moindre, pense-t-il ; si l’open source devenait la norme obligatoire pour le développement logiciel, « les acteurs européens deviendraient immédiatement compétitifs, affirme Albrecht. Après tout, ajoute-t-il, les solutions alternatives sont développées depuis longtemps ».

Pourtant, aujourd’hui encore, les gouvernements européens s’avèrent incapables de chiffrer le montant du tribut versé au « seigneur » des licences de Redmond, aux États-Unis. De la Norvège au Portugal, la réponse des administrations compétentes aux demandes d’information d’Investigate Europe a invariablement été qu’il n’existe pas de statistiques en la matière. En Allemagne, le bureau des achats du ministère fédéral de l’Intérieur a précisé ne pouvoir fournir qu’une « estimation » des dépenses en licences Microsoft des autorités fédérales. Dix semaines après la demande, le bureau n’était toujours pas en mesure de fournir ces données.

Pierre Audoin Consultants, société spécialisée dans l’analyse des marchés IT, estime que, globalement, en Europe, Microsoft a tiré près de 2 milliards d’euros de revenus de ses opérations avec le secteur public pour l’exercice fiscal 2015-16. Cela voudrait dire que ce sont au moins 20 milliards d’euros de recettes fiscales européennes qui partent vers l’entreprise étasunienne tous les dix ans,  assurément assez pour que l’Europe développe sa propre industrie du logiciel.

Jusqu’à présent, les dirigeants européens ne veulent rien entendre d’un « projet Airbus » pour le secteur des technologies de l’information. Andrus Ansip, commissaire européen au marché unique du numérique ne veut même pas en parler. Son directeur de cabinet, Roberto Viola, botte en touche en déclarant que ce n’est pas là leur principal souci

Les entreprises américaines de l’Internet, de leur côté, n’ont pas besoin d’un dessin. Que se soit Facebook, Google ou Amazon, leurs infrastructures informatiques fonctionnent exclusivement avec des logiciels libres à en croire leurs porte-paroles. C’est le seul moyen qu’elles ont de se protéger. C’est bien aussi l’intention des dirigeants chinois, qui ont commencé à se libérer du monopole de Microsoft après le scandale de la NSA.

Sous l’égide de l’Académie nationale d’ingénierie chinoise, un système d’exploitation ouvert, Neokylin, a été développé, accompagné de sa suite bureautique. L’opération de « déwindowsisation », comme l’appelle le professeur Ni Guangang, chef du projet, concernera au premier chef les secteurs les plus sensibles en termes de sécurité. C’est pourquoi l’usage de programmes libres/ouverts est en train de devenir obligatoire pour les militaires, l’administration d’État et le secteur financier. L’opération devrait se terminer en 2020.
La Chine prend le chemin de l’indépendance. Que fait l’Europe pendant ce temps-là ?

photo par Leonid Mamachenkov (CC BY 2.0)

Cet article est une traduction de la version anglaise d’un billet d’Investigate Europe publiée le 13 mai 2017. Pour savoir dans quelles publications de presse, pays et langues le billet est disponible, veuillez consulter la page suivante.

 




Facebook, le Brexit et les voleurs de données

Du grand banditisme à une échelle jamais vue. Le résultat : une élection historique volée.

Les suspects sont connus, les cerveaux, les financiers, les hommes de main…

Il y a Nigel Farage, agent de change devenu politicien malgré lui, fondateur du parti politique UKIP contre l’euro, l’Union Européenne et l’immigration.

Il y a Steve Bannon, à la tête de Breitbart News, une plateforme média de propagande d’extrême-droite, dite « alt right », nommé stratège en chef à la Maison Blanche.

Il y a Robert Mercer, milliardaire des fonds spéculatifs qui a acheté SCL Elections alias Cambridge Analytica, entreprise de l’ombre, pour l’acquisition et l’analyse de nos données.

Il y a Dominic Cummings, petit homme de main conservateur, qui a fait la liaison entre les différents conspirateurs.

Pourtant il n’est pas sûr qu’on les verra sur le banc des accusés…

Et bien sûr il y a Facebook, un système de récolte en masse de nos données, données qui peuvent révéler des choses qui nous inquiètent et des sujets politiques qui sont pour nous parmi les plus brûlants.

Facebook qui est aussi le livreur de messages faits sur mesure. Avec son fil d’actualité qui mélange discrètement posts de nos proches et publicité lucrative, Facebook est le parfait cheval de Troie pour injecter de la propagande dans notre vie la plus personnelle.

L’un de nos traducteurs, un Britannique, nous dit que c’était perceptible, il a été témoin direct du tsunami d’exagérations, de fake news et de beaux mensonges (« nous aurons 350 millions de livres sterling de plus par semaine pour le service de santé britannique ») de la part de la campagne pour quitter l’Europe, autant que la frustration des gens ordinaires qui ont vu trop tard qu’ils étaient trompés.

Voici une traduction des extraits (dans la limite des 500 mots autorisés) de l’article « The great British Brexit robbery: how our democracy was hijacked » de Carole Cadwalladr, qui est paru récemment dans The Observer, l’édition de dimanche du quotidien britannique, The Guardian.

Un petit mot avant de commencer pour Framasphère (une instance de Diaspora*), un plateforme de réseau social libre et éthique où vos données sont sécurisées. Car un utilisateur qui migre vers la sécurité des services éthiques et libres, c’est tout de même un tout petit pas vers la liberté…

Traducteurs : goofy, MO, hello, PasDePanique, FranBAG

CC0 Domaine public https://pixabay.com/en/facebook-crime-internet-violent-2241419/

 

La grande escroquerie du Brexit : comment notre démocratie a été piratée

Le résultat du référendum sur l’Union européenne a été influencé par une opération globale menée dans l’ombre, qui implique le big data, les amis milliardaires de Trump et les forces disparates de la campagne pour le Leave (Quitter). Alors que la Grande-Bretagne se dirige à nouveau vers des élections, peut-on encore faire confiance à notre système électoral ?

Par Carole Cadwalladr

C’est Facebook qui a tout rendu possible. C’est d’abord grâce à Facebook que Cambridge Analytica a obtenu ses trésors de données. C’est Facebook qui a alimenté les outils psychologiques permettant à Cambridge Analytica de cibler individuellement des électeurs. C’est également le mécanisme grâce auquel ils ont pu toucher un si vaste public.

L’entreprise a également acheté en parfaite légalité des jeux de données sur les consommateurs et les a ajoutées, données psychologiques comprises, aux fichiers d’électeurs. Puis elle a lié toutes ces informations aux adresses, numéros de téléphone, voire, souvent, adresses électroniques des gens. «Le but est de récupérer le moindre élément de l’environnement informationnel concernant chaque électeur, » explique David, ex-employé de Cambridge Analytica. « Et les données sur la personnalité des gens ont permis à Cambridge Analytica de mettre au point des messages individualisés.»

Dans une campagne politique, il est essentiel de trouver des électeurs faciles à persuader et Cambridge Analytica, avec son trésor de données, pouvait cibler les gens au potentiel névrotique élevé, par exemple, et les bombarder d’images d’immigrants « envahissant » le pays. La clé consiste à trouver, pour chaque électeur individuel, des déclencheurs d’émotion.

Sur son blog, Dominic Cummings, stratège de campagne du Vote Leave, a publié des milliers de mots sur la campagne du Brexit. Sur ces analystes de données, rien ! Pourquoi ?

Le 29 mars, le jour où le Royaume-Uni a invoqué l’article 50, j’ai appelé le QG de l’une des petites équipes de campagne, Veterans for Britain. La stratégie de Cummings a consisté à cibler les gens au dernier moment et dans la semaine qui a précédé le référendum, Veterans for Britain a reçu 100 000 livres sterling de la part de la campagne Vote Leave. Un petit groupe de personnes considérées comme faciles à convaincre ont été bombardées de plus d’un milliard de publicités dans les tout derniers jours pour la plupart.

On s’est joué de nous, le peuple britannique. Sur son blog, Dominic Cummings écrit que le vote en faveur du Brexit s’est joué à 600 000 personnes près : à peine plus d’1% des inscrits. Il n’est pas très difficile d’imaginer qu’un membre des 1% les plus riches du monde a trouvé le moyen d’influencer ce petit 1% fatidique d’électeurs britanniques.

L’article 50 a été invoqué. La Commission électorale est impuissante. Et dans un mois un autre élection, avec les mêmes règles. Pourtant les autorités savent bien qu’il y a des raisons d’être inquiets. The Observer a appris que le Crown Prosecution Service a bien nommé un procureur spécial afin d’engager une une enquête criminelle pour savoir si les lois sur le financement des campagnes ont été enfreintes. Le CPS l’a renvoyé à la commission électorale.

Telle est la Grande-Bretagne en 2017. Une Grande-Bretagne qui ressemble de plus en plus une démocratie « encadrée ». Achetée par un milliardaire américain. Utilisatrice de technologie de type militaire. Livrée par Facebook. Tout ça rendu possible par nous. Si nous laissons passer le résultat de ce référendum, nous donnons notre consentement implicite. La question n’est pas de rester ou partir (Remain ou Leave). Ça va bien au-delà de la politique des partis. Il s’agit du premier pas vers un monde audacieux, nouveau et de plus en plus antidémocratique.




Grise Bouille, tome 2 : lisez des BD moches !

Simon Giraudot nous les brise menu. Quand on a son talent, on arrête de faire le modeste, de prétendre à l’autodérision, de se faire tout petit face aux grands maîtres qu’on a adulés depuis tout petit (« Ahhh Gotlib, quel génie ! », etc.).

Mais c’est plus fort que lui : cette année encore le voilà qui récidive avec son pourtant génial Grise Bouille. Tiens, rien qu’avec un nom pareil, le gars se tire une roquette dans le pied. Passons. Et en plus c’est le même titre que le premier, juste « Grise Bouille 2 », même pas un effort pour le vendre, genre : « Grise Bouille revient, il va vous en coller plein la tronche », « Grise Bouille, l’alarme absolue contre la connerie » ou quelque autre slogan un peu chatouilleur.

Et les textes.

Vous vous rendez compte des textes ? Ce mec écrit avec une acuité et une verve dont nous sommes tous jaloux et il insère ça un peu au hasard dans des bulles et des sortes d’éditoriaux entre les dessins au lieu de chroniquer l’actu dans Fakir ou Rue89. Franchement, Simon, faut que t’arrêtes de pas te la péter.

Bon mais à quoi ça sert qu’on lui dise ça ? il est trop buté l’animal, nous on n’y arrive plus.

À moins que vous peut-être…

Vous qui allez télécharger et/ou acheter ce nouveau volume depuis sa page Framabook, vous, qui suivez ses petits chefs-d’œuvres depuis des années et vous qui peut-être allez au contraire les découvrir (tous ses albums sont disponibles chez Framabook), vous avez un rôle à jouer : lisez, diffusez, détournez ses albums, faites-les connaître et apprécier, inondez ses comptes twitter, mastodon et framasphère de compliments dithyrambiques, érigez à sa gloire un monument d’éloges, bref traitez-le comme il le mérite !

Nous, on sait plus quoi lui dire à part lui poser des questions…

Hello Gee !

Tu présentes le tome 2 de ton blog, qui rassemble les articles de l’année 2016… alors ce 2016, c’est un bon cru ?

Le tome 2, c’est moins d’articles mais plus de pages que le tome 1 : des articles souvent plus longs, plus étayés, qui prennent leur temps pour poser les choses. Je pense que c’est aussi une BD qui « se cherche » moins que pendant la première année. Il y a un côté plus affirmé, plus assuré. Quant à savoir si c’est un bon cru… c’est au lecteur de juger, non ?

À chaque bilan/rétrospective d’une année, on a envie de se dire « ouais, ça peut pas être pire, l’an prochain ça ira mieux… » Ce coup-là aussi ?

C’est plus compliqué que ça. D’un côté, faut pas se leurrer, c’est la merde intégrale, entre l’urgence sociale et environnementale que personne ne semble prendre en compte sérieusement (t’as qu’à voir les résultats du 1er tour de la présidentielle) et cet espèce de fatalisme qui s’insinue chez tout le monde. Et en même temps, il reste ce mouvement de fond, diffus, de gens qui s’informent et qui en s’informant se font de moins en moins avoir ; de gens qui essaient de construire, de faire des choses différemment ; de gens qui essaient d’insuffler un peu d’espoir dans cette société et, au passage, d’en retrouver pour eux-mêmes.

Et perso, le cynisme de convenance, j’ai donné, merci. Je préfère me concentrer sur ce qu’on va pouvoir faire, nous les gens, ensemble, ça me permet au moins de me lever le matin sans avoir envie de me recoucher immédiatement. Ça ne m’empêchera pas de gueuler sur les politiciens, hein, mais c’est pas mon mètre-étalon de ce qui est important dans notre société (sinon, t’imagines dans quelle merde on serait). Bref, pendant que les dominants encouragent un monde qui court à sa perte, nous on continue d’essayer autre chose. Et le pire, c’est que si ça trouve, on va y arriver.

Mais bon, Grise Bouille ne parle pas que d’actualité, c’est même une petite part de ton blog… D’ailleurs qu’est-ce que tu préfères préparer : un article de vulgarisation informatique ou un article fun et fan sur Star Wars ou Harry Potter ?

Je vais te dire, ce que je préfère, ce sont les articles complètement débiles comme « Le grand cerf et le lapin » ou encore « Dragon & fine aigrette ». Parce qu’en fait, quand je commence à écrire un truc comme ça, y’a une espèce de liberté, je sais que je peux partir dans les délires les plus idiots et pousser le concept à fond. Peu importe, l’idée c’est qu’on se marre un peu plus à chaque case. Et c’est vachement jouissif d’écrire des trucs comme ça : c’est typiquement le genre d’article où je me marre moi-même en relisant (ouais je sais, faut pas dire ça normalement, ça fait mec content de lui, mais j’assume).

Le revers de la médaille, c’est que trouver un sujet qui me permette de partir dans des délires du genre, c’est pas si simple, du coup il y a assez peu d’articles comme ça. En général je fais comme Gotlib, je prends une histoire de la culture populaire / traditionnelle et je la triture dans tous les sens.

Note que ce sont aussi des articles qui sont en général moyennement lus / partagés (beaucoup moins que les articles politiques et scientifiques), donc peut-être que ça ne fait marrer que moi.

Euh l’autre ! Pourquoi tu fais des efforts pour qu’on te prenne pas au sérieux alors que tu dis des choses importantes ? Tu veux nous faire croire que tu fais seulement des petits mickeys ?

Attends, Mickey c’était un gros rebelle, au début !

Enfin bon, j’ai jamais bien compris cette espèce de loi que certains voudraient mettre en place et qui dit qu’un dessin enfantin ne peut porter qu’un discours enfantin. Vous avez déjà regardé South Park ? Le dessin, sur mes blogs, ça a toujours été un support pour porter un discours : les deux traits tracés à l’arrache sur une tablette graphique minuscule, ça veut juste dire que je suis pressé de dire ce que j’ai à dire. Je pense que si je n’avais pas su dessiner du tout, j’aurais juste fait un blog avec du texte. D’ailleurs ça m’arrive de me passer des dessins.

Les dessins, l’avantage, c’est que ça apporte aussi une distance : Grise Bouille, c’est pas un type qui a la science infuse qui vous déverse la vérité absolue, ce sont des petits personnages qui taillent le bout de gras et à vous de voir ce que vous voulez en retirer. Oui je sais, ça sonne un peu comme « amis lecteurs, démerdez-vous », mais après tout c’est libre, ni repris ni échangé, et sans garantie.

Y’a une vraie évolution dans ton blog, on sent que tu as une envie de plus en plus appuyée que ton lectorat se détende ET réfléchisse… L’un va avec l’autre ?

Je pense que c’est dans la continuité du précédent. L’un ne va pas nécessairement avec l’autre, mais ça peut aider : tu retiens toujours mieux les paroles d’une chanson que tu aimes bien que les intégrales et dérivées usuelles… alors si ta chanson peut parler de maths, quelque part, ça peut t’aider à les retenir. Après, dans le blog, l’un va parfois sans l’autre aussi : les articles politiques de cette année sont parfois assez peu humoristiques tellement ils témoignent d’un sentiment d’écœurement ; à l’opposé, certains articles purement humoristiques n’ont pas franchement de valeur de réflexion (encore que 😉 ).

Cliquez-y la face si vous voulez atterrir sur son blog !

Dis donc, tu te fous de la gueule de tout le monde, finalement ! Tu serais pas un peu anarchisse ?

Ah parce que l’anarchisme, tu résumes à ça à se foutre de la gueule de tout le monde ? C’est vachement réducteur, non ? Disons que l’humour me semble avoir plus de sens et de poids lorsqu’il est dirigé contre les dominants et les puissants. De ce point de vue, il y a effectivement un aspect de refus de l’autorité (ou des autorités, voire même des figures d’autorité). Je vais pas jouer au chevalier blanc, moi aussi j’me suis marré devant les Deschiens et les Bidochons, mais j’ai de plus en plus de mal avec ça : y’a un vrai côté mépris de classe dans la moquerie du plus pauvre, du moins cultivé, du plus beauf, du plus prolo (rayez les mentions inutiles) qui, à mon sens, joue dans le sens du système qui a tout intérêt à monter les gens les uns contre les autres en bas de l’échelle.

Alors que c’est tellement plus amusant de se foutre de la gueule de la tripotée de branquignols qui ont les clefs du dit système, les Macron, les Hollande, les Sarko, les Arnault, les Bettencourt, etc. Se moquer d’un con, c’est bien, se moquer d’un con qui a du pouvoir, c’est mieux. Après, on va pas péter plus haut que nos culs (de peur d’avoir du caca derrière les oreilles), c’est pas avec mes gribouillages et mes jeux de mots pourris qu’on va faire la révolution, m’enfin si ça peut en donner l’ambiance (festive, cela va de soi), c’est déjà ça.

Non franchement, il est bien ton bouquin, là… mais c’est un peu mal dessiné, quand même, hein ? Genre bâclé, quoi.

J’suis bien d’accord, heureusement que la version numérique est gratos, sinon t’imagines le scandale ? D’ailleurs heureusement que Pouhiou a fait la préface, c’est ma caution intellectuelle pour arriver à vendre cette connerie. (Note de Pouhiou : « Eh ben on a pas le cul sorti des ronces. Pourtant mon cul… »)

Bon, après, même le titre dissimule à peine le fait que ce sont des gribouillages, alors faites pas comme si vous étiez pas prévenus. Pis au moins, vous souffrirez pas du syndrome d’infériorité en lisant mes bouquins, y’a un côté « dédramatisons le dessin ». Moi par exemple, j’ai arrêté de regarder les BD de David Revoy, attends, c’était trop joli, ça me déprimait en me renvoyant à ma propre médiocrité.

Bref, soyez décomplexé⋅e⋅s, lisez des BD moches !

Pour aller plus loin :




Mastodon, le réseau social libre qui est en train de bousculer twitter

Une alternative à Twitter, libre et décentralisée, est en train de connaître un succès aussi spontané que jubilatoire…

Depuis que Twitter a changé la manière dont les réponses et conversations s’affichent, des utilisatrices et utilisateurs abondent par milliers sur cet autre réseau. Chacun·e cherche un endroit (une « instance ») où s’inscrire, surtout depuis que l’instance originelle, celle du développeur Eugen Rochko, n’accepte plus les inscriptions car le serveur est surchargé.

Alors avant que de vous annoncer des solutions dans les semaines (jours ?) qui arrivent, parce qu’elles prennent le temps de se mettre en place (mais disons qu’une bande de CHATONS est sur le coup), nous avions envie de vous présenter ce phénomène, ce réseau social et ce logiciel qu’est Mastodon.

Or Alda (qui fait du php, du JavaScript, et essaie d’être une humaine décente), a déjà brillamment présenté cette alternative à Twitter sur son blog, placé sous licence CC-BY-ND. Nous reproduisons donc ici son article à l’identique en la remerciant grandement de son travail ainsi partagé !

Join the Federation par B! Cavello

Welcome to Mastodon

Depuis quelques jours, Mastodon reçoit entre 50 et 100 inscrit⋅es par heure et on peut voir sur twitter quelques messages enthousiastes incitant plus de monde à migrer sur cette alternative « Libre et Décentralisée »

C’est quoi ce truc ?

Mastodon est un logiciel accessible par un navigateur et des applications iOS ou Android qui vise, par ses fonctions de base, le même public que Twitter.

L’interface est très similaire à celle de Tweetdeck, on suit des comptes, des comptes nous suivent, on a une timeline, des mentions, des hashtags, on peut mettre un message dans nos favoris et/ou le partager tel quel à nos abonné⋅e⋅s. Bref, tout pareil. Même les comptes protégés et les DMs sont là (à l’heure actuelle il ne manque que les listes et la recherche par mots clés).

Il y a quelques fonctionnalités supplémentaires que je détaillerai par la suite mais la différence de taille réside dans ce « Libre et Décentralisé » que tout le monde répète à l’envi et qui peut rendre les choses confuses quand on ne voit pas de quoi il s’agit.

Le Fediverse : Un réseau décentralisé

Mastodon est donc un logiciel. Au contraire de Twitter qui est un service. Personne ne peut installer le site Twitter sur son ordinateur et permettre à des gens de s’inscrire et d’échanger ailleurs que sur twitter.com. Par contre toutes celles qui ont les connaissances nécessaires peuvent télécharger Mastodon, l’installer quelque part et le rendre accessible à d’autres.

C’est ce qui se passe déjà avec les sites suivants :

  • mastodon.social
  • icosahedron.website
  • mastodon.xyz

Ces trois exemples sont des sites différents (on les appelle des « instances ») à partir desquels il est possible de rejoindre le réseau social appelé « Fediverse » (mais comme c’est pas très joli on va dire qu’on « est sur Mastodon » hein ?)

C’est là que se trouve toute la beauté du truc : les personnes inscrites sur n’importe laquelle de ces instances peut discuter avec les personnes inscrites sur les deux autres de manière transparente. Et tout le monde est libre d’en créer de nouvelles et de les connecter ou non avec les autres.

Pour résumer, on s’inscrit sur une instance de Mastodon, cette instance est dans un réseau appelé le Fediverse et les gens qui sont dans le Fediverse peuvent échanger entre eux.

Comme personne ne peut contrôler l’ensemble du réseau puisqu’il n’y a pas d’instance centrale, on dit que c’est un réseau décentralisé. Et quand une instance se connecte aux autres instances on dit qu’elle « fédère » avec les autres.

Si cette histoire d’instance est encore trop nébuleuse, imaginez un email. Vous êtes Alice et votre fournisseur de mail est Wanadoo. Votre adresse mail est donc alice@wanadoo.fr. Vous avez un ami nommé Bob qui est chez Aol et son adresse mail est bob@aol.com. Alors que vos fournisseurs respectifs sont différents, ils peuvent communiquer et vous pouvez ainsi envoyer des messages à Bob avec votre adresse mail de Wanadoo. Mastodon fonctionne selon le même principe, avec les instances dans le rôle du fournisseur.

Pourquoi c’est mieux que Twitter ?

Maintenant qu’on a évacué la partie un peu inhabituelle et pas forcément simple à comprendre, on peut attaquer les fonctionnalités de Mastodon qui donnent bien envie par rapport à Twitter.

La base

En premier lieu jetons un œil à l’interface :

interface de mastodon

 

Si on utilise Tweetdeck on n’est pas trop dépaysé puisque l’interface s’en inspire fortement. La première colonne est la zone de composition, c’est ici qu’on écrit nos Pouets (c’est le nom Mastodonien des Tweets), qu’on décide où les poster et qu’on y ajoute des images.

La seconde colonne c’est « la timeline », ici s’affichent les pouets des personnes qu’on suit.

La troisième colonne c’est les notifications qui contiennent les mentions, les boosts (sur Twitter on dit RT) et les favoris qu’on reçoit.

La quatrième colonne a un contenu variable selon le contexte et les deux premières possibilités méritent leur explication :

  • Local timeline : Ce mode affiche tous les pouets publics de l’instance sur laquelle on se trouve, même des gens qu’on ne suit pas.
  • Federated timeline : Ce mode affiche tous les pouets publics de toutes les instances fédérées avec celle sur laquelle on se trouve. Ce n’est pas forcément tous les pouets publics du Fediverse, mais ça s’en approche.

Pour suivre et être suivi, le fonctionnement est identique à celui de Twitter : On affiche un profil en cliquant sur son nom et on peut le suivre. Si le profil est « protégé » il faut que son ou sa propriétaire valide la demande.

Enfin, un pouet peut faire jusqu’à 500 caractères de long au lieu des 140 de Twitter.

La confidentialité des pouets

Contrairement à Twitter où les comptes publics font des tweets publics et les comptes protégés font des tweets protégés, Mastodon permet à chacun de décider qui pourra voir un pouet.

 

Le premier niveau est public, tout le monde peut voir le pouet et il s’affichera également dans les parties « Local Timeline » et « Federated Timeline » de la quatrième colonne.

Le niveau deux est unlisted, c’est comme un pouet public mais il ne s’affichera ni dans la timeline Locale ni dans la timeline Federated.

Le niveau trois est private, c’est-à-dire visible uniquement par les gens qui nous suivent. C’est le niveau équivalent à celui des tweets envoyés par des comptes protégés sur Twitter.

Le niveau quatre est direct, les pouets ne seront visibles que par les personnes mentionnées à l’intérieur. Ça correspond aux DMs de Twitter sauf que les pouets sont directement intégrés dans la timeline au lieu d’être séparés des autres pouets.

Bien sûr, il est possible de changer le niveau individuel d’un pouet avant de l’envoyer.

Avoir un compte protégé sur Mastodon

Comme sur Twitter, il est possible de protéger son compte, c’est-à-dire de valider les gens qui s’abonnent. Cependant, on peut toujours définir certains de nos pouets comme étant publics.

Plus besoin d’avoir deux comptes pour poueter en privé !

Une gestion native du Content Warning et des images NSFW

Une pratique courante sur Twitter est de préciser en début de tweet les éventuels trigger warning (avertissements) qui y sont associés, mais le reste du tweet reste visible.

Mastodon généralise le concept en permettant de saisir une partie visible et une partie masquée à nos pouets. On peut ainsi y mettre des messages potentiellement trigger, nsfw, spoilers ou autres.

De même quand on poste une image, on peut la déclarer comme étant NSFW, ce qui nécessite de cliquer dessus pour l’afficher :

Ok, vendu, du coup comment ça se passe ?

Tout d’abord il faut choisir sur quelle instance s’inscrire puisque, ayant des propriétaires différents, il est possible qu’elles aient des règles différentes dont il convient de prendre connaissance avant de la rejoindre.

L’existence de la « Local Timeline » est intéressante à ce niveau puisque son contenu diffère forcément selon l’endroit où on est inscrit. Par exemple si on va sur une instance à tendance germanophone, il est à peu près sûr que la plupart de ce qu’on y trouvera sera en allemand.

Ça ouvre tout un tas de possibilité comme la constitution d’instances orientées en fonction d’un fandom, d’intérêts politiques et/ou associatifs.

Par exemple, l’instance awoo.space est volontairement isolée du reste du Fediverse (elle ne communique qu’avec l’instance mastodon.social) et la modération se fait dans le sens d’un fort respect des limites personnelles de chacun⋅e.

On peut trouver une liste d’instances connues sur le dépôt de Mastodon et à l’exception d’awoo.space il est possible de parler au reste du Fediverse depuis n’importe laquelle figurant sur cette liste, il n’y a donc pas de forte obligation d’aller sur la même instance que nos potes puisqu’on pourra leur parler de toute façon.

Une fois inscrit⋅e, on aura un identifiant qui ressemble un peu à une adresse mail et qui servira à nous reconnaître sur le Fediverse. Cet identifiant dépend du pseudo choisi et du nom de l’instance. Ainsi, je suis Alda sur l’instance witches.town, mon identifiant est donc Alda@witches.town.

Pour trouver des gens à suivre, on peut se présenter sur le tag #introduction (avec ou sans s) et suivre un peu la Federated Timeline. On peut aussi demander leur identifiant à nos potes et le saisir dans la barre de recherche de la première colonne.

 

Et voilà, il n’y a plus qu’à nous rejoindre par exemple sur :

Ou à créer votre propre instance pour agrandir le Fediverse !

Évitez par contre de rejoindre l’instance mastodon.social. Elle est assez saturée et l’intérêt de la décentralisation réside quand même dans le fait de ne pas regrouper tout le monde au même endroit. Mais si vous connaissez des gens qui y sont, vous pourrez les suivre depuis une autre instance.

Point Bonus

Des applis mobiles

Pour faire pouet avec Android : Installe Tusky

Pour faire pouet avec iOS : Installe Amaroq

Retrouver ses potes de Twitter

Le développeur principal de Mastodon a aussi fait une application pour retrouver ses potes de Twitter. Il faut se rendre sur Mastodon Bridge, se connecter avec Mastodon et Twitter et le site affichera ensuite les comptes correspondants qu’il aura trouvés.




Demain, une science citoyenne dans une société pair à pair ?

De simples citoyens ont-ils un rôle à jouer dans les sciences, où ils sont pour l’instant contingentés au mieux à des fonctions subalternes ?

On voit d’ici se lever d’inquiets sourcils à l’énoncé du simple terme de science citoyenne, tant la communauté scientifique se vit comme distincte de l’ensemble du corps social par ses missions, ses méthodes et son éthique. Pourtant un certain nombre d’expériences, de projets et même de réalisations montrent que la recherche scientifique universitaire peut tirer un profit important de sa collaboration avec les citoyens motivés, lesquels en retour élèveront leur niveau de connaissances tout en ayant un droit de regard sur la recherche.

Réconcilier citoyens et universitaires scientifiques, longtemps une utopie, est rendu aujourd’hui possible par des objets technologiques désormais beaucoup plus accessibles à chacun.

Cela ne va pas sans perplexité et crainte de dégrader les principes fondamentaux de méthode et d’éthique qui guident le travail scientifique, mais des systèmes de contrôle existent : de même que du code open source peut être révisé par des spécialistes du code, la science citoyenne peut être évaluée par des scientifiques (qui d’ailleurs ont eux-mêmes l’habitude d’être évalués par des pairs).

D’autres conditions sont également nécessaires : le partage mutuel des connaissances nécessite le pair à pair, des licences permissives, un élèvement du niveau de connaissances de la population et bien entendu l’extension des biens communs scientifiques.

Telles sont les problématiques explorées de façon approfondie par Diana Wildschut dans le long article universitaire que l’équipe Framalang vous propose.

Alors, pouvons-nous imaginer comme l’auteure un futur où au sein d’une société de pair à pair l’échange collaboratif mutuel fasse de la science un bien commun ?

La nécessité d’une science citoyenne pour aller vers une société de pair à pair durable

Article original de Diana Wildschut sur ScienceDirect : The need for citizen science in the transition to a sustainable peer-to-peer-society

Traduction Framalang : Bam92, dodosan, goofy, jaaf, lumpid, lyn, mo, Opsylac, simon

L’essentiel de l’article

Notre monde est en transition vers une société de pair à pair caractérisée par une nouvelle façon de produire les choses, des logiciels à l’alimentation, en passant par les villes et la connaissance scientifique. Cela nécessite un nouveau rôle pour la science.

Plutôt que de se focaliser sur la production de connaissances pour les ONG, les gouvernements et les entreprises, les scientifiques devraient prendre conscience que les citoyens seront les décideurs dans une future société de pair à pair (p2p), produire des connaissances durables et accessibles, et travailler ensemble aux côtés des scientifiques citoyens.

Les citoyens ont démontré leur capacité à définir leurs propres sujets de recherche, à monter leurs propres projets, à s’éduquer et à gérer des projets complexes. Il est temps pour eux d’être pris au sérieux.

Il existe toujours un grand fossé entre les citoyens et les scientifiques universitaires quand il est question de partage des connaissances. Les données collectées par des citoyens ne sont presque jamais utilisées par les scientifiques universitaires, et les résultats de la recherche scientifique restent en grande part cachés derrière des barrières de péage.

Si nous voulons qu’une transition durable prenne place, nous devons faire tomber les barrières entre la science et le public. Les préoccupations des citoyens doivent être prises au sérieux et leurs connaissances utilisées et valorisées.

 

1. Introduction

Notre monde est en cours de transition vers une société de pair à pair (p2p), caractérisée par une nouvelle façon de produire tout, des logiciels à l’alimentation, en passant par les villes et la connaissance scientifique (Bauwens 2012). Dans une société de pair à pair, des réseaux d’individus, ou de pairs, prennent en charge les tâches qui étaient précédemment entre les mains des institutions. Cela nécessite un nouveau rôle pour la science. Plutôt que de se focaliser sur la production de connaissances pour les ONG, les gouvernements et les entreprises, les scientifiques devraient prendre conscience que les citoyens seront les nouveaux décideurs dans une future société de pair à pair, produire des connaissances durables et accessibles et travailler ensemble avec des scientifiques citoyens.

Dans cet essai, quand je parle de citoyens, je parle des non-professionnels qui s’engagent dans ce qui les touche directement, qui peut être une ville, une rue, l’environnement, le système démocratique, etc. Quand je parle de scientifiques citoyens je parle des gens qui pratiquent la science en dehors d’un environnement universitaire ou du contexte industriel, et qui ont reçu ou non une formation scientifique réelle. Ma définition d’un système néolibéral est un système avec un marché libre, un petit gouvernement dans un monde globalisé.

En regardant autour de nous, nous voyons de vieilles structures échouer. L’efficacité des ONG est mise en doute (Edwards & Hulme, 1996) et elles semblent essentiellement préoccupées par leur propre survie. Elles en sont restées aux méthodes des années 80 ; elles se déguisent en porcs ou en abeilles, ou portent des masques à gaz et se présentent comme un petit groupe guère impressionnant dans le quartier général d’entreprises ou de gouvernements. Leurs causes sont légitimes et les problèmes qu’elles mettent à l’ordre du jour sont urgents, mais leurs méthodes sont complètement inadaptées au monde dans lequel nous vivons. L’attention des gouvernements néolibéraux n’est plus focalisée sur le bien-être des citoyens, elle s’est depuis longtemps déplacée vers les intérêts des entreprises (Chomsky,1999 ; von Werlhof, 2008). Les intérêts à long terme, y compris ceux de la science, en pâtissent (Saltelli & Giampietro, 2017). Les entreprises n’ont pas l’obligation légale d’agir dans l’intérêt public, et n’ont pas tendance à le faire si cela s’oppose à leurs intérêts économiques à court terme (Banerjee, 2008 ; Chomsky, 1999).

L’avenir de la planète pourrait bien se retrouver entre les mains de petits groupes de citoyens ou d’individus qui bâtissent une nouvelle société à côté de l’existante en jetant les bases d’initiatives durables qui seraient interconnectées en réseaux de pair à pair. Dès à présent, la science procure des technologies qui donnent aux gens le pouvoir de faire leurs propres recherches, en utilisant leurs smartphones, leurs webcams et leurs ordinateurs portables (Bonney et al., 2014). Mais il y a toujours un large fossé entre les citoyens et les scientifiques universitaires quand on en arrive au partage des connaissances. Les connaissances collectées par les citoyens sont très peu utilisées par les scientifiques universitaires, et les résultats de la recherche scientifique sont le plus souvent cachés derrières des barrières de péage.

Si nous voulons qu’une transition durable prenne place, nous devons abaisser ces barrières entre la science et le public. Les préoccupations des citoyens doivent être prises au sérieux et leurs connaissances utilisées et jugées à leur juste valeur (Irwin, 1995).

Dans cet essai je soutiens que les citoyens sont prêts à produire une science valable, et à utiliser et comprendre la science produite par les scientifiques universitaires. Ils sont prêts à utiliser la science pour combler certains fossés existants que les gouvernements, les entreprises et les ONG laissent à l’abandon.

Faire sérieusement, sans se prendre au sérieux.

2. La science citoyenne

Au début de la révolution scientifique, quiconque ayant du temps libre pouvait regarder les étoiles, accumuler des données et faire des prévisions. On n’avait pas besoin d’équipements ou de compétences mathématiques. Les scientifiques étaient souvent des fermiers, artistes ou hommes d’État. Ce n’était pas des spécialistes mais plutôt des généralistes.

À partir de la seconde moitié du 19e siècle, la science est devenue une affaire de spécialistes, qui utilise des équipements de pointe ainsi que les mathématiques, et nécessite des années d’études universitaires. La science n’était plus quelque chose que n’importe qui pouvait pratiquer (Vermij, 2006).

Ces dernières décennies, les ordinateurs sont devenus bon marché et puissants. Internet permet à tous d’accéder à des données ainsi qu’à des formations. Le développement de microcontrôleurs programmables bon marché a permis à de nombreux profanes de créer leur propre électronique. La popularité de ces microcontrôleurs peut être attribuée principalement à Arduino, une carte microcontrôleur, open source, bon marché, avec un environnement de programmation en ligne.

Programmer de telles cartes est facile grâce à l’abondance d’exemples, tutoriels et codes fournis par la communauté. Les cartes peuvent être connectées à un circuit, en respectant des schémas disponibles en ligne. La communauté Arduino maintient une excellente documentation pour les débutants et les experts sur www.arduino.cc.

La possibilité de se procurer des capteurs peu coûteux est le prochain problème à résoudre. L’utilisation de capteurs combinée avec ATMegas (les microcontrôleurs utilisés sur les cartes Arduino) est très populaire. Les gens peuvent mesurer autour d’eux tout ce qui leur passe par la tête. Ils collectent toutes les données et cherchent à les comparer à celles d’autres personnes. Cela crée un besoin de plate-formes open data permettant de partager ces données en ligne. Des communautés se forment non seulement autour du matériel, mais aussi autour de sujets de recherche. Par exemple, spectralworkbench.org, où les personnes partagent leurs analyses spectrales de différentes sources lumineuses. Ils utilisent un spectromètre fait d’un morceau de carton et d’un morceau de CD connecté à une webcam. Ils déposent leurs spectres dans la base de données, qui contient des résultats venant à la fois de spectrographes professionnels et amateurs. Il s’agit d’un mélange de spectres utiles et d’images floues. La base de données est alimentée essentiellement par des passionnés curieux, et à mesure que sa taille augmente, elle devient une ressource précieuse pour déterminer des éléments chimiques. Dans la section « Apprendre » du site internet, on peut découvrir l’usage qui est fait des données. Des citoyens l’utilisent pour mesurer la contamination de la nourriture, la présence d’OGM (Critical Art Ensemble, 2003), la quantité d’azote dans des terres agricoles, le niveau de pollution de l’air, etc. Cela les amène à porter un regard critique sur les informations obtenues depuis des sources officielles, comme les gouvernements et les industriels.

Un spectrographe maison fait d’un morceau de carton et d’un morceau de CD

Une avancée récente est le Lab-on-a-Chip (Ndt : littéralement, laboratoire-sur-une-puce), un petit laboratoire qui peut être utilisé pour des analyses de fluides. Le Lab-on-a-Chip est bon marché et facile à utiliser. Le but est d’en faire un labo si facile à utiliser que n’importe qui puisse s’en servir sans connaissances préalables. Dans le domaine médical, il permet aux patients de faire leur propre diagnostic in vitro. Il permet aussi de raccourcir le temps nécessaire pour prendre une décision car le patient qui possède déjà le laboratoire à la maison n’a pas à attendre un rendez-vous (von Lode, 2005).

Un Lab-on-a-Chip est une petite plaque de verre sur laquelle sont gravés de minuscules canaux fluides. Elle est montée accolée à un capteur semi-conducteur, connecté à un microcontrôleur qui effectue les analyses ou envoie les données à un outil d’analyse.

Le boom récent des Fablabs et des ateliers ouverts pour la fabrication numérique, qui trouvent leur origine au MIT (Gershenfeld, 2012), a permis au citoyen scientifique de graver ses propres systèmes Lab-on-a-Chip, en lui donnant accès à des ciseaux lasers et des imprimantes 3D. En utilisant Arduino et du logiciel open source pour l’analyse, il peut maintenant effectuer lui-même des analyses de fluides chimiques complexes.

Ces nouvelles technologies sont désormais à la disposition de tous, pour autant qu’on ne soit pas effrayé par la technologie. De nouveaux outils voient le jour sous forme d’outils pour jeux vidéo et il faut un peu de temps avant que des gens les rendent accessibles à un public plus large en les dotant d’interfaces conviviales. Ce processus est déjà entamé et de nombreux outils deviennent utiles à ceux qui sont intéressés à les utiliser plutôt qu’à les faire fonctionner.

Ce ne sont pas seulement les données collectées par les citoyens, mais aussi leurs connaissances, leur intelligence, leur créativité et les réseaux sociaux, qui ont de la valeur pour les scientifiques universitaires. Dans beaucoup de projets de science citoyenne menés par des scientifiques universitaires, seul le temps du participant et la puissance de traitement de son ordinateur sont utilisés. Généralement, le participant n’est utilisé que pour la collecte des données et leur classement. L’intelligence du participant ou sa créativité sont rarement nécessaires et le projet n’offre que des opportunités très limitées pour une amélioration personnelle (Rotman et al., 2012). Parfois, une formation est disponible qui permet au participant d’apprendre à reconnaître des motifs, des espèces et des types de galaxies, mais il n’est presque jamais invité à participer à la conception de la recherche.

Les citoyens ont de précieuses connaissances souvent hors de portée des scientifiques universitaires (voir aussi Pereira et Saltelli). Ils disposent d’une connaissance locale que Warren (Warren, 1991) décrit comme

« une connaissance qui est particulière à une culture ou à une société donnée). […] C’est le fondement de la prise de décision à un niveau local en agriculture, pour les soins médicaux, la préparation alimentaire, l’éducation, la gestion des ressources naturelles, et une foultitude d’autres activités dans les communautés rurales. »

Mais bien sûr, il n’y a pas que dans les communautés rurales que la connaissance locale est importante. Les citoyens sont bien plus capables de participer qu’il ne leur est permis de le montrer (Fischer, 2000). De nombreux gouvernements locaux réalisent maintenant qu’ils ont besoin de l’apport de leurs citoyens pour gouverner leur cité à la satisfaction de ceux-ci. Commencer à travailler avec des citoyens critiques n’est pas une étape facile à franchir, mais dès que les citoyens sont impliqués dans la fourniture des connaissances qui permettront la prise de décision, ils sont plus enclins à accepter les conséquences et les mesures qui en résultent.
Dans la ville néerlandaise d’Amersfoot, le gouvernement local avait besoin de données sur les impacts du changement climatique à une échelle très locale, où seulement des données globales étaient disponibles. Après avoir assisté à une conférence sur la science citoyenne, il a décidé de ne pas confier le travail à un consultant, mais de trouver un groupe de citoyens intéressés par l’investigation sur les changements climatiques dans leur voisinage. Le groupe a été chargé de mettre en place la recherche, de décider quels indicateurs devaient être mesurés, qui faire participer et comment publier les résultats. Ils ont maintenant démarré leur projet dont les résultats sont visibles sur www.meetjestad.net (Meet je Stad, 2015).

Les scientifiques universitaires voient les avantages à coopérer avec les citoyens, non seulement pour la valeur qualitative de leurs connaissances locales, mais aussi pour leurs réseaux sociaux étendus. Les citoyens actifs savent ce qui se passe dans leur communauté et peuvent dire quels investisseurs devraient être impliqués. Aussi doivent-ils être impliqués au tout début d’un projet de recherche, sinon il sera trop tard pour tirer profit de cette partie de leurs connaissances. Il y a vingt ans, Alan Irwin (Irwin, 1995) prônait la réunion des mondes de la science universitaire et de la science citoyenne. Aujourd’hui le besoin et les possibilités se sont accrus. Les scientifiques citoyens disposent de plus d’outils pour créer de la connaissance, l’infrastructure existe pour la partager et nous avons quelques gros problèmes à résoudre pour lesquels nous avons besoin de toute l’aide disponible.
Et Cash et al. (2003) de conclure que « […] les efforts pour mobiliser la science et la technologie pour la durabilité ont plus de chances d’être efficaces si on gère les frontières entre la connaissance et l’action d’une façon qui améliore à la fois l’importance, la crédibilité et la légitimité de l’information produite. » De nombreux citoyens sont prêts à l’action ou déjà actifs. Ils ont besoin de connaissances scientifiques.

Pour libérer le savoir, mieux vaut ouvrir les portes…
Stockholm Public Library CC-BY Samantha Marx

3. Accès libre

Pour cet essai, j’avais prévu de n’utiliser que des références à des articles disponibles en accès libre, juste pour le principe. Le fait que cela se soit avéré impossible est en soi encore plus parlant que je ne l’aurais voulu. Pour être en mesure de rédiger un essai comme celui-ci, un scientifique citoyen serait obligé de contacter par e-mail des amis travaillant dans des universités, d’utiliser le hashtag Twitter #icanhazpdf (lepdfsivouplé) et d’écrire des mails à des auteurs, en espérant recevoir leurs articles en retour.

Certains des articles en accès restreint, comme celui-ci, parlent de la science citoyenne, dont certains pourraient directement intéresser les citoyens. Mais les citoyens qui luttent pour construire leurs propres projets scientifiques sans budget ont peu de chances de pouvoir investir 41,95 $ dans un article dont ils ne sont même pas certains qu’il leur sera utile. Dans la plupart des cas, la science qui traite de science citoyenne n’atteindra pas des citoyens pratiquant les sciences, ni des citoyens ayant besoin d’un apport scientifique.

Dans la société de pair à pair, il est tacitement convenu que quiconque utilise les services d’une autre personne, restitue quelque chose à la communauté dont il se nourrit. Aussi, faire de la recherche en se basant sur de la science citoyenne et ne pas en partager les résultats serait une violation de ces règles tacites.

Les droits d’auteur et les brevets empêchent la mise à disposition et le développement de la connaissance. On pense souvent que les droits d’auteur sont le seul moyen de protéger les auteurs, mais il existe d’autres moyens de protéger les droits des auteurs et des développeurs de produits logiciels open source. Certaines institutions développent leurs propres licences pour les logiciels open source (MIT Public License, 1988) ou pour le matériel open source (CERN Open Hardware License, 2011). Elles utilisent leurs connaissances des droits d’auteur et de la propriété intellectuelle pour aider les gens qui veulent ajouter leurs données, idées, conceptions et produits au domaine public. Une fois là, cela pourra être utilisé comme base par n’importe qui (selon la licence), mais ne pourra jamais être réclamé, breveté ou sorti du domaine public. Chacune des licences propose ses propres solutions, laissant au développeur le choix de qui peut utiliser son produit et dans quelles conditions. Certaines licences permettent une utilisation commerciale du produit, d’autres non. Certaines demandent l’attribution à l’auteur original. D’autres demandent que les sous-produits soient publiés sous la même licence que l’original.

Concevoir ces licences et les rendre disponibles est une manière très appréciée pour les institutions de restituer quelque chose aux biens communs.

…car, comme on dit en langage Wikipédia « Citation Needed ».

4. Éducation

L’existence de citoyens instruits est une condition nécessaire pour avoir une démocratie qui fonctionne (Hils Hauge et Barwell), et ça l’est tout autant dans une société de pair à pair. Néanmoins, aux Pays-Bas par exemple [ndt : l’auteure est néerlandaise], les études universitaires ne sont pas facilement accessibles à tous les citoyens qui pourraient y prétendre. Les gens qui ont déjà un diplôme payent des frais d’inscription très élevés. Étudier à temps partiel est déconseillé et dans la majorité des disciplines ce n’est même pas possible. Cela entre en conflit avec l’idéal « d’éducation tout au long de la vie » qui est diffusé par les institutions éducatives, et cela ne permet pas d’avoir des citoyens ouverts à tout et bien informés. Cependant, nous comptons sur eux pour faire des choix éclairés au moment de voter (Westheimer et Kahne, 2000). Pour les gouvernements, la mode est de vouloir des citoyens impliqués, mais très peu d’efforts sont faits pour leur donner les outils et informations nécessaires.

Mais maintenant, une part croissante des citoyens est en train de trouver le chemin vers des études plus accessibles et moins structurées. De nouvelles méthodes de partage des connaissances sont inventées, le plus souvent en utilisant Internet. Les cours magistraux de certaines universités sont disponibles en streaming. Cela peut aider pour compléter une formation, mais sans exercices cela reste incomplet. Khan Academy.org est un site web où vous pouvez vous former vous-mêmes dans n’importe quelle matière du lycée à l’université. Il utilise un algorithme intelligent qui permet aux étudiants de garder la trace de leur progrès. Néanmoins la Khan Academy fonctionne essentiellement du sommet vers la base, une personne donne un cours et un étudiant consomme cette connaissance. OpenTOKO (http://web.archive.org/web/20140927205928/http://www.opentoko.org/) a une approche différente.
Un thème est proposé en ligne, des experts et des novices s’y inscrivent, créant un groupe de connaissances partagées qui se réunit pour un après-midi. La dynamique est très variable, parfois un TOKO est planifié largement à l’avance, parfois dans un délai très court. Les thèmes peuvent être populaires ou ésotériques ; on peut être très nombreux ou seulement deux ou trois. Souvent, il s’avère que les experts apprennent des compétences, des connaissances ou des questions des débutants. Les experts acquièrent une meilleure compréhension du thème, et cela donne au débutant un bon départ sur le sujet. OpenTOKO doit encore être amélioré. Un système de référencement automatique doit être créé, permettant à chacun de suggérer un thème, de s’inscrire comme expert ou novice, de proposer un lieu ou une date. Quand toutes les conditions sont réunies, un OpenTOKO est automatiquement créé.
L’inscription est gratuite, tout le monde en profite en améliorant ses connaissances. Les thèmes abordés sont divers : langage de programmation, électronique, mathématiques et statistiques mais aussi comment tricoter des chaussettes ou faire pousser des légumes, tout dépend de ce que souhaitent les participants. Les scientifiques qui souhaitent faire participer des citoyens à leurs cours, n’ont pas besoin de simplifier leurs résultats ou leur langage. Les citoyens peuvent apprendre eux-mêmes et devenir familiers de la terminologie utilisée dans les différents domaines scientifiques.

Wikipédia peut être utilisée comme point de départ de collecte d’informations sur pratiquement tous les sujets. À partir de là, il est facile de trouver des publications scientifiques, mais à nouveau les citoyens se heurtent souvent à des ressources payantes.

Cliquez sur l’image pour voir la vidéo sur la chaîne YouTube de Datagueule.

5. Vers une société de pair à pair

On constate, au cours de la dernière décennie, une tendance au partage sur un mode de p2p : d’un individu vers les autres. En 1999, un adolescent a créé le logiciel Napster, qui permettait à tout le monde de partager des fichiers numériques (Carlsson et Gustavsson, 2001). Napster utilisait un serveur central. À cause de cela, l’industrie du disque, via des poursuites judiciaires, a pu fermer Napster. Les outils d’échange de musique de la génération suivante sont les réseaux P2P, dans lesquels les utilisateurs échangent directement leurs fichiers avec d’autres personnes. Ces réseaux ne sont pas hiérarchisés et sont difficiles à fermer. Brafman et Beckstrom (2006) compare ces organisations sans leader à des étoiles de mer, et les organisations hiérarchiques à des araignées ; si vous coupez la tête d’une araignée, elle meurt. L’étoile de mer, elle, n’a pas de tête. Coupez un bras et un nouveau bras se formera. Coupez l’étoile de mer en deux et vous obtiendrez deux étoiles de mer. Les réseaux P2P semblent indestructibles aussi longtemps qu’ils ont la volonté d’exister.

Bauwens et Lievens (2013) voient la transition vers une société de pair à pair comme l’inévitable prochaine étape du développement humain. Leur présentation de l’histoire de la société occidentale commence à l’époque romaine. À cette époque, 80 % des gens étaient des esclaves. La société romaine dépendait entièrement de ces esclaves, et en avait un besoin toujours plus important. Pour continuer d’augmenter le nombre d’esclaves, ils devaient continuer d’étendre leur empire. Finalement, cela devint plus cher que des solutions alternatives comme le métayage. Ils commencèrent donc à affranchir des esclaves, leur laissant cultiver la terre en échange d’un partage des récoltes. Cette pratique a évolué vers le système féodal qui a perduré plusieurs siècles.

L’industrialisation, au 19e siècle, a déplacé les travailleurs vers les villes, ces derniers achetant alors leur nourriture au lieu de la faire pousser. Les travailleurs ont reçu un salaire, le moment du capitalisme était venu. Dans le même temps, les gens prirent une place précise dans de grandes structures hiérarchisées.

Maintenant, l’automatisation a réduit la quantité de travail humain nécessaire à la production des besoins indispensables à nos sociétés. Et le spécialiste d’économie politique Skidelsky(2012) de conclure : « La vérité est que nous ne pouvons pas continuer à automatiser efficacement nos productions sans remettre en cause nos attitudes envers la consommation, le travail, les loisirs et la distribution des revenus. » Dans les sociétés occidentales, seule une petite part de notre travail sert à fournir les besoins fondamentaux de la société. La majorité des gens a un travail qui n’est pas vraiment indispensable (Graeber, 2013). La plupart d’entre eux en ont conscience, ce qui a souvent un impact négatif sur leur santé morale et physique.
On constate aussi une augmentation du nombre de personnes sans emploi pour qui l’ancien système est un échec. Ils ont été virés par leur ancien employeur, souvent après des décennies de travail dévoué et de loyauté. Une grande partie des gens virés sont devenus trop chers à cause de leur ancienneté. Les employeurs ont tendance à choisir des employés moins chers, plutôt que plus expérimentés. Ici, l’argent prime sur la qualité ou l’humanité.

Certains chômeurs choisissent désormais de faire les choses différemment, et se mettent à chercher un nouveau système plus respectueux des personnes et valorisant la qualité. Comme les esclaves affranchis, ils sont un nombre croissant dans nos sociétés à avoir l’énergie nécessaire pour commencer à travailler dans un nouveau système. Bauwens et Lievens appelle ce système « l’économie P2P », celle-ci est basée sur les échanges entre individus.

La combinaison d’un savoir disponible et d’une insatisfaction croissante face à la manière dont les gouvernements traitent les questions écologiques encourage les personnes à s’impliquer dans des expériences à l’échelle locale pour produire de l’énergie et de la nourriture, pour recycler les déchets et pour plus de démocratie et d’innovation sociale. Certaines de ces expériences échouent, mais d’autres sont des succès et rendent stables des alternatives locales et modestes qui peuvent inspirer les autres. Tout ne peut pas se faire facilement au niveau local. Il vaut mieux que la médecine spécialisée soit exercée dans un hôpital dédié. Les experts sont les plus à même de traiter les questions de droit, bien que le système des jurys populaires soit un peu plus P2P que les systèmes judiciaires avec uniquement des juges, et qu’il soit considéré comme juste dans de nombreux pays. Les processus de production que l’on dit plus efficaces à grande échelle, ne le sont peut-être pas tant que ça si tous les coûts réels relatifs au transport, aux infrastructures, aux ressources naturelles et aux déchets sont inclus dans le calcul. Souvent, ces « externalités » comme on les appelle, ne sont pas financées par les multinationales (Mansfield, 2011 ; Scherhorn, 2005).

Le pair à pair, vous savez, le truc d’avant les plateformes, qui marchait mieux et générait moins de dangers…?

6. Quand les systèmes se percutent

La société de pair à pair peut cohabiter avec la société capitaliste dans de nombreux cas, tout comme les scientifiques citoyens cohabitent avec les scientifiques universitaires. Il peut y avoir des conflits de nature financière, comme dans le cas des maisons de disques avec les réseaux p2p pour la distribution de musique, où les deux cotés essayent de maximiser leurs profits. Les situations les plus intéressantes, cependant, sont celles où les deux points de vue sont valables, mais incompatibles.

La société de pair à pair est basée sur la confiance acquise lors de travaux préalables. Si vous contribuez à la communauté, vous obtenez en retour du respect et de la confiance. Cependant, dans la société capitaliste, la confiance se base sur les diplômes. Si vous voulez un travail en tant qu’ingénieur informaticien, il vous faut avoir des diplômes et des qualifications pour prouver que vous pouvez écrire du code. Dans la société de pair à pair, vous prouvez que vous pouvez écrire du code en écrivant du code. Le code est open source afin que les utilisateurs puissent vérifier s’il fonctionne et que les experts puissent vérifier qu’il est bien écrit et ne contient pas de virus. Quand les deux mondes se rencontrent, ils sont souvent sceptiques sur l’approche de l’autre.
Certaines personnes voient les forces et faiblesses de chaque système, et un ingénieur informaticien peut avoir un emploi sans diplôme, s’il rencontre le bon responsable des ressources humaines. Le lien entre les deux mondes vient de ceux qui reconnaissent les possibilités de coopérer et ont un statut qui leur permet de s’écarter des règles en usage. Dans tous les cas, la manière pair à pair d’assurer la qualité ou la fiabilité d’un pair demandera plus d’efforts que pour un scientifique universitaire par exemple. Il faudra faire des recherches sur la personne, soit à travers un contact personnel, soit en regardant à sa réputation auprès de ses pairs et son travail. Pour des nouveaux venus, il s’agit de deux situations complètement différentes.

Mais que peut-on dire des autres différences entre les scientifiques citoyens et les scientifiques universitaires ? Pour faire de la vraie science, il faut travailler selon un certain nombre de règles, mais les citoyens peuvent n’en faire qu’à leur tête. Comment se positionnent-ils vis-à-vis de l’éthique ou de la qualité ? C’est ce qui inquiète de nombreux scientifiques universitaires. Les motivations des citoyens et la qualité de leur travail sont suspectes (Show, 2015). Même les projets montés et gérés par des scientifiques universitaires qui utilisent des données collectées par des volontaires ont du mal à se faire publier (Bonney et al, 2014).

Il est vrai que la science citoyenne n’a pas nécessairement un ensemble fixe de règles sur l’éthique ou les méthodes. Bien qu’il y ait quantité d’exemples de réseaux qui partagent une charte éthique ou une liste de méthodes [29], comme certains diy-biolabs (ndt : littéralement labo-bio à faire soi-même) (Diybio,2016) et makerspaces (espaces collaboratifs) (Fablab.nl), beaucoup n’y ont jamais pensé, n’en ont jamais discuté, ou même, ne s’y sont simplement pas intéressés. Mais tout comme n’importe quel programmeur peut vérifier du code informatique ouvert, n’importe quel scientifique universitaire peut vérifier si un projet de science citoyenne est bien fait, à l’aune des normes universitaires. Pour moi, cela ne veut pas dire que les normes universitaires doivent être celles qu’il faut utiliser pour évaluer la science citoyenne, mais qu’il est possible de le faire. Dans certains cas, les normes universitaires sont moins strictes que celle utilisées dans la science citoyenne.

Par exemple, dans la science conventionnelle, il n’est pas courant d’ouvrir l’ensemble des données, alors que c’est le cas dans la science citoyenne. De ce point de vue, la science citoyenne et plus reproductible et la fraude est plus facile à détecter. Les expériences des scientifiques citoyens sont souvent répétées et améliorées. Les scientifiques citoyens ne sont pas soumis à la pression de la publication (Saltelli et Giampetro, traitent du déchirement entre publier ou périr comme d’un ingrédient clé de la crise de la recherche scientifique), ils publient quand ils pensent avoir trouvé quelque chose d’intéressant. Le travail est ouvert au regard des pairs de la première tentative aux conclusions finales.

Un exemple de base de données ouverte, libre et collaborative qu’on aime beaucoup ;)

Les scientifiques citoyens publient plus facilement des résultats négatifs. Ils ne sont pas gênés par leurs erreurs. Les publications de résultats positifs contiennent aussi un chapitre sur les tentatives précédentes qui ont échoué, et un retour sur la cause de l’échec. Ces résultats négatifs sont, à mon avis, aussi valables que des résultats positifs, bien que dans la recherche scientifique conventionnelle il existe une forte propension à ne publier que des résultats positifs, ce qui rend la recherche scientifique universitaire incomplète (Dwan et al., 2008).

Les scientifiques citoyens sont souvent suspectés d’avoir des partis pris, des motivations ou des ordres du jour cachés. Nous savons désormais que les professionnels de la science ont aussi des partis pris. Les scientifiques citoyens sont même moins susceptibles d’avoir certains partis pris, comme ceux relatifs au prestige ou au financement, et ce goût pour les résultats positifs. Mais le fait que les scientifiques universitaires ne soient pas forcément meilleurs que n’importe quel scientifique citoyen ne signifie pas que nous devons ignorer les problèmes potentiels liés à la qualité des scientifiques citoyens. Afin de permettre plus de coopération entre les scientifiques citoyens et universitaires, nous devons insister sur la totale transparence concernant les conflits d’intérêt, tant pour les scientifiques universitaires que citoyens. Dans la recherche scientifique universitaire, il existe une saine discussion sur la qualité, les partis pris et les conflits d’intérêt. Dans la science citoyenne le sujet est difficilement évoqué, ce qui est une honte puisque certains partis pris sont moins susceptibles d’exister quand leur propriétaire en a conscience.

La qualité est souvent décrite comme être « adapté à la fonction ». Parfois, nous pouvons avoir besoin de données précises issues de capteurs onéreux. Dans de tels cas, la recherche universitaire pourrait aboutir à une meilleure qualité. Mais dans d’autre cas, nous pouvons avoir besoin d’une haute définition et ici de vastes groupes de citoyens sont plus à même de fournir de la haute qualité. La connaissance n’est adaptée au besoin que si elle est ouverte à ceux qui en ont besoin. Il est par conséquent important que les connaissances relatives au changement climatique et aux autres problèmes mondiaux soient totalement ouvertes.

Je pense qu’il serait bon que les scientifiques universitaires et citoyens aient un débat sur les raisons pour lesquelles des résultats de qualité sont utiles aux autres citoyens, aux décideurs politiques locaux et aux scientifiques universitaires suivant la fonction retenue. Si nous voulons partager les données entre les scientifiques citoyens et universitaires, ou entre les scientifiques citoyens et les décideurs, quelles sont les barrières et comment peut-on les dépasser ? Devons-nous trouver un ensemble de critères définissant la qualité (y compris l’accessibilité) qui soit satisfaisant pour les chercheurs scientifiques et gérable par les citoyens ?

7. Les biens communs

La plupart des enjeux soulevés dans les paragraphes précédents nous amènent à la notion de biens communs. Les biens communs incluent tout ce qui appartient à tout le monde, par exemple l’atmosphère, l’écosystème planétaire, la culture et les connaissances humaines.

La majeure partie de la richesse mondiale privée existe parce que les biens ou les services qui appartiennent aux biens communs peuvent souvent être accaparés sans payer, et qu’il n’y a pas d’obligation de restituer quelque chose aux biens communs.

Cela concerne les entreprises qui polluent ou s’approprient des ressources, les sociétés de divertissement commerciales qui prennent des contes traditionnels dans le domaine public pour les placer sous droits d’auteur, les entreprises qui brevètent des gènes qui sont en grande partie naturels, ainsi que les recherches scientifiques qui utilisent des contributions en provenance des biens communs, sans jamais restituer leurs résultats aux biens communs (Barnes, 2006).

Le changement climatique, la pollution et l’épuisement des ressources sont le problème de tout le monde. Ces problèmes font autant partie des biens communs que les solutions. Leur résolution n’a pas à dépendre d’une initiative privée. En partageant le savoir entre scientifiques universitaires et citoyens, nous pouvons travailler ensemble sur ces questions.

Les enclosures, c’est bon pour les poules dans Minetest… pas pour les enjeux mondiaux.

8. Débat et conclusion

Les scientifiques citoyens ne sont pas des anges envoyés de l’au-delà pour sauver la science. Ils ne sont pas là non plus pour détruire les institutions universitaires et prendre le pouvoir. Ils ont leurs propres programmes, imperfections et partis pris, comme les scientifiques universitaires. Une meilleure prise de conscience de ces partis pris peut améliorer la qualité de leur travail. Chaque débat sur la qualité doit être respectueux et ouvert, et tenir compte des limites de la science citoyenne et de ses pratiquants. Nous savons que les citoyens ne prennent pas toujours la bonne décision quand ils votent, ne votent pas ou achètent quelque chose. Donc pourquoi devrait-on compter sur eux pour résoudre les problèmes de la société ? On ne doit rien attendre de personne, mais nous devons impliquer toute l’aide disponible, et si les gens sont intrinsèquement motivés, nous ne devons pas les marginaliser

Bien que les groupes qui utilisent la science citoyenne pour résoudre les problèmes, dont à leur avis les institutions ne s’occupent pas, soient encore petits, l’intérêt qu’ils reçoivent des autres et la disponibilité des outils et des infrastructures faciles à utiliser peuvent conduire à des groupes plus nombreux et plus grands, et à un réseau plus fort d’individus. Ce que nous voyons actuellement est une tendance à l’indépendance des personnes qui pensent et qui font. Ils développeront peut-être un jour leurs propres institutions, mais risquent aussi de rester des groupes faiblement liés d’individus isolés.

C’est la même chose en ce qui concerne la transition vers une société de pair à pair. La transition est en cours. Elle n’a pas besoin d’une révolution mais elle croît à côté du système actuel. Elle accélère là où le système actuel échoue. Elle a besoin de cet élan, et si le système actuel résout soudain les problèmes, ou si le système P2P n’y arrive pas, cette tendance pourrait s’arrêter. Pour le moment, ça grandit.

Les citoyens ont envie de contribuer à trouver des solutions aux problèmes que le système néo-libéral échoue à résoudre, comme les problèmes d’environnement, de représentation démocratique (publiclab.org). Les citoyens partagent de plus en plus pour la prise de décision à mesure que notre société évolue vers un modèle P2P (Public Laboratory, 2016).

Les citoyens ont prouvé qu’ils étaient capables de formuler leurs propres thèmes de recherche, de monter leurs propres projets, de se former et de gérer des projets complexes. Il est temps de les prendre au sérieux.

Les scientifiques contribuent déjà à l’émancipation des citoyens en développant par exemple de nouvelles technologies et licences, mais celles-ci découlent de la connaissance scientifique. Il est aussi nécessaire de partager la connaissance elle-même. Si les scientifiques veulent que leurs résultats soient utiles, ils doivent les rendre accessibles aux citoyens.

Les connaissances créées par les citoyens peuvent être très utiles aux chercheurs universitaires. Néanmoins, l’initiative de donner quelque chose en retour à la communauté doit être prise par les chercheurs universitaires qui s’engagent dans des projets de science citoyenne.

Nous ne sommes pas loin de nous débarrasser de tout ce qui entrave la voie de la production collaborative de connaissances utiles. Il faudra des ajustements de part et d’autre pour rassembler la science citoyenne et la science universitaire, mais nous pouvons joindre nos efforts afin de rendre possible cette transition durable.

Comment ? En collaborant, on te dit, mon chaton !

Bibliographie

Banerjee, S. B. (2008). « Corporate Social Responsibility: The Good, the Bad and the Ugly ». Critical Sociology, 34(1), 51‑79. Accessible en ligne.

Barnes, P. (2006). « Capitalism 3.0: A Guide to Reclaiming the Commons ». San Francisco: Berrett-Koehler Publishers.

Bauwens, M. (2012). « Blueprint for P2P Society: The Partner State & Ethical Economy ». Consulté 30 mars 2017, à l’adresse http://www.shareable.net/blog/blueprint-for-p2p-society-the-partner-state-ethical-economy

Bauwens, M., & Lievens, J. (2016). « De wereld redden: met peer-to-peer naar een postkapitalistische samenleving ». Antwerpen: VBK – Houtekiet.

Bonney, R., et al. (2014). « Next Steps for Citizen Science ». Science, 343(6178), 1436‑1437. accessible en ligne.

Brafman, O., & Beckstrom, R. A. (2006). « The Starfish and the Spider: The Unstoppable Power of Leaderless Organizations ». Penguin.

Carlsson, B., & Gustavsson, R. (2001). « The Rise and Fall of Napster – An Evolutionary Approach ». Dans Active Media Technology (p. 347‑354). Springer, Berlin, Heidelberg. accessible en ligne

Cash, et al. (2003). « Knowledge systems for sustainable development ». Proceedings of the National Academy of Sciences, 100(14), 8086–8091.

CERN. (2011). « CERN releases new version of open hardware licence » | CERN. Consulté le 16 aout 2015, à l’adresse http://home.cern/about/updates/2013/09/cern-releases-new-version-open-hardware-licence

Chomsky, N. (1999). « Profit Over People: Neoliberalism and Global Order ». Seven Stories Press.

Diybio.org (2013). « Code of Ethics for diybio labs in Europe ». Consulté le 31 aout 2016 à l’adresse https://diybio.org/codes/draft-diybio-code-of-ethics-from-european-congress/

Dwan, K., et al. (2008). « Systematic Review of the Empirical Evidence of Study Publication Bias and Outcome Reporting Bias ». PLoS ONE, 3(8), e3081. accessible en ligne

Edwards, M., & Hulme, D. (1995). « Non-governmental Organisations: Performance and Accountability Beyond the Magic Bullet ». Earthscan publications LTD

Fablab. (2016). « Rules for use of Fablabs in Belgium, Luxembourg and the Netherlands ». Consulté le 31 aout 2016, à l’adresse http://fablab.nl/wat-is-een-fablab/fabcharter/

Fischer, F. (2000). « Citizens, Experts, and the Environment: The Politics of Local Knowledge ». Duke University Press.

Gershenfeld, N. (2012). « How to Make Almost Anything: The Digital Fabrication Revolution ». Foreign Affairs, 91, 43.

Graeber, D. (2013). « On the Phenomenon of Bullshit Jobs », Strike! Magazine, Summer, pp.201310-20133411.

Hauge, K. H., & Barwell, R. (2017). « Post-normal science and mathematics education in uncertain times: Educating future citizens for extended peer communities ». Futures. accessible en ligne

Irwin, A. (1995). « Citizen Science: A Study of People, Expertise and Sustainable Development ». Psychology Press.

Mansfield, B. (2011). « « Modern » industrial fisheries and the crisis of overfishing ». Global political ecology, 84-99.

Meet je Stad. (2015). « Guidelines for data collection by the flora observation group of Meet je Stad ». Consulté le 31 aout 2016, à l’adresse http://meetjestad.net/flora/?info

MIT. (1988). « GNU Public License ». Consulté le 9 avril 2014, à l’adresse http://web.mit.edu/drela/Public/web/gpl.txt

Pereira, Â., & Saltelli, A. (2017). « Post-normal institutional identities: Quality assurance, reflexivity and ethos of care ». Futures. accessible en ligne

Public Laboratory (2016). « Public Lab: a DIY environmental science community ». Consulté le 18 octobre 2016, à l’adresse https://publiclab.org/

Rotman, D. et al. (2012). « Dynamic Changes in Motivation in Collaborative Citizen-science Projects ». Dans Proceedings of the ACM 2012 Conference on Computer Supported Cooperative Work (p. 217–226). New York, NY, USA: ACM. accessible en ligne.

Saltelli, A., & Giampietro, M. (2017). « What is wrong with evidence based policy, and how can it be improved? » Futures. Consulté à l’adresse http://www.sciencedirect.com/science/article/pii/S0016328717300472.

Scherhorn, G. (2005). « Sustainability, Consumer Sovereignty, and the Concept of the Market ». Dans K. G. Grunert & J. Thøgersen (Éd.), Consumers, Policy and the Environment A Tribute to Folke Ölander (p. 301‑310). Springer US. accessible en ligne

Show (2015). « Rise of the citizen scientist ». Nature, 524(7565), 265‑265. accessible en ligne

Skidelsky (2012). « Return to capitalism « red in tooth and claw » spells economic madness ». The Guardian. Consulté le 05 avril 2014, à l’adresse https://www.theguardian.com/business/economics-blog/2012/jun/21/capitalism-red-tooth-claw-keynes?commentpage=2%26fb=native#post-area

Vermij, R. H. (2006). « Kleine geschiedenis van de wetenschap ». Uitgeverij Nieuwezijds.

Von Lode, P. (2005). « Point-of-care immunotesting: Approaching the analytical performance of central laboratory methods ». Clinical Biochemistry, 38(7), 591‑606. accessible en ligne.

Werlhof, C. von. (2008). « The Globalization of Neoliberalism, its Consequences, and Some of its Basic Alternatives ». Capitalism Nature Socialism, 19(3), 94‑117. accessible en ligne

Westheimer, J., & Kahne, J. (1998). « Education for action: Preparing youth for participatory democracy ». Press and Teachers College Press.




Google, nouvel avatar du capitalisme, celui de la surveillance

Nous avons la chance d’être autorisés à traduire et publier un long article qui nous tient à cœur : les idées et analyses qu’il développe justifient largement les actions que nous menons avec vous et pour le plus grand nombre.

Avant propos

Par Framatophe.

Dans ses plus récents travaux, Shoshana Zuboff procède à une analyse systématique de ce qu’elle appelle le capitalisme de surveillance. Il ne s’agit pas d’une critique du capitalisme-libéral en tant qu’idéologie, mais d’une analyse des mécanismes et des pratiques des acteurs dans la mesure où elles ont radicalement transformé notre système économique. En effet, avec la fin du XXe siècle, nous avons aussi vu la fin du (néo)libéralisme dans ce qu’il avait d’utopique, à savoir l’idée (plus ou moins vérifiée) qu’en situation d’abondance, chacun pouvait avoir la chance de produire et capitaliser. Cet égalitarisme, sur lequel s’appuient en réalité bien des ressorts démocratiques, est mis à mal par une nouvelle forme de capitalisme : un capitalisme submergé par des monopoles capables d’utiliser les technologies de l’information de manière à effacer la « libre concurrence » et modéliser les marchés à leurs convenances. La maîtrise de la production ne suffit plus : l’enjeu réside dans la connaissance des comportements. C’est de cette surveillance qu’il s’agit, y compris lorsqu’elle est instrumentalisée par d’autres acteurs, comme un effet de bord, telle la surveillance des États par des organismes peu scrupuleux.

La démarche intellectuelle de Shoshana Zuboff est très intéressante. Spécialiste au départ des questions managériales dans l’entreprise, elle a publié un ouvrage en 1988 intitulé In the Age Of The Smart Machine où elle montre comment les mécanismes productivistes, une fois dotés des moyens d’« informationnaliser » la division du travail et son contrôle (c’est-à-dire qu’à chaque fois que vous divisez un travail en plusieurs tâches vous pouvez en renseigner la procédure pour chacune et ainsi contrôler à la fois la production et les hommes), ont progressivement étendu l’usage des technologies de l’information à travers toutes les chaînes de production, puis les services, puis les processus de consommation, etc. C’est à partir de ces clés de lecture que nous pouvons alors aborder l’état de l’économie en général, et on s’aperçoit alors que l’usage (lui même générateur de profit) des Big Data consiste à maîtriser les processus de consommation et saper les mécanismes de concurrence qui étaient auparavant l’apanage revendiqué du libéralisme « classique ».

Ainsi, prenant l’exemple de Google, Shoshana Zuboff analyse les pratiques sauvages de l’extraction de données par ces grands acteurs économiques, à partir des individus, des sociétés, et surtout du quotidien, de nos intimités. Cette appropriation des données comportementales est un processus violent de marchandisation de la connaissance « sur » l’autre et de son contrôle. C’est ce que Shoshana Zuboff nomme Big Other :

« (Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big Other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.» 1

Dans l’article ci-dessous, Shoshana Zuboff ne lève le voile que sur un avatar de ce capitalisme de surveillance, mais pas n’importe lequel : Google. En le comparant à ce qu’était General Motors, elle démontre comment l’appropriation des données comportementales par Google constitue en fait un changement de paradigme dans les mécanismes capitalistes : le capital, ce n’est plus le bien ou le stock (d’argent, de produits, de main-d’oeuvre etc.), c’est le comportement et la manière de le renseigner, c’est à dire l’information qu’une firme comme Google peut s’approprier.

Ce qui manquait à la littérature sur ces transformations de notre « société de l’information », c’étaient des clés de lecture capables de s’attaquer à des processus dont l’échelle est globale. On peut toujours en rester à Big Brother, on ne fait alors que se focaliser sur l’état de nos relations sociales dans un monde où le capitalisme de surveillance est un état de fait, comme une donnée naturelle. Au contraire, le capitalisme de surveillance dépasse les États ou toute forme de centralisation du pouvoir. Il est informel et pourtant systémique. Shoshana Zuboff nous donne les clés pour appréhender ces processus globaux, partagé par certaines firmes, où l’appropriation de l’information sur les individus est si totale qu’elle en vient à déposséder l’individu de l’information qu’il a sur lui-même, et même du sens de ses actions.

 

Shoshana Zuboff est professeur émérite à Charles Edward Wilson, Harvard Business School. Cet essai a été écrit pour une conférence en 2016 au Green Templeton College, Oxford. Son prochain livre à paraître en novembre 2017 s’intitule Maître ou Esclave : une lutte pour l’âme de notre civilisation de l’information et sera publié par Eichborn en Allemagne, et par Public Affairs aux États-Unis.

Les secrets du capitalisme de surveillance

par Shoshana Zuboff

Article original en anglais paru dans le Franfurter Allgemeine Zeitung : The Secrets of Surveillance Capitalism

Traduction originale : Dr. Virginia Alicia Hasenbalg-Corabianu, révision Framalang : mo, goofy, Mannik, Lumi, lyn

Le contrôle exercé par les gouvernements n’est rien comparé à celui que pratique Google. L’entreprise crée un genre entièrement nouveau de capitalisme, une logique d’accumulation systémique et cohérente que nous appelons le capitalisme de surveillance. Pouvons-nous y faire quelque chose ?

Nous devons faire face aux assauts menés par les appétits insatiables d’un tout nouveau genre de capitalisme : le capitalisme de surveillance. Image © ddp images

 

Google a dépassé Apple en janvier en devenant la plus grosse capitalisation boursière du monde, pour la première fois depuis 2010 (à l’époque, chacune des deux entreprises valait moins de 200 milliards de dollars; aujourd’hui, chacune est évaluée à plus de 500 milliards). Même si cette suprématie de Google n’a duré que quelques jours, le succès de cette entreprise a des implications pour tous ceux qui ont accès à Internet. Pourquoi ? Parce que Google est le point de départ pour une toute nouvelle forme de capitalisme dans laquelle les bénéfices découlent de la surveillance unilatérale ainsi que de la modification du comportement humain. Il s’agit d’une intrusion globale. Il s’agit d’un nouveau capitalisme de surveillance qui est inimaginable en dehors des insondables circuits à haute vitesse de l’univers numérique de Google, dont le vecteur est l’Internet et ses successeurs. Alors que le monde est fasciné par la confrontation entre Apple et le FBI, véritable réalité est que les capacités de surveillance d’espionnage en cours d’élaboration par les capitalistes de la surveillance sont enviées par toutes les agences de sécurité des États. Quels sont les secrets de ce nouveau capitalisme, comment les entreprises produisent-elles une richesse aussi stupéfiante, et comment pouvons-nous nous protéger de leur pouvoir envahissant ?

I. Nommer et apprivoiser

La plupart des Américains se rendent compte qu’il y a deux types de personnes qui sont régulièrement surveillées quand elles se déplacent dans le pays. Dans le premier groupe, celles qui sont surveillées contre leur volonté par un dispositif de localisation attaché à la cheville suite à une ordonnance du tribunal. Dans le second groupe, toutes les autres.

Certains estiment que cette affirmation est absolument fondée. D’autres craignent qu’elle ne puisse devenir vraie. Certains doivent penser que c’est ridicule. Ce n’est pas une citation issue d’un roman dystopique, d’un dirigeant de la Silicon Valley, ni même d’un fonctionnaire de la NSA. Ce sont les propos d’un consultant de l’industrie de l’assurance automobile, conçus comme un argument en faveur de « la télématique automobile » et des capacités de surveillance étonnamment intrusives des systèmes prétendument bénins déjà utilisés ou en développement. C’est une industrie qui a eu une attitude notoire d’exploitation de ses clients et des raisons évidentes d’être inquiète, pour son modèle économique, des implications des voitures sans conducteur. Aujourd’hui, les données sur l’endroit où nous sommes et celui où nous allons, sur ce que nous sentons, ce que nous disons, les détails de notre conduite, et les paramètres de notre véhicule se transforment en balises de revenus qui illuminent une nouvelle perspective commerciale. Selon la littérature de l’industrie, ces données peuvent être utilisées pour la modification en temps réel du comportement du conducteur, déclencher des punitions (hausses de taux en temps réel, pénalités financières, couvre-feux, verrouillages du moteur) ou des récompenses (réductions de taux, coupons à collectionner pour l’achat d’avantages futurs).

Bloomberg Business Week note que ces systèmes automobiles vont donner aux assureurs la possibilité d’augmenter leurs recettes en vendant des données sur la conduite de leur clientèle de la même manière que Google réalise des profits en recueillant et en vendant des informations sur ceux qui utilisent son moteur de recherche. Le PDG de Allstate Insurance veut être à la hauteur de Google. Il déclare : « Il y a beaucoup de gens qui font de la monétisation des données aujourd’hui. Vous allez chez Google et tout paraît gratuit. Ce n’est pas gratuit. Vous leur donnez des informations ; ils vendent vos informations. Pourrions-nous, devrions-nous vendre ces informations que nous obtenons des conducteurs à d’autres personnes, et réaliser ainsi une source de profit supplémentaire…? C’est une partie à long terme. »

Qui sont ces « autres personnes » et quelle est cette « partie à long terme » ? Il ne s’agit plus de l’envoi d’un catalogue de vente par correspondance ni le ciblage de la publicité en ligne. L’idée est de vendre l’accès en temps réel au flux de votre vie quotidienne – votre réalité – afin d’influencer et de modifier votre comportement pour en tirer profit. C’est la porte d’entrée vers un nouvel univers d’occasions de monétisation : des restaurants qui veulent être votre destination ; des fournisseurs de services qui veulent changer vos plaquettes de frein ; des boutiques qui vous attirent comme les sirènes des légendes. Les « autres personnes », c’est tout le monde, et tout le monde veut acheter un aspect  de votre comportement pour leur profit. Pas étonnant, alors, que Google ait récemment annoncé que ses cartes ne fourniront pas seulement l’itinéraire que vous recherchez, mais qu’elles suggéreront aussi une destination.

Le véritable objectif : modifier le comportement réel des gens, à grande échelle.

Ceci est juste un coup d’œil pris au vol d’une industrie, mais ces exemples se multiplient comme des cafards. Parmi les nombreux entretiens que j’ai menés au cours des trois dernières années, l’ingénieur responsable de la gestion et analyse de méga données d’une prestigieuse entreprise de la Silicon Valley qui développe des applications pour améliorer l’apprentissage des étudiants m’a dit : « Le but de tout ce que nous faisons est de modifier le comportement des gens à grand échelle. Lorsque les gens utilisent notre application, nous pouvons cerner leurs comportements, identifier les bons et les mauvais comportements, et développer des moyens de récompenser les bons et punir les mauvais. Nous pouvons tester à quel point nos indices sont fiables pour eux et rentables pour nous. »

L’idée même d’un produit efficace, abordable et fonctionnel puisse suffire aux échanges commerciaux est en train de mourir. L’entreprise de vêtements de sport Under Armour réinvente ses produits comme des technologies que l’on porte sur soi. Le PDG veut lui aussi ressembler à Google. Il dit : « Tout cela ressemble étrangement à ces annonces qui, à cause de votre historique de navigation, vous suivent quand vous êtes connecté à l’Internet (Internet ou l’internet), c’est justement là le problème – à ce détail près que Under Armour traque votre comportement réel, et que les données obtenues sont plus spécifiques… si vous incitez les gens à devenir de meilleurs athlètes ils auront encore plus besoin de notre équipement. » Les exemples de cette nouvelle logique sont infinis, des bouteilles de vodka intelligentes aux thermomètres rectaux reliés à Internet, et littéralement tout ce qu’il y a entre les deux. Un rapport de Goldman Sachs appelle une « ruée vers l’or » cette course vers « de gigantesques quantités de données ».

La bataille des données comportementales

Nous sommes entrés dans un territoire qui était jusqu’alors vierge. L’assaut sur les données de comportement progresse si rapidement qu’il ne peut plus être circonscrit par la notion de vie privée et sa revendication. Il y a un autre type de défi maintenant, celui qui menace l’idéal existentiel et politique de l’ordre libéral moderne défini par les principes de l’autodétermination constitué au cours des siècles, voire des millénaires. Je pense à des notions qui entre autres concernent dès le départ le caractère sacré de l’individu et les idéaux de l’égalité sociale ; le développement de l’identité, l’autonomie et le raisonnement moral ; l’intégrité du marché ; la liberté qui revient à la réalisation et l’accomplissement des promesses ; les normes et les règles de la collectivité ; les fonctions de la démocratie de marché ; l’intégrité politique des sociétés et l’avenir de la souveraineté démocratique. En temps et lieu, nous allons faire un bilan rétrospectif de la mise en place en Europe du « Droit à l’Oubli » et l’invalidation plus récente de l’Union européenne de la doctrine Safe Harbor2 comme les premiers jalons d’une prise en compte progressive des vraies dimensions de ce défi.

Il fut un temps où nous avons imputé la responsabilité de l’assaut sur les données comportementales à l’État et à ses agences de sécurité. Plus tard, nous avons également blâmé les pratiques rusées d’une poignée de banques, de courtiers en données et d’entreprises Internet. Certains attribuent l’attaque à un inévitable « âge des mégadonnées », comme s’il était possible de concevoir des données nées pures et irréprochables, des données en suspension dans un lieu céleste où les faits se subliment dans la vérité.

Le capitalisme a été piraté par la surveillance

Je suis arrivée à une conclusion différente : l’assaut auquel nous sommes confronté⋅e⋅s est conduit dans une large mesure par les appétits exceptionnels d’un tout nouveau genre du capitalisme, une nouvelle logique systémique et cohérente de l’accumulation que j’appelle le capitalisme de surveillance. Le capitalisme a été détourné par un projet de surveillance lucrative qui subvertit les mécanismes évolutifs « normaux » associés à son succès historique et qui corrompt le rapport entre l’offre et la demande qui, pendant des siècles, même imparfaitement, a lié le capitalisme aux véritables besoins de ses populations et des sociétés, permettant ainsi l’expansion fructueuse de la démocratie de marché.

© AFP Eric Schmidt siégeant à Google/Alphabet

Le capitalisme de surveillance est une mutation économique nouvelle, issue de l’accouplement clandestin entre l’énorme pouvoir du numérique avec l’indifférence radicale et le narcissisme intrinsèque du capitalisme financier, et la vision néolibérale qui a dominé le commerce depuis au moins trois décennies, en particulier dans les économies anglo-saxonnes. C’est une forme de marché sans précédent dont les racines se développent dans un espace de non-droit. Il a été découvert et consolidé par Google, puis adopté par Facebook et rapidement diffusé à travers l’Internet. Le cyberespace est son lieu de naissance car, comme le célèbrent Eric Schmidt, Président de Google/Alphabet, et son co-auteur Jared Cohen, à la toute première page de leur livre sur l’ère numérique, « le monde en ligne n’est vraiment pas attaché aux lois terrestres… Il est le plus grand espace ingouvernable au monde ».

Alors que le capitalisme de surveillance découvre les pouvoirs invasifs de l’Internet comme source d’accumulation de capital et de création de richesses, il est maintenant, comme je l’ai suggéré, prêt à transformer aussi les pratiques commerciales au sein du monde réel. On peut établir l’analogie avec la propagation rapide de la production de masse et de l’administration dans le monde industrialisé au début du XXe siècle, mais avec un bémol majeur. La production de masse était en interaction avec ses populations qui étaient ses consommateurs et ses salariés. En revanche, le capitalisme de surveillance se nourrit de populations dépendantes qui ne sont ni ses consommateurs, ni ses employés, mais largement ignorantes de ses pratiques.

L’accès à Internet, un droit humain fondamental

Nous nous étions jetés sur Internet pour y trouver réconfort et solutions, mais nos besoins pour une vie efficace ont été contrecarrés par les opérations lointaines et de plus en plus impitoyables du capitalisme de la fin du XXe siècle. Moins de deux décennies après l’introduction du navigateur web Mosaic auprès du public, qui permettait un accès facile au World Wide Web, un sondage BBC de 2010 a révélé que 79 % des personnes de 26 pays différents considéraient l’accès à l’Internet comme un droit humain fondamental. Tels sont les Charybde et Scylla de notre sort. Il est presque impossible d’imaginer la participation à une vie quotidienne efficace – de l’emploi à l’éducation, en passant par les soins de santé – sans pouvoir accéder à Internet et savoir s’en servir, même si ces espaces en réseau autrefois florissants s’avèrent être une forme nouvelle et plus forte d’asservissement. Il est arrivé rapidement et sans notre accord ou entente préalable. En effet, les préjudices les plus poignants du régime ont été difficiles à saisir ou à théoriser, brouillés par l’extrême vitesse et camouflés par des opérations techniques coûteuses et illisibles, des pratiques secrètes des entreprises, de fausses rhétoriques discursives, et des détournements culturels délibérés.

Apprivoiser cette nouvelle force nécessite qu’elle soit nommée correctement. Cette étroite interdépendance du nom et de l’apprivoisement est clairement illustrée dans l’histoire récente de la recherche sur le VIH que je vous propose comme analogie. Pendant trois décennies, les recherches des scientifiques visaient à créer un vaccin en suivant la logique des guérisons précédentes qui amenaient le système immunitaire à produire des anticorps neutralisants. Mais les données collectées et croisées ont révélé des comportements imprévus du virus VIH défiant les modèles obtenus auprès d’autres maladies infectieuses.

L’analogie avec la recherche contre le SIDA

La tendance a commencé à prendre une autre direction à la Conférence internationale sur le SIDA en 2012, lorsque de nouvelles stratégies ont été présentées reposant sur une compréhension plus adéquate de la biologie des quelques porteurs du VIH, dont le sang produit des anticorps naturels. La recherche a commencé à se déplacer vers des méthodes qui reproduisent cette réponse d’auto-vaccination. Un chercheur de pointe a annoncé : « Nous connaissons le visage de l’ennemi maintenant, et nous avons donc de véritables indices sur la façon d’aborder le problème. »

Ce qu’il nous faut en retenir : chaque vaccin efficace commence par une compréhension approfondie de la maladie ennemie. Nous avons tendance à compter sur des modèles intellectuels, des vocabulaires et des outils mis en place pour des catastrophes passées. Je pense aux cauchemars totalitaires du XXe siècle ou aux prédations monopolistiques du capitalisme de l’Âge d’Or. Mais les vaccins que nous avons développés pour lutter contre ces menaces précédentes ne sont pas suffisants ni même appropriés pour les nouveaux défis auxquels nous sommes confrontés. C’est comme si nous lancions des boules de neige sur un mur de marbre lisse pour ensuite les regarder glisser et ne laisser rien d’autre qu’une trace humide : une amende payée ici, un détour efficace là.

Une impasse de l’évolution

Je tiens à dire clairement que le capitalisme de surveillance n’est pas la seule modalité actuelle du capitalisme de l’information, ni le seul modèle possible pour l’avenir. Son raccourci vers l’accumulation du capital et l’institutionnalisation rapide, cependant, en a fait le modèle par défaut du capitalisme de l’information. Les questions que je pose sont les suivantes : est-ce que le capitalisme de surveillance devient la logique dominante de l’accumulation dans notre temps, ou ira-t-il vers une impasse dans son évolution – une poule avec des dents au terme de l’évolution capitaliste ? Qu’est-ce qu’un vaccin efficace impliquerait ? Quel pourrait être ce vaccin efficace ?

Le succès d’un traitement dépend de beaucoup d’adaptations individuelles, sociales et juridiques, mais je suis convaincue que la lutte contre la « maladie hostile » ne peut commencer sans une compréhension des nouveaux mécanismes qui rendent compte de la transformation réussie de l’investissement en capital par le capitalisme de surveillance. Cette problématique a été au centre de mon travail dans un nouveau livre, Maître ou Esclave : une lutte pour le cœur de notre civilisation de l’information, qui sera publié au début de l’année prochaine. Dans le court espace de cet essai, je voudrais partager certaines de mes réflexions sur ce problème.

II. L’avenir : le prédire et le vendre

Les nouvelles logiques économiques et leurs modèles commerciaux sont élaborés dans un temps et lieu donnés, puis perfectionnés par essais et erreurs. Ford a mis au point et systématisé la production de masse. General Motors a institutionnalisé la production en série comme une nouvelle phase du développement capitaliste avec la découverte et l’amélioration de l’administration à grande échelle et la gestion professionnelle. De nos jours, Google est au capitalisme de surveillance ce que Ford et General Motors étaient à la production en série et au capitalisme managérial il y a un siècle : le découvreur, l’inventeur, le pionnier, le modèle, le praticien chef, et le centre de diffusion.

Plus précisément, Google est le vaisseau amiral et le prototype d’une nouvelle logique économique basée sur la prédiction et sa vente, un métier ancien et éternellement lucratif qui a exploité la confrontation de l’être humain avec l’incertitude depuis le début de l’histoire humaine. Paradoxalement, la certitude de l’incertitude est à la fois une source durable d’anxiété et une de nos expériences les plus fructueuses. Elle a produit le besoin universel de confiance et de cohésion sociale, des systèmes d’organisation, de liaison familiale, et d’autorité légitime, du contrat comme reconnaissance formelle des droits et obligations réciproques, la théorie et la pratique de ce que nous appelons « le libre arbitre ». Quand nous éliminons l’incertitude, nous renonçons au besoin humain de lancer le défi de notre prévision face à un avenir toujours inconnu, au profit de la plate et constante conformité avec ce que d’autres veulent pour nous.

La publicité n’est qu’un facteur parmi d’autres

La plupart des gens attribuent le succès de Google à son modèle publicitaire. Mais les découvertes qui ont conduit à la croissance rapide du chiffre d’affaires de Google et à sa capitalisation boursière sont seulement incidemment liées à la publicité. Le succès de Google provient de sa capacité à prédire l’avenir, et plus particulièrement, l’avenir du comportement. Voici ce que je veux dire :

Dès ses débuts, Google a recueilli des données sur le comportement lié aux recherches des utilisateurs comme un sous-produit de son moteur de recherche. À l’époque, ces enregistrements de données ont été traités comme des déchets, même pas stockés méthodiquement ni mis en sécurité. Puis, la jeune entreprise a compris qu’ils pouvaient être utilisés pour développer et améliorer continuellement son moteur de recherche.

Le problème était le suivant : servir les utilisateurs avec des résultats de recherche incroyables « consommait » toute la valeur que les utilisateurs produisaient en fournissant par inadvertance des données comportementales. C’est un processus complet et autonome dans lequel les utilisateurs sont des « fins-en-soi ». Toute la valeur que les utilisateurs produisent était réinvestie pour simplifier l’utilisation sous forme de recherche améliorée. Dans ce cycle, il ne restait rien à  transformer en capital, pour Google. L’efficacité du moteur de recherche avait autant besoin de données comportementales des utilisateurs que les utilisateurs de la recherche. Faire payer des frais pour le service était trop risqué. Google était sympa, mais il n’était pas encore du capitalisme – seulement l’une des nombreuses startups de l’Internet qui se vantaient de voir loin, mais sans aucun revenu.

Un tournant dans l’usage des données comportementales

L’année 2001 a été celle de l’effervescence dans la bulle du dot.com avec des pressions croissantes des investisseurs sur Google. À l’époque, les annonceurs sélectionnaient les pages du terme de recherche pour les afficher. Google a décidé d’essayer d’augmenter ses revenus publicitaires en utilisant ses capacités analytiques déjà considérables dans l’objectif d’accroître la pertinence d’une publicité pour les utilisateurs – et donc sa valeur pour les annonceurs. Du point de vue opérationnel cela signifiait que Google allait enfin valoriser son trésor croissant de données comportementales. Désormais, les données allaient être aussi utilisées pour faire correspondre les publicités avec les des mots-clés, en exploitant les subtilités que seul l’accès à des données comportementales, associées à des capacités d’analyse, pouvait révéler.

Il est maintenant clair que ce changement dans l’utilisation des données comportementales a été un tournant historique. Les données comportementales qui avaient été rejetées ou ignorées ont été redécouvertes et sont devenues ce que j’appelle le surplus de comportement. Le succès spectaculaire de Google obtenu en faisant correspondre les annonces publicitaires aux pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer l’investissement en capital. Le surplus comportemental était l’actif à coût zéro qui changeait la donne, et qui pouvait être détourné de l’amélioration du service au profit d’un véritable marché. La clé de cette formule, cependant, est que ce nouveau marché n’est pas le fruit d’un échange avec les utilisateurs, mais plutôt avec d’autres entreprises qui ont compris comment faire de l’argent en faisant des paris sur le comportement futur des utilisateurs. Dans ce nouveau contexte, les utilisateurs ne sont plus une fin en soi. Au contraire, ils sont devenus une source de profit d’un nouveau type de marché dans lequel ils ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont la source de matière première gratuite qui alimente un nouveau type de processus de fabrication.

© dapd voir le monde avec l’œil de Google : les Google Glass

Bien que ces faits soient connus, leur importance n’a pas été pleinement évaluée ni théorisée de manière adéquate. Ce qui vient de se passer a été la découverte d’une équation commerciale étonnamment rentable – une série de relations légitimes qui ont été progressivement institutionnalisées dans la logique économique sui generis du capitalisme de surveillance. Cela ressemble à une planète nouvellement repérée avec sa propre physique du temps et de l’espace, ses journées de soixante-sept heures, un ciel d’émeraude, des chaînes de montagnes inversées et de l’eau sèche.

Une forme de profit parasite

L’équation : tout d’abord, il est impératif de faire pression pour obtenir plus d’utilisateurs et plus de canaux, des services, des dispositifs, des lieux et des espaces de manière à avoir accès à une gamme toujours plus large de surplus de comportement. Les utilisateurs sont la ressource humaine naturelle qui fournit cette matière première gratuite.

En second lieu, la mise en œuvre de l’apprentissage informatique, de l’intelligence artificielle et de la science des données pour l’amélioration continue des algorithmes constitue un immense « moyen de production » du XXIe siècle coûteux, sophistiqué et exclusif.

Troisièmement, le nouveau processus de fabrication convertit le surplus de comportement en produits de prévision conçus pour prédire le comportement actuel et à venir.

Quatrièmement, ces produits de prévision sont vendus dans un nouveau type de méta-marché qui fait exclusivement commerce de comportements à venir. Plus le produit est prédictif, plus faible est le risque pour les acheteurs et plus le volume des ventes augmente. Les profits du capitalisme de surveillance proviennent principalement, sinon entièrement, de ces marchés du comportement futur.

Alors que les annonceurs ont été les acheteurs dominants au début de ce nouveau type de marché, il n’y a aucune raison de fond pour que de tels marchés soient réservés à ce groupe. La tendance déjà perceptible est que tout acteur ayant un intérêt à monétiser de l’information probabiliste sur notre comportement et/ou à influencer le comportement futur peut payer pour entrer sur un marché où sont exposées et vendues les ressources issues du comportement des individus, des groupes, des organismes, et les choses. Voici comment dans nos propres vies nous observons le capitalisme se déplacer sous nos yeux : au départ, les bénéfices provenaient de produits et services, puis de la spéculation, et maintenant de la surveillance. Cette dernière mutation peut aider à expliquer pourquoi l’explosion du numérique a échoué, jusqu’à présent, à avoir un impact décisif sur la croissance économique, étant donné que ses capacités sont détournées vers une forme de profit fondamentalement parasite.

III. Un péché non originel

L’importance du surplus de comportement a été rapidement camouflée, à la fois par Google et mais aussi par toute l’industrie de l’Internet, avec des étiquettes comme « restes numériques », « miettes numériques », et ainsi de suite. Ces euphémismes pour le surplus de comportement fonctionnent comme des filtres idéologiques, à l’instar des premières cartes géographiques du continent nord-américain qui marquaient des régions entières avec des termes comme « païens », « infidèles », « idolâtres », « primitifs », « vassaux » ou « rebelles ». En vertu de ces étiquettes, les peuples indigènes, leurs lieux et leurs revendications ont été effacés de la pensée morale et juridique des envahisseurs, légitimant leurs actes d’appropriation et de casse au nom de l’Église et la Monarchie.

Nous sommes aujourd’hui les peuples autochtones dont les exigences implicites d’autodétermination ont disparu des cartes de notre propre comportement. Elles sont effacées par un acte étonnant et audacieux de dépossession par la surveillance, qui revendique son droit d’ignorer toute limite à sa soif de connaissances et d’influence sur les nuances les plus fines de notre comportement. Pour ceux qui s’interrogent sur l’achèvement logique du processus global de marchandisation, la réponse est qu’ils achèvent eux-mêmes la spoliation de notre réalité quotidienne intime, qui apparaît maintenant comme un comportement à surveiller et à modifier, à acheter et à vendre.

Le processus qui a commencé dans le cyberespace reflète les développements capitalistes du dix-neuvième siècle qui ont précédé l’ère de l’impérialisme. À l’époque, comme Hannah Arendt le décrit dans Les Origines du totalitarisme, « les soi-disant lois du capitalisme ont été effectivement autorisées à créer des réalités » ainsi on est allé vers des régions moins développées où les lois n’ont pas suivi. « Le secret du nouvel accomplissement heureux », a-t-elle écrit, « était précisément que les lois économiques ne bloquaient plus la cupidité des classes possédantes. » Là, « l’argent pouvait finalement engendrer de l’argent », sans avoir à passer par « le long chemin de l’investissement dans la production… »

Le péché originel du simple vol

Pour Arendt, ces aventures du capital à l’étranger ont clarifié un mécanisme essentiel du capitalisme. Marx avait développé l’idée de « l’accumulation primitive » comme une théorie du Big-Bang – Arendt l’a appelé « le péché originel du simple vol » – dans lequel l’appropriation de terres et de ressources naturelles a été l’événement fondateur qui a permis l’accumulation du capital et l’émergence du système de marché. Les expansions capitalistes des années 1860 et 1870 ont démontré, écrit Arendt, que cette sorte de péché originel a dû être répété encore et encore, « de peur que le moteur de l’accumulation de capital ne s’éteigne soudainement ».

Dans son livre The New Imperialism, le géographe et théoricien social David Harvey s’appuie sur ce qu’il appelle « accumulation par dépossession ». « Ce que fait l’accumulation par dépossession » écrit-il, « c’est de libérer un ensemble d’actifs… à un très faible (et dans certains cas, zéro) coût ». Le capital sur-accumulé peut s’emparer de ces actifs et les transformer immédiatement en profit… Il peut aussi refléter les tentatives de certains entrepreneurs… de « rejoindre le système » et rechercher les avantages de l’accumulation du capital.

Brèche dans le « système »

Le processus qui permet que le « surplus de comportement » conduise à la découverte du capitalisme de surveillance illustre cette tendance. C’est l’acte fondateur de la spoliation au profit d’une nouvelle logique du capitalisme construite sur les bénéfices de la surveillance, qui a ouvert la possibilité pour Google de devenir une entreprise capitaliste. En effet, en 2002, première année rentable Google, le fondateur Sergey Brin savoura sa percée dans le « système », comme il l’a dit à Levy,

« Honnêtement, quand nous étions encore dans les jours du boom dot-com, je me sentais comme un idiot. J’avais une startup – comme tout le monde. Elle ne générait pas de profit, c’était le cas des autres aussi, était-ce si dur ? Mais quand nous sommes devenus rentables, j’ai senti que nous avions construit une véritable entreprise « .

Brin était un capitaliste, d’accord, mais c’était une mutation du capitalisme qui ne ressemblait à rien de tout ce que le monde avait vu jusqu’alors.

Une fois que nous comprenons ce raisonnement, il devient clair qu’exiger le droit à la vie privée à des capitalistes de la surveillance ou faire du lobbying pour mettre fin à la surveillance commerciale sur l’Internet c’est comme demander à Henry Ford de faire chaque modèle T à la main. C’est comme demander à une girafe de se raccourcir le cou ou à une vache de renoncer à ruminer. Ces exigences sont des menaces existentielles qui violent les mécanismes de base de la survie de l’entité. Comment pouvons-nous nous espérer que des entreprises dont l’existence économique dépend du surplus du comportement cessent volontairement la saisie des données du comportement ? C’est comme demander leur suicide.

Toujours plus de surplus comportemental avec Google

Les impératifs du capitalisme de surveillance impliquent qu’il faudra toujours plus de surplus comportemental pour que Google et d’autres les transforment en actifs de surveillance, les maîtrisent comme autant de prédictions, pour les vendre dans les marchés exclusifs du futur comportement et les transformer en capital. Chez Google et sa nouvelle société holding appelée Alphabet, par exemple, chaque opération et investissement vise à accroître la récolte de surplus du comportement des personnes, des organismes, de choses, de processus et de lieux à la fois dans le monde virtuel et dans le monde réel. Voilà comment un jour de soixante-sept heures se lève et obscurcit un ciel d’émeraude. Il faudra rien moins qu’une révolte sociale pour révoquer le consensus général à des pratiques visant à la dépossession du comportement et pour contester la prétention du capitalisme de surveillance à énoncer les données du destin.

Quel est le nouveau vaccin ? Nous devons ré-imaginer comment intervenir dans les mécanismes spécifiques qui produisent les bénéfices de la surveillance et, ce faisant, réaffirmer la primauté de l’ordre libéral dans le projet capitaliste du XXIe siècle. Dans le cadre de ce défi, nous devons être conscients du fait que contester Google, ou tout autre capitaliste de surveillance pour des raisons de monopole est une solution du XXe siècle à un problème du 20e siècle qui, tout en restant d’une importance vitale, ne perturbe pas nécessairement l’équation commerciale du capitalisme de surveillance. Nous avons besoin de nouvelles interventions qui interrompent, interdisent ou réglementent : 1) la capture initiale du surplus du comportement, 2) l’utilisation du surplus du comportement comme matière première gratuite, 3) des concentrations excessives et exclusives des nouveaux moyens de production, 4) la fabrication de produits de prévision, 5) la vente de produits de prévision, 6) l’utilisation des produits de prévision par des tiers pour des opérations de modification, d’influence et de contrôle, et 5) la monétisation des résultats de ces opérations. Tout cela est nécessaire pour la société, pour les personnes, pour l’avenir, et c’est également nécessaire pour rétablir une saine évolution du capitalisme lui-même.

IV. Un coup d’en haut

Dans la représentation classique des menaces sur la vie privée, le secret institutionnel a augmenté, et les droits à la vie privée ont été érodés. Mais ce cadrage est trompeur, car la vie privée et le secret ne sont pas opposés, mais plutôt des moments dans une séquence. Le secret est une conséquence ; la vie privée est la cause. L’exercice du droit à la vie privée a comme effet la possibilité de choisir, et l’on peut choisir de garder quelque chose en secret ou de le partager. Les droits à la vie privée confèrent donc les droits de décision, mais ces droits de décision ne sont que le couvercle sur la boîte de Pandore de l’ordre libéral. À l’intérieur de la boîte, les souverainetés politiques et économiques se rencontrent et se mélangent avec des causes encore plus profondes et plus subtiles : l’idée de l’individu, l’émergence de soi, l’expérience ressentie du libre arbitre.

Le capitalisme de surveillance ne dégrade pas ces droits à la décision – avec leurs causes et leurs conséquences – il les redistribue plutôt. Au lieu de nombreuses personnes ayant quelques « droits », ces derniers ont été concentrés à l’intérieur du régime de surveillance, créant ainsi une toute nouvelle dimension de l’inégalité sociale. Les implications de cette évolution me préoccupent depuis de nombreuses années, et mon sens du danger s’intensifie chaque jour. L’espace de cet essai ne me permet pas de poursuivre jusqu’à la conclusion, mais je vous propose d’en résumer l’essentiel.

Le capitalisme de surveillance va au-delà du terrain institutionnel classique de l’entreprise privée. Il accumule non seulement les actifs de surveillance et des capitaux, mais aussi des droits. Cette redistribution unilatérale des droits soutient un régime de conformité administré en privé fait de récompenses et des punitions en grande partie déliée de toute sanction. Il opère sans mécanismes significatifs de consentement, soit sous la forme traditionnelle d’un « exit, voice or loyalty »3 associé aux marchés, soit sous la forme d’un contrôle démocratique exprimé par des lois et des règlements.

Un pouvoir profondément antidémocratique

En conséquence, le capitalisme de surveillance évoque un pouvoir profondément anti-démocratique que l’on peut qualifier de coup d’en haut : pas un coup d’état, mais plutôt un coup contre les gens, un renversement de la souveraineté du peuple. Il défie les principes et les pratiques de l’autodétermination – dans la vie psychique et dans les relations sociales, le politique et la gouvernance – pour lesquels l’humanité a souffert longtemps et sacrifié beaucoup. Pour cette seule raison, ces principes ne doivent pas être confisqués pour la poursuite unilatérale d’un capitalisme défiguré. Pire encore serait leur forfait par notre propre ignorance, impuissance apprise, inattention, inconvenance, force de l’habitude, ou laisser aller. Tel est, je crois, le terrain sur lequel notre lutte pour l’avenir devra se dérouler.

Hannah Arendt a dit un jour que l’indignation est la réponse naturelle de l’homme à ce qui dégrade la dignité humaine. Se référant à son travail sur les origines du totalitarisme, elle a écrit : « Si je décris ces conditions sans permettre à mon indignation d’y intervenir, alors j’ai soulevé ce phénomène particulier hors de son contexte dans la société humaine et l’ai ainsi privé d’une partie de sa nature, privé de l’une de ses qualités intrinsèques importantes. »

C’est donc ainsi pour moi et peut-être pour vous : les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté.

—–

1. Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p. 81.

2. Le 6 octobre 2015, la Cour de justice de l’Union européenne invalide l’accord Safe Harbor. La cour considère que les États-Unis n’offrent pas un niveau de protection adéquat aux données personnelles transférées et que les états membres peuvent vérifier si les transferts de données personnelles entre cet état et les États-Unis respectent les exigences de la directive européenne sur la protection des données personnelles.

3. Référence aux travaux de A. O. Hirschman sur la manière de gérer un mécontentement auprès d’une entreprise : faire défection (exit), ou prendre la parole (voice). La loyauté ayant son poids dans l’une ou l’autre décision.




Framaslides : reprenez en main votre Power, Point !

Pour le meilleur ou pour le pire, les diaporamas, slides et autres présentations font partie de notre quotidien. Quitte à devoir en faire et en voir, seul·e ou en groupe, autant disposer d’un outil en ligne pratique et respectueux de nos vies numériques, non ?

Ceci n’est pas un Powerpoint®

Commençons par un point vocabulaire : demander un diaporama en prononçant les mots « Tu me fais un Powerpoint ? » c’est un peu comme si on disait « Tu me fais un Subway ? » lorsqu’on veut un sandwich. Non seulement on fait de la pub gratos à une marque (si encore Microsoft vous payait…) ; mais en plus on court le risque de se polluer les cerveaux en apprenant à nos subconscients que sandwich = Subway.

Et puis il faut être francs, le format de documents .ppt ou .pptx (utilisé par Microsoft pour enchaîner vos diaporamas à leur logiciel Powerpoint), ben c’est une plaie. Un format fermé, difficilement compatible avec d’autres logiciels, et dépassé. Et cher, en plus, si vous voulez l’utiliser en ligne avec la suite « Office 365 »…

10 € par mois pour avoir le droit de vous filer mes données ?
C’est payant et je suis quand même le produit ?
Microsoft, vous êtes des génies.

 

Car aujourd’hui, les langages qui permettent de faire des sites web (le HTML, bien sûr, mais aussi ses copaings CSS et Javascript), permettent de produire et de lire hyper facilement des présentations (même complexes), sans toucher à une seule ligne de code, sans installer de logiciel ni d’application, juste à l’intérieur de nos navigateurs web.

C’est justement, ce que permet le logiciel libre Strut. C’est donc à ce logiciel que nous avons contribué afin qu’il ait toutes les fonctionnalités dont nous rêvions pour mieux vous proposer Framaslides !

Framaslides présenté en une framaslide !

Nous pourrions énumérer les fonctionnalités qu’offre Strut : formatage de texte et choix de couleurs, intégration d’images, vidéos, sites web et formes, transitions, etc. Mais le plus simple, c’est encore de vous les montrer, non ?

Cliquez sur le cadre ci dessous et naviguez grâce aux flèches droite et gauche (ou haut et bas) de votre clavier ;).

Cliquez, puis faites défiler les slides avec ↑ ↓ → ←

Déjà, vous allez nous dire, c’est beau (et on vous remercie de nous le dire). Oui. Le seul souci c’est que Struts a été conçu comme un logiciel « perso ». On l’installe sur son ordinateur ou sur un coin de serveur (une brique inter.net, par exemple), on l’utilise, et il enregistre notre ou nos présentation(s) dans le cache de notre navigateur web. Mais si on change d’ordinateur, de navigateur, ou si on nettoie l’historique et le cache de son navigateur web, pfuiiit ! Tout est perdu !

Tout ceci est normal : Strut a été conçu comme cela, et il faut rendre grâce à Matt Crinklaw-Vogt, son développeur, pour le travail fourni. En revanche, si vous voulons que ce logiciel ait de nouvelles fonctionnalités permettant d’autres utilisations, on fait comme tout·e libriste qui se respecte : on se relève les manches et on contribue au code 😉 !

Framaslides, un service collaboratif

Nous avons donc demandé à Thomas (que nous avons embauché suite à son stage où il a mené à bien Framagenda) de relever le défi ! Un peu comme une liste au père Noël, qui s’allonge au fur et à mesure que la date approche…

Thomas, face à ces demandes…

Dis, Thomas, ce serait pas génial si on pouvait…

  • … enregistrer ses diaporamas en ligne ?
  • … du coup envoyer nos images à Framaslides ?
  • … pour ça il me faut un compte, non ? Tu nous fais le gestionnaire de compte ?
  • … ben alors il nous permettra de gérer nos présentations ?
  • … genre de créer un lien public pour celle-ci ?
  • … ou de proposer celle-là comme modèle ?
  • … ah mais j’aime pas ce que j’ai changé, tu peux nous faire un système de révisions, hein, hein ?
  • … obah si on peut revenir en arrière, ce serait bien de pouvoir collaborer ensemble, s’te plééééé ???

Et le plus beau, c’est que le résultat est là. Autour de l’outil d’édition de présentations qu’offre Strut, Thomas a conçu un outil permettant de créer, présenter et collaborer sur ses présentations, en gérant aisément son compte, ses images, ses groupes, et bien entendu ses Framaslides !

Et un aperçu du résultat de son travail, un !

Pour les plus techos d’entre nous, Thomas a même pris le temps de faire un code propre, facile d’accès, documenté et de le déposer sur un Git aux petits oignons avec les tags et issues kivonbien… bref : un code qui est un appel aux contributions et collaborations ! Du coup, si vous maîtrisez du ImpressJS, du BackboneJS et du Handlebars (qui font tourner Strut) ; ou si vous êtes virtuose du Symphony3 (qui se trouve derrière la surcouche « Framaslides » de Thomas), vos contributions seront grandement appréciées 😉 !

Manuel change le monde avec Framaslides

Manuel Dupuis-Morizeau veut changer le monde. Il se dit que la première étape, c’est de convaincre d’autres personnes de le rejoindre dans son envie… Et pour cela, rien de tel qu’une présentation de derrière les fagots ! Ne voulant pas que ses idées soient confiées aux mains de Google Slides ou Microsoft Powerpoint 365, Manuel décide de se lancer sur Framaslides.

Pour cela, il lui faut un compte Framaslides. C’est facile : dès la page d’accueil, il clique sur le bouton « Se créer un compte », remplit le formulaire assez classique, puis attend l’email de confirmation (en vérifiant de temps en temps dans son dossier courriers indésirables, sait-on jamais)

On lui dit, à Manuel, que 8 caractères dans un mot de passe c’est bien trop peu ?

Une fois son compte validé, Manuel est impatient de s’y mettre, il clique donc directement sur « Créer une présentation ». Là, il découvre l’interface d’édition des diaporama de Struts.

  • La colonne des diapositives (1) ;
  • Le mode expert (2) (s’il veut trifouiller du code) ;
  • Les boutons d’ajout de contenu (3) ;
  • Les boutons de choix des couleurs (4) ;
  • Les vues panorama et aperçu (5).

Il décide donc de créer ses premières diapositives, ou slides, comme on dit !

#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */

Alors c’est bien gentil tout cela, mais il ne voit toujours pas comment faire les transitions… C’est là qu’il active le mode Panorama. Cela demande une petite gymnastique mentale, mais il voit vite comment ça peut marcher !

En fait, il faut s’imaginer qu’on déplace ses slides dans l’espace !

Bon, après avoir regardé un aperçu, ce début semble prometteur à Manuel, alors faut-il le sauvegarder en utilisant le menu en haut à gauche.

Le menu, un grand classique indémodable.

Puis clique sur « retourner aux présentations », dans ce même menu.

Manuel se retrouve alors devant l’interface de gestion de ses Framaslides. L’outil a l’air assez explicite, en fait…

Au centre, il retrouve ses présentations, ses modèles et ses collaborations, chacun sous leur onglet.

Et en haut à droite une barre de recherche et d’outils qui lui permet de :

  • créer une nouvelle présentation ;
  • voir ses présentations (donc retourner à l’écran principal de son compte) ;
  • gérer ses groupes de collaboration ;
  • gérer les images qu’il a téléversées en utilisant Framaslides ;
  • gérer les paramètres de son compte (mot de passe, etc.) ;
  • et se déconnecter.

Tout cela rend Manuel assez curieux, il va donc aller voir son gestionnaire d’images, mais comme il n’en a téléchargé qu’une, cela ne lui sert pas encore beaucoup. Il est quand même rassuré de savoir qu’il peut en effacer à tout moment et garder la maîtrise de ses fichiers.

Par contre, Manuel a une idée brillante… se faire aider pour commencer à changer le monde. Il décide d’aller directement créer un nouveau groupe afin d’y inviter toute la famille Dupuis Morizeau !

Non, sérieusement Manuel : le mot de passe, plus il est long, plus il est bon…

Bon, l’histoire ne dit pas si Manuel réussira à changer le monde, mais on peut croire qu’il réussira facilement à créer sa présentation avec d’autres membres de la famille et à la partager le plus largement possible 😉

Pour aller plus loin :