Les nouveaux Leviathans III. Du capitalisme de surveillance à la fin de la démocratie ?

Une chronique de Xavier De La Porte1 sur le site de la radio France Culture pointe une sortie du tout nouveau président Emmanuel Macron parue sur le compte Twitter officiel : « Une start-up nation est une nation où chacun peut se dire qu’il pourra créer une startup. Je veux que la France en soit une ». Xavier De La Porte montre à quel point cette conception de la France en « start-up nation » est en réalité une vieille idée, qui reprend les archaïsmes des penseurs libéraux du XVIIe siècle, tout en provoquant un « désenchantement politique ». La série des Nouveaux Léviathans, dont voici le troisième numéro, part justement de cette idée et cherche à en décortiquer les arguments.

Note : voici le troisième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Dans cet article nous allons voir comment ce que Shoshana Zuboff nomme Big Other (cf. article précédent) trouve dans ces archaïques conceptions de l’État un lieu privilégié pour déployer une nouvelle forme d’organisation sociale et politique. L’idéologie-Silicon ne peut plus être aujourd’hui analysée comme un élan ultra-libéral auquel on opposerait des valeurs d’égalité ou de solidarité. Cette dialectique est dépassée car c’est le Contrat Social qui change de nature : la légitimité de l’État repose désormais sur des mécanismes d’expertise2 par lesquels le capitalisme de surveillance impose une logique de marché à tous les niveaux de l’organisation socio-économique, de la décision publique à l’engagement politique. Pour comprendre comment le terrain démocratique a changé à ce point et ce que cela implique dans l’organisation d’une nation, il faut analyser tour à tour le rôle des monopoles numériques, les choix de gouvernance qu’ils impliquent, et comprendre comment cette idéologie est non pas théorisée, mais en quelque sorte auto-légitimée, rendue presque nécessaire, parce qu’aucun choix politique ne s’y oppose. Le capitalisme de surveillance impliquerait-il la fin de la démocratie ?

“Big Brother”, par Stephan Mosel, sous licence CC BY 2.0

Libéralisme et Big Other

Dans Les Nouveaux Leviathans II, j’abordais la question du capitalisme de surveillance sous l’angle de la fin du modèle économique du marché libéral. L’utopie dont se réclame ce dernier, que ce soit de manière rhétorique ou réellement convaincue, suppose une auto-régulation du marché, théorie maintenue en particulier par Friedrich Hayek3. À l’opposé de cette théorie qui fait du marché la seule forme (auto-)équilibrée de l’économie, on trouve des auteurs comme Karl Polanyi4 qui, à partir de l’analyse historique et anthropologique, démontre non seulement que l’économie n’a pas toujours été organisée autour d’un marché libéral, mais aussi que le capitalisme « désencastre » l’économie des relations sociales, et provoque un déni du contrat social.

Or, avec le capitalisme de surveillance, cette opposition (qui date tout de même de la première moitié du XXe siècle) a vécu. Lorsque Shoshana Zuboff aborde la genèse du capitalisme de surveillance, elle montre comment, à partir de la logique de rationalisation du travail, on est passé à une société de marché dont les comportements individuels et collectifs sont quantifiés, analysés, surveillés, grâce aux big data, tout comme le (un certain) management d’entreprise quantifie et rationalise les procédures. Pour S. Zuboff, tout ceci concourt à l’avènement de Big Other, c’est-à-dire un régime socio-économique régulé par des mécanismes d’extraction des données, de marchandisation et de contrôle. Cependant, ce régime ne se confronte pas à l’État comme on pourrait le dire du libertarisme sous-jacent au néolibéralisme qui considère l’État au pire comme contraire aux libertés individuelles, au mieux comme une instance limitative des libertés. Encore pourrait-on dire qu’une dialectique entre l’État et le marché pourrait être bénéfique et aboutirait à une forme d’équilibre acceptable. Or, avec le capitalisme de surveillance, le politique lui-même devient un point d’appui pour Big Other, et il le devient parce que nous avons basculé d’un régime politique à un régime a-politique qui organise les équilibres sociaux sur les principes de l’offre marchande. Les instruments de cette organisation sont les big datas et la capacité de modeler la société sur l’offre.

C’est que je précisais en 2016 dans un ouvrage coordonné par Tristan Nitot, Nina Cercy, Numérique : reprendre le contrôle5, en ces termes :

(L)es firmes mettent en œuvre des pratiques d’extraction de données qui annihilent toute réciprocité du contrat avec les utilisateurs, jusqu’à créer un marché de la quotidienneté (nos données les plus intimes et à la fois les plus sociales). Ce sont nos comportements, notre expérience quotidienne, qui deviennent l’objet du marché et qui conditionne même la production des biens industriels (dont la vente dépend de nos comportements de consommateurs). Mieux : ce marché n’est plus soumis aux contraintes du hasard, du risque ou de l’imprédictibilité, comme le pensaient les chantres du libéralisme du XXe siècle : il est devenu malléable parce que ce sont nos comportements qui font l’objet d’une prédictibilité d’autant plus exacte que les big data peuvent être analysées avec des méthodes de plus en plus fiables et à grande échelle.

Si j’écris que nous sommes passés d’un régime politique à un régime a-politique, cela ne signifie pas que cette transformation soit radicale, bien entendu. Il existe et il existera toujours des tensions idéologiques à l’intérieur des institutions de l’État. C’est plutôt une question de proportions : aujourd’hui, la plus grande partie des décisions et des organes opérationnels sont motivés et guidés par des considérations relevant de situations déclarées impératives et non par des perspectives politiques. On peut citer par exemple le grand mouvement de « rigueur » incitant à la « maîtrise » des dépenses publiques imposée par les organismes financiers européens ; des décisions motivées uniquement par le remboursement des dettes et l’expertise financière et non par une stratégie du bien-être social. On peut citer aussi, d’un point de vue plus local et français, les contrats des institutions publiques avec Microsoft, à l’instar de l’Éducation Nationale, à l’encontre de l’avis d’une grande partie de la société civile, au détriment d’une offre différente (comme le libre et l’open source) et dont la justification est uniquement donnée par l’incapacité de la fonction publique à envisager d’autres solutions techniques, non par ignorance, mais à cause du détricotage massif des compétences internes. Ainsi « rationaliser » les dépenses publiques revient en fait à se priver justement de rationalité au profit d’une simple adaptation de l’organisation publique à un état de fait, un déterminisme qui n’est pas remis en question et condamne toute idéologie à être non pertinente.

Ce n’est pas pour autant qu’il faut ressortir les vieilles théories de la fin de l’histoire. Qui plus est, les derniers essais du genre, comme la thèse de Francis Fukuyama6, se sont concentrés justement sur l’avènement de la démocratie libérale conçue comme le consensus ultime mettant fin aux confrontations idéologiques (comme la fin de la Guerre Froide). Or, le capitalisme de surveillance a minima repousse toute velléité de consensus, au-delà du libéralisme, car il finit par définir l’État tout entier comme un instrument d’organisation, quelle que soit l’idéologie : si le nouveau régime de Big Other parvient à organiser le social, c’est aussi parce que ce dernier a désengagé le politique et relègue la décision publique au rang de validation des faits, c’est-à-dire l’acceptation des contrats entre les individus et les outils du capitalisme de surveillance.

Les mécanismes ne sont pas si nombreux et tiennent en quatre points :

  • le fait que les firmes soient des multinationales et surfent sur l’offre de la moins-disance juridique pour s’établir dans les pays (c’est la pratique du law shopping),
  • le fait que l’utilisation des données personnelles soit déloyale envers les individus-utilisateurs des services des firmes qui s’approprient les données,
  • le fait que les firmes entre elles adoptent des processus loyaux (pactes de non-agression, partage de marchés, acceptation de monopoles, rachats convenus, etc.) et passent des contrats iniques avec les institutions, avec l’appui de l’expertise, faisant perdre aux États leur souveraineté numérique,
  • le fait que les monopoles « du numérique » diversifient tellement leurs activités vers les secteurs industriels qu’ils finissent par organiser une grande partie des dynamiques d’innovation et de concurrence à l’échelle mondiale.

Pour résumer les trois conceptions de l’économie dont il vient d’être question, on peut dresser ce tableau :

Économie Forme Individus État
Économie spontanée Diversité et créativité des formes d’échanges, du don à la financiarisation Régulent l’économie par la démocratie ; les échanges sont d’abord des relations sociales Garant de la redistribution équitable des richesses ; régulateur des échanges et des comportements
Marché libéral Auto-régulation, défense des libertés économiques contre la décision publique (conception libérale de la démocratie : liberté des échanges et de la propriété) Agents consommateurs décisionnaires dans un milieu concurrentiel Réguler le marché contre ses dérives inégalitaires ; maintient une démocratie plus ou moins forte
Capitalisme de surveillance Les monopoles façonnent les échanges, créent (tous) les besoins en fonction de leurs capacités de production et des big data Sont exclusivement utilisateurs des biens et services Automatisation du droit adapté aux besoins de l’organisation économique ; sécurisation des conditions du marché

Il est important de comprendre deux aspects de ce tableau :

  • il ne cherche pas à induire une progression historique et linéaire entre les différentes formes de l’économie et des rapports de forces : ces rapports sont le plus souvent diffus, selon les époques, les cultures. Il y a une économie spontanée à l’Antiquité comme on pourrait par exemple, comprendre les monnaies alternatives d’aujourd’hui comme des formes spontanées d’organisation des échanges.
  • aucune de ces cases ne correspond réellement à des conceptions théorisées. Il s’agit essentiellement de voir comment le capitalisme de surveillance induit une distorsion dans l’organisation économique : alors que dans des formes classiques de l’organisation économique, ce sont les acteurs qui produisent l’organisation, le capitalisme de surveillance induit non seulement la fin du marché libéral (vu comme place d’échange équilibrée de biens et services concurrentiels) mais exclut toute possibilité de régulation par les individus / citoyens : ceux-ci sont vus uniquement comme des utilisateurs de services, et l’État comme un pourvoyeur de services publics. La décision publique, elle, est une affaire d’accord entre les monopoles et l’État.

“FREE SPEECH” par Newtown grafitti, licence CC BY 2.0

Les monopoles et l’État

Pour sa première visite en Europe, Sundar Pichai qui était alors en février 2016 le nouveau CEO de Google Inc. , choisit les locaux de Sciences Po. Paris pour tenir une conférence de presse7, en particulier devant les élèves de l’école de journalisme. Le choix n’était pas anodin, puisqu’à ce moment-là Google s’est présenté en grand défenseur de la liberté d’expression (par un ensemble d’outils, de type reverse-proxy que la firme est prête à proposer aux journalistes pour mener leurs investigations), en pourvoyeur de moyens efficaces pour lutter contre le terrorisme, en proposant à qui veut l’entendre des partenariats avec les éditeurs, et de manière générale en s’investissant dans l’innovation numérique en France (voir le partenariat Numa / Google). Tout cela démontre, s’il en était encore besoin, à quel point la firme Google (et Alphabet en général) est capable de proposer une offre si globale qu’elle couvre les fonctions de l’État : en réalité, à Paris lors de cette conférence, alors que paradoxalement elle se tenait dans les locaux où étudient ceux qui demain sont censés remplir des fonctions régaliennes, Sundar Pichai ne s’adressait pas aux autorités de l’État mais aux entreprises (éditeurs) pour leur proposer des instruments qui garantissent leurs libertés. Avec comme sous-entendu : vous évoluez dans un pays dont la liberté d’expression est l’un des fleurons, mais votre gouvernement n’est pas capable de vous le garantir mieux que nous, donc adhérez à Google. Les domaines de la santé, des systèmes d’informations et l’éducation en sont pas exempts de cette offre « numérique ».

Du côté du secteur public, le meilleur moyen de ne pas perdre la face est de monter dans le train suivant l’adage « Puisque ces mystères nous dépassent, feignons d’en être l’organisateur ». Par exemple, si Google et Facebook ont une telle puissance capable de mener efficacement une lutte, au moins médiatique, contre le terrorisme, à l’instar de leurs campagnes de propagande8, il faut créer des accords de collaboration entre l’État et ces firmes9, quitte à les faire passer comme une exigence gouvernementale (mais quel État ne perdrait pas la face devant le poids financier des GAFAM ?).

… Et tout cela crée un marché de la gouvernance dans lequel on ne compte plus les millions d’investissement des GAFAM. Ainsi, la gouvernance est un marché pour Microsoft, qui lance un Office 2015 spécial « secteur public », ou, mieux, qui sait admirablement se situer dans les appels d’offre en promouvant des solutions pour tous les besoins d’organisation de l’État. Par exemple, la présentation des activités de Microsoft dans le secteur public sur son site comporte ces items :

  • Stimulez la transformation numérique du secteur public
  • Optimisez l’administration publique
  • Transformez des services du secteur public
  • Améliorez l’efficacité des employés du secteur public
  • Mobilisez les citoyens

Microsoft dans le secteur public

Microsoft Office pour le secteur public

D’aucuns diraient que ce que font les GAFAM, c’est proposer un nouveau modèle social. Par exemple dans une enquête percutante sur les entreprises de la Silicon Valley, Philippe Vion-Dury définit ce nouveau modèle comme « politiquement technocratique, économiquement libéral, culturellement libertaire, le tout nimbé de messianisme typiquement américain »10. Et il a entièrement raison, sauf qu’il ne s’agit pas d’un modèle social, c’est justement le contraire, c’est un modèle de gouvernance sans politique, qui considère le social comme la juxtaposition d’utilisateurs et de groupes d’utilisateurs. Comme le montre l’offre de Microsoft, si cette firme est capable de fournir un service propre à « mobiliser les citoyens  » et si en même temps, grâce à ce même fournisseur, vous avez les outils pour transformer des services du secteur public, quel besoin y aurait-il de voter, de persuader, de discuter ? si tous les avis des citoyens sont analysés et surtout anticipés par les big datas, et si les seuls outils efficaces de l’organisation publique résident dans l’offre des GAFAM, quel besoin y aurait-il de parler de démocratie  ?

En réalité, comme on va le voir, tout cette nouvelle configuration du capitalisme de surveillance n’est pas seulement rendue possible par la puissance novatrice des monopoles du numérique. C’est peut-être un biais : penser que leur puissance d’innovation est telle qu’aucune offre concurrente ne peut exister. En fait, même si l’offre était moindre, elle n’en serait pas moins adoptée car tout réside dans la capacité de la décision publique à déterminer la nécessité d’adopter ou non les services des GAFAM. C’est l’aménagement d’un terrain favorable qui permet à l’offre de la gouvernance numérique d’être proposée. Ce terrain, c’est la décision par l’expertise.


“Work-buy-consume-die”, par Mika Raento, sous licence CC BY 2.0
(trad. : « Participez à l’hilarante aventure d’une vie : travaillez, achetez, consommez, mourez. »)

L’accueil favorable au capitalisme de surveillance

Dans son livre The united states of Google11, Götz Haman fait un compte-rendu d’une conférence durant laquelle interviennent Eric Schmidt, alors président du conseil d’administration de Google, et son collègue Jared Cohen. Ces derniers ont écrit un ouvrage (The New Digital Age) qu’ils présentent dans les grandes lignes. Götz Haman le résume en ces termes : « Aux yeux de Google, les États sont dépassés. Ils n’ont rien qui permette de résoudre les problèmes du XXIe siècle, tels le changement climatique, la pauvreté, l’accès à la santé. Seules les inventions techniques peuvent mener vers le Salut, affirment Schmidt et son camarade Cohen. »

Une fois cette idéologie — celle du capitalisme de surveillance12 — évoquée, il faut s’interroger sur la raison pour laquelle les États renvoient cette image d’impuissance. En fait, les sociétés occidentales modernes ont tellement accru leur consommation de services que l’offre est devenue surpuissante, à tel point, comme le montre Shoshanna Zuboff, que les utilisateurs eux-mêmes sont devenus à la fois les pourvoyeurs de matière première (les données) et les consommateurs. Or, si nous nous plaçons dans une conception de la société comme un unique marché où les relations sociales peuvent être modelées par l’offre de services (ce qui se cristallise aujourd’hui par ce qu’on nomme dans l’expression-valise « Uberisation de la société »), ce qui relève de la décision publique ne peut être motivé que par l’analyse de ce qu’il y a de mieux pour ce marché, c’est-à-dire le calcul de rentabilité, de rendement, d’efficacité… d’utilité. Or cette analyse ne peut être à son tour fournie par une idéologie visionnaire, une utopie ou simplement l’imaginaire politique : seule l’expertise de l’état du monde pour ce qu’il est à un instant T permet de justifier l’action publique. Il faut donc passer du concept de gouvernement politique au concept de gouvernance par les instruments. Et ces instruments doivent reposer sur les GAFAM.

Pour comprendre au mieux ce que c’est que gouverner par les instruments, il faut faire un petit détour conceptuel.

L’expertise et les instruments

Prenons un exemple. La situation politique qu’a connue l’Italie après novembre 2011 pourrait à bien des égards se comparer avec la récente élection en France d’Emmanuel Macron et les élections législatives qui ont suivi. En effet, après le gouvernement de Silvio Berlusconi, la présidence italienne a nommé Mario Monti pour former un gouvernement dont les membres sont essentiellement reconnus pour leurs compétences techniques appliquées en situation de crise économique. La raison du soutien populaire à cette nomination pour le moins discutable (M. Monti a été nommé sénateur à vie, reconnaissance habituellement réservée aux anciens présidents de République Italienne) réside surtout dans le désaveu de la casta, c’est-à-dire le système des partis qui a dominé la vie politique italienne depuis maintes années et qui n’a pas réussi à endiguer les effets de la crise financière de 2008. Si bien que le gouvernement de Mario Monti peut être qualifié de « gouvernement des experts », non pas un gouvernement technocratique noyé dans le fatras administratif des normes et des procédures, mais un gouvernement à l’image de Mario Monti lui-même, ex-commissaire européen au long cours, motivé par la nécessité technique de résoudre la crise en coopération avec l’Union Européenne. Pour reprendre les termes de l’historien Peppino Ortoleva, à propos de ce gouvernement dans l’étude de cas qu’il consacre à l’Italie13 en 2012 :

Le « gouvernement des experts » se présente d’un côté comme le gouvernement de l’objectivité et des chiffres, celui qui peut rendre compte à l’Union européenne et au système financier international, et d’un autre côté comme le premier gouvernement indépendant des partis.

Peppino Ortoleva conclut alors que cet exemple italien ne représente que les prémices pour d’autres gouvernements du même acabit dans d’autres pays, avec tous les questionnements que cela suppose en termes de débat politique et démocratique : si en effet la décision publique n’est mue que par la nécessité (ici la crise financière et la réponse aux injonctions de la Commission européenne) quelle place peut encore tenir le débat démocratique et l’autonomie décisionnaire des peuples ?

En son temps déjà le « There is no alternative » de Margaret Thatcher imposait par la force des séries de réformes au nom de la nécessité et de l’expertise économiques. On ne compte plus, en Europe, les gouvernements qui nomment des groupes d’expertise, conseils et autres comités censés répondre aux questions techniques que pose l’environnement économique changeant, en particulier en situation de crise.

Cette expertise a souvent été confondue avec la technocratie, à l’instar de l’ouvrage de Vincent Dubois et Delphine Dulong publié en 2000, La question technocratique14. Lorsqu’en effet la décision publique se justifie exclusivement par la nécessité, cela signifie que cette dernière est définie en fonction d’une certaine compréhension de l’environnement socio-économique. Par exemple, si l’on part du principe que la seule réponse à la crise financière est la réduction des dépenses publiques, les technocrates inventeront les instruments pour rendre opérationnelle la décision publique, les experts identifieront les méthodes et l’expertise justifiera les décisions (on remet en cause un avis issu d’une estimation de ce que devrait être le monde, mais pas celui issu d’un calcul d’expert).

La technocratie comme l’expertise se situent hors des partis, mais la technocratie concerne surtout l’organisation du gouvernement. Elle répond souvent aux contraintes de centralisation de la décision publique. Elle crée des instruments de surveillance, de contrôle, de gestion, etc. capables de permettre à un gouvernement d’imposer, par exemple, une transformation économique du service public. L’illustration convaincante est le gouvernement Thatcher, qui dès 1979 a mis en place plusieurs instruments de contrôle visant à libéraliser le secteur public en cassant les pratiques locales et en imposant un système concurrentiel. Ce faisant, il démontrait aussi que le choix des instruments suppose aussi des choix d’exercice du pouvoir, tels ceux guidés par la croyance en la supériorité des mécanismes de marché pour organiser l’économie15.

Gouverner par l’expertise ne signifie donc pas que le gouvernement manque de compétences en son sein pour prendre les (bonnes ou mauvaises) décisions publiques. Les technocrates existent et sont eux aussi des experts. En revanche, l’expertise permet surtout de justifier les choix, les stratégies publiques, en interprétant le monde comme un environnement qui contraint ces choix, sans alternative.

En parlant d’alternative, justement, on peut s’interroger sur celles qui relèvent de la société civile et portées tant bien que mal à la connaissance du gouvernement. La question du logiciel libre est, là encore, un bon exemple.

En novembre 2016, Framasoft publiait un billet retentissant intitulé « Pourquoi Framasoft n’ira plus prendre le thé au ministère de l’Éducation Nationale ». La raison de ce billet est la prise de conscience qu’après plus de treize ans d’efforts de sensibilisation au logiciel libre envers les autorités publiques, et en particulier l’Éducation Nationale, Framasoft ne pouvait plus dépenser de l’énergie à coopérer avec une telle institution si celle-ci finissait fatalement par signer contrats sur contrats avec Microsoft ou Google. En fait, le raisonnement va plus loin et j’y reviendrai plus tard dans ce texte. Mais il faut comprendre que ce à quoi Framasoft s’est confronté est exactement ce gouvernement par l’expertise. En effet, les communautés du logiciel libre n’apportent une expertise que dans la mesure où elles proposent de changer de modèle : récupérer une autonomie numérique en développant des compétences et des initiatives qui visent à atteindre un fonctionnement idéal (des données protégées, des solutions informatiques modulables, une contribution collective au code, etc.). Or, ce que le gouvernement attend de l’expertise, ce n’est pas un but à atteindre, c’est savoir comment adapter l’organisation au modèle existant, c’est-à-dire celui du marché.

Dans le cadre des élections législatives, l’infatigable association APRIL (« promouvoir et défendre le logiciel libre ») lance sa campagne de promotion de la priorité au logiciel libre dans l’administration publique. À chaque fois, la campagne connaît un certain succès et des députés s’engagent réellement dans cette cause qu’ils plaident même à l’intérieur de l’Assemblée Nationale. Sous le gouvernement de F. Hollande, on a entendu des députés comme Christian Paul ou Isabelle Attard avancer les arguments les plus pertinents et sans ménager leurs efforts, convaincus de l’intérêt du Libre. À leur image, il serait faux de dire que la sphère politique est toute entière hermétique au logiciel libre et aux équilibres numériques et économiques qu’il porte en lui. Peine perdue ? À voir les contrats passés entre le gouvernement et les GAFAM, c’est un constat qu’on ne peut pas écarter et sans doute au profit d’une autre forme de mobilisation, celle du peuple lui-même, car lui seul est capable de porter une alternative là où justement la politique a cédé la place : dans la décision publique.

La rencontre entre la conception du marché comme seule organisation gouvernementale des rapports sociaux et de l’expertise qui détermine les contextes et les nécessités de la prise de décision a permis l’émergence d’un terrain favorable à l’État-GAFAM. Pour s’en convaincre il suffit de faire un tour du côté de ce qu’on a appelé la « modernisation de l’État ».

Les firmes à la gouvernance numérique

Anciennement la Direction des Systèmes d’Information (DSI), la DINSIC (Direction Interministérielle du Numérique et du Système d’Information et de Communication) définit les stratégies et pilote les structures informationnelles de l’État français. Elle prend notamment part au mouvement de « modernisation » de l’État. Ce mouvement est en réalité une cristallisation de l’activité de réforme autour de l’informatisation commencée dans les années 1980. Cette activité de réforme a généré des compétences et assez d’expertise pour être institutionnalisée (DRB, DGME, aujourd’hui DIATP — Direction interministérielle pour l’accompagnement des transformations publiques). On se perd facilement à travers les acronymes, les ministères de rattachement, les changements de noms au rythme des fusions des services entre eux. Néanmoins, le concept même de réforme n’a pas évolué depuis les grandes réformes des années 1950 : il faut toujours adapter le fonctionnement des administrations publiques au monde qui change, en particulier le numérique.

La différence, aujourd’hui, c’est que cette adaptation ne se fait pas en fonction de stratégies politiques, mais en fonction d’un cadre de productivité, dont on dit qu’il est un « contrat de performance » ; cette performance étant évaluée par des outils de contrôle : augmenter le rendement de l’administration en « rationalisant » les effectifs, automatiser les services publics (par exemple déclarer ses impôts en ligne, payer ses amendes en lignes, etc.), expertiser (accompagner) les besoins des systèmes d’informations selon les offres du marché, limiter les instances en adaptant des méthodes agiles de prise de décision basées sur des outils numériques de l’analyse de data, maîtrise des coûts….

C’est que nous dit en substance la Synthèse présentant le Cadre stratégique commun du système d’information de l’Etat, c’est-à-dire la feuille de route de la DINSIC. Dans une section intitulée « Pourquoi se transformer est une nécessite ? », on trouve :

Continuer à faire évoluer les systèmes d’information est nécessaire pour répondre aux enjeux publics de demain : il s’agit d’un outil de production de l’administration, qui doit délivrer des services plus performants aux usagers, faciliter et accompagner les réformes de l’État, rendre possible les politiques publiques transverses à plusieurs administrations, s’intégrer dans une dimension européenne.

Cette feuille de route concerne en fait deux grandes orientations : l’amélioration de l’organisation interne aux institutions gouvernementales et les interfaces avec les citoyens. Il est flagrant de constater que, pour ce qui concerne la dimension interne, certains projets que l’on trouve mentionnés dans le Panorama des grands projets SI de l’Etat font appel à des solutions open source et les opérateurs sont publics, notamment par souci d’efficacité, comme c’est le cas, par exemple pour le projet VITAM, relatif à l’archivage. En revanche, lorsqu’il s’agit des relations avec les citoyens-utilisateurs, c’est-à-dires les « usagers », ce sont des entreprises comme Microsoft qui entrent en jeu et se substituent à l’État, comme c’est le cas par exemple du grand projet France Connect, dont Microsoft France est partenaire.

En effet, France Connect est une plateforme centralisée visant à permettre aux citoyens d’effectuer des démarches en ligne (pour les particuliers, pour les entreprises, etc.). Pour permettre aux collectivités et aux institutions qui mettent en place une « offre » de démarche en ligne, Microsoft propose en open source des « kit de démarrage », c’est à dire des modèles, qui vont permettre à ces administrations d’offrir ces services aux usagers. En d’autres termes, c’est chaque collectivité ou administration qui va devenir fournisseur de service, dans un contexte de développement technique mutualisé (d’où l’intérêt ici de l’open source). Ce faisant, l’État n’agit plus comme maître d’œuvre, ni même comme arbitre : c’est Microsoft qui se charge d’orchestrer (par les outils techniques choisis, et ce n’est jamais neutre) un marché de l’offre de services dont les acteurs sont les collectivités et administrations. De là, il est tout à fait possible d’imaginer une concurrence, par exemple entre des collectivités comme les mairies, entre celles qui auront une telle offre de services permettant d’attirer des contribuables et des entreprises sur son territoire, et celles qui resteront coincées dans les procédures administratives réputées archaïques.

Microsoft : contribuer à FranceConnect

En se plaçant ainsi non plus en prestataire de produits mais en tuteur, Microsoft organise le marché de l’offre de service public numérique. Mais la firme va beaucoup plus loin, car elle bénéficie désormais d’une grande expérience, reconnue, en matière de service public. Ainsi, lorsqu’il s’agit d’anticiper les besoins et les changements, elle est non seulement à la pointe de l’expertise mais aussi fortement enracinée dans les processus de la décision publique. Sur le site Econocom en 2015, l’interview de Raphaël Mastier16, directeur du pôle Santé de Microsoft France, est éloquent sur ce point. Partant du principe que « historiquement le numérique n’a pas été considéré comme stratégique dans le monde hospitalier », Microsoft propose des outils « d’analyse et de pilotage », et même l’utilisation de l’analyse prédictive des big data pour anticiper les temps d’attentes aux urgences : « grâce au machine learning, il sera possible de s’organiser beaucoup plus efficacement ». Avec de tels arguments, en effet, qui irait à l’encontre de l’expérience microsoftienne dans les services publics si c’est un gage d’efficacité ? on comprend mieux alors, dans le monde hospitalier, l’accord-cadre CAIH-Microsoft qui consolide durablement le marché Microsoft avec les hôpitaux.

Au-delà de ces exemples, on voit bien que cette nouvelle forme de gouvernance à la Big Other rend ces instruments légitimes car ils produisent le marché et donc l’organisation sociale. Cette transformation de l’État est parfaitement assumée par les autorités, arguant par exemple dans un billet sur gouvernement.fr intitulé « Le numérique : instrument de la transformation de l’État », en faveur de l’allégement des procédures, de la dématérialisation, de la mise à disposition des bases de données (qui va les valoriser ?), etc. En somme autant d’arguments dont il est impossible de nier l’intérêt collectif et qui font, en règle générale, l’objet d’un consensus.

Le groupe canadien CGI, l’un des leaders mondiaux en technologies et gestion de l’information, œuvre aussi en France, notamment en partenariat avec l’UGAP (Union des Groupements d’Achats Publics). Sur son blog, dans un Billet du 2 mai 201717, CGI résume très bien le discours dominant de l’action publique dans ce domaine (et donc l’intérêt de son offre de services), en trois points :

  1. Réduire les coûts. Le sous-entendu consiste à affirmer que si l’État organise seul sa transformation numérique, le budget sera trop conséquent. Ce qui reste encore à prouver au vu des montants en jeu dans les accords de partenariat entre l’État et les firmes, et la nature des contrats (on peut souligner les clauses concernant les mises à jour chez Microsoft) ;
  2. Le secteur public accuse un retard numérique. C’est l’argument qui justifie la délégation du numérique sur le marché, ainsi que l’urgence des décisions, et qui, par effet de bord, contrevient à la souveraineté numérique de l’État.
  3. Il faut améliorer « l’expérience citoyen ». C’est-à-dire que l’objectif est de transformer tous les citoyens en utilisateurs de services publics numériques et, comme on l’a vu plus haut, organiser une offre concurrentielle de services entre les institutions et les collectivités.

Du côté des décideurs publics, les choix et les décisions se justifient sur un mode Thatchérien (il n’y a pas d’alternative). Lorsqu’une alternative est proposée, tel le logiciel libre, tout le jeu consiste à donner une image politique positive pour ensuite orienter la stratégie différemment.

Sur ce point, l’exemple de Framasoft est éloquent et c’est quelque chose qui n’a pas forcément été perçu lors de la publication de la déclaration « Pourquoi Framasoft n’ira plus prendre le thé…» (citée précédemment). Il s’agit de l’utilisation de l’alternative libriste pour légitimer l’appel à une offre concurrentielle sur le marché des firmes. En effet, les personnels de l’Éducation Nationale utilisent massivement les services que Framasoft propose dans le cadre de sa campagne « Degooglisons Internet ». Or, l’institution pourrait très bien, sur le modèle promu par Framasoft, installer ces mêmes services, et ainsi offrir ces solutions pour un usage généralisé dans les écoles, collèges et lycées. C’est justement le but de la campagne de Framasoft que de proposer une vaste démonstration pour que des organisations retrouvent leur autonomie numérique. Les contacts que Framasoft a noué à ce propos avec différentes instances de l’Éducation Nationale se résumaient finalement soit à ce que Framasoft et ses bénévoles proposent un service à la carte dont l’ambition est bien loin d’une offre de service à l’échelle institutionnelle, soit participe à quelques comités d’expertise sur le numérique à l’école. L’idée sous-jacente est que l’Éducation Nationale ne peut faire autrement que de demander à des prestataires de mettre en place une offre numérique clé en main et onéreuse, alors même que Framasoft propose tous ses services au grand public avec des moyens financiers et humains ridiculement petits.

Dès lors, après la signature du partenariat entre le MEN et Microsoft, le message a été clairement formulé à Framasoft (et aux communautés du Libre en général), par un Tweet de la Ministre Najat Vallaud-Belkacem exprimant en substance la « neutralité technologique » du ministère (ce qui justifie donc le choix de Microsoft comme objectivement la meilleure offre du marché) et l’idée que les « éditeurs de logiciels libres » devraient proposer eux aussi leurs solutions, c’est-à-dire entrer sur le marché concurrentiel. Cette distorsion dans la compréhension de ce que sont les alternatives libres (non pas un produit mais un engagement) a été confirmée à plusieurs reprises par la suite : les solutions libres et leurs usages à l’Éducation Nationale peuvent être utilisées pour « mettre en tension » le marché et négocier des tarifs avec les firmes comme Microsoft, ou du moins servir d’épouvantail (dont on peut s’interroger sur l’efficacité réelle devant la puissance promotionnelle et lobbyiste des firmes en question).

On peut conclure de cette histoire que si la décision publique tient à ce point à discréditer les solutions alternatives qui échappent au marché des monopoles, c’est qu’une idéologie est à l’œuvre qui empêche toute forme d’initiative qui embarquerait le gouvernement dans une dynamique différente. Elle peut par exemple placer les décideurs devant une incapacité structurelle18 de choisir des alternatives proposant des logiciels libres, invoquant par exemple le droit des marchés publics voire la Constitution, alors que l’exclusion du logiciel libre n’est pas réglementaire19.

Ministre de l’Éducation Nationale et Microsoft

L’idéologie de Silicon

En février 2017, quelques jours à peine après l’élection de Donald Trump à présidence des États-Unis, le PDG de Facebook, Mark Zuckerberg, publie sur son blog un manifeste20 remarquable à l’encontre de la politique isolationniste et réactionnaire du nouveau président. Il cite notamment tous les outils que Facebook déploie au service des utilisateurs et montre combien ils sont les vecteurs d’une grande communauté mondiale unie et solidaire. Tous les concepts de la cohésion sociale y passent, de la solidarité à la liberté de l’information, c’est-à-dire ce que le gouvernement est, aux yeux de Zuckerberg, incapable de garantir correctement à ses citoyens, et ce que les partisans de Trump en particulier menacent ouvertement.

Au moins, si les idées de Mark Zuckerberg semblent pertinentes aux yeux des détracteurs de Donald Trump, on peut néanmoins s’interroger sur l’idéologie à laquelle se rattache, de son côté, le PDG de Facebook. En réalité, pour lui, Donald Trump est la démonstration évidente que l’État ne devrait occuper ni l’espace social ni l’espace économique et que seul le marché et l’offre numérique sont en mesure d’intégrer les relations sociales.

Cette idéologie a déjà été illustrée par Fred Tuner, dans son ouvrage Aux sources de l’utopie numérique21. À propos de ce livre, j’écrivais en 201622 :

(…) Fred Turner montre comment les mouvements communautaires de contre-culture ont soit échoué par désillusion, soit se sont recentrés (surtout dans les années 1980) autour de techno-valeurs, en particulier portées par des leaders charismatiques géniaux à la manière de Steve Jobs un peu plus tard. L’idée dominante est que la revendication politique a échoué à bâtir un monde meilleur ; c’est en apportant des solutions techniques que nous serons capables de résoudre nos problèmes.

Cette analyse un peu rapide passe sous silence la principale clé de lecture de Fred Tuner : l’émergence de nouveaux modes d’organisation économique du travail, en particulier le freelance et la collaboration en réseau. Comme je l’ai montré, le mouvement de la contre-culture californienne des années 1970 a permis la création de nouvelles pratiques d’échanges numériques utilisant les réseaux existants, comme le projet Community Memory, c’est-à-dire des utopies de solidarité, d’égalité et de liberté d’information dans une Amérique en proie au doute et à l’autoritarisme, notamment au sortir de la Guerre du Vietnam. Mais ce faisant, les années 1980, elles, ont développé à partir de ces idéaux la vision d’un monde où, en réaction à un État conservateur et disciplinaire, ce dernier se trouverait dépossédé de ses prérogatives de régulation, au profit de l’autonomie des citoyens dans leurs choix économiques et leurs coopérations. C’est l’avènement des principes du libertarisme grâce aux outils numériques. Et ce que montre Fred Turner, c’est que ce mouvement contre-culturel a ainsi paradoxalement préparé le terrain aux politiques libérales de dérégulation économique des années 1980-1990. C’est la volonté de réduire au strict minimum le rôle de l’État, garant des libertés individuelles, afin de permettre aux individus d’exercer leurs droits de propriété (sur leurs biens et sur eux-mêmes) dans un ordre social qui se définit uniquement comme un marché. À ce titre, pour ce qu’il est devenu, ce libertarisme est une résurgence radicale du libéralisme à la Hayek (la société démocratique libérale est un marché concurrentiel) doublé d’une conception utilitaire des individus et de leurs actions.

Néanmoins, tels ne sont pas exactement les principes du libertarisme, mais ceux-ci ayant cours dans une économie libérale, ils ne peuvent qu’aboutir à des modèles économiques basés sur une forme de collaboration dérégulée, anti-étatique, puisque la forme du marché, ici, consiste à dresser la liberté des échanges et de la propriété contre un État dont les principes du droit sont vécus comme arbitrairement interventionnistes. Les concepts tels la solidarité, l’égalité, la justice sont remplacés par l’utilité, le choix, le droit.

Un exemple intéressant de ce renversement concernant le droit, est celui du droit de la concurrence appliqué à la question de la neutralité des plateformes, des réseaux, etc. Regardons les plateformes de service. Pourquoi assistons-nous à une forme de schizophrénie entre une Commission européenne pour qui la neutralité d’internet et des plateformes est une condition d’ouverture de l’économie numérique et la bataille contre cette même neutralité appliquée aux individus censés être libres de disposer de leurs données et les protéger, notamment grâce au chiffrement ? Certes, les mesures de lutte contre le terrorisme justifient de s’interroger sur la pertinence d’une neutralité absolue (s’interroger seulement, car le chiffrement ne devrait jamais être remis en cause), mais la question est surtout de savoir quel est le rôle de l’État dans une économie numérique ouverte reposant sur la neutralité d’Internet et des plateformes. Dès lors, nous avons d’un côté la nécessité que l’État puisse intervenir sur la circulation de l’information dans un contexte de saisie juridique et de l’autre celle d’une volontaire absence du Droit dans le marché numérique.

Pour preuve, on peut citer le président de l’Autorité de la concurrence en France, Bruno Lassere, auditionné à l’Assemblée Nationale le 7 juillet 201523. Ce dernier cite le Droit de la Concurrence et ses applications comme un instrument de lutte contre les distorsions du marché, comme les monopoles à l’image de Google/Alphabet. Mais d’un autre côté, le Droit de la Concurrence est surtout vu comme une solution d’auto-régulation dans le contexte de la neutralité des plates-formes :

(…) Les entreprises peuvent prendre des engagements par lesquels elles remédient elles-mêmes à certains dysfonctionnements. Il me semble important que certains abus soient corrigés à l’intérieur du marché et non pas forcément sur intervention législative ou régulatrice. C’est ainsi que Booking, Expedia et HRS se sont engagées à lever la plupart des clauses de parité tarifaire qui interdisent une véritable mise en compétition de ces plateformes de réservation hôtelières. Comment fonctionnent ces clauses ? Si un hôtel propose à Booking douze nuitées au prix de 100 euros la chambre, il ne peut offrir de meilleures conditions – en disponibilité ou en tarif – aux autres plateformes. Il ne peut pas non plus pratiquer un prix différent à ses clients directs. Les engagements signés pour lever ces contraintes sont gagnants-gagnants : ils respectent le modèle économique des plateformes, et donc l’incitation à investir et à innover, tout en rétablissant plus de liberté de négociation. Les hôtels pourront désormais mettre les plateformes en concurrence.

Sur ce point, il ne faut pas s’interroger sur le mécanisme de concurrence qu’il s’agit de promouvoir mais sur l’implication d’une régulation systématique de l’économie numérique par le Droit de la Concurrence. Ainsi le rapport Numérique et libertés présenté Christian Paul et Christiane Féral-Schuhl, propose un long développement sur la question des données personnelles mais cite cette partie de l’audition de Bruno Lasserre à propos du Droit de la Concurrence sans revenir sur la conception selon laquelle l’alpha et l’omega du Droit consiste à aménager un environnement concurrentiel « sain » à l’intérieur duquel les mécanismes de concurrence suffisent à eux-seuls à appliquer des principes de loyauté, d’équité ou d’égalité.

Cette absence de questionnement politique sur le rôle du Droit dans un marché où la concentration des services abouti à des monopoles finit par produire immanquablement une forme d’autonomie absolue de ces monopoles dans les mécanismes concurrentiels, entre une concurrence acceptable et une concurrence non-souhaitable. Tel est par exemple l’objet de multiples pactes passés entre les grandes multinationales du numérique, ainsi entre Microsoft et AOL, entre AOL / Yahoo et Microsoft, entre Intertrust et Microsoft, entre Apple et Google (pacte géant), entre Microsoft et Android, l’accord entre IBM et Apple en 1991 qui a lancé une autre vague d’accords du côté de Microsoft tout en définissant finalement l’informatique des années 1990, etc.

La liste de tels accords peut donner le tournis à n’importe quel juriste au vu de leurs implications en termes de Droit, surtout lorsqu’ils sont déclinés à de multiples niveaux nationaux. L’essentiel est de retenir que ce sont ces accords entre monopoles qui définissent non seulement le marché mais aussi toutes nos relations avec le numérique, à tel point que c’est sur le même modèle qu’agit le politique aujourd’hui.

Ainsi, face à la puissance des GAFAM et consorts, les gouvernements se placent en situation de demandeurs. Pour prendre un exemple récent, à propos de la lutte anti-terroriste en France, le gouvernement ne fait pas que déléguer une partie de ses prérogatives (qui pourraient consister à mettre en place lui-même un système anti-propagande efficace), mais se repose sur la bonne volonté des Géants, comme c’est le cas de l’accord avec Google, Facebook, Microsoft et Twitter, conclu par le Ministre Bernard Cazeneuve, se rendant lui-même en Californie en février 2015. On peut citer, dans un autre registre, celui de la maîtrise des coûts, l’accord-cadre CAIH-Microsoft cité plus haut, qui finalement ne fait qu’entériner la mainmise de Microsoft sur l’organisation hospitalière, et par extension à de multiples secteurs de la santé.

Certes, on peut arguer que ce type d’accord entre un gouvernement et des firmes est nécessaire dans la mesure où ce sont les opérateurs les mieux placés pour contribuer à une surveillance efficace des réseaux ou modéliser les échanges d’information. Cependant, on note aussi que de tels accords relèvent du principe de transfert du pouvoir du politique aux acteurs numériques. Tel est la thèse que synthétise Mark Zuckerberg dans son plaidoyer de février 2017. Elle est acceptée à de multiples niveaux de la décision et de l’action publique.

C’est par une analyse du rôle et de l’emploi du Droit aujourd’hui, en particulier dans ce contexte où ce sont les firmes qui définissent le droit (par exemple à travers leurs accords de loyauté) que Alain Supiot démontre comment le gouvernement par les nombres, c’est-à-dire ce mode de gouvernement par le marché (celui des instruments, de l’expertise, de la mesure et du contrôle) et non plus par le Droit, est en fait l’avènement du Big Other de Shoshanna Zuboff, c’est-à-dire un monde où ce n’est plus le Droit qui règle l’organisation sociale, mais c’est le contrat entre les individus et les différentes offres du marché. Alain Supiot l’exprime en deux phrases24 :

Référée à un nouvel objet fétiche – non plus l’horloge, mais l’ordinateur –, la gouvernance par les nombres vise à établir un ordre qui serait capable de s’autoréguler, rendant superflue toute référence à des lois qui le surplomberaient. Un ordre peuplé de particules contractantes et régi par le calcul d’utilité, tel est l’avenir radieux promis par l’ultralibéralisme, tout entier fondé sur ce que Karl Polanyi a appelé le solipsisme économique.

Le rêve de Mark Zuckerberg et, avec lui, les grands monopoles du numérique, c’est de pouvoir considérer l’État lui-même comme un opérateur économique. C’est aussi ce que les tenants new public management défendent : appliquer à la gestion de l’État les mêmes règles que l’économie privée. De cette manière, ce sont les acteurs privés qui peuvent alors prendre en charge ce qui était du domaine de l’incalculable, c’est-à-dire ce que le débat politique est normalement censé orienter mais qui finit par être approprié par des mécanismes privés : la protection de l’environnement, la gestion de l’état-civil, l’organisation de la santé, la lutte contre le terrorisme, la régulation du travail, etc.

GAFAM : We <3 your Data

Conclusion : l’État est-il soluble dans les GAFAM ?

Nous ne perdons pas seulement notre souveraineté numérique mais nous changeons de souveraineté. Pour appréhender ce changement, on ne peut pas se limiter à pointer les monopoles, les effets de la concentration des services numériques et l’exploitation des big data. Il faut aussi se questionner sur la réception de l’idéologie issue à la fois de l’ultra-libéralisme et du renversement social qu’impliquent les techniques numériques à l’épreuve du politique. Le terrain favorable à ce renversement est depuis longtemps prêt, c’est l’avènement de la gouvernance par les instruments (par les nombres, pour reprendre Alain Supiot). Dès lors que la décision publique est remplacée par la technique, cette dernière est soumise à une certaine idéologie du progrès, celle construite par les firmes et structurée par leur marché.

Qu’on ne s’y méprenne pas : la transformation progressive de la gouvernance et cette idéologie-silicone sont l’objet d’une convergence plus que d’un enchaînement logique et intentionnel. La convergence a des causes multiples, de la crise financière en passant par la formation des décideurs, les conjonctures politiques… autant de potentielles opportunités par lesquelles des besoins nouveaux structurels et sociaux sont nés sans pour autant trouver dans la décision publique de quoi les combler, si bien que l’ingéniosité des GAFAM a su configurer un marché où les solutions s’imposent d’elles-mêmes, par nécessité.

Le constat est particulièrement sombre. Reste-t-il malgré tout une possibilité à la fois politique et technologique capable de contrer ce renversement ? Elle réside évidemment dans le modèle du logiciel libre. Premièrement parce qu’il renoue technique et Droit (par le droit des licences, avant tout), établit des chaînes de confiance là où seules des procédures régulent les contrats, ne construit pas une communauté mondiale uniforme mais des groupes sociaux en interaction impliqués dans des processus de décision, induit une diversité numérique et de nouveaux équilibres juridiques. Deuxièmement parce qu’il suppose des apprentissages à la fois techniques et politiques et qu’il est possible par l’éducation populaire de diffuser les pratiques et les connaissances pour qu’elles s’imposent à leur tour non pas sur le marché mais sur l’économie, non pas sur la gouvernance mais dans le débat public.

 

 


  1. Xavier De La Porte, « Start-up ou Etat-plateforme : Macron a des idées du 17e siècle », Chroniques La Vie Numérique, France Culture, 19/06/2017.
  2. C’est ce que montre, d’un point de vue sociologique Corinne Delmas, dans Sociologie politique de l’expertise, Paris : La Découverte, 2011. Alain Supiot, dans La gouvernance par les nombres (cité plus loin), choisit quant à lui une approche avec les clés de lecture du Droit.
  3. Voir Friedrich Hayek, La route de la servitude, Paris : PUF, (réed.) 2013.
  4. Voir Karl Polanyi, La Grande Transformation, Paris : Gallimard, 2009.
  5. Christophe Masutti, « du software au soft power », dans : Tristan Nitot, Nina Cercy (dir.), Numérique : reprendre le contrôle, Lyon : Framasoft, 2016, pp. 99-107.
  6. Francis Fukuyama, La Fin de l’Histoire et le dernier homme, Paris : Flammarion, 1992.
  7. Corentin Durand, « ‘L’ADN de la France, c’est la liberté de la presse’, clame le patron de Google », Numerama, 26/02/2016.
  8. Les Échos, « Google intensifie sa lutte contre la propagande terroriste », 19/06/2017.
  9. Sandrine Cassini, « Terrorisme : accord entre la France et les géants du Net », Les Echos, 23/04/2015.
  10. Philippe Vion-Dury, La nouvelle servitude volontaire, Enquête sur le projet politique de la Silicon Valley, Editions FYP, 2016.
  11. Götz Hamman, The United States of Google, Paris : Premier Parallèle, 2015.
  12. On pourrait ici affirmer que ce qui est en jeu ici est le solutionnisme technologique, tel que le critique Evgeny Morozov. Certes, c’est aussi ce que Götz Haman démontre : à vouloir adopter des solutions web-centrées et du data mining pour mécaniser les interactions sociales, cela revient à les privatiser par les GAFAM. Mais ce que je souhaite montrer ici, c’est que la racine du capitalisme de surveillance est une idéologie dont le solutionnisme technologique n’est qu’une résurgence (un rhizome, pour filer la métaphore végétale). Le phénomène qu’il nous faut comprendre, c’est que l’avènement du capitalisme de surveillance n’est pas dû uniquement à cette tendance solutionniste, mais il est le résultat d’une convergence entre des renversements idéologiques (fin du libéralisme classique et dénaturation du néo-libéralisme), des nouvelles organisations (du travail, de la société, du droit), des innovations technologiques (le web, l’extraction et l’exploitation des données), de l’abandon du politique. On peut néanmoins lire avec ces clés le remarquable ouvrage de Evgeny Morozov, Pour tout résoudre cliquez ici : L’aberration du solutionnisme technologique, Paris : FYP éditions, 2014.
  13. Peppino Ortoleva, « Qu’est-ce qu’un gouvernement d’experts ? Le cas italien », dans : Hermès, 64/3, 2012, pp. 137-144.
  14. Vincent Dubois et Delphine Dulong, La question technocratique. De l’invention d’une figure aux transformations de l’action publique, Strasbourg : Presses Universitaires de Strasbourg, 2000.
  15. Pierre Lascoumes et Patrick Le Galès (dir.), Gouverner par les instruments, Paris : Les Presses de Sciences Po., 2004, chap. 6, pp. 237 sq.
  16. « Raphaël Mastier, Microsoft France : le secteur hospitalier doit industrialiser sa modernisation numérique », Econocom, 29/05/2015.
  17. « Services aux citoyens, simplification, innovation : les trois axes stratégiques du secteur public », CGI : Blog De la Suite dans les Idées, 02/05/2017.
  18. Ariane Beky, « Loi numérique : les amendements sur le logiciel libre divisent », Silicon.fr, 14/01/2016.
  19. Marc Rees, « La justice annule un marché public excluant le logiciel libre », Next Inpact, 10/01/2011.
  20. Mark Zuckerberg, « Building Global Community », Facebook.com, 16/02/2017.
  21. Fred Tuner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture. Stewart Brand, un homme d’influence, Caen : C&F Éditions, 2013.
  22. Christophe Masutti, « Les nouveaux Léviathans I — Histoire d’une conversion capitaliste », Framablog, 04/07/2016.
  23. Compte-rendu de l’audition deBruno Lasserre, président de l’Autorité de la concurrence, sur la régulation et la loyauté des plateformes numériques, devant la Commission de réflexion et de propositions sur le droit et les libertés à l’âge du numérique, Mardi 7 juillet 2015 (lien).
  24. Alain Supiot, La gouvernance par les nombres. Cours au Collège de France (2012-2014), Paris : Fayard, 2015, p. 206.



Firefox Night-club, entrée libre !

Aujourd’hui c’est un peu spécial copinage, mais pourquoi pas ? Ils ne sont pas si nombreux les navigateurs web à la fois open source, grand public et à la pointe des technologies, respectueux des personnes qui les utilisent et de leurs données, distribués en langue locale à peu près partout dans le monde, pour toutes les plateformes, etc.

Il est temps de considérer que c’est une ressource précieuse pour tous (et pas seulement pour la communauté du libre).

– D’accord, mais comment y contribuer lorsqu’on est seulement utilisateur ou utilisatrice?

Pascal Chevrel qui répond aujourd’hui à nos questions nous présente une version de Firefox trop peu connue mais qui mérite toute notre attention et même notre implication : Firefox Nightly

Bonjour Pascal ! Commençons par le début : peux-tu te présenter ?
Bonjour, Parisien, 45 ans, je suis impliqué dans le projet Mozilla depuis pratiquement sa création et je travaille à plein temps pour Mozilla depuis 11 ans. De formation plutôt économique et linguistique, j’ai longtemps travaillé sur l’internationalisation des sites web de Mozilla, l’animation de communautés de traducteurs et le développement d’outils de suivi et d’assurance qualité de nos traductions. Depuis un an, j’ai quitté mes précédentes fonctions pour rejoindre l’équipe Release Management qui est chargée d’organiser et de planifier les livraisons de Firefox. Dans ce nouveau contexte, au sein du département Product Integrity, je suis maintenant responsable du canal Nightly de Firefox.

L’équipe de Release Management chez Mozilla. Tiens, il n’y a pas que des mecs ;-)

 

Alors, je doute que beaucoup des personnes qui nous lisent sachent ce qu’est exactement Nightly, tu peux nous en dire plus ?
Nightly est la version alpha de Firefox, chaque jour nous compilons Firefox avec les modifications apportées par les développeurs la veille à notre code source et nous proposons cette version de Firefox au téléchargement afin de recevoir des retours sur l’état de qualité du logiciel.

Quel est l’intérêt pour moi, péquin moyen, d’utiliser Nightly ?
Pour un internaute lambda, pas forcément à l’aise avec l’informatique, il n’y a effectivement aucun intérêt à utiliser Nightly. Les utilisateurs « ordinaires » sont encouragés à utiliser le canal Release qui est la version finale grand public et pas une version alpha ou bêta de Firefox.

Pour un utilisateur averti, utiliser Nightly signifie avoir accès à une version de Firefox qui plusieurs mois de développement d’avance sur la version finale et donc de pouvoir utiliser des fonctionnalités auxquelles n’ont pas encore accès les utilisateurs de Firefox. Depuis plusieurs mois, nous faisons un gros travail de modernisation et de nettoyage du code source de Firefox afin d’améliorer ses performances, les utilisateurs de Nightly ont donc accès à un navigateur beaucoup plus performant que la version grand public.

Pour un utilisateur averti et sensible aux valeurs véhiculées par Mozilla et par le logiciel libre, c’est aussi le meilleur moyen de participer à un projet de logiciel libre lorsque l’on a pas de temps à investir dans des activités de bénévolat. Le simple fait d’utiliser Nightly est une aide plus que précieuse au développement de Firefox car Nightly envoie par défaut des données de télémétrie et les rapports de plantage à nos développeurs qui peuvent ainsi repérer immédiatement toute nouvelle régression.

Attends ! Ça veut dire que vous préparez toutes les nuits une nouvelle version de Firefox ?! Elle doit être pleine de bogues ! Ça marche vraiment ton machin ?
Toutes les nuits en effet (d’où son nom de Nightly), nous compilons Firefox avec le code de la veille, dans toutes les langues, pour tous les systèmes d’exploitations que nous supportons, en 32 comme en 64 bits. Toutes ces versions (builds) doivent passer notre batterie de tests automatisés qui valident un niveau de qualité minimal. Évidemment, c’est une version alpha, donc moins stable, elle peut planter plus facilement qu’une version destinée au grand public…

Ceci dit c’est très utilisable, j’utilise des nightlies depuis 2002 et les véritables problèmes sont rares. Lorsqu’un vrai problème passe entre nos filets, en général la télémétrie nous en informe en quelques heures et nous livrons une deuxième nightly dans la journée pour le régler ou fournir une solution d’atténuation de l’impact causé par le bug (retour arrière sur le patch fautif, désactivation temporaire d’une nouvelle fonctionnalité si le retour arrière n’est pas possible).

Et si j’installe Nightly, ça veut dire que ça me remplace mon Firefox habituel ? Et mes favoris et mots de passe enregistrés ?

Déjà, on dit marque-page, « favori » c’est de la terminologie Microsoft, je peux avoir dans mes marque-pages le site des impôts, ça ne veut pas dire que ce soit un des mes sites favoris 😉

On peut tout à fait installer Nightly à côté d’un Firefox classique, la chose importante est de ne pas leur faire partager le même profil de données. Le plus simple est d’installer Nightly dans un nouveau profil et de synchroniser les données (marque-pages, historiques, mots de passe…) entre les deux versions via Firefox Sync, notre service de synchronisation de données.

Histoire de bien comprendre : je dois télécharger Nightly tous les matins pour profiter des dernières mises à jour ?

Non, Nightly se met à jour en arrière-plan tout seul, lorsque la nouvelle version est disponible et peut être installée, une petite flèche verte apparaît sur l’icône de menu et il suffit de cliquer dans ce menu sur un bouton qui appliquera la mise à jour, ce qui se traduit concrètement par la fenêtre qui se ferme et se rouvre en quelques secondes.

Allez, fais-nous rêver : c’est quoi les nouvelles fonctionnalités attendues ?
En novembre, nous allons sortir une mise à jour majeure de Firefox, la plus grosse mise à jour du logiciel depuis 2011. Nous travaillons à une modernisation importante du moteur de rendu des pages (Gecko) en intégrant des parties mûres de notre autre moteur de rendu en R&D, Servo. Ce moteur est écrit dans un nouveau langage informatique très performant, Rust, les gains attendus en termes de performances sont importants. Ce projet de modernisation des fondations s’appelle Quantum. Il s’agit d’un projet proprement titanesque sur lequel plusieurs équipes de développeurs travaillent à plein temps depuis plusieurs mois, la version de novembre intégrera les premiers fruits de ce travail.

Nous travaillons aussi à une modernisation de l’interface actuelle de Firefox avec notre équipe d’ergonomes et de designers afin d’améliorer aussi l’interaction avec l’utilisateur, ce projet s’appelle Photon. Tu peux voir à quoi ressemblera Firefox d’ici quelques mois en parcourant ce diaporama illustré d’aperçus de la future interface.

La mascotte du projet Photon/Quantum

Tous les travaux en cours sur Quantum et Photon ne sont disponibles que sur Nightly, les amateurs de performances et de design peuvent donc avoir accès en avant première à ces avancées.

En termes de fonctionnalités spécifiques à Nightly, la gestion d’identité multiples dans une même session (qui permet d’avoir des onglets « boulot » et des onglets « perso » par exemple) semble être la nouveauté la plus appréciée de nos utilisateurs sur ce canal.

Bon si c’est pour avoir une version toute en anglais, merci bien !
Nous proposons Nightly dans toutes nos langues, il est donc disponible au téléchargement en français. Évidemment, pour les nouvelles fonctionnalités, il faut parfois attendre quelques jours pour voir celles-ci en français dans l’interface, il arrive donc parfois que certaines phrases ou items de menu soient en anglais. Mais c’est rare, les traducteurs veillent au grain.

Cliquez sur l’image pour avoir le grand poster (attention gros fichier de 4,2 Mo)

 

Excellent ! Nightly, j’en veux © Je fais comment ?
Mozilla fournit des binaires pour Windows, Mac et Linux à cette adresse : https://nightly.mozilla.org. La seule difficulté à l’installation par rapport à un Firefox pour le grand public est qu’il faut créer un profil de données séparé si l’on veut installer Nightly à côté d’un Firefox déjà installé et pas le remplacer. Nous travaillons sur notre installeur pour qu’à l’avenir, ce profil séparé soit créé automatiquement sans intervention de l’utilisateur mais ce ne sera probablement pas effectif avant 2018.

Notre wiki contient des informations détaillées (mais en anglais) sur l’installation de Nightly selon son système d’exploitation, dont un screencast pour Windows.

Mais au fait, ça fait quand même beaucoup, beaucoup d’énergie dépensée par Mozilla pour une version de Firefox plutôt méconnue. C’est quoi votre intérêt ?

Pour développer Firefox qui est un projet de grande envergure (des centaines de développeurs, une base de code très importante, près de 100 langues et 4 systèmes d’exploitation pris en charge…), il faut le compiler tous les jours et avoir une infrastructure d’intégration continue en place, il était donc logique de proposer ces versions (que nous utilisons déjà en interne) à nos utilisateurs afin de pouvoir bénéficier d’un bêta test externe qio réponde à des questions comme : est-ce que le site de ma banque en Belgique fonctionne avec ? Est-ce que la traduction est bonne ? Est-ce qu’il est stable sur ma configuration ?…

Cela représente donc un investissement mais avoir une version dédiée au bêta-test communautaire est fait partie (ou devrait faire partie) de tout projet de logiciel libre communautaire.

Au fait, beaucoup de gens l’utilisent ?
Trop peu de gens utilisent Nightly, essentiellement les employés Mozilla et notre communauté de bénévoles les plus impliqués dans le projet Mozilla, quelques dizaines de milliers de personnes dans le monde. Cela peut sembler beaucoup dans l’absolu mais c’est en réalité assez faible car le Web est immense, les configurations matérielles sur lesquelles tournent Firefox sont des plus diverses dans le monde et nous n’avons pas aujourd’hui assez de retours d’utilisation (que ce soit la télémétrie ou des rapports de bugs plus formels) afin de prendre les meilleures décisions de développement.

Nous recherchons donc des utilisateurs mais bien sûr nous sommes très clairs sur le fait que Nightly est destiné à un public plus à l’aise avec l’informatique que la moyenne et prêt à accepter des changements de comportement ou d’interface du logiciel au jour le jour avec en contrepartie l’accès en avant-première à des fonctionnalités innovantes.

Si vous voulez aider Mozilla, que vous êtes à l’aise avec l’informatique, utiliser Nightly à la place ou à côté de votre navigateur actuel (qui n’a pas à être Firefox) est probablement le moyen le plus simple de participer au projet.

Donc, même si je n’y connais rien de rien en logiciel libre, en code, et tous les autres trucs techniques, rien qu’en utilisant Nightly, je fais avancer le schmilblick ?
Si vous êtes à l’aise avec l’informatique (en gros, si vous savez installer et désinstaller un logiciel sans faire appel à la cousine en école d’ingénieur), simplement utiliser Nightly aide énormément Mozilla et les développeurs de Firefox.
Nous avons aujourd’hui une qualité de Nightly qui est suffisante pour de très nombreux utilisateurs sans connaissances techniques particulières.

Si je vois des trucs qui clochent, je le signale où et comment ? Parce que moi le bugzilla, comment dire
Pour les francophones, le plus simple est d’expliquer ce qui cloche dans nos forums de mozfr à cette adresse : https://forums.mozfr.org/viewforum.php?f=24
S’il s’avère que c’est effectivement un problème dont nous n’avons pas connaissance, nos modérateurs les plus anglophiles se chargeront d’ouvrir un ticket sur Bugzilla et d’agir comme intermédiaires avec les développeurs. Je passe sur le forum moi-même deux fois par semaine.

Et si je suis un développeur, et que les mots « code source », « mercurial », « bugzilla » ou « RTFM » me parlent, je peux aider quand même ?

Si vous êtes développeur non seulement vous pourrez rapporter des bugs directement dans Bugzilla mais on peut aussi vous aider à écrire le patch pour résoudre ce bug ! Il y a d’ailleurs une vingtaine de développeurs Firefox qui sont francophones si l’anglais vous fait un peu peur.

Les développeurs mais aussi les utilisateurs les plus techniques peuvent ouvrir des bugs et faire une recherche du patch qui a causé une régression grâce à l’outil mozregression

Tiens une question qu’on nous pose souvent, qui peut paraître hors sujet, mais en fait pas du tout : qu’est-ce que je peux dire à mon cousin qui utilise Google Chrome, afin qu’il envisage de passer à Firefox ?

Il n’y a pas de réponse unique à cette question car pour cela il faudrait savoir pourquoi il utilise Chrome. Si ton cousin est sensible au respect de sa vie privée, utiliser Firefox va probablement de soi. Si ce qui importe pour lui ce sont les performances, alors Nightly est certainement dans la course avec Chrome, voire plus performant sur certaines activités, ce n’a pas toujours été le cas donc c’est important à souligner. S’il est un utilisateur compulsif d’onglets, la gestion des onglets de Nightly est certainement plus riche et performante que celle de Chrome ; avoir une session avec plusieurs centaines d’onglets ouverts sur une machine récente ne pose aucun problème sous Nightly.

Je pense que de nombreux utilisateurs qui sont passés de Firefox à Chrome il y a quelques années seraient très surpris des avancées (performances, ergonomies, fonctionnalités) que nous avons intégrées dans Firefox. C’est encore plus vrai pour Nightly et je reçois quasiment quotidiennement du feedback d’utilisateurs Chrome passés avec bonheur à Nightly, C’est très encourageant pour notre grosse livraison 57 en novembre évidemment. Le magazine en ligne américain CNET a publié en juin un article intitulé « New speed boost means maybe it’s time to try Firefox again » plus qu’élogieux et ils n’ont testé que la version grand public 54. Nightly qui est en 56 est déjà bien plus performant.

Merci Pascal ! Un dernier mot ? Ou une question que tu aurais aimé qu’on te pose ?

Un grand merci à toi pour l’intérêt que tu portes à Firefox, Mozilla et mon travail sur Firefox Nightly ! Merci aussi pour le travail de vulgarisation que fait Framasoft en ce qui concerne le logiciel et la culture libre. Firefox est l’outil qui permet à Mozilla d’avoir un impact sur le Web. Étant donné le travail que fait Framasoft sur la décentralisation et de dégooglisation du web, les lecteurs de cet article seront peut être intéressés par cette récente annonce de Mozilla dans laquelle nous annonçons un budget de 2 millions de dollars dédié à financer les projets de décentralisation du Web.

… et le slogan du blog de Nightly pour le mot de la fin :
Améliorons ensemble la qualité, version après version (Let’s improve quality, build after build!)

 




La face cachée du web, de la vie, de l’univers, du reste

Nous sommes bombardés presque chaque semaine d’alertes à la catastrophe numérique ou de pseudo-enquêtes au cœur du Dark Web, censé receler des dangers et des malfaisants, quand il ne s’agit pas d’une conspiration pour diriger le monde.

Une fois retombé le coup de trouille, on se remet à regarder des photos de chatons sur le ouèbe. Mais un éclair de lucidité, parfois, troue le brouillard : comment je sais ce qu’il y a de vrai là-dedans ? Entre la fantasque théorie du complot et les authentiques agissements de personnages obscurs, comment trier ?
Il n’est pas facile d’accéder à une information fiable : les spécialistes sont peu nombreux, plutôt discrets (nous avons par exemple vainement essayé pendant deux ans d’obtenir une interview d’une « pointure »), voire peu enclins à communiquer au-delà des anathèmes volcaniques qu’ils déversent de loin en loin sur les mauvaises pratiques, ce qui n’aide pas trop le commun des mortels.

C’est pourquoi la parution récente du livre de Rayna Stamboliyska « La face cachée d’Internet » nous apparaît comme une excellente nouvelle : son livre est celui d’une spécialiste qui s’efforce de mettre à notre portée des éléments parfois épineux à comprendre. Quand on a comme elle fait une thèse en génétique et bio-informatique et un master spécialisé en « défense, sécurité et gestion de crise », on n’a pas forcément l’envie et le talent de s’adresser à tous comme elle fait fort bien.

Merci donc à Rayna pour cet effort d’éducation populaire et pour avoir accepté de répondre à quelques questions pour le Framablog, parce qu’elle ne mâche pas ses mots et franchement ça fait plaisir.

 

Salut Rayna, peux-tu te présenter ?

— Je trolle, donc je suis ?

Ce qui m’intéresse, c’est la gestion de l’incertitude et comment les organisations y font face. Du coup, j’ai tendance à saouler tout le monde quand je parle de sextoys connectés par exemple, parce que ça tourne notamment autour des modèles de menaces et des façons de les pwn (i.e., les compromettre techniquement).

Au cours de mes études, ma thématique a toujours été l’impact de la technique et des données (qu’elles soient ouvertes ou non) sur nous, avec un focus qui a graduellement évolué pour passer de la recherche vers les situations de conflits/post-conflits (armés, j’entends), vers l’évaluation de risques et la gouvernance de projets techniques en lien avec les données.

Avoir un nom d’espionne russe, c’est cool pour parler de surveillance de masse ?

Mmmm, je suis plus parapluie bulgare que tchaï au polonium russe, mais admettons. Quant à la surveillance de masse… faut-il une nationalité particulière pour s’en émouvoir et vouloir s’y opposer ?

Ce que mes origines apportent en réalité, c’est une compréhension intime d’enjeux plus globaux et de mécanismes de gouvernance et d’influence très différents auxquels les pays occidentaux dont la France n’ont pas été franchement confrontés. Ainsi, les oppositions que je peux formuler ne sont pas motivées par une position partisane en faveur de telle asso ou telle autre, mais par des observations de comment ça marche (#oupas) une fois implémenté.

C’est sûr, la Stasi et les régimes communistes totalitaires de l’Est n’appelaient pas ça big data ; mais l’idée était la même et l’implémentation tout aussi bancale, inutile et inefficace. La grosse différence est probablement que ces régimes disposaient de cerveaux humains pour analyser les informations recueillies, chose qui manque cruellement à l’approche actuelle uniquement centrée sur la collecte de données (oui, je sais, il y a des algorithmes, on a de la puissance de calcul, toussa. Certes, mais les algos, c’est la décision de quelqu’un d’autre).

Au risque de vous spoiler la fin de mon bouquin, il faut bien comprendre ce qui se joue et y agir avec finesse et pédagogie. La recherche du sentiment de sécurité nous est inhérente et, rappelons-le, est très souvent indépendante de la réalité. Autrement dit, on peut très bien se sentir protégé⋅e alors que les conditions matérielles ne sont pas réunies pour qu’on le soit. Mais parfois, le sentiment de sécurité, même s’il n’est pas fondé, suffit pour prévenir de vrais problèmes. Il y a donc un équilibre vraiment difficile à trouver : c’est le moment de sortir le cliché des 50 nuances de sécu et d’en rajouter une couche sur la finesse et la pédagogie des approches. Si nous sommes les sachant⋅e⋅s d’un domaine, alors comportons-nous en adultes responsables et faisons les choses correctement.

Dans le cas de la surveillance généralisée, ces efforts sont d’autant plus indispensables qu’on est face à une situation très complexe où des questions techniques, politiques et de sécurité des populations se mélangent. Il ne faut pas oublier qu’on n’est pas outillés pour comprendre comment fonctionne le renseignement uniquement parce qu’on est un⋅e adminsys qui tue des bébés phoques à coup de Konsole (oui, je suis une fière fan de KDE).

Et Malicia Rogue, elle va bien ? Pourquoi cette double identité en ligne ?

Nous allons bien, merci 🙂 La double identité date d’il y a très longtemps (2005, par là) et elle était à l’origine motivée par le fait que la science et la politique ne font pas bon ménage. En effet, dans une précédente vie, je faisais de la recherche (génétique évolutive, maladies infectieuses, bio-informatique) ; dans ce monde-là, la prise de position politique est souvent perçue comme une tare. Du coup, il était important de tenir les deux identités séparées, de la façon la plus étanche possible de préférence.

Est-ce que tu es une Anonymousse (au chocolat) ?

Oui, mais chocolat noir seulement, et merci de me passer la cuillère aussi.

Nous, on sait que tu es légitime pour parler de sécurité informatique, mais on a vu que dans un milieu souvent très masculin tu t’es heurtée à des personnes qui doutaient à priori de tes compétences. Et ne parlons pas des premiers à réagir qui n’ont rien lu mais tout compris  ! Pas de problème de ce côté avec ton éditeur ?

Alors, plusieurs choses ici. Je sais que ça va susciter l’ire de plein de gens, mais il faut dire les choses clairement : il y a un sexisme quotidien dans les milieux tech et science. Je suis sûre que ça existe ailleurs aussi, hein, mais disons que ce qui nous préoccupe ici, c’est le milieu tech.

C’est un grand mystère, d’ailleurs. Je viens de l’Est, où malgré toutes les mauvaises choses, les organes génitaux de naissance n’ont pas vraiment été un critère de compétence. On m’a éduquée à faire des choses réfléchies et à savoir argumenter et structurer mes opinions : ce sont les actions qui parlent. La pire discrimination à laquelle j’ai eue à faire face, a été de faire de la bio (une « sous-science » pour mes profs de maths à la fac et ma mère, prof de maths sup’ aussi).

Du coup, débarquer en Europe de l’Ouest et dans le pays des droits humains pour me heurter à la perception qu’avoir des ovaires fait de quelqu’un un sous-humain a été un choc. Et c’est encore pire quand on y pense : les stéréotypes sexistes, c’est bidirectionnel, ils font pareillement mal à toutes les personnes qui les subissent. J’ai décidé de continuer à faire comme d’habitude : construire des trucs. Si je commets des erreurs, je corrige, et si on m’embête inutilement, je mords poliment. 🙂

C’est harassant à la longue, hein. Je pense qu’il faut réguler ce genre de réactions, ensemble. C’est très simple : si l’on vous fait vous sentir que vous êtes malvenu⋅e, la plupart du temps la réaction est la fuite. Si on me fait me sentir malvenue, je pars, je serai bien accueillie ailleurs et les projets passionnants avec des gens adorables ne manquent pas. Alors, c’est dommage pour les projets, certes intéressants, mais portés par ceux et celles qui s’imaginent qu’être rustre à longueur de journée, c’est avoir un caractère fort et assumé.

Quant à mon éditeur… On a passé plus de 4 heures à discuter lors de notre première rencontre, il fallait cadrer le sujet et le calendrier. La question de genre ne s’est jamais posée. J’avais face à moi des gens intéressés et passionnés, j’ai fait de mon mieux pour répondre à la demande et … c’est tout. 🙂

Tu es proche des assos du libre ou farouchement indépendante ?

Les deux, mon capitaine. Même si j’apprécie mon statut d’électron libre.

Ton bouquin parle du darkweb. Mais alors ça existe vraiment ?

Beh oui. C’est l’ensemble des pages web dont la CSS contient :

body {
    background: #000 !important;
}

Ton ouvrage est particulièrement bienvenu parce qu’il vise à démystifier, justement, ce fameux darkweb qui est surtout une sorte de réservoir à fantasmes divers.

Une petite critique tout de même : la couverture fait un peu appel au sensationnalisme, non ?

C’est ton choix ou celui de l’éditeur ?

Alors… il y a eu plusieurs versions de couverture sur lesquelles j’ai eu un pouvoir limité. La v.1 était la pire : il y avait un masque Anonymous dessus et du code Visual Basic en arrière-plan. J’ai proposé de fournir des bouts de vrai code de vrais malwares en expliquant que ça nuirait sensiblement à la crédibilité du livre si le sujet était associé pour la postérité à une disquette. Par la suite, le masque Anonymous a été abandonné, j’aime à penser suite à mes suggestions de faire quelque chose de plus sobre. On est donc resté sur des bouts du botnet Mirai et du noir et rouge.

Outre le fait que ce sont mes couleurs préférées et qu’elles correspondent bien aux idées anarchistes qui se manifestent en filigrane ci et là, je l’aime bien, la couv’. Elle correspond bien à l’idée que j’ai tenté de développer brièvement dans l’intro : beaucoup de choses liées au numérique sont cachées et il est infiniment prétentieux de se croire expert ès tout, juste parce qu’on tape plus vite sur son bépo que le collègue sur son qwerty. Plus largement, il y a une vraie viralité de la peur à l’heure du numérique : c’est lorsque le moyen infecte le message que les histoires menaçantes opèrent le mieux, qu’elles aient ou non un fondement matériel. Dans notre cas, on est en plein dans la configuration où, si on pousse un peu, « Internet parle de lui-même ».

Enfin, les goûts et les couleurs… Ce qui me fait le plus halluciner, c’est de voir le conditionnement chez de nombreuses personnes qui se veulent éduquées et critiques et qui m’interpellent de façon désobligeante et misogyne sur les réseaux sociaux en m’expliquant qu’ils sont sûrs que ce que je raconte est totalement débile et naze parce que la couverture ne leur plaît pas. Je continue à maintenir que ce qui compte, c’est le contenu, et si d’aucuns s’arrêtent aux détails tels que le choix de couleurs, c’est dommage pour eux.

Élection de Trump, révélations de Snowden, DieselGate, Anonymous, wannaCry, tous ces mots à la mode, c’est pour vendre du papier ou il faut vraiment avoir peur ?

Da.

Plus sérieusement, ça ne sert à rien d’avoir peur. La peur tétanise. Or, nous, ce qu’on est et ce qu’on veut être, c’est des citoyens libres ET connectés. C’est comprendre et agir sur le monde qu’il faut, pas se recroqueviller et attendre que ça se passe. J’en profite d’ailleurs pour rappeler qu’on va nous hacher menu si on ne se bouge pas : revoyons nos priorités, les modèles de menaces législatifs (au hasard, le projet de loi anti-terrorisme), soutenons La Quadrature, des Exégètes, etc. et mobilisons-nous à leurs côtés.

Est-ce que tu regrettes qu’il n’y ait pas davantage d’implication militante-politique chez la plupart des gens qui bossent dans le numérique ?

Oui. Du coup, c’est digital partout, numérique nulle part. J’ai vraiment l’impression d’être projetée dans les années où je devais prévoir deux identités distinctes pour parler science et pour parler politique. Aujourd’hui, ce non-engagement des scientifiques leur vaut des politiques publiques de recherche totalement désastreuses, des gens qui nient le changement climatique à la tête du ministère de la recherche aux USA, etc. Le souci est là, désolée si je radote, mais : si on n’est pas acteur, on est spectateur et faut pas venir couiner après.

Quel est le lectorat que vise ton livre : le grand public, les journalistes, la communauté de la sécurité informatique… ? Est-ce que je vais tout comprendre ?

Il y a un bout pour chacun. Bon, le grand public est une illusion, au même titre que la sempiternelle Mme Michu ou que sais-je. Cette catégorie a autant d’existence que « la ménagère de moins de 50 ans » dans le ciblage publicitaire de TF1. J’ai aussi gardé mon style : je parle comme j’écris et j’écris comme je parle, je crois que ça rend la lecture moins pénible, enfin j’espère.

Les non-sachants de la technique ne sont pas des sous-humains. Si on veut travailler pour le bien de tous, il faut arrêter de vouloir que tout le monde voie et vive le monde comme on veut. Vous préférez que votre voisin utilise Ubuntu/Debian/Fedora en ayant la moitié de sa domotique braillant sur Internet et en risquant un choc anaphylactique face au premier script kiddie qui pwn son frigo connecté pour déconner, ou bien que les personnes utilisent des outils de façon plus sensible et en connaissance des risques ? Perso, à choisir, je préfère la 2e option, elle m’a l’air plus durable et contribue – je crois – à réduire la quantité globale d’âneries techniques qui nous guettent. Parce que la sécurité du réseau est celle de son maillon le plus faible. Et on est un réseau, en fait.

Je pense que chacun y trouvera des choses à se mettre sous la dent : une lecture moins anxiogène et plus détaillée de certains événements, une vision plus analytique, des contextualisations et une piqûre de rappel que les clicodromes et les certifs ne sont pas l’alpha et l’oméga de la sécurité, etc. Les retours que je commence à avoir, de la part de gens très techniques aussi, me confortent dans cette idée.

Tu rejoins la position d’Aeris qui a fait un peu de bruit en disant : « On brandit en permanence le logiciel libre à bout de bras comme étant THE solution(…). Alors que cette propriété n’apporte en réalité plus aucune protection. » ?

Je l’ai même référencé, c’est dire 🙂

Plus largement, j’ai été très vite très frustrée par le fait que les libertés fournies par le logiciel libre ignorent totalement … ben tout le reste. Il a fallu attendre des années pour que le discours autour du logiciel englobe aussi les données, les contenus éducatifs, les publications scientifiques, etc. Il n’y a pas de synthèse et les voix qui appellent à une vision plus systémique, donc à des approches moins techno-solutionnistes, sont très rares. La réflexion d’Aeris est une tentative appréciable et nécessaire de coup de pied dans la fourmilière, ne la laissons pas péricliter.

Qu’est-ce qui est le plus énervant pour toi : les journalistes qui débitent des approximations, voire des bêtises, ou bien les responsables de la sécu en entreprise qui sont parfois peu compétents ?

Les deux. Mais je pense que de nombreux journalistes prennent conscience d’ignorer des choses et viennent demander de l’aide. C’est encourageant 🙂 Quant aux RSSI… il y a de très gros problèmes dans les politiques de recrutement pour ces postes, mais gardons ce troll cette discussion pour une prochaine fois.

L’un de tes titres est un poil pessimiste : « on n’est pas sorti de l’auberge ». C’est foutu, « ils » ont gagné ?

« Ils » gagneront tant qu’on continue à s’acharner à perdre.

Je suis un utilisateur ordinaire d’Internet (chez Framasoft, on dit : un DuMo pour faire référence à la famille Dupuis-Morizeau), est-ce que j’ai un intérêt quelconque à aller sur le darkweb ? Et si j’y vais, qu’est-ce que je risque ?

Je ne sais pas. Je suis une utilisatrice ordinaire des transports en commun, est-ce que j’ai un intérêt quelconque à aller en banlieue ? L’analogie m’est soufflée par cet excellent article.

Mais bon, j’ai assez spoilé, alors je ne dirai qu’une chose : GOTO chapitre 3 de mon livre, il ne parle que de ça. 😉

On a noté un clin d’œil à Framasoft dans ton livre, merci. Tu nous kiffes ?

Grave. 🙂

Mais alors pourquoi tu n’as pas publié ton bouquin chez Framabook ?

Parce que ce n’est pas à « nous » que je m’adresse . La famille Michu, la famille DuMo, bref, « les gens » quoi, ont des canaux d’information parallèles, voire orthogonaux à ceux que nous avons. Je ne veux pas prêcher des convaincus, même si je sais très bien que les sachants de la technique apprendront beaucoup de choses en me lisant. Ce n’est pas de la vantardise, ce sont des retours de personnes qui m’ont lue avant la publication, qui ont fait la relecture ou qui ont déjà fini le bouquin. Pour parler à autrui, il faut le rencontrer. Donc, sortir de chez nous !

D’ailleurs, j’en profite pour râler sur ces appellations ignares auxquelles je cède parfois aussi : Mme/la famille Michu, la famille DuMo ou, pire, le déshumanisant et préféré de nombreux libristes qu’est « les gens ». Ce sont d’autres humains et on ne peut pas se plaindre qu’ils ne veulent pas s’intéresser à nos sujets super-méga-trop-bien en les traitant d’imbéciles. On est toujours les gens de quelqu’un (dixit Goofy que je cite en l’état parce qu’il a raison).

Tu déclares dans un Pouet(*) récent : « …à chaque fois que le sujet revient sur le tapis, je me pose la même question : devrait-on continuer à décentraliser (== multiplier de très nombreuses structures petites, agiles *et* potentiellement fragiles) ou clusteriser davantage pour faire contrepoids ? Je n’ai pas de réponse pour l’instant… » Est-ce que tu es sceptique sur une initiative comme celle des CHATONS, qui vise justement à décentraliser ?

Ce n’est pas une question de scepticisme à l’égard de [insérer nom de techno/asso/initiative chérie ici].

Prenons un exemple annexe : l’anarchisme comme mode d’organisation politique. Fondamentalement, c’est le système le plus sain, le plus participatif, le moins infantilisant et le plus porteur de libertés qui soit (attention, je parle en ayant en tête les écrits des théoriciens de l’anarchisme, pas les interprétations de pacotille de pseudo-philosophes de comptoir qu’on nous sert à longueur de journée et qui font qu’on a envie de se pendre tellement ça pue l’ignorance crasse).

Il y a cependant différents problèmes qui ont cristallisé depuis que ce type d’organisation a été théorisé. Et celui qui m’apparaît comme le plus significatif et le moins abordé est la démographie. Faire une organisation collégiale, avec des délégués tournants, ça va quand on est 100, 10 000 ou même 1 million. Quand on est 7 milliards, ça commence à être très délicat. Les inégalités n’ont pas disparu, bien au contraire, et continuent à se transmettre aux générations. Les faibles et vulnérables le demeurent, au mieux.

Résultat des courses : il y a une vision élitiste – et que je trouve extrêmement méprisante – qui consiste à dire qu’il faut d’abord éduquer « les gens » avant de les laisser s’impliquer. Le problème avec la morale, c’est que c’est toujours celle des autres. Alors, le coup de « je décide ce qui constitue une personne civiquement acceptable d’après mon propre système de valeurs qui est le plus mieux bien de l’univers du monde » est constitutif du problème, pas une solution. Passer outre ou, pire, occulter les questions de gouvernance collective est dangereux : c’est, sous prétexte que machin n’est pas assez bien pour nous, créer d’autres fossés.

Pour revenir à la question de départ donc, je suis une grande fan de la décentralisation en ce qu’elle permet des fonctionnements plus sains et responsabilisants. Ce qui me manque est une organisation rigoureuse, une stratégie. Ou probablement il y en a une, mais elle n’est pas clairement définie. Ou probablement, notre détestation du « management » et de la « communication » font qu’on s’imagine faire du bazaar durable ? Le souci est que, de ce que j’ai vu par ex. au CCC, pour que le bazaar marche, y a une p*tain de cathédrale derrière (rappel : « L’anarchie est la plus haute expression de l’ordre. »). La rigueur d’une organisation n’est pas un gros mot. Est-on prêt-es à s’y astreindre ? Je ne sais pas.

Après, j’ai une propension non-négligeable à me faire des nœuds au cerveau et à aimer ça. Ptet que je m’en fais inutilement ici… mais sans débat régulier et des échanges plus ouverts, comment savoir ?

Le dernier mot est pour toi, comme d’hab sur le Framablog…

Le tact dans l’audace, c’est savoir jusqu’où on peut aller trop loin. Beaucoup sont passionné⋅e⋅s par les questions et les enjeux du numérique, tellement passionné⋅e⋅s que leurs comportements peuvent devenir pénibles. Je pense aux micro-agressions quotidiennes, aux vacheries envoyées à la tronche de certain⋅e⋅s et au sexisme ordinaire. Beaucoup sont épuisés de ces attitudes-là. Il ne s’agit pas de se vivre en Bisounours, mais de faire preuve de tact et de respect. Celles et ceux qui s’échinent à porter une bonne et raisonnable parole publiquement ont déjà assez à faire avec toutes les incivilités et l’hostilité ambiantes, ils n’ont pas besoin de votre mauvaise humeur et manque de tact.

Pensez-y au prochain pouet/tweet/mail/commentaire IRC.

 

Pour en savoir plus : http://www.face-cachee-internet.fr/
Pour rencontrer Rayna à la librairie de Bookynette

(*)Pour retrouver les Pouets de Malicia Rogue sur le réseau social libre et fédéré Mastodon

 

 

 

 




Addictions en série

Gouvernements européens, il est temps de chasser le colon Microsoft

Une enquête réalisée par un consortium de neuf journalistes européens met à jour les risques qui dérivent de la dépendance des gouvernements à Microsoft — aucun n’est indemne…

Même si çà et là des efforts sont notés pour migrer vers des solutions open source voire libres, l’adversaire est impitoyable et utilise un arsenal bien rodé.

Combien faudra-t-il encore de telles enquêtes pour provoquer une prise de conscience et pour que les décisions nécessaires soient prises et mises en œuvre ?

 

Traducteurs : PasDePanique, Paul, dominix, Asta, Luc, MO, lyn., Jérochat, simon, LP, Opsylac, Paul, Hello, Mika + 5 anonymes

L’addiction de l’Europe à Microsoft, un énorme risque pour la sécurité

Nous vous proposons ici une traduction de l’article paru dans Der Tagesspiegel, qui correspond à une partie de l’enquête menée par neuf journalistes européens dans leurs pays respectifs sur les relations entre Microsoft et les institutions publiques, chacun traitant de la situation particulière dans son pays (voir les différents articles déjà publiés ici). L’hebdomadaire Marianne a publié l’article de de Leila Minano dans son édition du 19 mai sur la situation française, intitulé Microsoft : menace sur la sécurité de l’État.

Le 13 mai 2017

par Crina Boros, Wojciech Ciesla, Elisa Simantke, Ingeborg Eliassen, Leila Minano, Nikolas Leontopoulos, Maria Maggiore, Paulo Pena et Harald Schumann

Le Parlement européen de Strasbourg – Photo par Frédéric Chateaux (CC BY-SA 2.0)

 

Le 12 mai 2017, des hackeurs ont frappé plus d’une centaine de pays à l’aide d’un outil volé à la NSA, en ciblant des vulnérabilités des logiciels Microsoft. Les attaques ont infecté uniquement des appareils fonctionnant avec le système d’exploitation Windows. Parmi les victimes, on compte plusieurs organismes publics, par exemple les hôpitaux du NHS (National Health Service, Service national de santé) au Royaume-Uni. Investigate Europe a passé des mois à enquêter sur l’extrême dépendance des pays européens envers Microsoft et les risques que cela implique pour la sécurité. Lisez notre enquête complète.

Nota bene : cet article est une traduction de la version anglaise d’un billet d’Investigate Europe publiée le 13 mai 2017. Pour savoir dans quelles publications de presse, pays et langues le billet est disponible, veuillez consulter cette page.

En général, lorsque le conseil municipal de Munich se réunit, ça n’intéresse pas grand-monde en dehors du périmètre de la ville. Mais en ce jour de février, tout est différent. Dans le grand hall du magnifique hôtel de ville néogothique, tous les sièges réservés à la presse et aux spectateurs sont occupés. Ceux qui n’ont pas trouvé de place se tiennent debout dans les allées. Des membres du conseil rapportent qu’ils ont reçu des courriels et des demandes de médias en provenance de toute l’Allemagne et de toute l’Europe.

Et pourtant l’événement semble purement technique. Pendant dix ans, des experts ont travaillé à migrer le système informatique de la ville vers des logiciels libres et ouverts. Les coûteux logiciels de l’entreprise américaine Microsoft ne sont désormais plus utilisés qu’exceptionnellement. Cela n’a pas seulement permis à la ville d’économiser plusieurs millions d’euros de frais de licences, mais a aussi rendu le système plus sûr – « un franc succès », ainsi que l’annonçaient en 2014 les responsables politiques de la ville. Mais, aujourd’hui, le maire, Dieter Reiter, et sa grande coalition rassemblant le Parti Social-Démocrate (SPD), de centre-gauche, et l’Union Chrétienne Sociale (CSU), de centre-droit, souhaitent ramener chez Microsoft les 24 000 ordinateurs de la ville.

Les débats sont animés. M Reiter et ses sympathisants ne réussissent pas à donner d’arguments convaincants – ni à dire combien pourrait coûter la transition. La décision est donc reportée. Le chef du groupe parlementaire des Verts, Florian Roth, est agacé : « Cela ne semble être rien de plus qu’un jeu de pouvoir politique, dit-il, mais un jeu à haut risque ». Il ajoute en guise d’avertissement : « Voulons-nous vraiment rendre notre administration éternellement dépendante du monopole de l’américain Microsoft ? »

Dans toute l’Europe, les systèmes informatiques des administrations publiques reposent sur les programmes de Microsoft

Le problème n’est absolument pas exagéré et ne se limite pas à Munich. Dans l’Europe entière, de la Finlande au Portugal, de l’Irlande à la Grèce, les technologies informatiques dans les administrations publiques reposent sur les programmes de l’éditeur de logiciels états-unien. Et puisque les systèmes numériques continuent à grandir et à prendre de plus en plus d’importance, les États deviennent de plus en plus dépendants de cette unique entreprise. La Commission européenne a même admis qu’elle était « concrètement captive de Microsoft ».

Quelles sont les conséquences de ce lock-in, comme on l’appelle dans le jargon technique, qui nous attache à un seul fournisseur ? Et comment les gouvernements peuvent-ils gérer cela ? L’équipe de journalistes d’Investigate Europe s’est lancée pendant trois mois dans une mission d’exploration pour établir des faits et interviewer des économistes, des responsables informatiques, des experts en sécurité et des politiciens dans douze pays européens, ainsi qu’à la Commission et au Parlement européens. Les résultats sont inquiétants.

La dépendance des États envers Microsoft :

  • engendre des coûts en hausse constante et bloque le progrès technique au sein des autorités publiques ;
  • contourne systématiquement les lois européennes en matière de passation des marchés et de règles de concurrence ;
  • introduit une influence politique étouffante de la part de cette entreprise ;
  • crée pour les systèmes informatiques étatiques, ainsi que pour les données de leurs citoyens, un grand risque technique et de sécurité politique.

Microsoft n’a souhaité répondre à aucune des questions d’Investigate Europe sur ces sujets. Et les personnels qui travaillent au sein des services informatiques des administrations savent pourquoi.

« De nombreuses administrations publiques sont tellement dépendantes de cet unique fournisseur qu’elles n’ont plus aucune liberté quand il s’agit de choisir un logiciel. Cela signifie que les États européens risquent de perdre le contrôle sur leurs propres infrastructures informatiques », avertit l’ingénieur informaticien et avocat Martin Schallbruch. Jusqu’à 2016, il était directeur du département des nouvelles technologies et de la cybersécurité au ministère de l’Intérieur fédéral allemand. Schallbruch n’est que trop familier de cette situation précaire. Si on voulait écarter ce danger et « basculer vers une architecture numérique indépendante, cela demanderait d’énormes investissements », déclare ce responsable informatique expérimenté, qui mène désormais des recherches au sein de l’école de commerce de Berlin ESMT.

Le problème n’est pas seulement grave, il est aussi complexe. Au cœur des enjeux se trouve le modèle économique de Microsoft. Le géant des logiciels, basé à Redmond dans l’État de Washington aux États-Unis, vend ses logiciels, en particulier le système d’exploitation Windows et les programmes de bureautique tels que Word, Excel, Powerpoint et Outlook, en tant que produits sous licence. Dans le métier, on qualifie ce type de logiciel de « propriétaire », ce qui signifie qu’il interdit à tout concurrent d’utiliser ses propres logiciels pour interpréter correctement les données encodées par les programmes de Microsoft. Concrètement, ce seront, par exemple, des titres, des tableaux ou des dates dont les données de mise en forme ou en page seront modifiées ou perdues.

C’est là la clé du monopole global de Microsoft – un business de rêve aussi ! Année après année, ce sont ainsi quelques 50 milliards de dollars que la multinationale empoche sous la forme de redevances de licences qui ne couvrent rien d’autre que la distribution de copies de ses programmes. Et parce que vos collègues, vos relations commerciales ou personnelles utilisent des fichiers Microsoft, cela paraît logique de faire de même, même si cela engage des frais, encore et toujours. La plupart des utilisateurs d’ordinateurs Apple, eux aussi, continuent d’acheter la suite Microsoft Office.

Les autorités administratives à la merci de Microsoft

Les administrateurs des services informatiques de l’État sont parfaitement avertis de cet état de fait. Cette monoculture présente de sérieux désavantages. Dans d’autres secteurs, le développement logiciel adhère depuis longtemps à un principe complètement différent. Google ou Siemens, par exemple, travaillent en priorité avec des programmes dits open source, en d’autres termes des programmes dont le code est partagé librement. Dans ce cadre, n’importe quel programmeur ou entreprise peut utiliser le code, à la condition que le dernier arrivé mette chaque amélioration qu’il apporte au code à la disposition de tous. Cela signifie que les entreprises ne peuvent pas gagner d’argent en vendant ce genre de logiciel. Mais, dans le même temps, elles bénéficient du travail des programmeurs du monde entier sans avoir à les rémunérer.

Quels que soient les produits, de la centrale électrique à l’appareil de radiographie, Siemens a besoin d’un ensemble étendu de logiciels. « Or, 90 % d’entre eux réalisent des tâches de pure routine », explique Karsten Gerloff, informaticien du service concerné au sein de l’entreprise. « Pour cela, nous utilisons bien sûr des solutions open source ». L’entreprise utilise du « code propriétaire » uniquement pour des fonctionnalités précises, propres aux machines de Siemens. Si tous les logiciels devaient être mis au point par des équipes de l’entreprise, « ce sont 1 000 programmeurs de plus que nous devrions employer et nous ne serions plus compétitifs », indique M. Gerloff.

Le recours à la créativité d’une masse de cerveaux de par le monde engendre une dynamique bien plus forte que celui qui serait restreint aux seuls cerveaux d’une entreprise. C’est pourquoi « l’open source est maintenant la norme dans le domaine scientifique et économique » pour Matthias Kirschner, président de la Free Software Foundation Europe (FSFE), qui plaide pour une plus grande autonomie dans l’usage des technologies de l’information. Cela s’applique autant aux smartphones qu’aux superordinateurs, systèmes de commande des machines ou serveurs web. L’ancien modèle du monopole ne concerne plus que les logiciels d’ordinateurs de bureau et les suites bureautiques.

Il n’en reste pas moins que les administrations publiques s’appuient toujours sur ce vieux monopole, et pas uniquement pour la bureautique. Il existe des milliers d’applications dont seules les autorités ont l’usage. Qu’il s’agisse d’augmenter les impôts, de payer les retraites ou de calculer le coût de la collecte des déchets, que ce soit dans la police, à la sécurité sociale ou dans les services de l’urbanisme, pour quasiment chaque service que rend l’État, il existe un logiciel opérationnel spécifiquement conçu pour cette tâche. Or, parce que le système d’exploitation Windows est utilisé partout, la plupart de ces « applications spécifiques » reposent sur ce système, mettant les autorités à la merci de son éditeur.

On a vu jusqu’où cela pouvait aller quand, à la fin de l’année 2014, Microsoft a cessé de fournir des mises à jour de sécurité pour Windows XP. Du jour au lendemain, des services publics partout en Europe se sont vus contraints de souscrire des contrats de service onéreux avec Microsoft afin de s’assurer que l’entreprise continuerait de colmater les failles de sécurité de son vieux système d’exploitation. Le gouvernement britannique a ainsi déboursé 6,5 millions de livres afin de disposer d’une année supplémentaire pour migrer ses ordinateurs vers Windows 7. Les Pays-Bas, ainsi que les länder allemands de Basse-Saxe et de Berlin, ont, eux aussi, payé plusieurs millions d’euros pour disposer d’un délai. « Il s’est passé la même chose dans toute l’Europe », confirme un expert de la Commission européenne. Et cela risque de se reproduire, vu que dans trois ans, c’en sera terminé des mises à jour de Windows 7.

La Commission européenne n’écoute pas ses propres experts

Dans le même temps, les États prennent du retard à cause du verrouillage de Microsoft. « Il n’existe pas de preuves formelles de ceci actuellement, mais il est logique de supposer que la dépendance envers un fournisseur unique ralentit le progrès technique dans le secteur public », prévient Dietmar Harhoff, directeur de l’institut Max-Planck pour l’innovation et la concurrence à Munich. Par exemple, si les municipalités pouvaient développer leurs centaines d’applications dédiées sur la base de programmes open source, chaque innovation pourrait être immédiatement utilisée par les services d’autres villes sans coût supplémentaire. « Ce potentiel est énorme pour le secteur public », selon D. Harhoff.

Dès 2012, la Commission européenne avait, par conséquent, lancé un programme au nom évocateur : « Contre le verrouillage ». L’idée était que les futurs appels d’offres publics portant sur l’achat de technologies informatiques et de logiciels ne comporteraient plus la mention explicite de noms d’entreprises et de technologies « propriétaires » de ces dernières. À la place, les administrations publiques devaient s’astreindre à demander le recours à des « normes ouvertes » accessibles à l’ensemble des fabricants et éditeurs logiciels. Ce faisant, le monopole de Microsoft disparaîtrait au fil du temps dans la mesure où les problèmes de compatibilité ne se poseraient plus : les fichiers pourraient être lus par des logiciels concurrents, et cela sans perte de données. Si tous les services administratifs publics utilisaient les mêmes formats ouverts, on économiserait le prix des licences. « Les normes ouvertes créent de la concurrence, mènent à l’innovation et font économiser de l’argent », expliquait la commissaire à la Concurrence d’alors, Nellie Kroes. Selon ses experts, « le manque de concurrence » dans le secteur informatique et télécoms « coûte à lui seul 1,1 milliards d’euros par an au secteur public ».

Mais l’inertie des bureaucrates de l’État a eu raison des bonnes intentions, et l’initiative n’a abouti à rien. Pourtant, la législation européenne définit désormais des règles précises. Les administrations publiques nationales sont tenues de passer par des appels d’offres européens pour toute commande dont le montant excède 135 000 euros. Pour les autres organismes publics, cette règle s’applique pour des montants supérieurs à 209 000 euros. Quand ils achètent des logiciels standards pour leurs administrations, les gouvernements des États membres, comme un seul homme, passent outre la loi en vigueur et privilégient le fournisseur habituel Microsoft.

La mise en concurrence remplacée par de curieuses procédures

Une curieuse façon de procéder. Sans passer d’appel d’offres publics, les administrations négocient des réductions avec l’entreprise états-unienne et concluent des contrats-cadres sur cette base. Tous les groupements publics peuvent ensuite en profiter. Dans les offres ultérieures, ils cherchent uniquement des revendeurs qui leur vendront des licences Microsoft selon ces conditions. Il n’y a de facto aucune concurrence pour ces contrats publics.

En Allemagne aussi. En 2015, le ministère de l’Intérieur a convenu de nouvelles « conditions contractuelles » avec la filiale irlandaise de Microsoft, d’où la firme conduit ses affaires européennes pour optimiser ses impôts. Les rabais identifiés dans le nouvel accord peuvent être utilisés par tous les pouvoirs publics, du ministère fédéral jusqu’à la petite municipalité. La ville de Dortmund a ainsi passé un appel d’offres, par exemple pour trouver un « distributeur pour le contrat BMI de licences Microsoft en volume ».

« C’est comme si l’État publiait une offre pour acheter des voitures, mais uniquement de revendeurs Volkswagen », se moque l’avocat néerlandais Matthieu Paapst, dont le doctorat à l’Université de Groningen a porté sur l’achat de logiciels dans le secteur public. Sa conclusion : « Se fournir en produits Microsoft, pour une administration publique, sans passer d’appel d’offres ouverts, viole la législation européenne en vigueur ». En vérité, selon l’avocat, la Commission européenne devrait engager des poursuites contre ce phénomène. L’unique raison pour laquelle elle s’en garde bien, c’est qu’elle n’applique pas elle-même les recommandations.

En effet, la Commission européenne a un contrat exclusif avec Microsoft, valable pour toutes les institutions de l’UE – elle ignore de ce fait les recommandations de ses propres experts. C’est aussi « parfaitement légal » se défend Gertrud Ingestad, qui est responsable de la Direction générale pour l’Informatique (DG Digit), dans une interview à Investigate Europe. Il n’y aurait « pas d’autres possibilités » de garantir la continuité du travail de l’Union européenne. Et, dans ce cas, la législation permet explicitement le recours à une « procédure de négociation » non publique. Mais ce n’est pas exact : cette exception est explicitement valable « seulement quand il n’existe pas d’alternative raisonnable ou de solution de remplacement », selon l’article 32 du livret de recommandations de l’UE. Et c’est justement ce que la Directrice générale G. Ingestad et ses collègues ne peuvent pas prouver. Il existe des alternatives viables.

Le général italien Camillo Sileo, par exemple, a beaucoup à dire sur ce sujet. Ce militaire, qui travaille au ministère de la Défense, à Rome, reçoit dans une petite bibliothèque. Là, un sourire aux lèvres, d’une voix douce, il parle de son projet comme d’une affaire mineure. Pourtant, il est à la tête d’une opération peu commune, voire révolutionnaire, l’opération «Libre Défense ». Son objectif est de migrer les quelques 100 000 ordinateurs de l’armée italienne vers des logiciels open source. « Nous avons constaté que les deux types de logiciels sont capables de satisfaire de la même façon nos besoins », explique le général. « Voyez par vous-même », dit-il en montrant à l’écran la première page d’une étude récente du ministère. « Ici, vous avez un fichier Microsoft Word », dit-il avant de cliquer, « Et, ici, la version open source LibreOffice. Le logo, le titre, la structure, tout est là. Aucune différence, » dit-il, radieux. «La migration permettra une économie de 28 millions d’euros d’ici 2020 », a prévu le général. Par temps de crise en Italie, l’armée, elle aussi, doit faire des économies.

Le fait est que si la migration s’est déroulée sans accroc jusqu’ici, c’est grâce à une solide planification, selon le général. Le logiciel libre de remplacement peut satisfaire tous les besoins, mais il se manipule différemment et les utilisateurs doivent donc être formés. Pour cela, des volontaires de l’association « LibreItalia » ont formé des personnels de tous les services de l’armée devenus à leur tour formateurs et conseillers pour former leurs collègues. Ainsi, il y aura bientôt assez d’experts dans tous les services de l’armée. « Bien communiquer est un préalable à la réussite du projet », précise le général Sileo. « Si les gens comprennent l’objectif du changement, ils sont capables de surmonter toutes leurs résistances mentales ». Il n’a pas encore été décidé si l’armée migrera aussi son système d’exploitation un jour,  pour être totalement indépendante de Microsoft, mais la question sera examinée de très près », accorde le général Sileo.

La gendarmerie nationale française, l’une des deux forces de police nationales, a déjà mené à bien une opération de migration démarrée dès 2005. Aujourd’hui, 72 000 ordinateurs de la gendarmerie nationale sont équipés d’une version particularisée du système d’exploitation Linux, avec LibreOffice comme application principale. La gendarmerie affirme que l’économie réalisée depuis le début du projet s’élevait en 2014 à quelques 20 millions d’euros. Précisons que jusqu’à cette année-là, la migration s’était déroulée pratiquement dans le secret. « La migration vers Linux pourrait  être vue par Microsoft comme une menace de son monopole », peut-on lire dans une note interne obtenue par Investigate Europe. Cela aurait pu « déclencher des actions visant à discréditer cette politique de la gendarmerie ». C’est pour cette raison que la migration s’est effectuée « sans publicité » jusqu’au moment où le processus est devenu irréversible.

Les institutions mettent la pression sur ceux qui se désengagent

Ces précautions étaient fondées. Encore aujourd’hui, 12 ans après le lancement du projet, la direction de la gendarmerie est sous « pression permanente » pour faire marche arrière, rapporte un membre de l’équipe du département Informatique et Télécom du ministère de l’Intérieur à Paris, qui ne souhaite pas être nommé de peur de représailles. « Chaque jour de fonctionnement du système est une gifle pour notre administration qui maintient que seul Microsoft fonctionne correctement » dit-il.

Le bras de fer entre le ministère de tutelle et les partisans de Linux au sein de la gendarmerie est confirmé par une lettre du ministre, d’avril 2016, qu’Investigate Europe a eue entre les mains. Dans cette lettre, le ministre demande aux fonctionnaires responsables de la gendarmerie un retour définitif et intégral à Windows – prescription dont la direction de la police n’a pas tenu compte jusqu’à présent. Interrogé sur la question, un porte-parole faisait savoir « avec regret » qu’il était dans « l’incapacité de fournir une explication ». En parallèle, cependant, il écrivait de façon clairement subversive que la migration vers le logiciel libre « se passait en douceur et pour longtemps ». « Nous avons choisi Linux parce que le rapport coût/bénéfice est meilleur et, au final, nous gagnons en indépendance».

Ce conflit est caractéristique de ce que vivent partout les pionniers d’une émancipation vis-à-vis du monopole. Partout en Europe, il y a eu et il y a des centaines d’administrations et de municipalités qui ont migré ou tentent de migrer vers des logiciels open source : que ce soit l’administration des retraites de l’État en Suède, les écoles de Jaworzno en Pologne, les services municipaux de la ville de Rome, l’arrondissement de Camden à Londres, la grande ville de Nantes en France, le gouvernement de la communauté autonome d’Estrémadure en Espagne ou encore la ville de Vieira do Minho au Portugal. Ces projets sont à ce jour autant d’îlots perdus dans l’océan Microsoft. Pour cette raison, nombreux sont ceux qui subissent régulièrement des pressions pour rentrer dans le rang, parce que les produits et les lobbyistes de Microsoft sont omniprésents et peuvent créer de nouveaux ennuis.

Des lobbyistes à l’œuvre au sein des ministères

Dans le différend concernant l’administration municipale de Munich, ce qui se passe en coulisses est aussi un élément à prendre en considération. Dans cette ville, le maire centre-gauche SPD a besoin des voix du centre-droit CSU. Or, ce dernier est étroitement lié à l’entreprise étasunienne. Dorothee Belz, par exemple, vice-présidente chez Microsoft Europe jusqu’en 2015, fait partie du comité exécutif du conseil économique du parti conservateur.

Des épisodes identiques « d’allers-retours » se constatent partout en Europe. En Italie, un ancien directeur chez Microsoft pilote aujourd’hui la « transformation numérique » des affaires de la ville de Milan. Au Portugal, c’est un cadre de Microsoft qui a organisé la campagne pour l’élection du président conservateur. Plus de six cadres et directeurs ont des liens étroits avec des ministres et des politiciens. Dans le même temps, des techniciens de Microsoft travaillent directement dans les services informatiques des administrations. Au moins cinq d’entre eux possèdent une adresse électronique qui les identifie comme s’ils faisaient partie du personnel administratif, ce qui leur permet de « faire leur travail de lobbying pour Microsoft à l’intérieur de l’administration », affirme un fonctionnaire à Investigate Europe. En Allemagne aussi, l’accès aux ordinateurs du gouvernement est largement ouvert. Il existe plusieurs milliers d’experts dans les centres informatiques du gouvernement, y compris des personnels de Microsoft et ses partenaires, indique l’ex-responsable informatique du gouvernement fédéral, Martin Schallbruch.

Microsoft peut également instrumentaliser sans restriction les écoles et les universités à des fins marketing. Les écoliers et les enseignants reçoivent en général les produits Microsoft gratuitement, de sorte que les enfants grandissent sans rien connaître d’autre. La stratégie veut qu’après leurs études ils payeront des frais de licence pendant le reste de leur existence. « Une telle méthode est un classique du modèle « crack », utilisé dans le trafic de drogue », explique Rufus Pollock du Centre pour la propriété Intellectuelle et les lois de l’information (CIPIL) à l’Université de Cambridge. Les produits sont gratuits jusqu’à ce que les utilisateurs soient rendus accros.
Cela démontre que les gouvernements européens approuvent tacitement leur propre dépendance envers Microsoft. Ainsi que le formule Anna Strezynska, ministre polonaise du numérique : « Oui, nous sommes dépendants, mais je pense que c’est raisonnable ».
Cela signifie aussi que ces décideurs exposent leurs pays et leurs citoyens à d’innombrables risques de sécurité, tant techniques que politiques.

Ce n’est pas un hasard si les attaques informatiques majeures qui, ces dernières années, ont pris pour cible des institutions de l’État comme le Bundestag allemand ou encore la Commission et le Parlement européens, ont systématiquement exploité des failles de sécurité des logiciels Microsoft. La suite bureautique de Microsoft, notamment, et les fichiers qu’elle permet de créer, sont une des portes d’entrée privilégiée par les hackeurs, selon le rapport 2011 du Bureau fédéral allemand pour la Sécurité des technologies de l’information (BSI). D’après ce rapport, la moitié des attaques ciblées avait pour origine des documents infectés de type Microsoft, tels les fichiers « .docx », dans lesquels les hackeurs avaient dissimulé leur logiciel malveillant. « La particulière complexité de ces fichiers facilite la tâche des hackeurs », affirment les experts du BSI. Ces fichiers contiennent bien plus de code que nécessaire, ne serait-ce que pour empêcher d’autres logiciels de les lire facilement. « Ce constat est toujours d’actualité, confirme Joachim Wagner, porte-parole du BSI. Le format des fichiers Microsoft est bien plus complexe que celui des logiciels open source, ce qui augmente d’autant la « surface d’attaque» de la cible pour les hackeurs ».

Italo Vignoli, un des experts qui travaillent sur le logiciel libre LibreOffice, l’a testé pour Investigate Europe avec un simple texte de 5 500 caractères. Sous la version courante de Microsoft Word, le code du fichier couvre 390 pages. Par comparaison, le format libre OpenDocumentText ne fait que onze pages.

Les programmes de Microsoft sont confus et vulnérables

La particulière vulnérabilité des logiciels de bureautique de Microsoft se voit au nombre de failles de sécurité. « Aux États-Unis, le National Institute for Standards and Technology (NIST, Institut national des normes et de la technologie) a repéré 188 nouvelles failles dans la suite Microsoft Office au cours des trois années précédant le mois d’avril 2017. Les trois quarts de ces failles font partie de la catégorie des failles les plus graves. Sur la même période, on n’a découvert que onze failles dans LibreOffice. D’après M. Vignoli, cela n’a rien à voir avec le fait que LibreOffice est moins répandu. Simplement, malgré tous leurs efforts, même les meilleurs experts n’ont pu dénicher d’autres failles dans LibreOffice.

Cela n’a rien de surprenant. N’importe quel utilisateur chevronné peut contrôler le code source de LibreOffice. Pour l’un des meilleurs experts européens, Michael Waidner, directeur de l’institut Fraunhofer pour la sécurité des technologies de l’information, c’est la clef de voûte : « Si l’Union européenne ou un État entend vraiment préserver sa souveraineté, il doit être en mesure de vérifier que ses matériels informatiques et ses logiciels font bien ce qu’ils sont censés faire et rien d’autre, explique-t-il. Cela ne revient pas à dire que l’Europe doit devenir autonome. « Mais nous devons faire en sorte que nos experts aient accès à toute l’information requise pour tester les logiciels là où la sécurité est en jeu. Il est essentiel d’avoir accès au code source », exige l’expert. Sans cela, affirme-t-il, il ne peut y avoir de « souveraineté numérique ».

Or, c’est précisément ce que Microsoft refuse de fournir. L’entreprise a créé un « centre de la transparence», à Bruxelles, où les représentants gouvernementaux sont invités à inspecter le code source. Mais le BSI allemand juge la proposition insuffisante. « Microsoft doit satisfaire à un éventail complet de prérequis techniques pour créer un climat de confiance », a expliqué le BSI au magazine spécialisé C’t. Or Microsoft n’autorise même pas les experts à conserver leurs notes écrites et exige la signature d’un accord de non-divulgation, a confirmé un expert de la BSI à Investigate Europe.
Même si une inspection du code était possible, les conclusions en seraient probablement obsolètes dès la mise à jour suivante. En outre, le risque que représentent les produits Microsoft n’est pas seulement technique, il est aussi politique.

Déclasser l’Europe au rang de colonie numérique

L’entreprise est soumise aux lois des États-Unis. Cela signifie qu’à tout moment l’administration de ce pays peut la forcer à collaborer afin d’accéder aux données des citoyens et des pouvoirs publics d’autres pays. Pour satisfaire cet objectif, il existe ce qu’on appelle « la lettre du renseignement » dans la loi américaine, autorisant des tribunaux secrets à délivrer de telles instructions, avec obligation de se taire sous peine de poursuites légales. Les révélations de l’ancien agent Edward Snowden ont montré que les services de renseignement américain font un usage démesuré de leurs pouvoirs. Les documents qu’il a publiés révèlent que Microsoft coopère étroitement avec les services secrets de la NSA.

Un document de la NSA du 8 mars 2013 explique avec force détails que Microsoft a ouvert aux autorités américaines l’accès à ses services dans le nuage (cloud), autrement dit aux dispositifs de stockage de données auxquels recourent un nombre grandissant d’organisations privées, mais aussi publiques, qui confient ainsi à un prestataire externe leurs données informatiques par souci d’économiser sur les coûts de leur informatique interne. Les documents de Snowden ont aussi révélé que la NSA utilise une cyber-arme, Regin, en collaboration avec ses partenaires britanniques pour espionner la Commission et le Parlement européens via une faille de sécurité du programme Windows.

Wikileaks a publié des documents secrets qui prouvent que ce n’était pas un cas isolé. Ils montrent que la CIA a même développé un véritable arsenal de logiciels malveillants (malwares) ciblant exclusivement les logiciels de Windows. La NSA n’est pas en reste, un de ses outils exploitant, ainsi que l’a révélé récemment le groupe de hackeurs Shadow Brokers, quatre failles de sécurité du système d’exploitation Windows inconnues jusqu’alors (vulnérabilités Jour Zéro).

De fait, l’utilisation de produits Microsoft par les institutions de l’État « n’est plus compatible avec un État de droit », affirme le juriste et député Vert du Parlement européen Jan Philipp Albrecht. Beaucoup le considèrent comme le père de la loi européenne sur la protection des données. Albrecht précise qu’il y a pléthore de données individuelles stockées dans des ordinateurs appartenant à l’État, tels les montants acquittés pour les impôts, l’état de santé, les fichiers de police et les données sociales. « Cependant, les institutions ne peuvent garantir la confidentialité de ces données tant qu’elles travaillent avec des logiciels dont elles n’ont pas le contrôle », prévient Albrecht. Il va falloir changer cela, sous peine de « transformer l’Europe en une colonie numérique ».

M. Albrecht n’est pas le seul à exprimer ce genre d’opinion. En 2014, après les révélations d’E. Snowden, une grande majorité du Parlement européen appelait les États membres de l’UE à s’unir pour « développer des compétences-clés autonomes dans le domaine des technologies de l’information », qui devraient « être basées sur des standards ouverts et des logiciels open source », de manière à pouvoir « être testées ».

Un an plus tard, le Parlement nouvellement élu appelait à nouveau à l’adoption d’« une stratégie européenne pour l’indépendance du secteur des technologies de l’information ». Il indiquait aussi comment cela pouvait être acté : il est important d’établir « un code source publiquement accessible comme critère de sélection obligatoire dans toutes les procédures d’attribution des technologies de l’information du secteur public », ainsi que le préconisait l’expert en sécurité Michael Waidner.

 

Si l’open source devenait la norme obligatoire pour le développement logiciel, « les acteurs européens deviendraient immédiatement compétitifs ».

Si cela se faisait, M. Albrecht pense qu’il y aurait un effet sur les technologies de l’information « semblable à celui du projet Airbus ». De la même manière que l’Europe s’est autrefois affranchie de Boeing, elle pourrait s’affranchir aujourd’hui de sa dépendance à Microsoft, et cela pour un coût bien moindre, pense-t-il ; si l’open source devenait la norme obligatoire pour le développement logiciel, « les acteurs européens deviendraient immédiatement compétitifs, affirme Albrecht. Après tout, ajoute-t-il, les solutions alternatives sont développées depuis longtemps ».

Pourtant, aujourd’hui encore, les gouvernements européens s’avèrent incapables de chiffrer le montant du tribut versé au « seigneur » des licences de Redmond, aux États-Unis. De la Norvège au Portugal, la réponse des administrations compétentes aux demandes d’information d’Investigate Europe a invariablement été qu’il n’existe pas de statistiques en la matière. En Allemagne, le bureau des achats du ministère fédéral de l’Intérieur a précisé ne pouvoir fournir qu’une « estimation » des dépenses en licences Microsoft des autorités fédérales. Dix semaines après la demande, le bureau n’était toujours pas en mesure de fournir ces données.

Pierre Audoin Consultants, société spécialisée dans l’analyse des marchés IT, estime que, globalement, en Europe, Microsoft a tiré près de 2 milliards d’euros de revenus de ses opérations avec le secteur public pour l’exercice fiscal 2015-16. Cela voudrait dire que ce sont au moins 20 milliards d’euros de recettes fiscales européennes qui partent vers l’entreprise étasunienne tous les dix ans,  assurément assez pour que l’Europe développe sa propre industrie du logiciel.

Jusqu’à présent, les dirigeants européens ne veulent rien entendre d’un « projet Airbus » pour le secteur des technologies de l’information. Andrus Ansip, commissaire européen au marché unique du numérique ne veut même pas en parler. Son directeur de cabinet, Roberto Viola, botte en touche en déclarant que ce n’est pas là leur principal souci

Les entreprises américaines de l’Internet, de leur côté, n’ont pas besoin d’un dessin. Que se soit Facebook, Google ou Amazon, leurs infrastructures informatiques fonctionnent exclusivement avec des logiciels libres à en croire leurs porte-paroles. C’est le seul moyen qu’elles ont de se protéger. C’est bien aussi l’intention des dirigeants chinois, qui ont commencé à se libérer du monopole de Microsoft après le scandale de la NSA.

Sous l’égide de l’Académie nationale d’ingénierie chinoise, un système d’exploitation ouvert, Neokylin, a été développé, accompagné de sa suite bureautique. L’opération de « déwindowsisation », comme l’appelle le professeur Ni Guangang, chef du projet, concernera au premier chef les secteurs les plus sensibles en termes de sécurité. C’est pourquoi l’usage de programmes libres/ouverts est en train de devenir obligatoire pour les militaires, l’administration d’État et le secteur financier. L’opération devrait se terminer en 2020.
La Chine prend le chemin de l’indépendance. Que fait l’Europe pendant ce temps-là ?

photo par Leonid Mamachenkov (CC BY 2.0)

Cet article est une traduction de la version anglaise d’un billet d’Investigate Europe publiée le 13 mai 2017. Pour savoir dans quelles publications de presse, pays et langues le billet est disponible, veuillez consulter la page suivante.

 




Les CHATONS s’attaquent à l’oiseau Twitter grâce à Mastodon

Mastodon, le clone libre et décentralisé de Twitter, accueille des dizaines de milliers de nouveaux membres chaque jour. Notre réponse se devait d’être collective.

Un vent de liberté qui fait du bien !

Résumons les épisodes précédents : Twitter est un réseau social centralisé, les données que vous lui confiez appartiennent à (et vont sur les serveurs de) l’entreprise du même nom. On y « tweete » publiquement de courts messages de 140 caractères (avec photos, liens, etc.) pour partager de brèves nouvelles, impressions, etc. C’est souvent le lieu de l’info rapide, des échanges évanescents et des actualités brûlantes.

Or depuis plusieurs mois, Twitter se « Facebookise » de plus en plus : la plate-forme change unilatéralement ses règles du jeu, filtre et choisit l’ordre de ce qui apparaît dans votre fil, se gonfle de pubs, répond très mal aux demandes de modération et de lutte contre le cyber-harcèlement

En fait, c’est Twitter qui nous donne les meilleures raisons de préférer Mastodon…

La semaine dernière, Twitter a imposé à ses utilisateurs et utilisatrices sa n-ième décision contestable. La plateforme a changé l’affichage des réponses, modifiant de fait les habitudes et la façon de communiquer des 320 millions de personnes inscrites sur ce réseau. Car oui : changer l’outil change le comportement, c’est même souvent le but.

Une décision unilatérale, qui a poussé des internautes à se demander :

Et si nous faisions notre Twitter mais en mieux… donc sans Twitter ?

Que Mastodon soit un effet de mode « mort-dans-deux-semaines » ou une révolution en marche sur internet, là n’est pas la question (et pour la réponse, désolé, on a paumé notre boule de cristal). Le fait est qu’aujourd’hui, plusieurs dizaines de milliers personnes reprennent en main un de leurs outils sociaux (où l’on « toote » ou « pouette » au lieu de tweeter), découvrent la liberté de ne pas dépendre d’une plateforme unique (chacun peut monter son « bout » du réseau social fédéré Mastodon), choisissent de ne pas confier ses données et sa communication à une entreprise du Big Data (cotée 18 milliards en bourse), et enfin découvrent comment de simples choix (passer de 140 à 500 caractères par message) changent la manière dont on pense, se comporte, et communique avec autrui.

Heureusement, le Gouvernement d’Internet veille à nous ramener dans le droit chemin :p !

A l’heure d’écriture de cet article, près de 100 000 personnes ont un compte Mastodon, et ça grimpe. À tel point que The Verge, The Telegraph, Mashable, Wired, et même RTL, le Figaro ou M6 parlent de ce vent de liberté qui a été dynamisé par des Français…

« Comment on met les Français en sourdine ? » se demande cet anglo-saxon peu habitué à une telle présence de la langue française sur ses réseaux sociaux ;p !

 

Les CHATONS vous proposent de faire Pouet !

Il faut un maximum d’instances, c’est à dire d’endroits de confiance où s’inscrire à Mastodon. Pourquoi ? Pour ne plus répéter l’erreur d’avoir mis toutes nos données (tous nos œufs) dans le panier de Twitter, d’une part, mais surtout parce que cela répartit la charge, les responsabilités et les savoir-faire.

Pour vous, cela veut dire être libre de quitter une instance si les règles du jeu ne vous conviennent plus. Avoir le pouvoir (et la responsabilité) de devenir son propre média social, indépendant. Savoir enfin quels humains sont derrière quelle instance, parce que lorsqu’on s’y inscrit, c’est quand même à ces personnes que l’on confie nos bouts de vie numérique, donc autant savoir si on peut leur faire confiance.

cliquez sur l’image pour découvrir le collectif CHATONS

Nous vous en avons parlé dans le Framablog, nous faisons désormais partie d’un Collectif d’Hébergeurs Alternatifs qui prônent et pratiquent la Transparence, l’Ouverture, la Neutralité, et la Solidarité. Les CHATONS se sont engagés : que du logiciel libre, pas d’exploitation de vos données ni de pub profilée, ouverture, transparence et neutralité, bref… ce collectif propose des services web éthiques, et humains.

Il nous semblait évident que, Mastodon étant une fédération logicielle (on vous en reparle la semaine prochaine), la proposition devait venir du collectif, et non simplement de Framasoft. Du coup, voici une première portée de CHATONS (ou de futurs CHATONS ^^) vous proposant des endroits fiables et éthiques pour tester et profiter du réseau Mastodon (une « première »… en attendant la semaine prochaine ?).

Concrètement, je fais quoi pour aller sur Mastodon ?

D’abord, allez lire l’excellent « Comment débuter » écrit par Numérama, le formidable « Welcome to mastodon » de Alda que nous avons repris ici, ou gardez-les dans un coin d’onglet pour quand vous vous poserez des questions (promis, ça aide !).

Ensuite, choisissez une instance, un serveur où vous inscrire. Pour cela, plusieurs possibilités :

  1. [mode avancé] Vous allez choisir sur la liste publique des instances ;
  2. [mode j’ai de la chance] Vous utilisez le portail qui choisit une instance pour vous ;
  3. [Frama-mode] Vous préférez aller chez un des CHATONS, ou s’inscrivant dans cette démarche ? Voici ceux disponibles à ce jour, ainsi que leurs conditions :

Unixcorn

Cliquez sur l’image pour accéder à leur Mastodon

Zaclys

Cliquez sur l’image pour accéder à leur Mastodon

  • Site Officiel
  • Mastodon : https://mastodon.zaclys.com
  • Inscriptions ouvertes, modération stricte
  • Particularités : signature dkim sur le domaine de messagerie
  • Modèle éco : gratuit ou don libre (en cours de discussion, dépend des ressources utilisées, sinon réservé adhérents)

ROFLCOPTER.fr

Cliquez sur l’image pour accéder à leur Mastodon

Outils Conviviaux

Cliquez sur l’image pour accéder à leur Mastodon

IndieHosters

  • Site Officiel
  • Mastodon : https://mastodon.indie.host
  • Inscriptions payantes, modération stricte
  • Modèle éco (vente de services) :
    • 10% du chiffre d’affaire reversé à Mastodon
    • 125€/an pour une instance privée (<10 utilisateurs)
    • instance privée >10 utilisateurs – nous contacter : contact@indie.host
    • 24€/an pour un compte sur notre instance partagée

 

Enfin, il ne vous reste plus qu’à pousser votre premier Pouet, et à vous familiariser avec ce nouveau réseau !

Quant à nous, on vous donne rendez-vous la semaine prochaine pour de nouvelles annonces, car il reste de nombreuses choses à dire !




Demain, une science citoyenne dans une société pair à pair ?

De simples citoyens ont-ils un rôle à jouer dans les sciences, où ils sont pour l’instant contingentés au mieux à des fonctions subalternes ?

On voit d’ici se lever d’inquiets sourcils à l’énoncé du simple terme de science citoyenne, tant la communauté scientifique se vit comme distincte de l’ensemble du corps social par ses missions, ses méthodes et son éthique. Pourtant un certain nombre d’expériences, de projets et même de réalisations montrent que la recherche scientifique universitaire peut tirer un profit important de sa collaboration avec les citoyens motivés, lesquels en retour élèveront leur niveau de connaissances tout en ayant un droit de regard sur la recherche.

Réconcilier citoyens et universitaires scientifiques, longtemps une utopie, est rendu aujourd’hui possible par des objets technologiques désormais beaucoup plus accessibles à chacun.

Cela ne va pas sans perplexité et crainte de dégrader les principes fondamentaux de méthode et d’éthique qui guident le travail scientifique, mais des systèmes de contrôle existent : de même que du code open source peut être révisé par des spécialistes du code, la science citoyenne peut être évaluée par des scientifiques (qui d’ailleurs ont eux-mêmes l’habitude d’être évalués par des pairs).

D’autres conditions sont également nécessaires : le partage mutuel des connaissances nécessite le pair à pair, des licences permissives, un élèvement du niveau de connaissances de la population et bien entendu l’extension des biens communs scientifiques.

Telles sont les problématiques explorées de façon approfondie par Diana Wildschut dans le long article universitaire que l’équipe Framalang vous propose.

Alors, pouvons-nous imaginer comme l’auteure un futur où au sein d’une société de pair à pair l’échange collaboratif mutuel fasse de la science un bien commun ?

La nécessité d’une science citoyenne pour aller vers une société de pair à pair durable

Article original de Diana Wildschut sur ScienceDirect : The need for citizen science in the transition to a sustainable peer-to-peer-society

Traduction Framalang : Bam92, dodosan, goofy, jaaf, lumpid, lyn, mo, Opsylac, simon

L’essentiel de l’article

Notre monde est en transition vers une société de pair à pair caractérisée par une nouvelle façon de produire les choses, des logiciels à l’alimentation, en passant par les villes et la connaissance scientifique. Cela nécessite un nouveau rôle pour la science.

Plutôt que de se focaliser sur la production de connaissances pour les ONG, les gouvernements et les entreprises, les scientifiques devraient prendre conscience que les citoyens seront les décideurs dans une future société de pair à pair (p2p), produire des connaissances durables et accessibles, et travailler ensemble aux côtés des scientifiques citoyens.

Les citoyens ont démontré leur capacité à définir leurs propres sujets de recherche, à monter leurs propres projets, à s’éduquer et à gérer des projets complexes. Il est temps pour eux d’être pris au sérieux.

Il existe toujours un grand fossé entre les citoyens et les scientifiques universitaires quand il est question de partage des connaissances. Les données collectées par des citoyens ne sont presque jamais utilisées par les scientifiques universitaires, et les résultats de la recherche scientifique restent en grande part cachés derrière des barrières de péage.

Si nous voulons qu’une transition durable prenne place, nous devons faire tomber les barrières entre la science et le public. Les préoccupations des citoyens doivent être prises au sérieux et leurs connaissances utilisées et valorisées.

 

1. Introduction

Notre monde est en cours de transition vers une société de pair à pair (p2p), caractérisée par une nouvelle façon de produire tout, des logiciels à l’alimentation, en passant par les villes et la connaissance scientifique (Bauwens 2012). Dans une société de pair à pair, des réseaux d’individus, ou de pairs, prennent en charge les tâches qui étaient précédemment entre les mains des institutions. Cela nécessite un nouveau rôle pour la science. Plutôt que de se focaliser sur la production de connaissances pour les ONG, les gouvernements et les entreprises, les scientifiques devraient prendre conscience que les citoyens seront les nouveaux décideurs dans une future société de pair à pair, produire des connaissances durables et accessibles et travailler ensemble avec des scientifiques citoyens.

Dans cet essai, quand je parle de citoyens, je parle des non-professionnels qui s’engagent dans ce qui les touche directement, qui peut être une ville, une rue, l’environnement, le système démocratique, etc. Quand je parle de scientifiques citoyens je parle des gens qui pratiquent la science en dehors d’un environnement universitaire ou du contexte industriel, et qui ont reçu ou non une formation scientifique réelle. Ma définition d’un système néolibéral est un système avec un marché libre, un petit gouvernement dans un monde globalisé.

En regardant autour de nous, nous voyons de vieilles structures échouer. L’efficacité des ONG est mise en doute (Edwards & Hulme, 1996) et elles semblent essentiellement préoccupées par leur propre survie. Elles en sont restées aux méthodes des années 80 ; elles se déguisent en porcs ou en abeilles, ou portent des masques à gaz et se présentent comme un petit groupe guère impressionnant dans le quartier général d’entreprises ou de gouvernements. Leurs causes sont légitimes et les problèmes qu’elles mettent à l’ordre du jour sont urgents, mais leurs méthodes sont complètement inadaptées au monde dans lequel nous vivons. L’attention des gouvernements néolibéraux n’est plus focalisée sur le bien-être des citoyens, elle s’est depuis longtemps déplacée vers les intérêts des entreprises (Chomsky,1999 ; von Werlhof, 2008). Les intérêts à long terme, y compris ceux de la science, en pâtissent (Saltelli & Giampietro, 2017). Les entreprises n’ont pas l’obligation légale d’agir dans l’intérêt public, et n’ont pas tendance à le faire si cela s’oppose à leurs intérêts économiques à court terme (Banerjee, 2008 ; Chomsky, 1999).

L’avenir de la planète pourrait bien se retrouver entre les mains de petits groupes de citoyens ou d’individus qui bâtissent une nouvelle société à côté de l’existante en jetant les bases d’initiatives durables qui seraient interconnectées en réseaux de pair à pair. Dès à présent, la science procure des technologies qui donnent aux gens le pouvoir de faire leurs propres recherches, en utilisant leurs smartphones, leurs webcams et leurs ordinateurs portables (Bonney et al., 2014). Mais il y a toujours un large fossé entre les citoyens et les scientifiques universitaires quand on en arrive au partage des connaissances. Les connaissances collectées par les citoyens sont très peu utilisées par les scientifiques universitaires, et les résultats de la recherche scientifique sont le plus souvent cachés derrières des barrières de péage.

Si nous voulons qu’une transition durable prenne place, nous devons abaisser ces barrières entre la science et le public. Les préoccupations des citoyens doivent être prises au sérieux et leurs connaissances utilisées et jugées à leur juste valeur (Irwin, 1995).

Dans cet essai je soutiens que les citoyens sont prêts à produire une science valable, et à utiliser et comprendre la science produite par les scientifiques universitaires. Ils sont prêts à utiliser la science pour combler certains fossés existants que les gouvernements, les entreprises et les ONG laissent à l’abandon.

Faire sérieusement, sans se prendre au sérieux.

2. La science citoyenne

Au début de la révolution scientifique, quiconque ayant du temps libre pouvait regarder les étoiles, accumuler des données et faire des prévisions. On n’avait pas besoin d’équipements ou de compétences mathématiques. Les scientifiques étaient souvent des fermiers, artistes ou hommes d’État. Ce n’était pas des spécialistes mais plutôt des généralistes.

À partir de la seconde moitié du 19e siècle, la science est devenue une affaire de spécialistes, qui utilise des équipements de pointe ainsi que les mathématiques, et nécessite des années d’études universitaires. La science n’était plus quelque chose que n’importe qui pouvait pratiquer (Vermij, 2006).

Ces dernières décennies, les ordinateurs sont devenus bon marché et puissants. Internet permet à tous d’accéder à des données ainsi qu’à des formations. Le développement de microcontrôleurs programmables bon marché a permis à de nombreux profanes de créer leur propre électronique. La popularité de ces microcontrôleurs peut être attribuée principalement à Arduino, une carte microcontrôleur, open source, bon marché, avec un environnement de programmation en ligne.

Programmer de telles cartes est facile grâce à l’abondance d’exemples, tutoriels et codes fournis par la communauté. Les cartes peuvent être connectées à un circuit, en respectant des schémas disponibles en ligne. La communauté Arduino maintient une excellente documentation pour les débutants et les experts sur www.arduino.cc.

La possibilité de se procurer des capteurs peu coûteux est le prochain problème à résoudre. L’utilisation de capteurs combinée avec ATMegas (les microcontrôleurs utilisés sur les cartes Arduino) est très populaire. Les gens peuvent mesurer autour d’eux tout ce qui leur passe par la tête. Ils collectent toutes les données et cherchent à les comparer à celles d’autres personnes. Cela crée un besoin de plate-formes open data permettant de partager ces données en ligne. Des communautés se forment non seulement autour du matériel, mais aussi autour de sujets de recherche. Par exemple, spectralworkbench.org, où les personnes partagent leurs analyses spectrales de différentes sources lumineuses. Ils utilisent un spectromètre fait d’un morceau de carton et d’un morceau de CD connecté à une webcam. Ils déposent leurs spectres dans la base de données, qui contient des résultats venant à la fois de spectrographes professionnels et amateurs. Il s’agit d’un mélange de spectres utiles et d’images floues. La base de données est alimentée essentiellement par des passionnés curieux, et à mesure que sa taille augmente, elle devient une ressource précieuse pour déterminer des éléments chimiques. Dans la section « Apprendre » du site internet, on peut découvrir l’usage qui est fait des données. Des citoyens l’utilisent pour mesurer la contamination de la nourriture, la présence d’OGM (Critical Art Ensemble, 2003), la quantité d’azote dans des terres agricoles, le niveau de pollution de l’air, etc. Cela les amène à porter un regard critique sur les informations obtenues depuis des sources officielles, comme les gouvernements et les industriels.

Un spectrographe maison fait d’un morceau de carton et d’un morceau de CD

Une avancée récente est le Lab-on-a-Chip (Ndt : littéralement, laboratoire-sur-une-puce), un petit laboratoire qui peut être utilisé pour des analyses de fluides. Le Lab-on-a-Chip est bon marché et facile à utiliser. Le but est d’en faire un labo si facile à utiliser que n’importe qui puisse s’en servir sans connaissances préalables. Dans le domaine médical, il permet aux patients de faire leur propre diagnostic in vitro. Il permet aussi de raccourcir le temps nécessaire pour prendre une décision car le patient qui possède déjà le laboratoire à la maison n’a pas à attendre un rendez-vous (von Lode, 2005).

Un Lab-on-a-Chip est une petite plaque de verre sur laquelle sont gravés de minuscules canaux fluides. Elle est montée accolée à un capteur semi-conducteur, connecté à un microcontrôleur qui effectue les analyses ou envoie les données à un outil d’analyse.

Le boom récent des Fablabs et des ateliers ouverts pour la fabrication numérique, qui trouvent leur origine au MIT (Gershenfeld, 2012), a permis au citoyen scientifique de graver ses propres systèmes Lab-on-a-Chip, en lui donnant accès à des ciseaux lasers et des imprimantes 3D. En utilisant Arduino et du logiciel open source pour l’analyse, il peut maintenant effectuer lui-même des analyses de fluides chimiques complexes.

Ces nouvelles technologies sont désormais à la disposition de tous, pour autant qu’on ne soit pas effrayé par la technologie. De nouveaux outils voient le jour sous forme d’outils pour jeux vidéo et il faut un peu de temps avant que des gens les rendent accessibles à un public plus large en les dotant d’interfaces conviviales. Ce processus est déjà entamé et de nombreux outils deviennent utiles à ceux qui sont intéressés à les utiliser plutôt qu’à les faire fonctionner.

Ce ne sont pas seulement les données collectées par les citoyens, mais aussi leurs connaissances, leur intelligence, leur créativité et les réseaux sociaux, qui ont de la valeur pour les scientifiques universitaires. Dans beaucoup de projets de science citoyenne menés par des scientifiques universitaires, seul le temps du participant et la puissance de traitement de son ordinateur sont utilisés. Généralement, le participant n’est utilisé que pour la collecte des données et leur classement. L’intelligence du participant ou sa créativité sont rarement nécessaires et le projet n’offre que des opportunités très limitées pour une amélioration personnelle (Rotman et al., 2012). Parfois, une formation est disponible qui permet au participant d’apprendre à reconnaître des motifs, des espèces et des types de galaxies, mais il n’est presque jamais invité à participer à la conception de la recherche.

Les citoyens ont de précieuses connaissances souvent hors de portée des scientifiques universitaires (voir aussi Pereira et Saltelli). Ils disposent d’une connaissance locale que Warren (Warren, 1991) décrit comme

« une connaissance qui est particulière à une culture ou à une société donnée). […] C’est le fondement de la prise de décision à un niveau local en agriculture, pour les soins médicaux, la préparation alimentaire, l’éducation, la gestion des ressources naturelles, et une foultitude d’autres activités dans les communautés rurales. »

Mais bien sûr, il n’y a pas que dans les communautés rurales que la connaissance locale est importante. Les citoyens sont bien plus capables de participer qu’il ne leur est permis de le montrer (Fischer, 2000). De nombreux gouvernements locaux réalisent maintenant qu’ils ont besoin de l’apport de leurs citoyens pour gouverner leur cité à la satisfaction de ceux-ci. Commencer à travailler avec des citoyens critiques n’est pas une étape facile à franchir, mais dès que les citoyens sont impliqués dans la fourniture des connaissances qui permettront la prise de décision, ils sont plus enclins à accepter les conséquences et les mesures qui en résultent.
Dans la ville néerlandaise d’Amersfoot, le gouvernement local avait besoin de données sur les impacts du changement climatique à une échelle très locale, où seulement des données globales étaient disponibles. Après avoir assisté à une conférence sur la science citoyenne, il a décidé de ne pas confier le travail à un consultant, mais de trouver un groupe de citoyens intéressés par l’investigation sur les changements climatiques dans leur voisinage. Le groupe a été chargé de mettre en place la recherche, de décider quels indicateurs devaient être mesurés, qui faire participer et comment publier les résultats. Ils ont maintenant démarré leur projet dont les résultats sont visibles sur www.meetjestad.net (Meet je Stad, 2015).

Les scientifiques universitaires voient les avantages à coopérer avec les citoyens, non seulement pour la valeur qualitative de leurs connaissances locales, mais aussi pour leurs réseaux sociaux étendus. Les citoyens actifs savent ce qui se passe dans leur communauté et peuvent dire quels investisseurs devraient être impliqués. Aussi doivent-ils être impliqués au tout début d’un projet de recherche, sinon il sera trop tard pour tirer profit de cette partie de leurs connaissances. Il y a vingt ans, Alan Irwin (Irwin, 1995) prônait la réunion des mondes de la science universitaire et de la science citoyenne. Aujourd’hui le besoin et les possibilités se sont accrus. Les scientifiques citoyens disposent de plus d’outils pour créer de la connaissance, l’infrastructure existe pour la partager et nous avons quelques gros problèmes à résoudre pour lesquels nous avons besoin de toute l’aide disponible.
Et Cash et al. (2003) de conclure que « […] les efforts pour mobiliser la science et la technologie pour la durabilité ont plus de chances d’être efficaces si on gère les frontières entre la connaissance et l’action d’une façon qui améliore à la fois l’importance, la crédibilité et la légitimité de l’information produite. » De nombreux citoyens sont prêts à l’action ou déjà actifs. Ils ont besoin de connaissances scientifiques.

Pour libérer le savoir, mieux vaut ouvrir les portes…
Stockholm Public Library CC-BY Samantha Marx

3. Accès libre

Pour cet essai, j’avais prévu de n’utiliser que des références à des articles disponibles en accès libre, juste pour le principe. Le fait que cela se soit avéré impossible est en soi encore plus parlant que je ne l’aurais voulu. Pour être en mesure de rédiger un essai comme celui-ci, un scientifique citoyen serait obligé de contacter par e-mail des amis travaillant dans des universités, d’utiliser le hashtag Twitter #icanhazpdf (lepdfsivouplé) et d’écrire des mails à des auteurs, en espérant recevoir leurs articles en retour.

Certains des articles en accès restreint, comme celui-ci, parlent de la science citoyenne, dont certains pourraient directement intéresser les citoyens. Mais les citoyens qui luttent pour construire leurs propres projets scientifiques sans budget ont peu de chances de pouvoir investir 41,95 $ dans un article dont ils ne sont même pas certains qu’il leur sera utile. Dans la plupart des cas, la science qui traite de science citoyenne n’atteindra pas des citoyens pratiquant les sciences, ni des citoyens ayant besoin d’un apport scientifique.

Dans la société de pair à pair, il est tacitement convenu que quiconque utilise les services d’une autre personne, restitue quelque chose à la communauté dont il se nourrit. Aussi, faire de la recherche en se basant sur de la science citoyenne et ne pas en partager les résultats serait une violation de ces règles tacites.

Les droits d’auteur et les brevets empêchent la mise à disposition et le développement de la connaissance. On pense souvent que les droits d’auteur sont le seul moyen de protéger les auteurs, mais il existe d’autres moyens de protéger les droits des auteurs et des développeurs de produits logiciels open source. Certaines institutions développent leurs propres licences pour les logiciels open source (MIT Public License, 1988) ou pour le matériel open source (CERN Open Hardware License, 2011). Elles utilisent leurs connaissances des droits d’auteur et de la propriété intellectuelle pour aider les gens qui veulent ajouter leurs données, idées, conceptions et produits au domaine public. Une fois là, cela pourra être utilisé comme base par n’importe qui (selon la licence), mais ne pourra jamais être réclamé, breveté ou sorti du domaine public. Chacune des licences propose ses propres solutions, laissant au développeur le choix de qui peut utiliser son produit et dans quelles conditions. Certaines licences permettent une utilisation commerciale du produit, d’autres non. Certaines demandent l’attribution à l’auteur original. D’autres demandent que les sous-produits soient publiés sous la même licence que l’original.

Concevoir ces licences et les rendre disponibles est une manière très appréciée pour les institutions de restituer quelque chose aux biens communs.

…car, comme on dit en langage Wikipédia « Citation Needed ».

4. Éducation

L’existence de citoyens instruits est une condition nécessaire pour avoir une démocratie qui fonctionne (Hils Hauge et Barwell), et ça l’est tout autant dans une société de pair à pair. Néanmoins, aux Pays-Bas par exemple [ndt : l’auteure est néerlandaise], les études universitaires ne sont pas facilement accessibles à tous les citoyens qui pourraient y prétendre. Les gens qui ont déjà un diplôme payent des frais d’inscription très élevés. Étudier à temps partiel est déconseillé et dans la majorité des disciplines ce n’est même pas possible. Cela entre en conflit avec l’idéal « d’éducation tout au long de la vie » qui est diffusé par les institutions éducatives, et cela ne permet pas d’avoir des citoyens ouverts à tout et bien informés. Cependant, nous comptons sur eux pour faire des choix éclairés au moment de voter (Westheimer et Kahne, 2000). Pour les gouvernements, la mode est de vouloir des citoyens impliqués, mais très peu d’efforts sont faits pour leur donner les outils et informations nécessaires.

Mais maintenant, une part croissante des citoyens est en train de trouver le chemin vers des études plus accessibles et moins structurées. De nouvelles méthodes de partage des connaissances sont inventées, le plus souvent en utilisant Internet. Les cours magistraux de certaines universités sont disponibles en streaming. Cela peut aider pour compléter une formation, mais sans exercices cela reste incomplet. Khan Academy.org est un site web où vous pouvez vous former vous-mêmes dans n’importe quelle matière du lycée à l’université. Il utilise un algorithme intelligent qui permet aux étudiants de garder la trace de leur progrès. Néanmoins la Khan Academy fonctionne essentiellement du sommet vers la base, une personne donne un cours et un étudiant consomme cette connaissance. OpenTOKO (http://web.archive.org/web/20140927205928/http://www.opentoko.org/) a une approche différente.
Un thème est proposé en ligne, des experts et des novices s’y inscrivent, créant un groupe de connaissances partagées qui se réunit pour un après-midi. La dynamique est très variable, parfois un TOKO est planifié largement à l’avance, parfois dans un délai très court. Les thèmes peuvent être populaires ou ésotériques ; on peut être très nombreux ou seulement deux ou trois. Souvent, il s’avère que les experts apprennent des compétences, des connaissances ou des questions des débutants. Les experts acquièrent une meilleure compréhension du thème, et cela donne au débutant un bon départ sur le sujet. OpenTOKO doit encore être amélioré. Un système de référencement automatique doit être créé, permettant à chacun de suggérer un thème, de s’inscrire comme expert ou novice, de proposer un lieu ou une date. Quand toutes les conditions sont réunies, un OpenTOKO est automatiquement créé.
L’inscription est gratuite, tout le monde en profite en améliorant ses connaissances. Les thèmes abordés sont divers : langage de programmation, électronique, mathématiques et statistiques mais aussi comment tricoter des chaussettes ou faire pousser des légumes, tout dépend de ce que souhaitent les participants. Les scientifiques qui souhaitent faire participer des citoyens à leurs cours, n’ont pas besoin de simplifier leurs résultats ou leur langage. Les citoyens peuvent apprendre eux-mêmes et devenir familiers de la terminologie utilisée dans les différents domaines scientifiques.

Wikipédia peut être utilisée comme point de départ de collecte d’informations sur pratiquement tous les sujets. À partir de là, il est facile de trouver des publications scientifiques, mais à nouveau les citoyens se heurtent souvent à des ressources payantes.

Cliquez sur l’image pour voir la vidéo sur la chaîne YouTube de Datagueule.

5. Vers une société de pair à pair

On constate, au cours de la dernière décennie, une tendance au partage sur un mode de p2p : d’un individu vers les autres. En 1999, un adolescent a créé le logiciel Napster, qui permettait à tout le monde de partager des fichiers numériques (Carlsson et Gustavsson, 2001). Napster utilisait un serveur central. À cause de cela, l’industrie du disque, via des poursuites judiciaires, a pu fermer Napster. Les outils d’échange de musique de la génération suivante sont les réseaux P2P, dans lesquels les utilisateurs échangent directement leurs fichiers avec d’autres personnes. Ces réseaux ne sont pas hiérarchisés et sont difficiles à fermer. Brafman et Beckstrom (2006) compare ces organisations sans leader à des étoiles de mer, et les organisations hiérarchiques à des araignées ; si vous coupez la tête d’une araignée, elle meurt. L’étoile de mer, elle, n’a pas de tête. Coupez un bras et un nouveau bras se formera. Coupez l’étoile de mer en deux et vous obtiendrez deux étoiles de mer. Les réseaux P2P semblent indestructibles aussi longtemps qu’ils ont la volonté d’exister.

Bauwens et Lievens (2013) voient la transition vers une société de pair à pair comme l’inévitable prochaine étape du développement humain. Leur présentation de l’histoire de la société occidentale commence à l’époque romaine. À cette époque, 80 % des gens étaient des esclaves. La société romaine dépendait entièrement de ces esclaves, et en avait un besoin toujours plus important. Pour continuer d’augmenter le nombre d’esclaves, ils devaient continuer d’étendre leur empire. Finalement, cela devint plus cher que des solutions alternatives comme le métayage. Ils commencèrent donc à affranchir des esclaves, leur laissant cultiver la terre en échange d’un partage des récoltes. Cette pratique a évolué vers le système féodal qui a perduré plusieurs siècles.

L’industrialisation, au 19e siècle, a déplacé les travailleurs vers les villes, ces derniers achetant alors leur nourriture au lieu de la faire pousser. Les travailleurs ont reçu un salaire, le moment du capitalisme était venu. Dans le même temps, les gens prirent une place précise dans de grandes structures hiérarchisées.

Maintenant, l’automatisation a réduit la quantité de travail humain nécessaire à la production des besoins indispensables à nos sociétés. Et le spécialiste d’économie politique Skidelsky(2012) de conclure : « La vérité est que nous ne pouvons pas continuer à automatiser efficacement nos productions sans remettre en cause nos attitudes envers la consommation, le travail, les loisirs et la distribution des revenus. » Dans les sociétés occidentales, seule une petite part de notre travail sert à fournir les besoins fondamentaux de la société. La majorité des gens a un travail qui n’est pas vraiment indispensable (Graeber, 2013). La plupart d’entre eux en ont conscience, ce qui a souvent un impact négatif sur leur santé morale et physique.
On constate aussi une augmentation du nombre de personnes sans emploi pour qui l’ancien système est un échec. Ils ont été virés par leur ancien employeur, souvent après des décennies de travail dévoué et de loyauté. Une grande partie des gens virés sont devenus trop chers à cause de leur ancienneté. Les employeurs ont tendance à choisir des employés moins chers, plutôt que plus expérimentés. Ici, l’argent prime sur la qualité ou l’humanité.

Certains chômeurs choisissent désormais de faire les choses différemment, et se mettent à chercher un nouveau système plus respectueux des personnes et valorisant la qualité. Comme les esclaves affranchis, ils sont un nombre croissant dans nos sociétés à avoir l’énergie nécessaire pour commencer à travailler dans un nouveau système. Bauwens et Lievens appelle ce système « l’économie P2P », celle-ci est basée sur les échanges entre individus.

La combinaison d’un savoir disponible et d’une insatisfaction croissante face à la manière dont les gouvernements traitent les questions écologiques encourage les personnes à s’impliquer dans des expériences à l’échelle locale pour produire de l’énergie et de la nourriture, pour recycler les déchets et pour plus de démocratie et d’innovation sociale. Certaines de ces expériences échouent, mais d’autres sont des succès et rendent stables des alternatives locales et modestes qui peuvent inspirer les autres. Tout ne peut pas se faire facilement au niveau local. Il vaut mieux que la médecine spécialisée soit exercée dans un hôpital dédié. Les experts sont les plus à même de traiter les questions de droit, bien que le système des jurys populaires soit un peu plus P2P que les systèmes judiciaires avec uniquement des juges, et qu’il soit considéré comme juste dans de nombreux pays. Les processus de production que l’on dit plus efficaces à grande échelle, ne le sont peut-être pas tant que ça si tous les coûts réels relatifs au transport, aux infrastructures, aux ressources naturelles et aux déchets sont inclus dans le calcul. Souvent, ces « externalités » comme on les appelle, ne sont pas financées par les multinationales (Mansfield, 2011 ; Scherhorn, 2005).

Le pair à pair, vous savez, le truc d’avant les plateformes, qui marchait mieux et générait moins de dangers…?

6. Quand les systèmes se percutent

La société de pair à pair peut cohabiter avec la société capitaliste dans de nombreux cas, tout comme les scientifiques citoyens cohabitent avec les scientifiques universitaires. Il peut y avoir des conflits de nature financière, comme dans le cas des maisons de disques avec les réseaux p2p pour la distribution de musique, où les deux cotés essayent de maximiser leurs profits. Les situations les plus intéressantes, cependant, sont celles où les deux points de vue sont valables, mais incompatibles.

La société de pair à pair est basée sur la confiance acquise lors de travaux préalables. Si vous contribuez à la communauté, vous obtenez en retour du respect et de la confiance. Cependant, dans la société capitaliste, la confiance se base sur les diplômes. Si vous voulez un travail en tant qu’ingénieur informaticien, il vous faut avoir des diplômes et des qualifications pour prouver que vous pouvez écrire du code. Dans la société de pair à pair, vous prouvez que vous pouvez écrire du code en écrivant du code. Le code est open source afin que les utilisateurs puissent vérifier s’il fonctionne et que les experts puissent vérifier qu’il est bien écrit et ne contient pas de virus. Quand les deux mondes se rencontrent, ils sont souvent sceptiques sur l’approche de l’autre.
Certaines personnes voient les forces et faiblesses de chaque système, et un ingénieur informaticien peut avoir un emploi sans diplôme, s’il rencontre le bon responsable des ressources humaines. Le lien entre les deux mondes vient de ceux qui reconnaissent les possibilités de coopérer et ont un statut qui leur permet de s’écarter des règles en usage. Dans tous les cas, la manière pair à pair d’assurer la qualité ou la fiabilité d’un pair demandera plus d’efforts que pour un scientifique universitaire par exemple. Il faudra faire des recherches sur la personne, soit à travers un contact personnel, soit en regardant à sa réputation auprès de ses pairs et son travail. Pour des nouveaux venus, il s’agit de deux situations complètement différentes.

Mais que peut-on dire des autres différences entre les scientifiques citoyens et les scientifiques universitaires ? Pour faire de la vraie science, il faut travailler selon un certain nombre de règles, mais les citoyens peuvent n’en faire qu’à leur tête. Comment se positionnent-ils vis-à-vis de l’éthique ou de la qualité ? C’est ce qui inquiète de nombreux scientifiques universitaires. Les motivations des citoyens et la qualité de leur travail sont suspectes (Show, 2015). Même les projets montés et gérés par des scientifiques universitaires qui utilisent des données collectées par des volontaires ont du mal à se faire publier (Bonney et al, 2014).

Il est vrai que la science citoyenne n’a pas nécessairement un ensemble fixe de règles sur l’éthique ou les méthodes. Bien qu’il y ait quantité d’exemples de réseaux qui partagent une charte éthique ou une liste de méthodes [29], comme certains diy-biolabs (ndt : littéralement labo-bio à faire soi-même) (Diybio,2016) et makerspaces (espaces collaboratifs) (Fablab.nl), beaucoup n’y ont jamais pensé, n’en ont jamais discuté, ou même, ne s’y sont simplement pas intéressés. Mais tout comme n’importe quel programmeur peut vérifier du code informatique ouvert, n’importe quel scientifique universitaire peut vérifier si un projet de science citoyenne est bien fait, à l’aune des normes universitaires. Pour moi, cela ne veut pas dire que les normes universitaires doivent être celles qu’il faut utiliser pour évaluer la science citoyenne, mais qu’il est possible de le faire. Dans certains cas, les normes universitaires sont moins strictes que celle utilisées dans la science citoyenne.

Par exemple, dans la science conventionnelle, il n’est pas courant d’ouvrir l’ensemble des données, alors que c’est le cas dans la science citoyenne. De ce point de vue, la science citoyenne et plus reproductible et la fraude est plus facile à détecter. Les expériences des scientifiques citoyens sont souvent répétées et améliorées. Les scientifiques citoyens ne sont pas soumis à la pression de la publication (Saltelli et Giampetro, traitent du déchirement entre publier ou périr comme d’un ingrédient clé de la crise de la recherche scientifique), ils publient quand ils pensent avoir trouvé quelque chose d’intéressant. Le travail est ouvert au regard des pairs de la première tentative aux conclusions finales.

Un exemple de base de données ouverte, libre et collaborative qu’on aime beaucoup ;)

Les scientifiques citoyens publient plus facilement des résultats négatifs. Ils ne sont pas gênés par leurs erreurs. Les publications de résultats positifs contiennent aussi un chapitre sur les tentatives précédentes qui ont échoué, et un retour sur la cause de l’échec. Ces résultats négatifs sont, à mon avis, aussi valables que des résultats positifs, bien que dans la recherche scientifique conventionnelle il existe une forte propension à ne publier que des résultats positifs, ce qui rend la recherche scientifique universitaire incomplète (Dwan et al., 2008).

Les scientifiques citoyens sont souvent suspectés d’avoir des partis pris, des motivations ou des ordres du jour cachés. Nous savons désormais que les professionnels de la science ont aussi des partis pris. Les scientifiques citoyens sont même moins susceptibles d’avoir certains partis pris, comme ceux relatifs au prestige ou au financement, et ce goût pour les résultats positifs. Mais le fait que les scientifiques universitaires ne soient pas forcément meilleurs que n’importe quel scientifique citoyen ne signifie pas que nous devons ignorer les problèmes potentiels liés à la qualité des scientifiques citoyens. Afin de permettre plus de coopération entre les scientifiques citoyens et universitaires, nous devons insister sur la totale transparence concernant les conflits d’intérêt, tant pour les scientifiques universitaires que citoyens. Dans la recherche scientifique universitaire, il existe une saine discussion sur la qualité, les partis pris et les conflits d’intérêt. Dans la science citoyenne le sujet est difficilement évoqué, ce qui est une honte puisque certains partis pris sont moins susceptibles d’exister quand leur propriétaire en a conscience.

La qualité est souvent décrite comme être « adapté à la fonction ». Parfois, nous pouvons avoir besoin de données précises issues de capteurs onéreux. Dans de tels cas, la recherche universitaire pourrait aboutir à une meilleure qualité. Mais dans d’autre cas, nous pouvons avoir besoin d’une haute définition et ici de vastes groupes de citoyens sont plus à même de fournir de la haute qualité. La connaissance n’est adaptée au besoin que si elle est ouverte à ceux qui en ont besoin. Il est par conséquent important que les connaissances relatives au changement climatique et aux autres problèmes mondiaux soient totalement ouvertes.

Je pense qu’il serait bon que les scientifiques universitaires et citoyens aient un débat sur les raisons pour lesquelles des résultats de qualité sont utiles aux autres citoyens, aux décideurs politiques locaux et aux scientifiques universitaires suivant la fonction retenue. Si nous voulons partager les données entre les scientifiques citoyens et universitaires, ou entre les scientifiques citoyens et les décideurs, quelles sont les barrières et comment peut-on les dépasser ? Devons-nous trouver un ensemble de critères définissant la qualité (y compris l’accessibilité) qui soit satisfaisant pour les chercheurs scientifiques et gérable par les citoyens ?

7. Les biens communs

La plupart des enjeux soulevés dans les paragraphes précédents nous amènent à la notion de biens communs. Les biens communs incluent tout ce qui appartient à tout le monde, par exemple l’atmosphère, l’écosystème planétaire, la culture et les connaissances humaines.

La majeure partie de la richesse mondiale privée existe parce que les biens ou les services qui appartiennent aux biens communs peuvent souvent être accaparés sans payer, et qu’il n’y a pas d’obligation de restituer quelque chose aux biens communs.

Cela concerne les entreprises qui polluent ou s’approprient des ressources, les sociétés de divertissement commerciales qui prennent des contes traditionnels dans le domaine public pour les placer sous droits d’auteur, les entreprises qui brevètent des gènes qui sont en grande partie naturels, ainsi que les recherches scientifiques qui utilisent des contributions en provenance des biens communs, sans jamais restituer leurs résultats aux biens communs (Barnes, 2006).

Le changement climatique, la pollution et l’épuisement des ressources sont le problème de tout le monde. Ces problèmes font autant partie des biens communs que les solutions. Leur résolution n’a pas à dépendre d’une initiative privée. En partageant le savoir entre scientifiques universitaires et citoyens, nous pouvons travailler ensemble sur ces questions.

Les enclosures, c’est bon pour les poules dans Minetest… pas pour les enjeux mondiaux.

8. Débat et conclusion

Les scientifiques citoyens ne sont pas des anges envoyés de l’au-delà pour sauver la science. Ils ne sont pas là non plus pour détruire les institutions universitaires et prendre le pouvoir. Ils ont leurs propres programmes, imperfections et partis pris, comme les scientifiques universitaires. Une meilleure prise de conscience de ces partis pris peut améliorer la qualité de leur travail. Chaque débat sur la qualité doit être respectueux et ouvert, et tenir compte des limites de la science citoyenne et de ses pratiquants. Nous savons que les citoyens ne prennent pas toujours la bonne décision quand ils votent, ne votent pas ou achètent quelque chose. Donc pourquoi devrait-on compter sur eux pour résoudre les problèmes de la société ? On ne doit rien attendre de personne, mais nous devons impliquer toute l’aide disponible, et si les gens sont intrinsèquement motivés, nous ne devons pas les marginaliser

Bien que les groupes qui utilisent la science citoyenne pour résoudre les problèmes, dont à leur avis les institutions ne s’occupent pas, soient encore petits, l’intérêt qu’ils reçoivent des autres et la disponibilité des outils et des infrastructures faciles à utiliser peuvent conduire à des groupes plus nombreux et plus grands, et à un réseau plus fort d’individus. Ce que nous voyons actuellement est une tendance à l’indépendance des personnes qui pensent et qui font. Ils développeront peut-être un jour leurs propres institutions, mais risquent aussi de rester des groupes faiblement liés d’individus isolés.

C’est la même chose en ce qui concerne la transition vers une société de pair à pair. La transition est en cours. Elle n’a pas besoin d’une révolution mais elle croît à côté du système actuel. Elle accélère là où le système actuel échoue. Elle a besoin de cet élan, et si le système actuel résout soudain les problèmes, ou si le système P2P n’y arrive pas, cette tendance pourrait s’arrêter. Pour le moment, ça grandit.

Les citoyens ont envie de contribuer à trouver des solutions aux problèmes que le système néo-libéral échoue à résoudre, comme les problèmes d’environnement, de représentation démocratique (publiclab.org). Les citoyens partagent de plus en plus pour la prise de décision à mesure que notre société évolue vers un modèle P2P (Public Laboratory, 2016).

Les citoyens ont prouvé qu’ils étaient capables de formuler leurs propres thèmes de recherche, de monter leurs propres projets, de se former et de gérer des projets complexes. Il est temps de les prendre au sérieux.

Les scientifiques contribuent déjà à l’émancipation des citoyens en développant par exemple de nouvelles technologies et licences, mais celles-ci découlent de la connaissance scientifique. Il est aussi nécessaire de partager la connaissance elle-même. Si les scientifiques veulent que leurs résultats soient utiles, ils doivent les rendre accessibles aux citoyens.

Les connaissances créées par les citoyens peuvent être très utiles aux chercheurs universitaires. Néanmoins, l’initiative de donner quelque chose en retour à la communauté doit être prise par les chercheurs universitaires qui s’engagent dans des projets de science citoyenne.

Nous ne sommes pas loin de nous débarrasser de tout ce qui entrave la voie de la production collaborative de connaissances utiles. Il faudra des ajustements de part et d’autre pour rassembler la science citoyenne et la science universitaire, mais nous pouvons joindre nos efforts afin de rendre possible cette transition durable.

Comment ? En collaborant, on te dit, mon chaton !

Bibliographie

Banerjee, S. B. (2008). « Corporate Social Responsibility: The Good, the Bad and the Ugly ». Critical Sociology, 34(1), 51‑79. Accessible en ligne.

Barnes, P. (2006). « Capitalism 3.0: A Guide to Reclaiming the Commons ». San Francisco: Berrett-Koehler Publishers.

Bauwens, M. (2012). « Blueprint for P2P Society: The Partner State & Ethical Economy ». Consulté 30 mars 2017, à l’adresse http://www.shareable.net/blog/blueprint-for-p2p-society-the-partner-state-ethical-economy

Bauwens, M., & Lievens, J. (2016). « De wereld redden: met peer-to-peer naar een postkapitalistische samenleving ». Antwerpen: VBK – Houtekiet.

Bonney, R., et al. (2014). « Next Steps for Citizen Science ». Science, 343(6178), 1436‑1437. accessible en ligne.

Brafman, O., & Beckstrom, R. A. (2006). « The Starfish and the Spider: The Unstoppable Power of Leaderless Organizations ». Penguin.

Carlsson, B., & Gustavsson, R. (2001). « The Rise and Fall of Napster – An Evolutionary Approach ». Dans Active Media Technology (p. 347‑354). Springer, Berlin, Heidelberg. accessible en ligne

Cash, et al. (2003). « Knowledge systems for sustainable development ». Proceedings of the National Academy of Sciences, 100(14), 8086–8091.

CERN. (2011). « CERN releases new version of open hardware licence » | CERN. Consulté le 16 aout 2015, à l’adresse http://home.cern/about/updates/2013/09/cern-releases-new-version-open-hardware-licence

Chomsky, N. (1999). « Profit Over People: Neoliberalism and Global Order ». Seven Stories Press.

Diybio.org (2013). « Code of Ethics for diybio labs in Europe ». Consulté le 31 aout 2016 à l’adresse https://diybio.org/codes/draft-diybio-code-of-ethics-from-european-congress/

Dwan, K., et al. (2008). « Systematic Review of the Empirical Evidence of Study Publication Bias and Outcome Reporting Bias ». PLoS ONE, 3(8), e3081. accessible en ligne

Edwards, M., & Hulme, D. (1995). « Non-governmental Organisations: Performance and Accountability Beyond the Magic Bullet ». Earthscan publications LTD

Fablab. (2016). « Rules for use of Fablabs in Belgium, Luxembourg and the Netherlands ». Consulté le 31 aout 2016, à l’adresse http://fablab.nl/wat-is-een-fablab/fabcharter/

Fischer, F. (2000). « Citizens, Experts, and the Environment: The Politics of Local Knowledge ». Duke University Press.

Gershenfeld, N. (2012). « How to Make Almost Anything: The Digital Fabrication Revolution ». Foreign Affairs, 91, 43.

Graeber, D. (2013). « On the Phenomenon of Bullshit Jobs », Strike! Magazine, Summer, pp.201310-20133411.

Hauge, K. H., & Barwell, R. (2017). « Post-normal science and mathematics education in uncertain times: Educating future citizens for extended peer communities ». Futures. accessible en ligne

Irwin, A. (1995). « Citizen Science: A Study of People, Expertise and Sustainable Development ». Psychology Press.

Mansfield, B. (2011). « « Modern » industrial fisheries and the crisis of overfishing ». Global political ecology, 84-99.

Meet je Stad. (2015). « Guidelines for data collection by the flora observation group of Meet je Stad ». Consulté le 31 aout 2016, à l’adresse http://meetjestad.net/flora/?info

MIT. (1988). « GNU Public License ». Consulté le 9 avril 2014, à l’adresse http://web.mit.edu/drela/Public/web/gpl.txt

Pereira, Â., & Saltelli, A. (2017). « Post-normal institutional identities: Quality assurance, reflexivity and ethos of care ». Futures. accessible en ligne

Public Laboratory (2016). « Public Lab: a DIY environmental science community ». Consulté le 18 octobre 2016, à l’adresse https://publiclab.org/

Rotman, D. et al. (2012). « Dynamic Changes in Motivation in Collaborative Citizen-science Projects ». Dans Proceedings of the ACM 2012 Conference on Computer Supported Cooperative Work (p. 217–226). New York, NY, USA: ACM. accessible en ligne.

Saltelli, A., & Giampietro, M. (2017). « What is wrong with evidence based policy, and how can it be improved? » Futures. Consulté à l’adresse http://www.sciencedirect.com/science/article/pii/S0016328717300472.

Scherhorn, G. (2005). « Sustainability, Consumer Sovereignty, and the Concept of the Market ». Dans K. G. Grunert & J. Thøgersen (Éd.), Consumers, Policy and the Environment A Tribute to Folke Ölander (p. 301‑310). Springer US. accessible en ligne

Show (2015). « Rise of the citizen scientist ». Nature, 524(7565), 265‑265. accessible en ligne

Skidelsky (2012). « Return to capitalism « red in tooth and claw » spells economic madness ». The Guardian. Consulté le 05 avril 2014, à l’adresse https://www.theguardian.com/business/economics-blog/2012/jun/21/capitalism-red-tooth-claw-keynes?commentpage=2%26fb=native#post-area

Vermij, R. H. (2006). « Kleine geschiedenis van de wetenschap ». Uitgeverij Nieuwezijds.

Von Lode, P. (2005). « Point-of-care immunotesting: Approaching the analytical performance of central laboratory methods ». Clinical Biochemistry, 38(7), 591‑606. accessible en ligne.

Werlhof, C. von. (2008). « The Globalization of Neoliberalism, its Consequences, and Some of its Basic Alternatives ». Capitalism Nature Socialism, 19(3), 94‑117. accessible en ligne

Westheimer, J., & Kahne, J. (1998). « Education for action: Preparing youth for participatory democracy ». Press and Teachers College Press.




Framalibre : l’annuaire du libre renaît entre vos mains

Notre projet historique, l’annuaire de Framasoft, renaît de ses cendres… pour ouvrir encore plus grandes les portes du Libre.

Au commencement était l’annuaire…

OK : pas besoin de prendre un ton biblique non plus, mais il est vrai que c’est avec une émotion toute particulière qu’on vous présente cette refonte complète du tout premier projet, celui qui a fait naître Framasoft ; et qui, mine de rien, a défini notre identité.

Il y a 16 ans, en 2001, une prof de FRAnçais (Caroline d’Atabekian) et un prof de MAths (Alexis Kauffmann) commencent à s’échanger des listes de logiciels gratuits pour les salles d’ordinateurs de leurs établissements dont le budget informatique était grevé par les licences Windows.

Le projet plaît, et il évolue. On se rend compte que derrière certains logiciels gratuits, il existe des licences libres, des contrats garants de nos libertés et du respect de certaines valeurs. Alors on découvre le monde du Logiciel Libre, fait d’entraide (pour adapter les serveurs au succès croissant du site) et de collaboration (à côté des fiches pour les logiciels fleurissent les tutoriels d’utilisation).

Il faut attendre 2004 pour que ce premier site devienne un annuaire collaboratif de logiciels libres tel qu’on le connaît aujourd’hui. Un outil pratique, fait par et pour des « non-pros » de l’informatique, conçu comme une porte d’entrée vers ce monde numérique où les êtres humains et leurs libertés sont respectés. On y vient pour un besoin logiciel précis, on y retourne pour la chaleur de la communauté, et on se fait délicieusement contaminer par les valeurs du Libre.

#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 50%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */

« Framalibre – le reboot ? Euh… Hum… Oui-oui ! C’est pour… demain ! »

Cela fait bien cinq ans que nous savons l’annuaire vieillissant, avec des notices trop détaillées qui deviennent vite obsolètes. Cinq ans que d’atermoiements en hésitations (« Faut-il vraiment repartir de zéro ? », se demandait-on avec des yeux de Chat Potté), d’avancées en marches à reculons, nous nous rendons compte qu’il n’est plus adapté ni au Libre (qui désormais déborde largement du champ des seuls logiciels), ni à nos usages (avec des contributions passant par un wiki, un forum, puis un Spip… c’est pas lourd du tout du tout -_-).

Sauf que voilà : on a toujours une urgence qui vient de tomber (entraînée par un de nos serveurs), un nouveau Framabook ou une nouvelle Framakey sur le feu, un Internet à Dégoogliser… Et puis il est difficile d’admettre que le SPIP qui a vaillamment permis notre annuaire (et donc notre page d’accueil) depuis tant d’années n’était plus l’outil le mieux adapté et le plus accessible pour cet usage précis…

Il nous a donc fallu cinq ans (et de multiples abandons/blocages/coup de fouet/reprises du projet) pour vous proposer cette refonte, cette remise à zéro de l’annuaire. Ne vous inquiétez pas, si vous aimez l’ancien, nous en avons gardé une archive juste à cette adresse archive.framalibre.org 😉 ! Cinq ans, et le travail conjoint de nombreux membres, salariés, mais surtout partenaires : Smile, dans un premier temps, pour leurs templates de visualisation… Mais surtout Makina Corpus, entreprise toulousaine bien connue des visiteurs du Capitole du Libre, qui nous a fait un design et une intégration Drupal aux petits oignons et nous a accompagnés (avec Framatophe tenant vaillamment le cap) sur les derniers efforts que nous ne savions pas fournir nous-mêmes.

Grâce à ce mécénat de compétences, voici un projet mené à terme !

Voici Framalibre, 2e du nom…

Bon, c’est pas tout ça, mais est-ce que ça valait le coup d’attendre ? Que va-t-on trouver en guise d’annuaire Framasoft ?

Déjà on revient à quelque chose de simple. Les notices sont claires, concises, et vous mènent au plus vite vers le lien officiel de la ressource que vous consultez. Finies les notices hyper-détaillées et trop longues qui deviennent désuètes à la moindre mise à jour 😉 ! L’idée principale, c’est de trouver aisément et comme on le souhaite : on peut rechercher une notice selon sa catégorie, utiliser le système de tags, ou même se laisser porter par les suggestions, recommandations, les notices mises en avant, etc.

C’est aussi un annuaire qui facilite la collaboration. Avec un simple compte, vous pouvez voter pour les ressources que vous préférez (et donc les mettre en valeur), corriger ou mettre à jour une notice, en créer une nouvelle dans l’annuaire, ou plus simplement écrire une chronique (un tutoriel, un témoignage, ou bien votre avis sur telle ressource…). Cet annuaire, c’est vous qui le ferez, nous avons donc fait en sorte qu’il vous soit le plus ouvert possible. Et, avec Drupal, gageons que nous pourrons, ensuite, ouvrir les données engrangées via un système d’API (ceci est un souhait, pas une promesse — mais ce serait cool, hein ?)…

Enfin et surtout, Framalibre se veut un annuaire du Libre, en général, et non pas seulement du Logiciel Libre. Car nos vies numériques ne sont plus uniquement « virtuelles », et les libertés que nous défendons et nourrissons vont au-delà du logiciel.

Et voilà le visage du nouvel annuaire !

Désormais, vous pouvez rentrer dans l’annuaire et y trouver :

  • des outils informatifs, catégorie S’informer,
  • des logiciels, du matériel et des jeux de données libres, dans S’équiper,
  • des livres, albums, films et autres œuvres culturelles dans Se cultiver,
  • et même les entreprises, collectifs, associations et autres initiatives du monde du Libre dans pour bien S’entourer.

Depuis 2004, le monde du Libre a bien grandi… Il était temps d’en agrandir une des portes d’entrée ;).

Ouvrons les portes et nos communautés !

Un annuaire, c’est un bouquet de fleurs capiteuses… Attiré·e par la douce odeur de THE information pratique que l’on vient y chercher, on s’enivre du nectar des autres notices à disposition, on se perd dans la navigation et finit par découvrir un nouveau champ de possibilités et de libertés.

Nous ne comptons plus le nombre de fois, sur le stand d’une convention libriste, où nous rencontrons un·e convaincu·e, arborant fièrement le logo de sa « distro GNUnux » favorite sur son T-Shirt, et qui s’écrie plein·e de nostalgie :

« Oooh ! Framasoft ! Je me souviens, c’est sur votre site, là, que j’ai découvert mes premiers logiciels libres ! »

Nous, à l’écoute de telles exclamations (allégorie.)

C’est à nous, désormais, de préparer le terrain pour que les futures générations de libristes tombent dans la marmite de potion magique ! D’ailleurs, un énorme merci aux personnes qui ont saisi les 400 premières notices avant la mise en production <3 ! Oh et au fait : vos comptes beta.framalibre.org fonctionnent désormais sur framalibre.org 😉

C’est à nous, donc, de contribuer à cet annuaire et de le nourrir de ce qui nous intéresse et que l’on souhaite partager. Que ce soit des notices, des chroniques, des corrections ou de simples votes : ce sont toutes vos contributions qui pourront faire le succès de cette renaissance…

Une équipe de modération est déjà en place (mais aura vite besoin de nouveaux bras) et des ateliers de contribution commencent à s’organiser (dont un sur Toulouse, le 22 mars, avec le GULL Toulibre). En cette période où le Libre est en fête, faites-vous une joie de mettre en valeur des œuvres (logicielles, culturelles, matérielles, etc.) libres, parce que vous y contribuez ou en bénéficiez, ou simplement parce que vous les aimez et souhaitez les partager avec le plus grand nombre.

Nous, on va écraser une petite larmichette d’émotion sur cette page qui se tourne, et se remettre au boulot !

Allez, une nouvelle marmite pour tonton Richard !

Pour aller plus loin :




Des routes et des ponts (18) – À la croisée des chemins

Le 12 septembre dernier, Framalang commençait la traduction de l’ouvrage de Nadia Eghbal Des routes et des ponts. Aujourd’hui, nous vous proposons le dernier chapitre de ce livre.

Ce chapitre s’interroge sur la marche à suivre pour continuer les avancées technologiques et sociales des cultures open source et libres. Cette conclusion rappelle qu’à l’heure de l’information, tout le monde est concerné par les technologies ouvertes, bien que nous n’en ayons souvent que peu conscience. Ainsi, afin de pouvoir continuer d’utiliser cette infrastructure qui a été mise à notre disposition, nous devons nous mobiliser pour en garantir la pérennité.

À la croisée des chemins

par Nadia Eghbal

Traduction Framalang : goofy, MO, Luc, Lumibd, Rozmador, serici, Bromind, lyn., Bam92

L’état actuel de notre infrastructure numérique est un des problèmes les moins bien compris de notre temps. Il est vital de le comprendre.

En s’investissant bénévolement dans notre structure sous-jacente, les développeurs ont facilité la construction de logiciels pour autrui. En la fournissant gratuitement plutôt qu’en la facturant, ils ont alimenté une révolution de l’information.

Les développeurs n’ont pas fait cela pour être altruistes. Ils l’ont fait car c’était la meilleure manière de résoudre leurs propres problèmes. L’histoire du logiciel open source est l’un des grands triomphes de nos jours pour le bien public.

Nous avons de la chance que les développeurs aient limité les coûts cachés de ces investissements. Mais leurs investissements initiaux ne nous ont amenés que là où nous sommes aujourd’hui.

Nous ne sommes qu’au commencement de l’histoire de la transformation de l’humanité par le logiciel. Marc Andreessen, co-fondateur de Netscape et reconnu comme capital-risqueur derrière la société Andreessen Horowitz, remarque en 2011 que «le logiciel dévore le monde» (source). Depuis lors, cette pensée est devenue un mantra pour l’ère moderne.

Le logiciel touche tout ce que l’on fait : non seulement les frivolités et les loisirs, mais aussi les choses obligatoires et critiques. OpenSSL, le projet décrit au début de cet essai, le démontre bien. Dans une interview téléphonique, Steve Marquess explique qu’OpenSSL n’était pas utilisé seulement par les utilisateurs de sites web, mais aussi par les gouvernements, les drones, les satellites et tous «les gadgets que vous entendez bipper dans les hôpitaux» [Entretien téléphonique avec Steve Marquess, NdA.].

Le Network Time Protocol [protocole de temps par le réseau, NdT], maintenu par Harlan Stenn, synchronise les horloges utilisées par des milliards de périphériques connectés et touche tout ce qui contient un horodatage. Pas seulement les applications de conversations ou les courriels, mais aussi les marchés financiers, les enregistrements médicaux et la production de produits chimiques.

Et pourtant, Harlan note:

Il y a un besoin de soutenir l’infrastructure publique libre. Mais il n’y a pas de source de revenu disponible à l’heure actuelle. Les gens se plaignent lorsque leurs horloges sont décalées d’une seconde. Ils disent, «oui nous avons besoin de vous, mais nous ne pouvons pas vous donner de l’argent». (source)

Source – Licence CC-BY-SA 4.0

Durant ces cinq dernières années, l’infrastructure open source est devenue une couche essentielle de notre tissu social. Mais tout comme les startups ou la technologie elle-même, ce qui a fonctionné pour les 30 premières années de l’histoire de l’open source n’aidera plus à avancer. Pour maintenir notre rythme de progression, nous devons réinvestir dans les outils qui nous aident à construire des projets plus importants et de meilleure qualité.

Trouver un moyen de soutenir l’infrastructure numérique peut sembler intimidant, mais il y a de multiples raisons de voir le chemin à parcourir comme une opportunité.

Premièrement, l’infrastructure est déjà là, avec une valeur clairement démontrée. Ce rapport ne propose pas d’investir dans une idée sans plus-value. L’énorme contribution sociale de l’infrastructure numérique actuelle ne peut être ignorée ni mise de côté, comme cela est déjà arrivé dans des débats tout aussi importants sur les données, la vie privée, la neutralité du net, ou l’opposition entre investissement privé et investissement public. Il est dès lors plus facile de faire basculer les débats vers les solutions.

Deuxièmement, il existe déjà des communautés open source engagées et prospères avec lesquelles travailler. De nombreux développeurs s’identifient par le langage de programmation qu’ils utilisent (tels que Python ou JavaScript), la fonction qu’ils apportent (telles qu’analyste ou développeur opérationnels), ou un projet important (tels que Node.js ou Rails). Ce sont des communautés fortes, visibles, et enthousiastes.

Les constructeurs de notre infrastructure numérique sont connectés les uns aux autres, attentifs à leurs besoins, et techniquement talentueux. Ils ont déjà construit notre ville ; nous avons seulement besoin d’aider à maintenir les lumières allumées, de telle sorte qu’ils puissent continuer à faire ce qu’ils font de mieux.

Les infrastructures, qu’elles soient physiques ou numériques, ne sont pas faciles à comprendre, et leurs effets ne sont pas toujours visibles, mais cela doit nous encourager à les suivre plus en détail, pas moins. Quand une communauté a parlé si ouvertement et si souvent de ses besoins, tout ce que nous devons faire est d’écouter.

Remerciements

Merci à tous ceux qui ont courageusement accepté d’être mentionnés dans cet ouvrage, ainsi qu’à ceux dont les réponses honnêtes et réféléchies m’ont aidée à affiner ma pensée pendant la phase de recherche :
André Arko, Brian Behlendorf, Adam Benayoun, Juan Benet, Cory Benfield, Kris Borchers, John Edgar, Maciej Fijalkowski, Karl Fogel, Brian Ford, Sue Graves, Eric Holscher, Brandon Keepers, Russell Keith-Magee, Kyle Kemp, Jan Lehnardt, Jessica Lord, Steve Marquess, Karissa McKelvey, Heather Meeker, Philip Neustrom, Max Ogden, Arash Payan, Stormy Peters, Andrey Petrov, Peter Rabbitson, Mikeal Rogers, Hynek Schlawack, Boaz Sender, Quinn Slack, Chris Soghoian, Charlotte Spencer, Harlan Stenn, Diane Tate, Max Veytsman, Christopher Allan Webber, Chad Whitacre, Meredith Whittaker, Doug Wilson.

Merci à tous ceux qui ont écrit quelque chose de public qui a été référencé dans cet essai. C’était une partie importante de la recherche, et je remercie ceux dont les idées sont publiques pour que d’autres s’en inspirent.

Merci à Franz Nicolay pour la relecture et Brave UX pour le design de ce rapport.

Enfin, un très grand merci à Jenny Toomey et Michael Brennan pour m’avoir aidée à conduire ce projet avec patience et enthousiasme, à Lori McGlinchey et Freedman Consulting pour leur retours et à Ethan Zuckerman pour que la magie opère.


Framasoft remercie chaleureusement les 40 traducteurs et traductrices du groupe Framalang qui depuis septembre ont contribué à vous proposer cet ouvrage (qui sera disponible en Framabook… quand il sera prêt) :

Adélie, AFS, alien spoon, Anthony, Asta (Gatien Bovyn), astraia_spica, Bam92 (Abel Mbula), Bidouille, Bromind (Martin Vassor), Ced, dominix, Edgar Lori, flo, glissière de sécurité, goofy, goudron, Julien / Sphinx, jums, Laure, Luc, Lumibd, lyn, Mika, MO, Opsylac (Diane Ranville), pasquin, Penguin, peupleLà, Piup, roptat, Rozmador, salade, serici, teromene, Théo, urlgaga, woof, xi (Juliette Tibayrenc), xXx