Les nouveaux Leviathans III. Du capitalisme de surveillance à la fin de la démocratie ?

Une chronique de Xavier De La Porte1 sur le site de la radio France Culture pointe une sortie du tout nouveau président Emmanuel Macron parue sur le compte Twitter officiel : « Une start-up nation est une nation où chacun peut se dire qu’il pourra créer une startup. Je veux que la France en soit une ». Xavier De La Porte montre à quel point cette conception de la France en « start-up nation » est en réalité une vieille idée, qui reprend les archaïsmes des penseurs libéraux du XVIIe siècle, tout en provoquant un « désenchantement politique ». La série des Nouveaux Léviathans, dont voici le troisième numéro, part justement de cette idée et cherche à en décortiquer les arguments.

Note : voici le troisième volet de la série des Nouveaux (et anciens) Léviathans, initiée en 2016, par Christophe Masutti, alias Framatophe. Pour retrouver les articles précédents, une liste vous est présentée à la fin de celui-ci.

Dans cet article nous allons voir comment ce que Shoshana Zuboff nomme Big Other (cf. article précédent) trouve dans ces archaïques conceptions de l’État un lieu privilégié pour déployer une nouvelle forme d’organisation sociale et politique. L’idéologie-Silicon ne peut plus être aujourd’hui analysée comme un élan ultra-libéral auquel on opposerait des valeurs d’égalité ou de solidarité. Cette dialectique est dépassée car c’est le Contrat Social qui change de nature : la légitimité de l’État repose désormais sur des mécanismes d’expertise2 par lesquels le capitalisme de surveillance impose une logique de marché à tous les niveaux de l’organisation socio-économique, de la décision publique à l’engagement politique. Pour comprendre comment le terrain démocratique a changé à ce point et ce que cela implique dans l’organisation d’une nation, il faut analyser tour à tour le rôle des monopoles numériques, les choix de gouvernance qu’ils impliquent, et comprendre comment cette idéologie est non pas théorisée, mais en quelque sorte auto-légitimée, rendue presque nécessaire, parce qu’aucun choix politique ne s’y oppose. Le capitalisme de surveillance impliquerait-il la fin de la démocratie ?

“Big Brother”, par Stephan Mosel, sous licence CC BY 2.0

Libéralisme et Big Other

Dans Les Nouveaux Leviathans II, j’abordais la question du capitalisme de surveillance sous l’angle de la fin du modèle économique du marché libéral. L’utopie dont se réclame ce dernier, que ce soit de manière rhétorique ou réellement convaincue, suppose une auto-régulation du marché, théorie maintenue en particulier par Friedrich Hayek3. À l’opposé de cette théorie qui fait du marché la seule forme (auto-)équilibrée de l’économie, on trouve des auteurs comme Karl Polanyi4 qui, à partir de l’analyse historique et anthropologique, démontre non seulement que l’économie n’a pas toujours été organisée autour d’un marché libéral, mais aussi que le capitalisme « désencastre » l’économie des relations sociales, et provoque un déni du contrat social.

Or, avec le capitalisme de surveillance, cette opposition (qui date tout de même de la première moitié du XXe siècle) a vécu. Lorsque Shoshana Zuboff aborde la genèse du capitalisme de surveillance, elle montre comment, à partir de la logique de rationalisation du travail, on est passé à une société de marché dont les comportements individuels et collectifs sont quantifiés, analysés, surveillés, grâce aux big data, tout comme le (un certain) management d’entreprise quantifie et rationalise les procédures. Pour S. Zuboff, tout ceci concourt à l’avènement de Big Other, c’est-à-dire un régime socio-économique régulé par des mécanismes d’extraction des données, de marchandisation et de contrôle. Cependant, ce régime ne se confronte pas à l’État comme on pourrait le dire du libertarisme sous-jacent au néolibéralisme qui considère l’État au pire comme contraire aux libertés individuelles, au mieux comme une instance limitative des libertés. Encore pourrait-on dire qu’une dialectique entre l’État et le marché pourrait être bénéfique et aboutirait à une forme d’équilibre acceptable. Or, avec le capitalisme de surveillance, le politique lui-même devient un point d’appui pour Big Other, et il le devient parce que nous avons basculé d’un régime politique à un régime a-politique qui organise les équilibres sociaux sur les principes de l’offre marchande. Les instruments de cette organisation sont les big datas et la capacité de modeler la société sur l’offre.

C’est que je précisais en 2016 dans un ouvrage coordonné par Tristan Nitot, Nina Cercy, Numérique : reprendre le contrôle5, en ces termes :

(L)es firmes mettent en œuvre des pratiques d’extraction de données qui annihilent toute réciprocité du contrat avec les utilisateurs, jusqu’à créer un marché de la quotidienneté (nos données les plus intimes et à la fois les plus sociales). Ce sont nos comportements, notre expérience quotidienne, qui deviennent l’objet du marché et qui conditionne même la production des biens industriels (dont la vente dépend de nos comportements de consommateurs). Mieux : ce marché n’est plus soumis aux contraintes du hasard, du risque ou de l’imprédictibilité, comme le pensaient les chantres du libéralisme du XXe siècle : il est devenu malléable parce que ce sont nos comportements qui font l’objet d’une prédictibilité d’autant plus exacte que les big data peuvent être analysées avec des méthodes de plus en plus fiables et à grande échelle.

Si j’écris que nous sommes passés d’un régime politique à un régime a-politique, cela ne signifie pas que cette transformation soit radicale, bien entendu. Il existe et il existera toujours des tensions idéologiques à l’intérieur des institutions de l’État. C’est plutôt une question de proportions : aujourd’hui, la plus grande partie des décisions et des organes opérationnels sont motivés et guidés par des considérations relevant de situations déclarées impératives et non par des perspectives politiques. On peut citer par exemple le grand mouvement de « rigueur » incitant à la « maîtrise » des dépenses publiques imposée par les organismes financiers européens ; des décisions motivées uniquement par le remboursement des dettes et l’expertise financière et non par une stratégie du bien-être social. On peut citer aussi, d’un point de vue plus local et français, les contrats des institutions publiques avec Microsoft, à l’instar de l’Éducation Nationale, à l’encontre de l’avis d’une grande partie de la société civile, au détriment d’une offre différente (comme le libre et l’open source) et dont la justification est uniquement donnée par l’incapacité de la fonction publique à envisager d’autres solutions techniques, non par ignorance, mais à cause du détricotage massif des compétences internes. Ainsi « rationaliser » les dépenses publiques revient en fait à se priver justement de rationalité au profit d’une simple adaptation de l’organisation publique à un état de fait, un déterminisme qui n’est pas remis en question et condamne toute idéologie à être non pertinente.

Ce n’est pas pour autant qu’il faut ressortir les vieilles théories de la fin de l’histoire. Qui plus est, les derniers essais du genre, comme la thèse de Francis Fukuyama6, se sont concentrés justement sur l’avènement de la démocratie libérale conçue comme le consensus ultime mettant fin aux confrontations idéologiques (comme la fin de la Guerre Froide). Or, le capitalisme de surveillance a minima repousse toute velléité de consensus, au-delà du libéralisme, car il finit par définir l’État tout entier comme un instrument d’organisation, quelle que soit l’idéologie : si le nouveau régime de Big Other parvient à organiser le social, c’est aussi parce que ce dernier a désengagé le politique et relègue la décision publique au rang de validation des faits, c’est-à-dire l’acceptation des contrats entre les individus et les outils du capitalisme de surveillance.

Les mécanismes ne sont pas si nombreux et tiennent en quatre points :

  • le fait que les firmes soient des multinationales et surfent sur l’offre de la moins-disance juridique pour s’établir dans les pays (c’est la pratique du law shopping),
  • le fait que l’utilisation des données personnelles soit déloyale envers les individus-utilisateurs des services des firmes qui s’approprient les données,
  • le fait que les firmes entre elles adoptent des processus loyaux (pactes de non-agression, partage de marchés, acceptation de monopoles, rachats convenus, etc.) et passent des contrats iniques avec les institutions, avec l’appui de l’expertise, faisant perdre aux États leur souveraineté numérique,
  • le fait que les monopoles « du numérique » diversifient tellement leurs activités vers les secteurs industriels qu’ils finissent par organiser une grande partie des dynamiques d’innovation et de concurrence à l’échelle mondiale.

Pour résumer les trois conceptions de l’économie dont il vient d’être question, on peut dresser ce tableau :

Économie Forme Individus État
Économie spontanée Diversité et créativité des formes d’échanges, du don à la financiarisation Régulent l’économie par la démocratie ; les échanges sont d’abord des relations sociales Garant de la redistribution équitable des richesses ; régulateur des échanges et des comportements
Marché libéral Auto-régulation, défense des libertés économiques contre la décision publique (conception libérale de la démocratie : liberté des échanges et de la propriété) Agents consommateurs décisionnaires dans un milieu concurrentiel Réguler le marché contre ses dérives inégalitaires ; maintient une démocratie plus ou moins forte
Capitalisme de surveillance Les monopoles façonnent les échanges, créent (tous) les besoins en fonction de leurs capacités de production et des big data Sont exclusivement utilisateurs des biens et services Automatisation du droit adapté aux besoins de l’organisation économique ; sécurisation des conditions du marché

Il est important de comprendre deux aspects de ce tableau :

  • il ne cherche pas à induire une progression historique et linéaire entre les différentes formes de l’économie et des rapports de forces : ces rapports sont le plus souvent diffus, selon les époques, les cultures. Il y a une économie spontanée à l’Antiquité comme on pourrait par exemple, comprendre les monnaies alternatives d’aujourd’hui comme des formes spontanées d’organisation des échanges.
  • aucune de ces cases ne correspond réellement à des conceptions théorisées. Il s’agit essentiellement de voir comment le capitalisme de surveillance induit une distorsion dans l’organisation économique : alors que dans des formes classiques de l’organisation économique, ce sont les acteurs qui produisent l’organisation, le capitalisme de surveillance induit non seulement la fin du marché libéral (vu comme place d’échange équilibrée de biens et services concurrentiels) mais exclut toute possibilité de régulation par les individus / citoyens : ceux-ci sont vus uniquement comme des utilisateurs de services, et l’État comme un pourvoyeur de services publics. La décision publique, elle, est une affaire d’accord entre les monopoles et l’État.

“FREE SPEECH” par Newtown grafitti, licence CC BY 2.0

Les monopoles et l’État

Pour sa première visite en Europe, Sundar Pichai qui était alors en février 2016 le nouveau CEO de Google Inc. , choisit les locaux de Sciences Po. Paris pour tenir une conférence de presse7, en particulier devant les élèves de l’école de journalisme. Le choix n’était pas anodin, puisqu’à ce moment-là Google s’est présenté en grand défenseur de la liberté d’expression (par un ensemble d’outils, de type reverse-proxy que la firme est prête à proposer aux journalistes pour mener leurs investigations), en pourvoyeur de moyens efficaces pour lutter contre le terrorisme, en proposant à qui veut l’entendre des partenariats avec les éditeurs, et de manière générale en s’investissant dans l’innovation numérique en France (voir le partenariat Numa / Google). Tout cela démontre, s’il en était encore besoin, à quel point la firme Google (et Alphabet en général) est capable de proposer une offre si globale qu’elle couvre les fonctions de l’État : en réalité, à Paris lors de cette conférence, alors que paradoxalement elle se tenait dans les locaux où étudient ceux qui demain sont censés remplir des fonctions régaliennes, Sundar Pichai ne s’adressait pas aux autorités de l’État mais aux entreprises (éditeurs) pour leur proposer des instruments qui garantissent leurs libertés. Avec comme sous-entendu : vous évoluez dans un pays dont la liberté d’expression est l’un des fleurons, mais votre gouvernement n’est pas capable de vous le garantir mieux que nous, donc adhérez à Google. Les domaines de la santé, des systèmes d’informations et l’éducation en sont pas exempts de cette offre « numérique ».

Du côté du secteur public, le meilleur moyen de ne pas perdre la face est de monter dans le train suivant l’adage « Puisque ces mystères nous dépassent, feignons d’en être l’organisateur ». Par exemple, si Google et Facebook ont une telle puissance capable de mener efficacement une lutte, au moins médiatique, contre le terrorisme, à l’instar de leurs campagnes de propagande8, il faut créer des accords de collaboration entre l’État et ces firmes9, quitte à les faire passer comme une exigence gouvernementale (mais quel État ne perdrait pas la face devant le poids financier des GAFAM ?).

… Et tout cela crée un marché de la gouvernance dans lequel on ne compte plus les millions d’investissement des GAFAM. Ainsi, la gouvernance est un marché pour Microsoft, qui lance un Office 2015 spécial « secteur public », ou, mieux, qui sait admirablement se situer dans les appels d’offre en promouvant des solutions pour tous les besoins d’organisation de l’État. Par exemple, la présentation des activités de Microsoft dans le secteur public sur son site comporte ces items :

  • Stimulez la transformation numérique du secteur public
  • Optimisez l’administration publique
  • Transformez des services du secteur public
  • Améliorez l’efficacité des employés du secteur public
  • Mobilisez les citoyens

Microsoft dans le secteur public

Microsoft Office pour le secteur public

D’aucuns diraient que ce que font les GAFAM, c’est proposer un nouveau modèle social. Par exemple dans une enquête percutante sur les entreprises de la Silicon Valley, Philippe Vion-Dury définit ce nouveau modèle comme « politiquement technocratique, économiquement libéral, culturellement libertaire, le tout nimbé de messianisme typiquement américain »10. Et il a entièrement raison, sauf qu’il ne s’agit pas d’un modèle social, c’est justement le contraire, c’est un modèle de gouvernance sans politique, qui considère le social comme la juxtaposition d’utilisateurs et de groupes d’utilisateurs. Comme le montre l’offre de Microsoft, si cette firme est capable de fournir un service propre à « mobiliser les citoyens  » et si en même temps, grâce à ce même fournisseur, vous avez les outils pour transformer des services du secteur public, quel besoin y aurait-il de voter, de persuader, de discuter ? si tous les avis des citoyens sont analysés et surtout anticipés par les big datas, et si les seuls outils efficaces de l’organisation publique résident dans l’offre des GAFAM, quel besoin y aurait-il de parler de démocratie  ?

En réalité, comme on va le voir, tout cette nouvelle configuration du capitalisme de surveillance n’est pas seulement rendue possible par la puissance novatrice des monopoles du numérique. C’est peut-être un biais : penser que leur puissance d’innovation est telle qu’aucune offre concurrente ne peut exister. En fait, même si l’offre était moindre, elle n’en serait pas moins adoptée car tout réside dans la capacité de la décision publique à déterminer la nécessité d’adopter ou non les services des GAFAM. C’est l’aménagement d’un terrain favorable qui permet à l’offre de la gouvernance numérique d’être proposée. Ce terrain, c’est la décision par l’expertise.


“Work-buy-consume-die”, par Mika Raento, sous licence CC BY 2.0
(trad. : « Participez à l’hilarante aventure d’une vie : travaillez, achetez, consommez, mourez. »)

L’accueil favorable au capitalisme de surveillance

Dans son livre The united states of Google11, Götz Haman fait un compte-rendu d’une conférence durant laquelle interviennent Eric Schmidt, alors président du conseil d’administration de Google, et son collègue Jared Cohen. Ces derniers ont écrit un ouvrage (The New Digital Age) qu’ils présentent dans les grandes lignes. Götz Haman le résume en ces termes : « Aux yeux de Google, les États sont dépassés. Ils n’ont rien qui permette de résoudre les problèmes du XXIe siècle, tels le changement climatique, la pauvreté, l’accès à la santé. Seules les inventions techniques peuvent mener vers le Salut, affirment Schmidt et son camarade Cohen. »

Une fois cette idéologie — celle du capitalisme de surveillance12 — évoquée, il faut s’interroger sur la raison pour laquelle les États renvoient cette image d’impuissance. En fait, les sociétés occidentales modernes ont tellement accru leur consommation de services que l’offre est devenue surpuissante, à tel point, comme le montre Shoshanna Zuboff, que les utilisateurs eux-mêmes sont devenus à la fois les pourvoyeurs de matière première (les données) et les consommateurs. Or, si nous nous plaçons dans une conception de la société comme un unique marché où les relations sociales peuvent être modelées par l’offre de services (ce qui se cristallise aujourd’hui par ce qu’on nomme dans l’expression-valise « Uberisation de la société »), ce qui relève de la décision publique ne peut être motivé que par l’analyse de ce qu’il y a de mieux pour ce marché, c’est-à-dire le calcul de rentabilité, de rendement, d’efficacité… d’utilité. Or cette analyse ne peut être à son tour fournie par une idéologie visionnaire, une utopie ou simplement l’imaginaire politique : seule l’expertise de l’état du monde pour ce qu’il est à un instant T permet de justifier l’action publique. Il faut donc passer du concept de gouvernement politique au concept de gouvernance par les instruments. Et ces instruments doivent reposer sur les GAFAM.

Pour comprendre au mieux ce que c’est que gouverner par les instruments, il faut faire un petit détour conceptuel.

L’expertise et les instruments

Prenons un exemple. La situation politique qu’a connue l’Italie après novembre 2011 pourrait à bien des égards se comparer avec la récente élection en France d’Emmanuel Macron et les élections législatives qui ont suivi. En effet, après le gouvernement de Silvio Berlusconi, la présidence italienne a nommé Mario Monti pour former un gouvernement dont les membres sont essentiellement reconnus pour leurs compétences techniques appliquées en situation de crise économique. La raison du soutien populaire à cette nomination pour le moins discutable (M. Monti a été nommé sénateur à vie, reconnaissance habituellement réservée aux anciens présidents de République Italienne) réside surtout dans le désaveu de la casta, c’est-à-dire le système des partis qui a dominé la vie politique italienne depuis maintes années et qui n’a pas réussi à endiguer les effets de la crise financière de 2008. Si bien que le gouvernement de Mario Monti peut être qualifié de « gouvernement des experts », non pas un gouvernement technocratique noyé dans le fatras administratif des normes et des procédures, mais un gouvernement à l’image de Mario Monti lui-même, ex-commissaire européen au long cours, motivé par la nécessité technique de résoudre la crise en coopération avec l’Union Européenne. Pour reprendre les termes de l’historien Peppino Ortoleva, à propos de ce gouvernement dans l’étude de cas qu’il consacre à l’Italie13 en 2012 :

Le « gouvernement des experts » se présente d’un côté comme le gouvernement de l’objectivité et des chiffres, celui qui peut rendre compte à l’Union européenne et au système financier international, et d’un autre côté comme le premier gouvernement indépendant des partis.

Peppino Ortoleva conclut alors que cet exemple italien ne représente que les prémices pour d’autres gouvernements du même acabit dans d’autres pays, avec tous les questionnements que cela suppose en termes de débat politique et démocratique : si en effet la décision publique n’est mue que par la nécessité (ici la crise financière et la réponse aux injonctions de la Commission européenne) quelle place peut encore tenir le débat démocratique et l’autonomie décisionnaire des peuples ?

En son temps déjà le « There is no alternative » de Margaret Thatcher imposait par la force des séries de réformes au nom de la nécessité et de l’expertise économiques. On ne compte plus, en Europe, les gouvernements qui nomment des groupes d’expertise, conseils et autres comités censés répondre aux questions techniques que pose l’environnement économique changeant, en particulier en situation de crise.

Cette expertise a souvent été confondue avec la technocratie, à l’instar de l’ouvrage de Vincent Dubois et Delphine Dulong publié en 2000, La question technocratique14. Lorsqu’en effet la décision publique se justifie exclusivement par la nécessité, cela signifie que cette dernière est définie en fonction d’une certaine compréhension de l’environnement socio-économique. Par exemple, si l’on part du principe que la seule réponse à la crise financière est la réduction des dépenses publiques, les technocrates inventeront les instruments pour rendre opérationnelle la décision publique, les experts identifieront les méthodes et l’expertise justifiera les décisions (on remet en cause un avis issu d’une estimation de ce que devrait être le monde, mais pas celui issu d’un calcul d’expert).

La technocratie comme l’expertise se situent hors des partis, mais la technocratie concerne surtout l’organisation du gouvernement. Elle répond souvent aux contraintes de centralisation de la décision publique. Elle crée des instruments de surveillance, de contrôle, de gestion, etc. capables de permettre à un gouvernement d’imposer, par exemple, une transformation économique du service public. L’illustration convaincante est le gouvernement Thatcher, qui dès 1979 a mis en place plusieurs instruments de contrôle visant à libéraliser le secteur public en cassant les pratiques locales et en imposant un système concurrentiel. Ce faisant, il démontrait aussi que le choix des instruments suppose aussi des choix d’exercice du pouvoir, tels ceux guidés par la croyance en la supériorité des mécanismes de marché pour organiser l’économie15.

Gouverner par l’expertise ne signifie donc pas que le gouvernement manque de compétences en son sein pour prendre les (bonnes ou mauvaises) décisions publiques. Les technocrates existent et sont eux aussi des experts. En revanche, l’expertise permet surtout de justifier les choix, les stratégies publiques, en interprétant le monde comme un environnement qui contraint ces choix, sans alternative.

En parlant d’alternative, justement, on peut s’interroger sur celles qui relèvent de la société civile et portées tant bien que mal à la connaissance du gouvernement. La question du logiciel libre est, là encore, un bon exemple.

En novembre 2016, Framasoft publiait un billet retentissant intitulé « Pourquoi Framasoft n’ira plus prendre le thé au ministère de l’Éducation Nationale ». La raison de ce billet est la prise de conscience qu’après plus de treize ans d’efforts de sensibilisation au logiciel libre envers les autorités publiques, et en particulier l’Éducation Nationale, Framasoft ne pouvait plus dépenser de l’énergie à coopérer avec une telle institution si celle-ci finissait fatalement par signer contrats sur contrats avec Microsoft ou Google. En fait, le raisonnement va plus loin et j’y reviendrai plus tard dans ce texte. Mais il faut comprendre que ce à quoi Framasoft s’est confronté est exactement ce gouvernement par l’expertise. En effet, les communautés du logiciel libre n’apportent une expertise que dans la mesure où elles proposent de changer de modèle : récupérer une autonomie numérique en développant des compétences et des initiatives qui visent à atteindre un fonctionnement idéal (des données protégées, des solutions informatiques modulables, une contribution collective au code, etc.). Or, ce que le gouvernement attend de l’expertise, ce n’est pas un but à atteindre, c’est savoir comment adapter l’organisation au modèle existant, c’est-à-dire celui du marché.

Dans le cadre des élections législatives, l’infatigable association APRIL (« promouvoir et défendre le logiciel libre ») lance sa campagne de promotion de la priorité au logiciel libre dans l’administration publique. À chaque fois, la campagne connaît un certain succès et des députés s’engagent réellement dans cette cause qu’ils plaident même à l’intérieur de l’Assemblée Nationale. Sous le gouvernement de F. Hollande, on a entendu des députés comme Christian Paul ou Isabelle Attard avancer les arguments les plus pertinents et sans ménager leurs efforts, convaincus de l’intérêt du Libre. À leur image, il serait faux de dire que la sphère politique est toute entière hermétique au logiciel libre et aux équilibres numériques et économiques qu’il porte en lui. Peine perdue ? À voir les contrats passés entre le gouvernement et les GAFAM, c’est un constat qu’on ne peut pas écarter et sans doute au profit d’une autre forme de mobilisation, celle du peuple lui-même, car lui seul est capable de porter une alternative là où justement la politique a cédé la place : dans la décision publique.

La rencontre entre la conception du marché comme seule organisation gouvernementale des rapports sociaux et de l’expertise qui détermine les contextes et les nécessités de la prise de décision a permis l’émergence d’un terrain favorable à l’État-GAFAM. Pour s’en convaincre il suffit de faire un tour du côté de ce qu’on a appelé la « modernisation de l’État ».

Les firmes à la gouvernance numérique

Anciennement la Direction des Systèmes d’Information (DSI), la DINSIC (Direction Interministérielle du Numérique et du Système d’Information et de Communication) définit les stratégies et pilote les structures informationnelles de l’État français. Elle prend notamment part au mouvement de « modernisation » de l’État. Ce mouvement est en réalité une cristallisation de l’activité de réforme autour de l’informatisation commencée dans les années 1980. Cette activité de réforme a généré des compétences et assez d’expertise pour être institutionnalisée (DRB, DGME, aujourd’hui DIATP — Direction interministérielle pour l’accompagnement des transformations publiques). On se perd facilement à travers les acronymes, les ministères de rattachement, les changements de noms au rythme des fusions des services entre eux. Néanmoins, le concept même de réforme n’a pas évolué depuis les grandes réformes des années 1950 : il faut toujours adapter le fonctionnement des administrations publiques au monde qui change, en particulier le numérique.

La différence, aujourd’hui, c’est que cette adaptation ne se fait pas en fonction de stratégies politiques, mais en fonction d’un cadre de productivité, dont on dit qu’il est un « contrat de performance » ; cette performance étant évaluée par des outils de contrôle : augmenter le rendement de l’administration en « rationalisant » les effectifs, automatiser les services publics (par exemple déclarer ses impôts en ligne, payer ses amendes en lignes, etc.), expertiser (accompagner) les besoins des systèmes d’informations selon les offres du marché, limiter les instances en adaptant des méthodes agiles de prise de décision basées sur des outils numériques de l’analyse de data, maîtrise des coûts….

C’est que nous dit en substance la Synthèse présentant le Cadre stratégique commun du système d’information de l’Etat, c’est-à-dire la feuille de route de la DINSIC. Dans une section intitulée « Pourquoi se transformer est une nécessite ? », on trouve :

Continuer à faire évoluer les systèmes d’information est nécessaire pour répondre aux enjeux publics de demain : il s’agit d’un outil de production de l’administration, qui doit délivrer des services plus performants aux usagers, faciliter et accompagner les réformes de l’État, rendre possible les politiques publiques transverses à plusieurs administrations, s’intégrer dans une dimension européenne.

Cette feuille de route concerne en fait deux grandes orientations : l’amélioration de l’organisation interne aux institutions gouvernementales et les interfaces avec les citoyens. Il est flagrant de constater que, pour ce qui concerne la dimension interne, certains projets que l’on trouve mentionnés dans le Panorama des grands projets SI de l’Etat font appel à des solutions open source et les opérateurs sont publics, notamment par souci d’efficacité, comme c’est le cas, par exemple pour le projet VITAM, relatif à l’archivage. En revanche, lorsqu’il s’agit des relations avec les citoyens-utilisateurs, c’est-à-dires les « usagers », ce sont des entreprises comme Microsoft qui entrent en jeu et se substituent à l’État, comme c’est le cas par exemple du grand projet France Connect, dont Microsoft France est partenaire.

En effet, France Connect est une plateforme centralisée visant à permettre aux citoyens d’effectuer des démarches en ligne (pour les particuliers, pour les entreprises, etc.). Pour permettre aux collectivités et aux institutions qui mettent en place une « offre » de démarche en ligne, Microsoft propose en open source des « kit de démarrage », c’est à dire des modèles, qui vont permettre à ces administrations d’offrir ces services aux usagers. En d’autres termes, c’est chaque collectivité ou administration qui va devenir fournisseur de service, dans un contexte de développement technique mutualisé (d’où l’intérêt ici de l’open source). Ce faisant, l’État n’agit plus comme maître d’œuvre, ni même comme arbitre : c’est Microsoft qui se charge d’orchestrer (par les outils techniques choisis, et ce n’est jamais neutre) un marché de l’offre de services dont les acteurs sont les collectivités et administrations. De là, il est tout à fait possible d’imaginer une concurrence, par exemple entre des collectivités comme les mairies, entre celles qui auront une telle offre de services permettant d’attirer des contribuables et des entreprises sur son territoire, et celles qui resteront coincées dans les procédures administratives réputées archaïques.

Microsoft : contribuer à FranceConnect

En se plaçant ainsi non plus en prestataire de produits mais en tuteur, Microsoft organise le marché de l’offre de service public numérique. Mais la firme va beaucoup plus loin, car elle bénéficie désormais d’une grande expérience, reconnue, en matière de service public. Ainsi, lorsqu’il s’agit d’anticiper les besoins et les changements, elle est non seulement à la pointe de l’expertise mais aussi fortement enracinée dans les processus de la décision publique. Sur le site Econocom en 2015, l’interview de Raphaël Mastier16, directeur du pôle Santé de Microsoft France, est éloquent sur ce point. Partant du principe que « historiquement le numérique n’a pas été considéré comme stratégique dans le monde hospitalier », Microsoft propose des outils « d’analyse et de pilotage », et même l’utilisation de l’analyse prédictive des big data pour anticiper les temps d’attentes aux urgences : « grâce au machine learning, il sera possible de s’organiser beaucoup plus efficacement ». Avec de tels arguments, en effet, qui irait à l’encontre de l’expérience microsoftienne dans les services publics si c’est un gage d’efficacité ? on comprend mieux alors, dans le monde hospitalier, l’accord-cadre CAIH-Microsoft qui consolide durablement le marché Microsoft avec les hôpitaux.

Au-delà de ces exemples, on voit bien que cette nouvelle forme de gouvernance à la Big Other rend ces instruments légitimes car ils produisent le marché et donc l’organisation sociale. Cette transformation de l’État est parfaitement assumée par les autorités, arguant par exemple dans un billet sur gouvernement.fr intitulé « Le numérique : instrument de la transformation de l’État », en faveur de l’allégement des procédures, de la dématérialisation, de la mise à disposition des bases de données (qui va les valoriser ?), etc. En somme autant d’arguments dont il est impossible de nier l’intérêt collectif et qui font, en règle générale, l’objet d’un consensus.

Le groupe canadien CGI, l’un des leaders mondiaux en technologies et gestion de l’information, œuvre aussi en France, notamment en partenariat avec l’UGAP (Union des Groupements d’Achats Publics). Sur son blog, dans un Billet du 2 mai 201717, CGI résume très bien le discours dominant de l’action publique dans ce domaine (et donc l’intérêt de son offre de services), en trois points :

  1. Réduire les coûts. Le sous-entendu consiste à affirmer que si l’État organise seul sa transformation numérique, le budget sera trop conséquent. Ce qui reste encore à prouver au vu des montants en jeu dans les accords de partenariat entre l’État et les firmes, et la nature des contrats (on peut souligner les clauses concernant les mises à jour chez Microsoft) ;
  2. Le secteur public accuse un retard numérique. C’est l’argument qui justifie la délégation du numérique sur le marché, ainsi que l’urgence des décisions, et qui, par effet de bord, contrevient à la souveraineté numérique de l’État.
  3. Il faut améliorer « l’expérience citoyen ». C’est-à-dire que l’objectif est de transformer tous les citoyens en utilisateurs de services publics numériques et, comme on l’a vu plus haut, organiser une offre concurrentielle de services entre les institutions et les collectivités.

Du côté des décideurs publics, les choix et les décisions se justifient sur un mode Thatchérien (il n’y a pas d’alternative). Lorsqu’une alternative est proposée, tel le logiciel libre, tout le jeu consiste à donner une image politique positive pour ensuite orienter la stratégie différemment.

Sur ce point, l’exemple de Framasoft est éloquent et c’est quelque chose qui n’a pas forcément été perçu lors de la publication de la déclaration « Pourquoi Framasoft n’ira plus prendre le thé…» (citée précédemment). Il s’agit de l’utilisation de l’alternative libriste pour légitimer l’appel à une offre concurrentielle sur le marché des firmes. En effet, les personnels de l’Éducation Nationale utilisent massivement les services que Framasoft propose dans le cadre de sa campagne « Degooglisons Internet ». Or, l’institution pourrait très bien, sur le modèle promu par Framasoft, installer ces mêmes services, et ainsi offrir ces solutions pour un usage généralisé dans les écoles, collèges et lycées. C’est justement le but de la campagne de Framasoft que de proposer une vaste démonstration pour que des organisations retrouvent leur autonomie numérique. Les contacts que Framasoft a noué à ce propos avec différentes instances de l’Éducation Nationale se résumaient finalement soit à ce que Framasoft et ses bénévoles proposent un service à la carte dont l’ambition est bien loin d’une offre de service à l’échelle institutionnelle, soit participe à quelques comités d’expertise sur le numérique à l’école. L’idée sous-jacente est que l’Éducation Nationale ne peut faire autrement que de demander à des prestataires de mettre en place une offre numérique clé en main et onéreuse, alors même que Framasoft propose tous ses services au grand public avec des moyens financiers et humains ridiculement petits.

Dès lors, après la signature du partenariat entre le MEN et Microsoft, le message a été clairement formulé à Framasoft (et aux communautés du Libre en général), par un Tweet de la Ministre Najat Vallaud-Belkacem exprimant en substance la « neutralité technologique » du ministère (ce qui justifie donc le choix de Microsoft comme objectivement la meilleure offre du marché) et l’idée que les « éditeurs de logiciels libres » devraient proposer eux aussi leurs solutions, c’est-à-dire entrer sur le marché concurrentiel. Cette distorsion dans la compréhension de ce que sont les alternatives libres (non pas un produit mais un engagement) a été confirmée à plusieurs reprises par la suite : les solutions libres et leurs usages à l’Éducation Nationale peuvent être utilisées pour « mettre en tension » le marché et négocier des tarifs avec les firmes comme Microsoft, ou du moins servir d’épouvantail (dont on peut s’interroger sur l’efficacité réelle devant la puissance promotionnelle et lobbyiste des firmes en question).

On peut conclure de cette histoire que si la décision publique tient à ce point à discréditer les solutions alternatives qui échappent au marché des monopoles, c’est qu’une idéologie est à l’œuvre qui empêche toute forme d’initiative qui embarquerait le gouvernement dans une dynamique différente. Elle peut par exemple placer les décideurs devant une incapacité structurelle18 de choisir des alternatives proposant des logiciels libres, invoquant par exemple le droit des marchés publics voire la Constitution, alors que l’exclusion du logiciel libre n’est pas réglementaire19.

Ministre de l’Éducation Nationale et Microsoft

L’idéologie de Silicon

En février 2017, quelques jours à peine après l’élection de Donald Trump à présidence des États-Unis, le PDG de Facebook, Mark Zuckerberg, publie sur son blog un manifeste20 remarquable à l’encontre de la politique isolationniste et réactionnaire du nouveau président. Il cite notamment tous les outils que Facebook déploie au service des utilisateurs et montre combien ils sont les vecteurs d’une grande communauté mondiale unie et solidaire. Tous les concepts de la cohésion sociale y passent, de la solidarité à la liberté de l’information, c’est-à-dire ce que le gouvernement est, aux yeux de Zuckerberg, incapable de garantir correctement à ses citoyens, et ce que les partisans de Trump en particulier menacent ouvertement.

Au moins, si les idées de Mark Zuckerberg semblent pertinentes aux yeux des détracteurs de Donald Trump, on peut néanmoins s’interroger sur l’idéologie à laquelle se rattache, de son côté, le PDG de Facebook. En réalité, pour lui, Donald Trump est la démonstration évidente que l’État ne devrait occuper ni l’espace social ni l’espace économique et que seul le marché et l’offre numérique sont en mesure d’intégrer les relations sociales.

Cette idéologie a déjà été illustrée par Fred Tuner, dans son ouvrage Aux sources de l’utopie numérique21. À propos de ce livre, j’écrivais en 201622 :

(…) Fred Turner montre comment les mouvements communautaires de contre-culture ont soit échoué par désillusion, soit se sont recentrés (surtout dans les années 1980) autour de techno-valeurs, en particulier portées par des leaders charismatiques géniaux à la manière de Steve Jobs un peu plus tard. L’idée dominante est que la revendication politique a échoué à bâtir un monde meilleur ; c’est en apportant des solutions techniques que nous serons capables de résoudre nos problèmes.

Cette analyse un peu rapide passe sous silence la principale clé de lecture de Fred Tuner : l’émergence de nouveaux modes d’organisation économique du travail, en particulier le freelance et la collaboration en réseau. Comme je l’ai montré, le mouvement de la contre-culture californienne des années 1970 a permis la création de nouvelles pratiques d’échanges numériques utilisant les réseaux existants, comme le projet Community Memory, c’est-à-dire des utopies de solidarité, d’égalité et de liberté d’information dans une Amérique en proie au doute et à l’autoritarisme, notamment au sortir de la Guerre du Vietnam. Mais ce faisant, les années 1980, elles, ont développé à partir de ces idéaux la vision d’un monde où, en réaction à un État conservateur et disciplinaire, ce dernier se trouverait dépossédé de ses prérogatives de régulation, au profit de l’autonomie des citoyens dans leurs choix économiques et leurs coopérations. C’est l’avènement des principes du libertarisme grâce aux outils numériques. Et ce que montre Fred Turner, c’est que ce mouvement contre-culturel a ainsi paradoxalement préparé le terrain aux politiques libérales de dérégulation économique des années 1980-1990. C’est la volonté de réduire au strict minimum le rôle de l’État, garant des libertés individuelles, afin de permettre aux individus d’exercer leurs droits de propriété (sur leurs biens et sur eux-mêmes) dans un ordre social qui se définit uniquement comme un marché. À ce titre, pour ce qu’il est devenu, ce libertarisme est une résurgence radicale du libéralisme à la Hayek (la société démocratique libérale est un marché concurrentiel) doublé d’une conception utilitaire des individus et de leurs actions.

Néanmoins, tels ne sont pas exactement les principes du libertarisme, mais ceux-ci ayant cours dans une économie libérale, ils ne peuvent qu’aboutir à des modèles économiques basés sur une forme de collaboration dérégulée, anti-étatique, puisque la forme du marché, ici, consiste à dresser la liberté des échanges et de la propriété contre un État dont les principes du droit sont vécus comme arbitrairement interventionnistes. Les concepts tels la solidarité, l’égalité, la justice sont remplacés par l’utilité, le choix, le droit.

Un exemple intéressant de ce renversement concernant le droit, est celui du droit de la concurrence appliqué à la question de la neutralité des plateformes, des réseaux, etc. Regardons les plateformes de service. Pourquoi assistons-nous à une forme de schizophrénie entre une Commission européenne pour qui la neutralité d’internet et des plateformes est une condition d’ouverture de l’économie numérique et la bataille contre cette même neutralité appliquée aux individus censés être libres de disposer de leurs données et les protéger, notamment grâce au chiffrement ? Certes, les mesures de lutte contre le terrorisme justifient de s’interroger sur la pertinence d’une neutralité absolue (s’interroger seulement, car le chiffrement ne devrait jamais être remis en cause), mais la question est surtout de savoir quel est le rôle de l’État dans une économie numérique ouverte reposant sur la neutralité d’Internet et des plateformes. Dès lors, nous avons d’un côté la nécessité que l’État puisse intervenir sur la circulation de l’information dans un contexte de saisie juridique et de l’autre celle d’une volontaire absence du Droit dans le marché numérique.

Pour preuve, on peut citer le président de l’Autorité de la concurrence en France, Bruno Lassere, auditionné à l’Assemblée Nationale le 7 juillet 201523. Ce dernier cite le Droit de la Concurrence et ses applications comme un instrument de lutte contre les distorsions du marché, comme les monopoles à l’image de Google/Alphabet. Mais d’un autre côté, le Droit de la Concurrence est surtout vu comme une solution d’auto-régulation dans le contexte de la neutralité des plates-formes :

(…) Les entreprises peuvent prendre des engagements par lesquels elles remédient elles-mêmes à certains dysfonctionnements. Il me semble important que certains abus soient corrigés à l’intérieur du marché et non pas forcément sur intervention législative ou régulatrice. C’est ainsi que Booking, Expedia et HRS se sont engagées à lever la plupart des clauses de parité tarifaire qui interdisent une véritable mise en compétition de ces plateformes de réservation hôtelières. Comment fonctionnent ces clauses ? Si un hôtel propose à Booking douze nuitées au prix de 100 euros la chambre, il ne peut offrir de meilleures conditions – en disponibilité ou en tarif – aux autres plateformes. Il ne peut pas non plus pratiquer un prix différent à ses clients directs. Les engagements signés pour lever ces contraintes sont gagnants-gagnants : ils respectent le modèle économique des plateformes, et donc l’incitation à investir et à innover, tout en rétablissant plus de liberté de négociation. Les hôtels pourront désormais mettre les plateformes en concurrence.

Sur ce point, il ne faut pas s’interroger sur le mécanisme de concurrence qu’il s’agit de promouvoir mais sur l’implication d’une régulation systématique de l’économie numérique par le Droit de la Concurrence. Ainsi le rapport Numérique et libertés présenté Christian Paul et Christiane Féral-Schuhl, propose un long développement sur la question des données personnelles mais cite cette partie de l’audition de Bruno Lasserre à propos du Droit de la Concurrence sans revenir sur la conception selon laquelle l’alpha et l’omega du Droit consiste à aménager un environnement concurrentiel « sain » à l’intérieur duquel les mécanismes de concurrence suffisent à eux-seuls à appliquer des principes de loyauté, d’équité ou d’égalité.

Cette absence de questionnement politique sur le rôle du Droit dans un marché où la concentration des services abouti à des monopoles finit par produire immanquablement une forme d’autonomie absolue de ces monopoles dans les mécanismes concurrentiels, entre une concurrence acceptable et une concurrence non-souhaitable. Tel est par exemple l’objet de multiples pactes passés entre les grandes multinationales du numérique, ainsi entre Microsoft et AOL, entre AOL / Yahoo et Microsoft, entre Intertrust et Microsoft, entre Apple et Google (pacte géant), entre Microsoft et Android, l’accord entre IBM et Apple en 1991 qui a lancé une autre vague d’accords du côté de Microsoft tout en définissant finalement l’informatique des années 1990, etc.

La liste de tels accords peut donner le tournis à n’importe quel juriste au vu de leurs implications en termes de Droit, surtout lorsqu’ils sont déclinés à de multiples niveaux nationaux. L’essentiel est de retenir que ce sont ces accords entre monopoles qui définissent non seulement le marché mais aussi toutes nos relations avec le numérique, à tel point que c’est sur le même modèle qu’agit le politique aujourd’hui.

Ainsi, face à la puissance des GAFAM et consorts, les gouvernements se placent en situation de demandeurs. Pour prendre un exemple récent, à propos de la lutte anti-terroriste en France, le gouvernement ne fait pas que déléguer une partie de ses prérogatives (qui pourraient consister à mettre en place lui-même un système anti-propagande efficace), mais se repose sur la bonne volonté des Géants, comme c’est le cas de l’accord avec Google, Facebook, Microsoft et Twitter, conclu par le Ministre Bernard Cazeneuve, se rendant lui-même en Californie en février 2015. On peut citer, dans un autre registre, celui de la maîtrise des coûts, l’accord-cadre CAIH-Microsoft cité plus haut, qui finalement ne fait qu’entériner la mainmise de Microsoft sur l’organisation hospitalière, et par extension à de multiples secteurs de la santé.

Certes, on peut arguer que ce type d’accord entre un gouvernement et des firmes est nécessaire dans la mesure où ce sont les opérateurs les mieux placés pour contribuer à une surveillance efficace des réseaux ou modéliser les échanges d’information. Cependant, on note aussi que de tels accords relèvent du principe de transfert du pouvoir du politique aux acteurs numériques. Tel est la thèse que synthétise Mark Zuckerberg dans son plaidoyer de février 2017. Elle est acceptée à de multiples niveaux de la décision et de l’action publique.

C’est par une analyse du rôle et de l’emploi du Droit aujourd’hui, en particulier dans ce contexte où ce sont les firmes qui définissent le droit (par exemple à travers leurs accords de loyauté) que Alain Supiot démontre comment le gouvernement par les nombres, c’est-à-dire ce mode de gouvernement par le marché (celui des instruments, de l’expertise, de la mesure et du contrôle) et non plus par le Droit, est en fait l’avènement du Big Other de Shoshanna Zuboff, c’est-à-dire un monde où ce n’est plus le Droit qui règle l’organisation sociale, mais c’est le contrat entre les individus et les différentes offres du marché. Alain Supiot l’exprime en deux phrases24 :

Référée à un nouvel objet fétiche – non plus l’horloge, mais l’ordinateur –, la gouvernance par les nombres vise à établir un ordre qui serait capable de s’autoréguler, rendant superflue toute référence à des lois qui le surplomberaient. Un ordre peuplé de particules contractantes et régi par le calcul d’utilité, tel est l’avenir radieux promis par l’ultralibéralisme, tout entier fondé sur ce que Karl Polanyi a appelé le solipsisme économique.

Le rêve de Mark Zuckerberg et, avec lui, les grands monopoles du numérique, c’est de pouvoir considérer l’État lui-même comme un opérateur économique. C’est aussi ce que les tenants new public management défendent : appliquer à la gestion de l’État les mêmes règles que l’économie privée. De cette manière, ce sont les acteurs privés qui peuvent alors prendre en charge ce qui était du domaine de l’incalculable, c’est-à-dire ce que le débat politique est normalement censé orienter mais qui finit par être approprié par des mécanismes privés : la protection de l’environnement, la gestion de l’état-civil, l’organisation de la santé, la lutte contre le terrorisme, la régulation du travail, etc.

GAFAM : We <3 your Data

Conclusion : l’État est-il soluble dans les GAFAM ?

Nous ne perdons pas seulement notre souveraineté numérique mais nous changeons de souveraineté. Pour appréhender ce changement, on ne peut pas se limiter à pointer les monopoles, les effets de la concentration des services numériques et l’exploitation des big data. Il faut aussi se questionner sur la réception de l’idéologie issue à la fois de l’ultra-libéralisme et du renversement social qu’impliquent les techniques numériques à l’épreuve du politique. Le terrain favorable à ce renversement est depuis longtemps prêt, c’est l’avènement de la gouvernance par les instruments (par les nombres, pour reprendre Alain Supiot). Dès lors que la décision publique est remplacée par la technique, cette dernière est soumise à une certaine idéologie du progrès, celle construite par les firmes et structurée par leur marché.

Qu’on ne s’y méprenne pas : la transformation progressive de la gouvernance et cette idéologie-silicone sont l’objet d’une convergence plus que d’un enchaînement logique et intentionnel. La convergence a des causes multiples, de la crise financière en passant par la formation des décideurs, les conjonctures politiques… autant de potentielles opportunités par lesquelles des besoins nouveaux structurels et sociaux sont nés sans pour autant trouver dans la décision publique de quoi les combler, si bien que l’ingéniosité des GAFAM a su configurer un marché où les solutions s’imposent d’elles-mêmes, par nécessité.

Le constat est particulièrement sombre. Reste-t-il malgré tout une possibilité à la fois politique et technologique capable de contrer ce renversement ? Elle réside évidemment dans le modèle du logiciel libre. Premièrement parce qu’il renoue technique et Droit (par le droit des licences, avant tout), établit des chaînes de confiance là où seules des procédures régulent les contrats, ne construit pas une communauté mondiale uniforme mais des groupes sociaux en interaction impliqués dans des processus de décision, induit une diversité numérique et de nouveaux équilibres juridiques. Deuxièmement parce qu’il suppose des apprentissages à la fois techniques et politiques et qu’il est possible par l’éducation populaire de diffuser les pratiques et les connaissances pour qu’elles s’imposent à leur tour non pas sur le marché mais sur l’économie, non pas sur la gouvernance mais dans le débat public.

 

 


  1. Xavier De La Porte, « Start-up ou Etat-plateforme : Macron a des idées du 17e siècle », Chroniques La Vie Numérique, France Culture, 19/06/2017.
  2. C’est ce que montre, d’un point de vue sociologique Corinne Delmas, dans Sociologie politique de l’expertise, Paris : La Découverte, 2011. Alain Supiot, dans La gouvernance par les nombres (cité plus loin), choisit quant à lui une approche avec les clés de lecture du Droit.
  3. Voir Friedrich Hayek, La route de la servitude, Paris : PUF, (réed.) 2013.
  4. Voir Karl Polanyi, La Grande Transformation, Paris : Gallimard, 2009.
  5. Christophe Masutti, « du software au soft power », dans : Tristan Nitot, Nina Cercy (dir.), Numérique : reprendre le contrôle, Lyon : Framasoft, 2016, pp. 99-107.
  6. Francis Fukuyama, La Fin de l’Histoire et le dernier homme, Paris : Flammarion, 1992.
  7. Corentin Durand, « ‘L’ADN de la France, c’est la liberté de la presse’, clame le patron de Google », Numerama, 26/02/2016.
  8. Les Échos, « Google intensifie sa lutte contre la propagande terroriste », 19/06/2017.
  9. Sandrine Cassini, « Terrorisme : accord entre la France et les géants du Net », Les Echos, 23/04/2015.
  10. Philippe Vion-Dury, La nouvelle servitude volontaire, Enquête sur le projet politique de la Silicon Valley, Editions FYP, 2016.
  11. Götz Hamman, The United States of Google, Paris : Premier Parallèle, 2015.
  12. On pourrait ici affirmer que ce qui est en jeu ici est le solutionnisme technologique, tel que le critique Evgeny Morozov. Certes, c’est aussi ce que Götz Haman démontre : à vouloir adopter des solutions web-centrées et du data mining pour mécaniser les interactions sociales, cela revient à les privatiser par les GAFAM. Mais ce que je souhaite montrer ici, c’est que la racine du capitalisme de surveillance est une idéologie dont le solutionnisme technologique n’est qu’une résurgence (un rhizome, pour filer la métaphore végétale). Le phénomène qu’il nous faut comprendre, c’est que l’avènement du capitalisme de surveillance n’est pas dû uniquement à cette tendance solutionniste, mais il est le résultat d’une convergence entre des renversements idéologiques (fin du libéralisme classique et dénaturation du néo-libéralisme), des nouvelles organisations (du travail, de la société, du droit), des innovations technologiques (le web, l’extraction et l’exploitation des données), de l’abandon du politique. On peut néanmoins lire avec ces clés le remarquable ouvrage de Evgeny Morozov, Pour tout résoudre cliquez ici : L’aberration du solutionnisme technologique, Paris : FYP éditions, 2014.
  13. Peppino Ortoleva, « Qu’est-ce qu’un gouvernement d’experts ? Le cas italien », dans : Hermès, 64/3, 2012, pp. 137-144.
  14. Vincent Dubois et Delphine Dulong, La question technocratique. De l’invention d’une figure aux transformations de l’action publique, Strasbourg : Presses Universitaires de Strasbourg, 2000.
  15. Pierre Lascoumes et Patrick Le Galès (dir.), Gouverner par les instruments, Paris : Les Presses de Sciences Po., 2004, chap. 6, pp. 237 sq.
  16. « Raphaël Mastier, Microsoft France : le secteur hospitalier doit industrialiser sa modernisation numérique », Econocom, 29/05/2015.
  17. « Services aux citoyens, simplification, innovation : les trois axes stratégiques du secteur public », CGI : Blog De la Suite dans les Idées, 02/05/2017.
  18. Ariane Beky, « Loi numérique : les amendements sur le logiciel libre divisent », Silicon.fr, 14/01/2016.
  19. Marc Rees, « La justice annule un marché public excluant le logiciel libre », Next Inpact, 10/01/2011.
  20. Mark Zuckerberg, « Building Global Community », Facebook.com, 16/02/2017.
  21. Fred Tuner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture. Stewart Brand, un homme d’influence, Caen : C&F Éditions, 2013.
  22. Christophe Masutti, « Les nouveaux Léviathans I — Histoire d’une conversion capitaliste », Framablog, 04/07/2016.
  23. Compte-rendu de l’audition deBruno Lasserre, président de l’Autorité de la concurrence, sur la régulation et la loyauté des plateformes numériques, devant la Commission de réflexion et de propositions sur le droit et les libertés à l’âge du numérique, Mardi 7 juillet 2015 (lien).
  24. Alain Supiot, La gouvernance par les nombres. Cours au Collège de France (2012-2014), Paris : Fayard, 2015, p. 206.



Pour un covoiturage libre sans blabla car c’est un bien commun !

Le partage de véhicule pour faire ensemble un trajet est une pratique déjà ancienne : les moins jeunes se souviennent des globe-trotters le pouce levé,des trajets entre copains serrés à l’arrière de la 4L et… bref vous voyez le tableau, inutile de raviver le cliché des hippies dans le Combi VW.

Crise écologique et crise économique ont contribué à remettre au goût du jour ces pratiques conviviales : le pouce levé de rezopouce, parti du Sud-Ouest, gagne du terrain un peu partout en France, certaines municipalités comme dans les Yvelines prennent des initiatives pour stimuler et organiser le covoiturage. Il en va de même avec des associations comme Voisine Covoiturage en Lozère, qui dans un monde rural menacé d’isolement reçoit le soutien des collectivités locales.

Oui mais voilà : l’engouement pour le covoiturage est aussi un marché économique dominé par un acteur majeur qui s’est taillé un nom et un presque-monopole au point que pour beaucoup c’est le mot blablacar qui remplace le mot covoiturage dans les recherches sur Internet. On peut saluer le succès de l’entreprise comme le font depuis plusieurs années la plupart des médias. On peut aussi s’interroger sur cette confiscation et monétisation d’une pratique solidaire gratuite : le modèle économique de Blablacar repose sur la captation d’un bien commun.

Les solutions alternatives existent pourtant, comme La Roue verte, qui peut proposer des services gratuits et éthiques aux particuliers en se rémunérant par des prestations aux entreprises.

Aujourd’hui c’est une association indépendante et sans but lucratif que nous souhaitons mettre en valeur : Covoiturage-libre a des engagements et des valeurs qui résonnent agréablement aux oreilles libristes. Nous espérons qu’après avoir lu cette interview nombre d’entre vous deviendront avec ce beau projet des covoitureurs et covoitureuses libres !

Cliquez sur l’image pour découvrir leur site.

 

Bonjour François, peux-tu te présenter et nous décrire l’association dont tu fais partie ?

Bonjour ! Je m’appelle François Vincent et je m’occupe pour ma part plus spécifiquement du développement de Covoiturage-libre.fr, qui est un site de covoiturage libre et gratuit.

Nous avons un certain nombre de personnes qui travaillent bénévolement pour le site, notamment son développement (le code source est accessible par tous sous licence GNU GPL v3), sa communication sur les réseaux sociaux ou la participation à des rencontres des logiciels libres ou de manifestations spécifiques, et les réponses aux demandes effectuées via la hotline par les utilisateurs. Chacun est libre de nous rejoindre, il sera bien accueilli, notamment par moi-même !

Comment sont nés votre site et votre association ?

Notre site a une histoire déjà assez longue. Une première version a été mise en ligne quelques jours seulement après le passage au payant de la part de Blablacar (ce devait être en 2011). Le site et l’association sont nés du rejet de l’appropriation du covoiturage par Blablacar, et d’une volonté ferme de promouvoir un covoiturage social, c’est à dire non contrôlé par une entreprise, mais profitant et appartenant à tous.

Un coup d’œil sous le capot ?

La première version a été développée en solo par Nicolas Raynaud. Le site à cette époque avait été écrit en PHP. C’est peu après qu’a été créée l’association pour soutenir la plateforme. Une nouvelle version du site a plus tard été écrite en Ruby on Rails, car la première version était difficile à maintenir et ne permettait pas vraiment un travail collaboratif. Cette nouvelle mouture du site est assez récente, date de moins d’un an, c’est maintenant sur celle-ci que nous travaillons, les améliorations étant poussées… lorsqu’elles sont prêtes à l’être.

Qu’est-ce qui vous différencie de sites mieux connus comme Blablacar ?

Notre philosophie du covoiturage est qu’il s’agit d’un bien commun et qu’il doit le rester !

L’un de nos engagements est de rester indépendants, de rester sous le contrôle de la communauté. Toute personne voulant participer est la bienvenue pour s’exprimer, et son avis sera pris en compte. Nous ne serons jamais rachetés par quelque entité, visant le profit, que ce soit. Nous prônons un covoiturage sans frais, qui n’ira pas enrichir une société levant des millions d’euros. Nous nous construisons en partie CONTRE cette vision du covoiturage.

Pour résumer, notre différence principale avec des sites comme Blablacar est notre conception même du covoiturage, et c’est sur cette dernière que nous nous appuyons pour avancer.

Votre plateforme est un « bien commun », qu’entendez-vous par là ?

Nous entendons par là quelque chose de simple et qui nous parait à la fois fondamental et naturel pour le covoiturage : la plateforme nous appartient à tous, elle appartient à la communauté que nous formons, nous les conducteurs et les passagers qui utilisons le covoiturage, tous ensemble nous la faisons vivre. Elle appartient à ceux qui l’ont développée et qui en font la promotion, à nous qui travaillons sur le projet, mais aussi, ET SURTOUT, à celles et ceux qui l’utilisent, c’est-à-dire monsieur Dupuis-Morizeau par exemple qui utilise notre plateforme en tant que passager pour aller de Paris à Rouen et retrouver sa famille. D’ailleurs, il peut nous rejoindre pour participer à la réflexion sur la plateforme, proposer des améliorations, signaler des bugs…

Comment ça marche alors ? il faut que les personnes qui se sont contactées aient une relation de confiance ? Parce qu’on communique un mail ou un téléphone…

En effet, les personnes covoiturant ensemble doivent établir un lien social, un lien de confiance entre elles, c’est l’une de nos raisons d’exister qui fait partie de nos 5 engagements.

Copie d’écran du site Covoiturage-libre

Tous ceux qui ont déjà fait du covoiturage savent que c’est un moyen de rencontrer des personnes que nous n’aurions jamais rencontrées autrement, ayant une autre vie, d’autres passions, où qui au contraire travaillent, par exemple, dans le même domaine, ce qui peut alors déboucher sur des conversations très poussées ! La parole est un moyen de se faire confiance, et nous pensons que les gens voulant se déplacer ensemble sont de bonne volonté. Elles échangent donc par mail ou SMS sur les modalités du trajet.

Il y a des possibilités de dérives que nous combattrons de toutes nos forces, mais celles-ci existent sur toutes les plateformes de covoiturage, et même dans d’autres situations de la vie de tous les jours. Elles sont quasi inexistantes par rapport à la masse de covoiturages effectués chaque jour.

Donc Covoiturage-libre ne ponctionne aucune commission, c’est chouette, mais je dois me mettre d’accord sur un tarif avec un conducteur ou un passager (suivant les cas) ?

Eh bien oui, la prise de contact entre conducteur et passager pour fixer les modalités du covoiturage en amont de sa réalisation est une étape indispensable pour avoir un covoiturage qui se déroule bien. Ce premier contact permet de fixer les modalités du voyage, comme l’endroit où l’on se retrouve, le lieu de dépose, et en effet, la somme d’argent que le passager donnera au conducteur. Mais on espère bien que vous discuterez d’autres choses bien plus intéressantes pendant et même après le trajet !

Comment je peux savoir par exemple combien demander (dans quelle fourchette raisonnable) pour partager les frais pour un trajet entre Tours et Lyon ?

Pour l’instant, la plateforme ne propose pas de suggestion de tarif. Les prix que le conducteur propose pour le trajet global ainsi que pour les étapes sont à sa discrétion. On peut cependant utiliser plusieurs ressources pour s’aider dans le choix des frais que l’on demande, comme regarder sur d’autres sites les tarifs pratiqués ; ou bien appliquer un calcul simple qui consiste à prendre le prix global du trajet et le diviser par le nombre de personnes dans la voiture, conducteur compris. à noter que l’une des nombreuses fonctionnalités que nous prévoyons de mettre en place est justement la mise en place d’un prix conseillé, dépendant de la distance et également des péages. Nous rappelons également sur le site que le covoiturage ne doit pas être rentable, et qu’il s’agit d’abord et avant tout d’entraide.

Qu’est-ce qui me garantit la confidentialité de mes données si je m’inscris pour passer une annonce ?

Comme tout projet sous licence libre et open-source, vous avez accès vous même au code source du site sur le dépôt github, n’hésitez pas à le parcourir.

Nous sommes des gens comme vous, qui aimons garder nos données personnelles… personnelles. Le développement du site se fait avec cette idée de respecter au maximum les données des utilisateurs.

Et qu’est-ce qui me garantit qu’on ne va pas me demander une somme excessive ?

Soyons franc, rien ne vous le garantit. Vous discutez du prix avec le conducteur avant le voyage, et vous payez de la main à la main pendant le trajet. Encore une fois, nous rappelons sur le site que le covoiturage ne doit pas être rentable, ce qui limite normalement les sommes si les usagers sont honnêtes. Un passager peut également tout simplement refuser un covoiturage si le prix est trop élevé. Nous sommes persuadés que les gens peuvent discuter entre eux et se mettre d’accord sans problème.

Nous ne prévoyons par ailleurs pas de déployer une solution de paiement en ligne avant le trajet comme d’autres sites (qui serait toujours sans frais soit dit au passage) pour plusieurs raisons : la première, c’est que cela ne fait pas partie de notre représentation du covoiturage, où les gens se mettent d’accord entre eux et discutent en amont du voyage, et n’ont donc pas besoin de ce système. La deuxième raison est que cette solution nous demanderait la mise en place d’un système très sécurisé (qui amènerait de plus à une ambiance que nous trouvons anxiogène, phénomène que l’on peut déjà observer sur un autre site bien connu qui prône une « sécurité » omniprésente justifiant tout et n’importe quoi…), et que nous devrions alors collecter des données bancaires que nous ne voulons surtout pas posséder. Ce sont vos données personnelles, nous ne voulons surtout pas y avoir accès !

Déjà plus de 730 000 covoiturages, beau succès ! Ça vous fait autant d’adhérents à l’association ? Pour profiter des services proposés sur le site, il faut être adhérent à l’association ?

Eh bien non, le nombre de bénévoles donnant du temps pour la plateforme est assez faible. Pour déposer une annonce sur le site, contacter une personne proposant un covoiturage, aucune adhésion à l’association n’est nécessaire, les gens restent libres au maximum de faire ce qu’ils veulent, et cela ne nous a même pas traversé l’esprit de forcer les gens à adhérer (même gratuitement) ! Ils sont cependant tous les bienvenus s’ils veulent participer à la plateforme et/ou l’association !

Pas besoin d’être adhérent donc, mais nous pensons dans le futur mettre en place des comptes sur notre site. Leur seul objectif sera de gérer plus facilement les annonces que l’on propose en tant que conducteurs ou celles qui nous intéressent en tant que passagers. La gestion des annonces pour les conducteurs se fait actuellement par mail, ce qui n’est pas optimal pour gérer une annonce appelée à potentiellement évoluer dans le temps, nous souhaitons améliorer ceci !

Que se passe-t-il si un requin aux intentions lucratives clone votre site et prend une commission de 5 % ?

Il sera liquidé par un mercenaire GNU dans les 12 heures suivant la mise en ligne de son site.

Non plus sérieusement, il peut essayer… Puisqu’il n’aura pas accès à notre base de données, son site sera vide d’annonces. Notre plateforme est la deuxième de France, nous avons une petite-(pas-si-petite)-mais-grandissante communauté d’utilisateurs qui postent leurs annonces et consultent notre site, ils ne migreront pas vers ce faux site. Nous en voulons pour preuve le nombre d’annonces postées jusqu’ici que vous citez plus haut !

Avez-vous fait l’objet de démarchage pour faire de votre service une opération commerciale ? Des startups sur le même créneau ?

La loi du marché étant ce qu’elle est, et notre position de deuxième plateforme française de covoiturage étant établie, certains organismes/entreprises/start-up/que sais-je encore ont voulu nous racheter « nos utilisateurs » (oui je cite les gens qui viennent vers nous). Ce à quoi nous leurs répondons gentiment et poliment que ce n’est pas notre conception de la chose, que l’argent ne nous intéresse pas, que pour récupérer nos utilisateurs il faudra d’abord marcher sur nos cadavres et accessoirement celui du site, ce genre de choses…

Il y a bien sûr d’autres entreprises qui souhaitent concurrencer Blablacar, nous leur tendons la main si elles veulent intégrer notre association et adhérer à nos valeurs qui prônent le non-profit. Notre plateforme a cet avantage par rapport à toutes les autres d’être une association avec des gens motivés par des convictions, et travaillant sur ce projet sur leur temps libre. Sans vouloir nous vanter, avec le soutien de quelques donateurs, nous sommes virtuellement immortels et indestructibles 😉 le temps joue pour nous…

Quelle continuité souhaitez-vous donner à votre service communautaire ? L’élargir à d’autres pays ? Qu’est-ce qui serait le plus efficace pour vous faire mieux connaître et pour que chacun adopte votre démarche ?

Nous sommes totalement ouverts à la propagation de notre modèle et de notre plateforme à d’autres pays. Nous aurons cependant besoin de partager une base de données commune à tous, cette dernière étant interrogée par une instance nationale pour chaque pays. Nous avons d’ailleurs déjà des contacts de gens intéressés dans d’autres pays. Notre rêve ultime serait une grande organisation mondiale, libre, avec une équipe par pays. L’impact écologique et économique pour tous pourrait être considérable!

Si je veux participer à vote site, à ce commun, à votre projet, à votre asso… je fais comment ? Vous avez besoin de quelles compétences ?

Vous pouvez consultez les propositions de la page https://covoiturage-libre.fr/missions-benevoles

Certaines façons de participer sont tout à fait simples :

  • Évidemment, la première chose à faire, publier vos trajets sur notre plateforme, en parler autour de vous, et chercher les trajets que vous souhaitez réaliser sur le site.
  • Ensuite, dans un premier temps si vous voulez prendre contact avec nous, vous pouvez rejoindre les groupes facebook (oui je sais c’est mal, chacun ses faiblesses, et puis on va là où les gens sont) « Covoiturage-libre – groupe de test » et également « Covoiturage-libre.fr – Communication »
  • Certains d’entre vous s’y connaissent en programmation (c’est un euphémisme), nous avons besoin de gens capable de programmer en Ruby on Rails. À notre ère connectée nous souhaitons également développer une appli Android qui sera elle aussi diffusée sous licence libre, probablement GNU GPL, et sera ajoutée à F-Droid assez rapidement (nous avons déjà une appli, qui n’est que du web encapsulé, le code est disponible sur github, et l’appli en elle même est disponible sur Google Play). Et éventuellement une appli iOS, si certains d’entre vous sont motivés pour ça !
  • Chose anodine, installer le moteur de recherche Lilo. Chaque recherche effectuée vous donne une goutte, donnez ensuite ces gouttes à notre projet sur la page dédiée et vous nous ferez des micro-dons à chaque fois que vous nous les donnerez, on vous remercie déjà !
  • Nous recherchons également des graphistes, des gens qui voudraient faire de la com pour nous, des gens pour nous représenter à des forums…

Le mot de la fin ?

Les bases de la plateforme pour un retour à un vrai covoiturage qui ne profite pas à une entreprise sont déjà là. Mesdemoiselles, Mesdames, Messieurs, il ne tient plus qu’à vous de nous rejoindre et d’y participer !

Dé BlaBlaCarisez le covoiturage avec Covoiturage-Libre !

Liens utiles




Workshop CHATONS aux RMLL le 7 juillet

Nous vous avons déjà parlé des Rencontres Mondiales du Logiciel Libre, qui auront lieu cette année à St-Étienne, du 1er au 7 juillet (très bientôt, donc !). Si vous n’avez pas encore lu l’interview d’une partie de l’organisation, foncez-y, ça donne envie de venir 🙂

Framasoft sera évidemment présente lors des RMLL (sans doute en petit comité, car en ce début d’été, nos membres seront un peu dispersés sur différents événements ou … en congés !). N’hésitez donc pas à venir à notre rencontre, ou à assister à l’une de nos conférences 🙂

Mais l’objet de ce billet, est surtout de vous annoncer que l’organisation des RMLL a proposé de réserver la journée du vendredi 7 à … une réunion de chatons !

Le collectif en action

 

 

Vous le savez peut-être, le Collectif des Hébergeurs Transparents, Ouverts, Neutres et Solidaires (C.H.A.T.O.N.S.) est un collectif de particuliers et de structures qui proposent à leurs communautés des services en ligne Libres, Éthiques, Décentralisés et Solidaires.

Framasoft a impulsé en octobre dernier ce collectif, et est l’un de ses 30 membres actuels.

Le collectif est toujours en phase de structuration et, tel un logiciel libre, est en développement permanent : on y ajoute des fonctionnalités, on explore des possibles, on corrige des bugs, on essaie de faire communauté, etc.

Les moments de rencontre, que ça soit entre membres du collectif, ou pour échanger avec des personnes connaissant peu ou pas le projet CHATONS, sont donc primordiaux.

L’opportunité offerte par les RMLL de nous proposer un temps long (1 journée complète) est donc à saisir !

Cette journée permettra, le matin, de rappeler (très rapidement) les objectifs, de présenter le fonctionnement actuel, et de travailler ensemble la « roadmap ». L’après-midi sera, lui, consacré à des ateliers thématiques (probablement : « juridique », « technique », « communication » et « organisation/économie ») en mode barcamp (= les personnes présentes choisiront elles-mêmes les thèmes de travail).

Bref, vous pourrez poser toutes les questions que vous avez toujours voulu savoir sur CHATONS, mais surtout nous proposer des patches sur la façon dont nous pourrions améliorer le fonctionnement du collectif.

Merci encore aux organisateur⋅ice⋅s des Rencontres de nous offrir ce temps de partages, d’échanges, de réflexion et de production !

Un panier de CHATONS, parce qu’on sait que vous aimez ça !

 

Et, en cadeau, trois petites vidéos (qui s’ouvriront au clic dans un nouvel onglet sur Vimeo) réalisée par Rézonnance, qui, nous l’espérons, vous donneront envie de venir aux RMLL :

Interview PY GOSSET – RMLL2017

Interview Simon CHANSON – RMLL2017

Interview François Aubriot – RMLL2017

 




La face cachée du web, de la vie, de l’univers, du reste

Nous sommes bombardés presque chaque semaine d’alertes à la catastrophe numérique ou de pseudo-enquêtes au cœur du Dark Web, censé receler des dangers et des malfaisants, quand il ne s’agit pas d’une conspiration pour diriger le monde.

Une fois retombé le coup de trouille, on se remet à regarder des photos de chatons sur le ouèbe. Mais un éclair de lucidité, parfois, troue le brouillard : comment je sais ce qu’il y a de vrai là-dedans ? Entre la fantasque théorie du complot et les authentiques agissements de personnages obscurs, comment trier ?
Il n’est pas facile d’accéder à une information fiable : les spécialistes sont peu nombreux, plutôt discrets (nous avons par exemple vainement essayé pendant deux ans d’obtenir une interview d’une « pointure »), voire peu enclins à communiquer au-delà des anathèmes volcaniques qu’ils déversent de loin en loin sur les mauvaises pratiques, ce qui n’aide pas trop le commun des mortels.

C’est pourquoi la parution récente du livre de Rayna Stamboliyska « La face cachée d’Internet » nous apparaît comme une excellente nouvelle : son livre est celui d’une spécialiste qui s’efforce de mettre à notre portée des éléments parfois épineux à comprendre. Quand on a comme elle fait une thèse en génétique et bio-informatique et un master spécialisé en « défense, sécurité et gestion de crise », on n’a pas forcément l’envie et le talent de s’adresser à tous comme elle fait fort bien.

Merci donc à Rayna pour cet effort d’éducation populaire et pour avoir accepté de répondre à quelques questions pour le Framablog, parce qu’elle ne mâche pas ses mots et franchement ça fait plaisir.

 

Salut Rayna, peux-tu te présenter ?

— Je trolle, donc je suis ?

Ce qui m’intéresse, c’est la gestion de l’incertitude et comment les organisations y font face. Du coup, j’ai tendance à saouler tout le monde quand je parle de sextoys connectés par exemple, parce que ça tourne notamment autour des modèles de menaces et des façons de les pwn (i.e., les compromettre techniquement).

Au cours de mes études, ma thématique a toujours été l’impact de la technique et des données (qu’elles soient ouvertes ou non) sur nous, avec un focus qui a graduellement évolué pour passer de la recherche vers les situations de conflits/post-conflits (armés, j’entends), vers l’évaluation de risques et la gouvernance de projets techniques en lien avec les données.

Avoir un nom d’espionne russe, c’est cool pour parler de surveillance de masse ?

Mmmm, je suis plus parapluie bulgare que tchaï au polonium russe, mais admettons. Quant à la surveillance de masse… faut-il une nationalité particulière pour s’en émouvoir et vouloir s’y opposer ?

Ce que mes origines apportent en réalité, c’est une compréhension intime d’enjeux plus globaux et de mécanismes de gouvernance et d’influence très différents auxquels les pays occidentaux dont la France n’ont pas été franchement confrontés. Ainsi, les oppositions que je peux formuler ne sont pas motivées par une position partisane en faveur de telle asso ou telle autre, mais par des observations de comment ça marche (#oupas) une fois implémenté.

C’est sûr, la Stasi et les régimes communistes totalitaires de l’Est n’appelaient pas ça big data ; mais l’idée était la même et l’implémentation tout aussi bancale, inutile et inefficace. La grosse différence est probablement que ces régimes disposaient de cerveaux humains pour analyser les informations recueillies, chose qui manque cruellement à l’approche actuelle uniquement centrée sur la collecte de données (oui, je sais, il y a des algorithmes, on a de la puissance de calcul, toussa. Certes, mais les algos, c’est la décision de quelqu’un d’autre).

Au risque de vous spoiler la fin de mon bouquin, il faut bien comprendre ce qui se joue et y agir avec finesse et pédagogie. La recherche du sentiment de sécurité nous est inhérente et, rappelons-le, est très souvent indépendante de la réalité. Autrement dit, on peut très bien se sentir protégé⋅e alors que les conditions matérielles ne sont pas réunies pour qu’on le soit. Mais parfois, le sentiment de sécurité, même s’il n’est pas fondé, suffit pour prévenir de vrais problèmes. Il y a donc un équilibre vraiment difficile à trouver : c’est le moment de sortir le cliché des 50 nuances de sécu et d’en rajouter une couche sur la finesse et la pédagogie des approches. Si nous sommes les sachant⋅e⋅s d’un domaine, alors comportons-nous en adultes responsables et faisons les choses correctement.

Dans le cas de la surveillance généralisée, ces efforts sont d’autant plus indispensables qu’on est face à une situation très complexe où des questions techniques, politiques et de sécurité des populations se mélangent. Il ne faut pas oublier qu’on n’est pas outillés pour comprendre comment fonctionne le renseignement uniquement parce qu’on est un⋅e adminsys qui tue des bébés phoques à coup de Konsole (oui, je suis une fière fan de KDE).

Et Malicia Rogue, elle va bien ? Pourquoi cette double identité en ligne ?

Nous allons bien, merci 🙂 La double identité date d’il y a très longtemps (2005, par là) et elle était à l’origine motivée par le fait que la science et la politique ne font pas bon ménage. En effet, dans une précédente vie, je faisais de la recherche (génétique évolutive, maladies infectieuses, bio-informatique) ; dans ce monde-là, la prise de position politique est souvent perçue comme une tare. Du coup, il était important de tenir les deux identités séparées, de la façon la plus étanche possible de préférence.

Est-ce que tu es une Anonymousse (au chocolat) ?

Oui, mais chocolat noir seulement, et merci de me passer la cuillère aussi.

Nous, on sait que tu es légitime pour parler de sécurité informatique, mais on a vu que dans un milieu souvent très masculin tu t’es heurtée à des personnes qui doutaient à priori de tes compétences. Et ne parlons pas des premiers à réagir qui n’ont rien lu mais tout compris  ! Pas de problème de ce côté avec ton éditeur ?

Alors, plusieurs choses ici. Je sais que ça va susciter l’ire de plein de gens, mais il faut dire les choses clairement : il y a un sexisme quotidien dans les milieux tech et science. Je suis sûre que ça existe ailleurs aussi, hein, mais disons que ce qui nous préoccupe ici, c’est le milieu tech.

C’est un grand mystère, d’ailleurs. Je viens de l’Est, où malgré toutes les mauvaises choses, les organes génitaux de naissance n’ont pas vraiment été un critère de compétence. On m’a éduquée à faire des choses réfléchies et à savoir argumenter et structurer mes opinions : ce sont les actions qui parlent. La pire discrimination à laquelle j’ai eue à faire face, a été de faire de la bio (une « sous-science » pour mes profs de maths à la fac et ma mère, prof de maths sup’ aussi).

Du coup, débarquer en Europe de l’Ouest et dans le pays des droits humains pour me heurter à la perception qu’avoir des ovaires fait de quelqu’un un sous-humain a été un choc. Et c’est encore pire quand on y pense : les stéréotypes sexistes, c’est bidirectionnel, ils font pareillement mal à toutes les personnes qui les subissent. J’ai décidé de continuer à faire comme d’habitude : construire des trucs. Si je commets des erreurs, je corrige, et si on m’embête inutilement, je mords poliment. 🙂

C’est harassant à la longue, hein. Je pense qu’il faut réguler ce genre de réactions, ensemble. C’est très simple : si l’on vous fait vous sentir que vous êtes malvenu⋅e, la plupart du temps la réaction est la fuite. Si on me fait me sentir malvenue, je pars, je serai bien accueillie ailleurs et les projets passionnants avec des gens adorables ne manquent pas. Alors, c’est dommage pour les projets, certes intéressants, mais portés par ceux et celles qui s’imaginent qu’être rustre à longueur de journée, c’est avoir un caractère fort et assumé.

Quant à mon éditeur… On a passé plus de 4 heures à discuter lors de notre première rencontre, il fallait cadrer le sujet et le calendrier. La question de genre ne s’est jamais posée. J’avais face à moi des gens intéressés et passionnés, j’ai fait de mon mieux pour répondre à la demande et … c’est tout. 🙂

Tu es proche des assos du libre ou farouchement indépendante ?

Les deux, mon capitaine. Même si j’apprécie mon statut d’électron libre.

Ton bouquin parle du darkweb. Mais alors ça existe vraiment ?

Beh oui. C’est l’ensemble des pages web dont la CSS contient :

body {
    background: #000 !important;
}

Ton ouvrage est particulièrement bienvenu parce qu’il vise à démystifier, justement, ce fameux darkweb qui est surtout une sorte de réservoir à fantasmes divers.

Une petite critique tout de même : la couverture fait un peu appel au sensationnalisme, non ?

C’est ton choix ou celui de l’éditeur ?

Alors… il y a eu plusieurs versions de couverture sur lesquelles j’ai eu un pouvoir limité. La v.1 était la pire : il y avait un masque Anonymous dessus et du code Visual Basic en arrière-plan. J’ai proposé de fournir des bouts de vrai code de vrais malwares en expliquant que ça nuirait sensiblement à la crédibilité du livre si le sujet était associé pour la postérité à une disquette. Par la suite, le masque Anonymous a été abandonné, j’aime à penser suite à mes suggestions de faire quelque chose de plus sobre. On est donc resté sur des bouts du botnet Mirai et du noir et rouge.

Outre le fait que ce sont mes couleurs préférées et qu’elles correspondent bien aux idées anarchistes qui se manifestent en filigrane ci et là, je l’aime bien, la couv’. Elle correspond bien à l’idée que j’ai tenté de développer brièvement dans l’intro : beaucoup de choses liées au numérique sont cachées et il est infiniment prétentieux de se croire expert ès tout, juste parce qu’on tape plus vite sur son bépo que le collègue sur son qwerty. Plus largement, il y a une vraie viralité de la peur à l’heure du numérique : c’est lorsque le moyen infecte le message que les histoires menaçantes opèrent le mieux, qu’elles aient ou non un fondement matériel. Dans notre cas, on est en plein dans la configuration où, si on pousse un peu, « Internet parle de lui-même ».

Enfin, les goûts et les couleurs… Ce qui me fait le plus halluciner, c’est de voir le conditionnement chez de nombreuses personnes qui se veulent éduquées et critiques et qui m’interpellent de façon désobligeante et misogyne sur les réseaux sociaux en m’expliquant qu’ils sont sûrs que ce que je raconte est totalement débile et naze parce que la couverture ne leur plaît pas. Je continue à maintenir que ce qui compte, c’est le contenu, et si d’aucuns s’arrêtent aux détails tels que le choix de couleurs, c’est dommage pour eux.

Élection de Trump, révélations de Snowden, DieselGate, Anonymous, wannaCry, tous ces mots à la mode, c’est pour vendre du papier ou il faut vraiment avoir peur ?

Da.

Plus sérieusement, ça ne sert à rien d’avoir peur. La peur tétanise. Or, nous, ce qu’on est et ce qu’on veut être, c’est des citoyens libres ET connectés. C’est comprendre et agir sur le monde qu’il faut, pas se recroqueviller et attendre que ça se passe. J’en profite d’ailleurs pour rappeler qu’on va nous hacher menu si on ne se bouge pas : revoyons nos priorités, les modèles de menaces législatifs (au hasard, le projet de loi anti-terrorisme), soutenons La Quadrature, des Exégètes, etc. et mobilisons-nous à leurs côtés.

Est-ce que tu regrettes qu’il n’y ait pas davantage d’implication militante-politique chez la plupart des gens qui bossent dans le numérique ?

Oui. Du coup, c’est digital partout, numérique nulle part. J’ai vraiment l’impression d’être projetée dans les années où je devais prévoir deux identités distinctes pour parler science et pour parler politique. Aujourd’hui, ce non-engagement des scientifiques leur vaut des politiques publiques de recherche totalement désastreuses, des gens qui nient le changement climatique à la tête du ministère de la recherche aux USA, etc. Le souci est là, désolée si je radote, mais : si on n’est pas acteur, on est spectateur et faut pas venir couiner après.

Quel est le lectorat que vise ton livre : le grand public, les journalistes, la communauté de la sécurité informatique… ? Est-ce que je vais tout comprendre ?

Il y a un bout pour chacun. Bon, le grand public est une illusion, au même titre que la sempiternelle Mme Michu ou que sais-je. Cette catégorie a autant d’existence que « la ménagère de moins de 50 ans » dans le ciblage publicitaire de TF1. J’ai aussi gardé mon style : je parle comme j’écris et j’écris comme je parle, je crois que ça rend la lecture moins pénible, enfin j’espère.

Les non-sachants de la technique ne sont pas des sous-humains. Si on veut travailler pour le bien de tous, il faut arrêter de vouloir que tout le monde voie et vive le monde comme on veut. Vous préférez que votre voisin utilise Ubuntu/Debian/Fedora en ayant la moitié de sa domotique braillant sur Internet et en risquant un choc anaphylactique face au premier script kiddie qui pwn son frigo connecté pour déconner, ou bien que les personnes utilisent des outils de façon plus sensible et en connaissance des risques ? Perso, à choisir, je préfère la 2e option, elle m’a l’air plus durable et contribue – je crois – à réduire la quantité globale d’âneries techniques qui nous guettent. Parce que la sécurité du réseau est celle de son maillon le plus faible. Et on est un réseau, en fait.

Je pense que chacun y trouvera des choses à se mettre sous la dent : une lecture moins anxiogène et plus détaillée de certains événements, une vision plus analytique, des contextualisations et une piqûre de rappel que les clicodromes et les certifs ne sont pas l’alpha et l’oméga de la sécurité, etc. Les retours que je commence à avoir, de la part de gens très techniques aussi, me confortent dans cette idée.

Tu rejoins la position d’Aeris qui a fait un peu de bruit en disant : « On brandit en permanence le logiciel libre à bout de bras comme étant THE solution(…). Alors que cette propriété n’apporte en réalité plus aucune protection. » ?

Je l’ai même référencé, c’est dire 🙂

Plus largement, j’ai été très vite très frustrée par le fait que les libertés fournies par le logiciel libre ignorent totalement … ben tout le reste. Il a fallu attendre des années pour que le discours autour du logiciel englobe aussi les données, les contenus éducatifs, les publications scientifiques, etc. Il n’y a pas de synthèse et les voix qui appellent à une vision plus systémique, donc à des approches moins techno-solutionnistes, sont très rares. La réflexion d’Aeris est une tentative appréciable et nécessaire de coup de pied dans la fourmilière, ne la laissons pas péricliter.

Qu’est-ce qui est le plus énervant pour toi : les journalistes qui débitent des approximations, voire des bêtises, ou bien les responsables de la sécu en entreprise qui sont parfois peu compétents ?

Les deux. Mais je pense que de nombreux journalistes prennent conscience d’ignorer des choses et viennent demander de l’aide. C’est encourageant 🙂 Quant aux RSSI… il y a de très gros problèmes dans les politiques de recrutement pour ces postes, mais gardons ce troll cette discussion pour une prochaine fois.

L’un de tes titres est un poil pessimiste : « on n’est pas sorti de l’auberge ». C’est foutu, « ils » ont gagné ?

« Ils » gagneront tant qu’on continue à s’acharner à perdre.

Je suis un utilisateur ordinaire d’Internet (chez Framasoft, on dit : un DuMo pour faire référence à la famille Dupuis-Morizeau), est-ce que j’ai un intérêt quelconque à aller sur le darkweb ? Et si j’y vais, qu’est-ce que je risque ?

Je ne sais pas. Je suis une utilisatrice ordinaire des transports en commun, est-ce que j’ai un intérêt quelconque à aller en banlieue ? L’analogie m’est soufflée par cet excellent article.

Mais bon, j’ai assez spoilé, alors je ne dirai qu’une chose : GOTO chapitre 3 de mon livre, il ne parle que de ça. 😉

On a noté un clin d’œil à Framasoft dans ton livre, merci. Tu nous kiffes ?

Grave. 🙂

Mais alors pourquoi tu n’as pas publié ton bouquin chez Framabook ?

Parce que ce n’est pas à « nous » que je m’adresse . La famille Michu, la famille DuMo, bref, « les gens » quoi, ont des canaux d’information parallèles, voire orthogonaux à ceux que nous avons. Je ne veux pas prêcher des convaincus, même si je sais très bien que les sachants de la technique apprendront beaucoup de choses en me lisant. Ce n’est pas de la vantardise, ce sont des retours de personnes qui m’ont lue avant la publication, qui ont fait la relecture ou qui ont déjà fini le bouquin. Pour parler à autrui, il faut le rencontrer. Donc, sortir de chez nous !

D’ailleurs, j’en profite pour râler sur ces appellations ignares auxquelles je cède parfois aussi : Mme/la famille Michu, la famille DuMo ou, pire, le déshumanisant et préféré de nombreux libristes qu’est « les gens ». Ce sont d’autres humains et on ne peut pas se plaindre qu’ils ne veulent pas s’intéresser à nos sujets super-méga-trop-bien en les traitant d’imbéciles. On est toujours les gens de quelqu’un (dixit Goofy que je cite en l’état parce qu’il a raison).

Tu déclares dans un Pouet(*) récent : « …à chaque fois que le sujet revient sur le tapis, je me pose la même question : devrait-on continuer à décentraliser (== multiplier de très nombreuses structures petites, agiles *et* potentiellement fragiles) ou clusteriser davantage pour faire contrepoids ? Je n’ai pas de réponse pour l’instant… » Est-ce que tu es sceptique sur une initiative comme celle des CHATONS, qui vise justement à décentraliser ?

Ce n’est pas une question de scepticisme à l’égard de [insérer nom de techno/asso/initiative chérie ici].

Prenons un exemple annexe : l’anarchisme comme mode d’organisation politique. Fondamentalement, c’est le système le plus sain, le plus participatif, le moins infantilisant et le plus porteur de libertés qui soit (attention, je parle en ayant en tête les écrits des théoriciens de l’anarchisme, pas les interprétations de pacotille de pseudo-philosophes de comptoir qu’on nous sert à longueur de journée et qui font qu’on a envie de se pendre tellement ça pue l’ignorance crasse).

Il y a cependant différents problèmes qui ont cristallisé depuis que ce type d’organisation a été théorisé. Et celui qui m’apparaît comme le plus significatif et le moins abordé est la démographie. Faire une organisation collégiale, avec des délégués tournants, ça va quand on est 100, 10 000 ou même 1 million. Quand on est 7 milliards, ça commence à être très délicat. Les inégalités n’ont pas disparu, bien au contraire, et continuent à se transmettre aux générations. Les faibles et vulnérables le demeurent, au mieux.

Résultat des courses : il y a une vision élitiste – et que je trouve extrêmement méprisante – qui consiste à dire qu’il faut d’abord éduquer « les gens » avant de les laisser s’impliquer. Le problème avec la morale, c’est que c’est toujours celle des autres. Alors, le coup de « je décide ce qui constitue une personne civiquement acceptable d’après mon propre système de valeurs qui est le plus mieux bien de l’univers du monde » est constitutif du problème, pas une solution. Passer outre ou, pire, occulter les questions de gouvernance collective est dangereux : c’est, sous prétexte que machin n’est pas assez bien pour nous, créer d’autres fossés.

Pour revenir à la question de départ donc, je suis une grande fan de la décentralisation en ce qu’elle permet des fonctionnements plus sains et responsabilisants. Ce qui me manque est une organisation rigoureuse, une stratégie. Ou probablement il y en a une, mais elle n’est pas clairement définie. Ou probablement, notre détestation du « management » et de la « communication » font qu’on s’imagine faire du bazaar durable ? Le souci est que, de ce que j’ai vu par ex. au CCC, pour que le bazaar marche, y a une p*tain de cathédrale derrière (rappel : « L’anarchie est la plus haute expression de l’ordre. »). La rigueur d’une organisation n’est pas un gros mot. Est-on prêt-es à s’y astreindre ? Je ne sais pas.

Après, j’ai une propension non-négligeable à me faire des nœuds au cerveau et à aimer ça. Ptet que je m’en fais inutilement ici… mais sans débat régulier et des échanges plus ouverts, comment savoir ?

Le dernier mot est pour toi, comme d’hab sur le Framablog…

Le tact dans l’audace, c’est savoir jusqu’où on peut aller trop loin. Beaucoup sont passionné⋅e⋅s par les questions et les enjeux du numérique, tellement passionné⋅e⋅s que leurs comportements peuvent devenir pénibles. Je pense aux micro-agressions quotidiennes, aux vacheries envoyées à la tronche de certain⋅e⋅s et au sexisme ordinaire. Beaucoup sont épuisés de ces attitudes-là. Il ne s’agit pas de se vivre en Bisounours, mais de faire preuve de tact et de respect. Celles et ceux qui s’échinent à porter une bonne et raisonnable parole publiquement ont déjà assez à faire avec toutes les incivilités et l’hostilité ambiantes, ils n’ont pas besoin de votre mauvaise humeur et manque de tact.

Pensez-y au prochain pouet/tweet/mail/commentaire IRC.

 

Pour en savoir plus : http://www.face-cachee-internet.fr/
Pour rencontrer Rayna à la librairie de Bookynette

(*)Pour retrouver les Pouets de Malicia Rogue sur le réseau social libre et fédéré Mastodon

 

 

 

 




Les Rencontres mondiales du logiciel libre se mettent au vert

logo rmll 2017

Les Rencontres mondiales du logiciel libre sont organisées, chaque année dans une ville différente, par le groupe d’utilisateurs de logiciels libres local.

C’est un grand pouvoir et une grande responsabilité pour le GULL qui s’y colle. Il s’agit de proposer une formule qui fera le bonheur des geeks purs et durs comme des quidams souhaitant sentir le vent de la liberté.

Cette fois-ci, ce sont les copains d’Alolise, le chaton stéphanois, qui assument cette lourde tâche. Plongée dans le chaudron.

Salut les amis !  Vous pouvez nous présenter Alolise ?

C’est une chouette association. 🙂

Alolise existe depuis plus de 12 ans ! Les débuts étaient très « underground« , puis petit à petit sous l’impulsion des différents présidents et du petit noyau d’irréductibles, Alolise a su se créer une identité et commence à être connue.

Notre avenir (hors RMLL) est orienté vers la communication autour des CHATONS (Collectif d’Hébergeurs Alternatifs Transparents Ouverts Neutres et Solidaires), car nous offrons une véritable AMAP Numérique sur Saint-Étienne et sa région, et aussi vers la poursuite du combat EDUNATHON contre les accords Microsoft – Éducation Nation, en proposant en partenariat avec la mairie des ordinateurs libres comme alternative auprès des écoles de la métropole.

On a aussi un gros projet de formation, mais chut … plus tard.

Vous organisez les Rencontres mondiales du logiciel libre à Saint-Étienne du premier au 7 juillet prochains. Ça va, la pression ?

Ça va. C’est une pression motivante. L’événement est pour bientôt, on a la tête dans le guidon mais on tient la barre et on avance en équipe.

Il faut savoir que pour certains d’entre nous c’est un combat pied à pied de plus de 18 mois…
Il nous tarde de retrouver une vie normale et de nous tenir éloignés de toute réunion pendant une période de convalescence d’au moins 6 mois…

On savait qu’on ne savait pas à l’époque exactement dans quoi on s’engageait (oui oui cette phrase a un sens )… On savait que ce serait dur, mais on ne voyait pas vraiment quels seraient les embûches et les barrières… Aujourd’hui c’est bon, on a bien fait le tour 😀 on sait assez précisément ce que ça représente en terme de blocages, de renonciations, de travail, de présence, de sacrifices familiaux ou amicaux… et ne parlons pas des carences de sommeil ou des montées de stress…

Le groupe qui n’a vraiment rien lâché tient dans les doigts d’une main, c’est les pitbulls, les teigneux ceux qui veulent que ça ait lieu coûte que coûte ! Ils me font monter les larmes aux yeux car on sait chacun ce qu’on a eu à traverser… Après le cercle s’étend avec la montée de l’intensité du dilettantisme. 🙂

Mais c’est un phénomène normal, je remercie chacun de ceux qui nous a consacré du temps même si c’est un quart d’heure, parfois c’est ce petit morceau de temps qui a fait la différence…

Voir en plein écran

Dites, ces RMLL, comme on dit, c’est quoi finalement ? Si je suis nouveau (ou nouvelle) dans le milieu libriste, en quoi est-ce que ça m’intéresse ?

Les RMLL c’est un cycle de conférences, débats, ateliers, spectacles et concerts réunissant débutants passionnés et professionnels du Libre. Cette année on souhaite en outre faire venir le grand public, les gens qui n’ont même jamais entendu cette association de mots : Logiciel Libre.

Les conférenciers viennent du monde entier, c’est l’objectif principal de ces « rencontres », faire se rencontrer les gens, discuter, apprendre, partager et en sortir avec de nouvelles idées et motivations pour le logiciel libre.

Cette année on veut faire se rencontrer : le monde professionnel (la couleur fuchsia du logo), le grand public, le politique (la couleur jaune), et la communauté libriste, les enseignants, les chercheurs (la couleur verte).

Si tu viens d’arriver dans le milieu libriste c’est un immense festival autour de la question d’une philosophie née dans le numérique avec une approche éthique et participative. Si tu viens d’arriver dans le milieu libriste peut-être que tu sais déjà que ce n’est pas un fantasme, mais que ça fait une quarantaine d’années que ce monde existe et que les RMLL, elles, sont présentes en France depuis 17 ans.

Enfin c’est un moment, une semaine plutôt, assez conviviale, où l’on peut apprendre beaucoup, beaucoup de chose et s’ouvrir à beaucoup, beaucoup de domaines (par exemple l’écologie dans le numérique, ou le théâtre libre, ou alors l’internet des objets, ou même la production artistique en creative commons, ou la sécurité informatique, de l’urbanisme, de la spéléologie, du management, enfin bon, va voir le programme ou viens échanger sur les réseaux sociaux ou par mail.

De plus cette année nous avons vraiment tenu à réunir 3 publics : le grand public, le monde professionnel et la communauté libriste,

Mais du coup, ces rencontres sont réservées à un public qui connaît déjà le logiciel libre ou bien…? (demande-t-on d’une voix innocente :p)

Tant d’innocence dans cette voix 🙂

Oui et non. Non ce n’est pas réservé à un public initié parce que le premier week-end est axé découverte et initiation. De grandes figures du libre viendront en parler et un bon nombre d’interventions (la majorité en fait) sont prévues pour un public qui ne connaît pas ce milieu (ou débute). Puis pendant la semaine les activités alterneront entre « pour les pros » et « découverte, pour débuter ». De toute façon, si un moment vous êtes perdus, sachez que le monde du Libre se construit autour du partage, vous pourrez demander autour de vous. Et si vous passez sur le Framablog, vous le savez certainement déjà.

Enfin les soirées sont bien évidemment grand public, c’est des concerts et du théâtre. D’ailleurs on vous invite à venir en famille ou avec vos proches.

Ceux qui connaissent le Logiciel Libre ne seront pas en reste. Il y a un bon nombre d’interventions pour eux, certaines sont même très très techniques. De plus il y a le 4 et 5 juillet le salon pro à la Manufacture. Ce sont les entreprises du libre de la région qui se réunissent pour des rencontres professionnelles. Et pour ajouter un peu de poids dans la balance, il se trouve que le 5 juillet se déroule à la Cité du Design (donc juste en face) la 27eme journée de l’ANSSI (où la c’est les pros de la sécurité informatique qui se réunissent).

La programmation est riche, avec beaucoup d’intervenants et de conférences. Elles seront rediffusées pour celles et ceux qui ne pourront pas venir (ou qui ne pourront pas se couper en trois) ?

Normalement oui, diffusées en direct et accessible ensuite sans problème. On devrait avoir quelques conférences traduites en langue des signes aussi.
Donc pas de panique là dessus. De plus ceux qui nous ont soutenu lors du financement participatif auront droit à une clef usb élaborée par nos soins.

Vous réussissez un coup de maître en invitant Cédric Villani qui est au top de sa popularité. 😉 Comment avez-vous fait ?

C’est pas encore fait en réalité. Cédric est très motivé pour venir, mais à ce stade il ne sait pas encore si son emploi du temps pourra lui permettre de le faire.
Sinon pour le faire venir, un peu d’audace et un grand sourire, le duo gagnant qui ouvre les portes.

Les RMLL ont traditionnellement du mal à attirer le grand public. Vous avez l’air bien décidés à y parvenir. Vous parlez d’un parcours ludique. Vous pouvez en dire plus ou c’est secret ?

Eh bien depuis début juin les stéphanois voient leurs bars et lieux de sortie envahis par des outils Libres. Une bonne entrée en matière pour le week-end du 1-2 juillet où tout le monde pourra suivre un parcours dans la ville de Saint-Étienne. Les grandes places de la ville seront alors investies pour inviter le public à découvrir le Libre, en apprendre plus et échanger sur le sujet.

L’organisation des RMLL demande beaucoup de temps, d’énergie, de disponibilité de la part des associations comme Alolise, mais demande aussi des moyens techniques, de l’espace et des moyens financiers. Avez-vous eu du mal à mobiliser et faire contribuer des partenaires institutionnels (municipalité, département, région…), des entreprises et des associations ?

Tu as raison, c’est un projet qui mobilise énormément de ressources, que ce soit technique, organisationnelles, financières et même sociales ou psychologiques. C’est un peu une course d’endurance, mais sur 18 mois. Certains partenaires ont été très volontaires dès le début du projet (notamment la mairie  et les autres associations libristes), du côté institutionnel c’est plus long à bouger (ce qui est normal d’ailleurs) mais au final on nous suit et on nous soutien. Par exemple la ville de Saint-Étienne nous aide beaucoup par son soutien, son aide, ses conseils, on sent de l’investissement et ça fait plaisir.
De manière générale oui on a eu des difficultés (qu’on aurait aimé ne pas avoir) mais tout rentre dans l’ordre, et c’est un peu le parcours de projets tels que celui-ci de rencontrer des obstacles. On fait front en équipe et on avance.

Combien de réunions avez-vous déjà organisées pour mettre en place cet événement, sous quelle forme ? Combien de bénévoles vont se lancer dans cette aventure?

Euh, beaucoup.
L’équipe se réunit tous les mercredis soirs depuis maintenant plusieurs mois. De plus on échange pas mal sur des réseaux tel que Mattermost. Donc réunion in vivo dès qu’on peut se retrouver sur Saint-Étienne, sinon vocale le mercredi pour ceux qui sont loin de la métropole (de Saint-Etienne 🙂 ) et compte-rendu écrit pour ceux qui ne pouvaient pas être là. Enfin, on est toute la journée à discuter ensemble par clavier interposé. C’est un peu une colocation mais sans la vaisselle.
Pour ce qui est des bénévoles, nous aurions besoin idéalement d’environ 80 personnes pour vivre une semaine sereine. Pour l’instant nous en sommes encore assez loin…

Quels sont les moments, animations, conférences que vous attendez avec impatience ? (oui, on le sait, c’est dur de choisir…)

C’est dur de choisir 🙂
Pour ma part je n’ai jamais vu Richard Stallman en vrai, donc je suis assez impatient de le voir (et aussi très angoissé de le rencontrer). Puis il y a une conférence sur la modélisation pour la spéléo (Therion, c’est long). J’adore ça, et l’intervenant, J-P Cassou, est une sacrée personnalité dans le milieu (son parcours est aussi impressionnant). Il y a aussi une intervention sur la méthode AGILE, je ne suis pas un grand fan des méthodes de management, mais justement ça me rend curieux. Si je n’aime pas, peut-être que je ne comprends pas bien ? non 🙂 ?

Les soirées : c’est une première d’avoir des soirées prévues DANS la programmation.
Les RPLL : c’est une première d’avoir « institutionnalisé » un salon pro pendant les RMLL, on sera très attentif à la réaction des gens et à leurs retours.
L’atelier CHATONS le vendredi : c’est une occasion unique de réunir un maximum de GULL ayant fait le choix de devenir chatons et de passer une journée de workshop pour faire décoller ce mouvement.

Avez-vous besoin d’aide dans les jours qui viennent ? Pour faire quoi, comment, par qui et à quel moment ?

OUI ! On a besoin de bénévoles pendant l’événement, ça c’est sûr. Les lieux sont assez grands et il nous faut du monde pour accueillir le public. Nous avons ouvert un framaform pour ça.
On a aussi besoin de vous tous, visiteurs, avec la meilleure énergie sur les lieux à partir du 1er juillet. N’hésitez pas à en parler autour de vous, à en discuter entre vous que ce soit en bien ou en mal d’ailleurs, c’est comme ça qu’on avance.
Enfin nous vous invitons à nous suivre sur les réseaux sociaux, (@rmll2017 sur Twitter, Mastodon et Diaspora*). On passe aussi à la radio sur les prochaines semaines, le 22 sur Radio Loire à 11h et sur Radio Dio le 14 à partir de 19h. La semaine du 19 nous aurons plusieurs vidéos à partager aussi.

Enfin, comme toujours sur le Framablog, on vous laisse le mot de la fin !

42 !  Et vous pouvez pas encore savoir combien ce chiffre sera important  pendant les RMLL2017 !
Plus sérieusement : un immense merci à tout ceux qui nous ont soutenu pour le crowdfunding, un immense bravo à l’équipe de 70 personnes qui fourmille dans l’organisation (attention c’est pas encore fini 🙂 ), à tout ceux qui nous relaient sur les réseaux, et courage à ceux qui nous supportent au quotidien (c’est bientôt terminé promis).
On se décarcasse pour faire de chouettes RMLL et on espère très sincèrement être à la hauteur.

Le thème des RMLL cette année : LIBRE ET CHANGE

Logo des RMLL

Site officiel : https://2017.rmll.info/




L’écosystème des contenus piratés

Catalogué illégal, le piratage de films et de séries fait pourtant partie du quotidien de beaucoup d’internautes, et il n’y a plus grand-monde pour faire semblant de s’en offusquer.

Des études ont même prouvé que les plus gros consommateurs de contenus piratés sont aussi par ailleurs les plus gros acheteurs de produits culturels légaux (voir ici et ). Il semblerait finalement que l’écosystème culturel illégal ne soit pas tant un concurrent, mais qu’il fonctionne plutôt en synergie avec le reste de l’offre.

Dans ce contexte, le site Torrent Freak, spécialisé dans l’actualité du peer to peer (pair à pair), publie un article qui s’interroge sur les enjeux du choix entre torrent et streaming.
Ces deux usages sont en effet bien distincts – d’un côté la logique pair à pair décentralisée du torrent, qui permet aux utilisateurs de stocker le fichier sur leur ordinateur et de le repartager ; de l’autre, les plates-formes de streaming centralisées, invitant à une consommation éphémère et unilatérale du contenu.
L’article qui suit nous invite à réfléchir à nos usages, et à leur incidence sur l’écosystème des contenus disponibles en ligne. Au fond, torrent et streaming incarnent deux visions d’internet sur le plan technique… et donc aussi sur le plan politique.

Image par nrkbeta – CC BY-SA 2.0

 

Article original sur le site de Torrentfreak : To Torrent or To Stream ? That is the Big Piracy Question

Traduction : santé !, jaaf, dominix, goofy, ilya, Opsylac, audionuma, xi, monnomnonnon + 3 anonymes

Torrent ou streaming ? Telle est la grande question du piratage

Dans un monde où les films et les séries sont si facilement accessibles via les plates-formes de streaming, pourquoi qui que ce soit irait encore se compliquer la vie à utiliser un site de torrent ? Question intéressante, qui soulève des enjeux non seulement pour l’avenir de la consommation pirate, mais aussi pour la santé de l’écosystème sous-jacent qui fournit les contenus.

Il y a peut-être six ans, tout au plus, on ne se demandait même pas où la plupart les pirates du web allaient se procurer leur dose de vidéos. Depuis de nombreuses années déjà, BitTorrent était le protocole incontournable.

Encore largement populaire aujourd’hui avec ses millions d’utilisateurs quotidiens, la consommation de torrent a pourtant ralenti ces dernières années avec la montée en puissance des plates-formes de streaming. Ces sites, avec leurs catalogues au design étudié et leurs interfaces façon YouTube, offrent un accès facile à un large éventail de films et de séries, presque aussi rapidement que leurs équivalents torrent.

Alors pourquoi, alors que ces services de streaming sont si faciles à utiliser, qui que ce soit irait s’embarrasser à télécharger des torrents relativement encombrants ? La réponse n’est pas immédiatement évidente, mais pour les personnes qui connaissent de près les deux options, c’est un enjeu assez sérieux.

Premièrement, se pose la question importante de la « propriété » du contenu.

Alors même que les gens ont accès à tous les derniers films sur streamingmovies123 ou sur whatever.com, les utilisateurs ne « possèdent » jamais ces streams. Ces derniers sont complètement éphémères, et dès qu’on appuie sur le bouton stop, l’instance du film ou de la série disparaît pour toujours. Bien sûr, on télécharge le fichier pour le visionner [dans les fichiers temporaires, NdT], mais il se volatilise ensuite presque instantanément.

Pour la même consommation de bande passante, l’utilisateur ou utilisatrice peut aller sur un site de torrents et obtenir exactement le même contenu. Cependant, il existe alors deux différences majeures. Premièrement, il ou elle peut aider à fournir ce contenu à d’autres, et deuxièmement, on peut conserver ce contenu aussi longtemps que souhaité.

Le stockage local du contenu est important pour beaucoup de pirates. Non seulement ce contenu peut ainsi être visionné sur n’importe quel appareil, mais il peut aussi être consulté hors ligne. Bien sûr, cela prend un peu de place sur le disque dur, mais au moins cela ne nécessite pas que streamingmovies123 reste en ligne pour en profiter. Le contenu peut être visionné à nouveau plus tard, restant potentiellement disponible pour toujours, en tout cas bien longtemps après que le site de streaming aura disparu, ce qui arrive bien souvent.

Mais alors que garder le contrôle sur le contenu est rarement un inconvénient pour le consommateur, la question des avantages du partage (téléversement) via BitTorrent est une affaire de point de vue.

Les utilisateurs des sites de streaming vont avancer, à juste titre, que sans téléversement, ils sont plus en sécurité que leurs homologues utilisateurs de torrents. Les utilisateurs de torrents, de leur côté, répondront que leur participation au téléversement aide à fournir du contenu aux autres. Les adeptes de torrents apportent en effet un bénéfice net à l’écosystème du piratage, tandis que les consommateurs de streaming ne sont (selon la terminologie des torrents) que des profiteurs (NdT : en anglais leechers, littéralement des sangsues…).

Il existe toute une nouvelle génération de consommateurs de streaming aujourd’hui qui n’a absolument aucune notion du concept de partage. Ils ne comprennent pas d’où vient le contenu, et ne s’en soucient pas. Ce manque « d’éducation pirate » pourrait s’avérer à terme préjudiciable pour la disponibilité du contenu.

Tant que nous sommes sur ce sujet, se pose une question importante : comment et pourquoi le contenu piraté circule-t-il à travers l’écosystème du Web ?

Il existe des routes établies de longue date qui permettent au contenu en provenance de ce qu’on appelle les « top sites » de glisser rapidement vers les sites torrent. Par ailleurs, les sites de torrent fournissent aux contributeurs P2P (pair à pair) indépendants des plates-formes de diffusion de leur offre au public. Sur ce plan, les sites torrent contribuent beaucoup plus à l’écosystème global du piratage que la plupart des sites de streaming.

Se pose également la question pas moins cruciale de l’origine des contenus des sites de streaming. Bien sûr, beaucoup des personnes impliquées dans ce domaine du piratage ont un accès direct ou indirect aux « top sites », mais beaucoup aussi se contentent de récupérer leurs contenus sur des sites torrent publics ou privés, comme pourrait le faire un utilisateur lambda. Il n’est pas difficile de comprendre qui dépend de qui ici.

Cela nous amène à la question de savoir comment ces deux sortes de piratage sont perçues par les intérêts hollywoodiens. Pas besoin d’être Einstein pour déduire que le torrent et le streaming sont tous deux l’ennemi, mais comme les plates-formes de streaming ressemblent davantage aux offres légales comme celles de Netflix et Amazon, elles sont généralement présentées comme étant la plus grande menace.

En effet, la montée des installations Kodi modifiées (et la réponse agressive qu’elles ont reçue) conforte cette idée, le piratage glissant de l’environnement relativement geek des torrents vers des interfaces faciles à utiliser, plus accessibles au grand public.

Ainsi, la question de savoir ce qui est mieux – le torrent ou le streaming – repose largement sur la préférence du consommateur. Cependant, pour ceux qui s’intéressent à l’écosystème du piratage, l’enjeu est de savoir si le streaming peut s’améliorer, ou même survivre, sans le torrent, et si soutenir uniquement le premier ne mènerait pas vers une voie sans issue.




La confidentialité bientôt twitterminée ?

Le succès de Twitter est toujours aussi impressionnant (des statistiques nombreuses et significatives ici), même si l’entreprise continue d’enregistrer des pertes, trimestre après trimestre. Ce qui est constant aussi avec Twitter c’est sa désinvolture caractérisée vis-à-vis des données que nous lui laissons récolter.

Calimaq analysait déjà en 2012, à l’occasion de la revente de données à des tierces parties, les multiples entorses au respect de la vie privée dont Twitter est familier.

Un pas nouveau est sur le point d’être franchi, Twitter annonce qu’il va renoncer au Do Not Track.

Pour tout savoir sur Do Not Track, en français Ne pas me pister, vous pouvez parcourir la page DNT de Wikipédia ou encore cette page d’information de Mozilla Firefox.

Do Not Track ? Cette sorte d’avertissement figure dans l’en-tête de requête HTTP, et revient un peu à déclarer « Hep, je ne veux pas être pisté par vos régies publicitaires ». Emboîtant le pas à d’autres entreprises du Web bien décidées à ne pas tenir compte de cette demande des utilisateurs et utilisatrices, Twitter préfère un autre protocole hypocrite et malcommode et prend date : le DNT, c’est fini à partir du 18 juin.

18 juin…  Bon sang, voilà qui nous rappelle les heures les plus sombres de… euh non, justement ce serait plutôt le contraire : voilà une date marquante de l’Histoire de France, celle du fameux Appel de Londres du général de Gaulle.

Et si nous profitions de cette coïncidence pour ranimer la flamme de la résistance à Twittter ? OK les trolls, Twitter n’est pas une armée d’occupation, mais avouez que ce serait assez drôle si nous lancions une campagne avec un appel à quitter Twitter pile le 18 juin ?

Ça vous dirait d’y participer un peu partout sur les réseaux sociaux ? Ouvrez l’œil et le bon, on va s’organiser 😉

En attendant, parcourez la traduction de cet article paru sur le site de l’Electronic Frontier Foundation : New Twitter Policy Abandons a Longstanding Privacy Pledge

Le billet s’achève par quelques recommandations pour échapper au pistage de Twitter. Mais la meilleure solution ne serait-elle pas de fermer son compte Twitter et d’aller retrouver les copains sur des réseaux sociaux plus respectueux comme Mastodon et Diaspora* ?

Traduction Framalang :  goofy, mo, roptat, Opsylac, xi, Asta, FranBAG, fushia, Glouton

La nouvelle politique de Twitter abandonne un engagement de confidentialité longtemps maintenu

par Jacob Hoffman-Andrews

Twitter a l’intention de mettre en œuvre sa nouvelle politique de confidentialité à partir du 18 juin 2017, et, dans le même élan, reviendra probablement sur son engagement pris depuis longtemps de se conformer à la politique de confidentialité associée à l’en-tête DNT. L’entreprise préfère adopter le programme d’auto-régulation Digital Advertising Alliance, boiteux et inefficace. L’entreprise profite aussi de cette l’occasion pour ajouter une nouvelle option de pistage et deux nouvelles possibilités de ciblage, qui seront l’une et l’autre activées par défaut. Cette méthode est indigne d’une entreprise censée respecter les choix de confidentialité des personnes.

Twitter implémente diverses méthodes de pistage dont l’une des plus importantes est l’utilisation de boutons : Tweet, Suivre, et les Tweets embarqués pour enregistrer une bonne partie de votre historique de navigation. Lorsque vous visitez une page dotée de l’un de ces éléments, votre navigateur envoie une requête aux serveurs de Twitter. Cette requête contient un en-tête qui dit à Twitter quel est le site que vous visitez. En vous attribuant un cookie unique, Twitter peut construire un résumé de votre historique de navigation, même si vous n’utilisez pas Twitter. Twitter a été le premier à mettre en place ce pistage : à l’époque, Facebook et Google+ étaient prudents et n’utilisaient pas leurs boutons sociaux pour pister, dû aux préoccupations sur la vie privée. Twitter a adouci sa nouvelle initiative de pistage pour les internautes soucieux du respect de leur vie privée en adoptant Do Not Track. Cependant, quand les autres réseaux sociaux ont discrètement emboîté le pas à Twitter, l’oiseau bleu a décidé d’ignorer Do Not Track.

Maintenant Twitter envisage d’abandonner le standard Do Not Track pour utiliser l’outil « WebChoices », qui fait partie du programme d’auto-régulation Digital Advertising Alliance (DAA), c’est-à-dire une alliance d’entreprises pour la publicité numérique. Ce programme est inefficace car le seul choix qu’il permet à ses utilisateurs et utilisatrices est de refuser les « publicités personnalisées » alors que la plupart souhaitent refuser carrément le pistage. Beaucoup d’entreprises qui participent au DAA, et Twitter en fait partie, continuent de collecter vos informations même si vous avez manifesté votre refus, mais cacheront cette pratique car ne vous seront proposées que des publicités non ciblées. C’est comme demander à quelqu’un d’arrêter d’espionner ouvertement vos conversations et le voir se cacher derrière un rideau pour continuer à vous écouter.

De plus, WebChoices est déficient : il est incompatible avec les autres outils de gestion de la vie privée et nécessite une vigilance constante pour être utilisé. Il repose sur l’utilisation d’un cookie tiers de désinscription sur 131 sites publicitaires. Ce qui est incompatible avec l’une des fonctionnalités les plus basiques des navigateurs web : la désactivation des cookies tiers. D’ailleurs, même si vous acceptez les cookies tiers, votre désinscription ne durera que jusqu’à la prochaine fois où vous effacerez vos cookies, autre comportement habituel que beaucoup utilisent pour protéger leur vie privée en ligne. Sans compter que de nouveaux sites de publicité apparaissent tout le temps. Vous devrez donc recommencer et répéter votre désinscription lorsque le 132e site sera ajouté à WebChoices, ce dont, à moins de suivre la presse sur les publicitaires, vous ne serez pas au courant.
Ces problèmes avec le programme DAA sont justement la raison pour laquelle Do Not Track existe. Il est simple, compatible avec les autres mesures de protection de la vie privée et fonctionne sur tous les navigateurs.

Twitter connaît la différence entre une vraie désinscription et une fausse : pendant des années, Twitter a implémenté DNT comme une véritable option de « stop au pistage », et vous pouvez toujours choisir cette option dans l’onglet « Données » des paramètres Twitter, que vous soyez ou non utilisateur ou utilisatrice de Twitter. Cependant, si vous utilisez la nouvelle option de désinscription DAA que Twitter envisage de proposer à la place de DNT, l’entreprise traitera ce choix comme une fausse désinscription : Twitter continuera de vous pister, mais ne vous montrera pas de publicités en rapport avec les données collectées.

Que pouvez-vous faire à titre individuel pour vous protéger du pistage de Twitter ? Pour commencer, allez dans les paramètres de votre compte Twitter pour tout désactiver :

 

Ensuite, installez Privacy Badger, l’extension pour navigateur de l’Electronic Frontier Foundation qui, en plus d’activer DNT, essaie de détecter et de bloquer automatiquement tout comportement de pistage sur un site provenant de tierces parties. Privacy Badger remplace aussi certains widgets des réseaux sociaux par des versions statiques non-intrusives.

Twitter fait faire un grand bond en arrière à la confidentialité des internautes en abandonnant Do Not Track. L’entreprise devrait plutôt envisager une nouvelle politique de confidentialité avant le 18 juin pour conserver le respect de DNT et considérer tant DNT que DAA comme de vraies options clairement destinées à dire STOP au pistage.




Addictions en série

Gouvernements européens, il est temps de chasser le colon Microsoft

Une enquête réalisée par un consortium de neuf journalistes européens met à jour les risques qui dérivent de la dépendance des gouvernements à Microsoft — aucun n’est indemne…

Même si çà et là des efforts sont notés pour migrer vers des solutions open source voire libres, l’adversaire est impitoyable et utilise un arsenal bien rodé.

Combien faudra-t-il encore de telles enquêtes pour provoquer une prise de conscience et pour que les décisions nécessaires soient prises et mises en œuvre ?

 

Traducteurs : PasDePanique, Paul, dominix, Asta, Luc, MO, lyn., Jérochat, simon, LP, Opsylac, Paul, Hello, Mika + 5 anonymes

L’addiction de l’Europe à Microsoft, un énorme risque pour la sécurité

Nous vous proposons ici une traduction de l’article paru dans Der Tagesspiegel, qui correspond à une partie de l’enquête menée par neuf journalistes européens dans leurs pays respectifs sur les relations entre Microsoft et les institutions publiques, chacun traitant de la situation particulière dans son pays (voir les différents articles déjà publiés ici). L’hebdomadaire Marianne a publié l’article de de Leila Minano dans son édition du 19 mai sur la situation française, intitulé Microsoft : menace sur la sécurité de l’État.

Le 13 mai 2017

par Crina Boros, Wojciech Ciesla, Elisa Simantke, Ingeborg Eliassen, Leila Minano, Nikolas Leontopoulos, Maria Maggiore, Paulo Pena et Harald Schumann

Le Parlement européen de Strasbourg – Photo par Frédéric Chateaux (CC BY-SA 2.0)

 

Le 12 mai 2017, des hackeurs ont frappé plus d’une centaine de pays à l’aide d’un outil volé à la NSA, en ciblant des vulnérabilités des logiciels Microsoft. Les attaques ont infecté uniquement des appareils fonctionnant avec le système d’exploitation Windows. Parmi les victimes, on compte plusieurs organismes publics, par exemple les hôpitaux du NHS (National Health Service, Service national de santé) au Royaume-Uni. Investigate Europe a passé des mois à enquêter sur l’extrême dépendance des pays européens envers Microsoft et les risques que cela implique pour la sécurité. Lisez notre enquête complète.

Nota bene : cet article est une traduction de la version anglaise d’un billet d’Investigate Europe publiée le 13 mai 2017. Pour savoir dans quelles publications de presse, pays et langues le billet est disponible, veuillez consulter cette page.

En général, lorsque le conseil municipal de Munich se réunit, ça n’intéresse pas grand-monde en dehors du périmètre de la ville. Mais en ce jour de février, tout est différent. Dans le grand hall du magnifique hôtel de ville néogothique, tous les sièges réservés à la presse et aux spectateurs sont occupés. Ceux qui n’ont pas trouvé de place se tiennent debout dans les allées. Des membres du conseil rapportent qu’ils ont reçu des courriels et des demandes de médias en provenance de toute l’Allemagne et de toute l’Europe.

Et pourtant l’événement semble purement technique. Pendant dix ans, des experts ont travaillé à migrer le système informatique de la ville vers des logiciels libres et ouverts. Les coûteux logiciels de l’entreprise américaine Microsoft ne sont désormais plus utilisés qu’exceptionnellement. Cela n’a pas seulement permis à la ville d’économiser plusieurs millions d’euros de frais de licences, mais a aussi rendu le système plus sûr – « un franc succès », ainsi que l’annonçaient en 2014 les responsables politiques de la ville. Mais, aujourd’hui, le maire, Dieter Reiter, et sa grande coalition rassemblant le Parti Social-Démocrate (SPD), de centre-gauche, et l’Union Chrétienne Sociale (CSU), de centre-droit, souhaitent ramener chez Microsoft les 24 000 ordinateurs de la ville.

Les débats sont animés. M Reiter et ses sympathisants ne réussissent pas à donner d’arguments convaincants – ni à dire combien pourrait coûter la transition. La décision est donc reportée. Le chef du groupe parlementaire des Verts, Florian Roth, est agacé : « Cela ne semble être rien de plus qu’un jeu de pouvoir politique, dit-il, mais un jeu à haut risque ». Il ajoute en guise d’avertissement : « Voulons-nous vraiment rendre notre administration éternellement dépendante du monopole de l’américain Microsoft ? »

Dans toute l’Europe, les systèmes informatiques des administrations publiques reposent sur les programmes de Microsoft

Le problème n’est absolument pas exagéré et ne se limite pas à Munich. Dans l’Europe entière, de la Finlande au Portugal, de l’Irlande à la Grèce, les technologies informatiques dans les administrations publiques reposent sur les programmes de l’éditeur de logiciels états-unien. Et puisque les systèmes numériques continuent à grandir et à prendre de plus en plus d’importance, les États deviennent de plus en plus dépendants de cette unique entreprise. La Commission européenne a même admis qu’elle était « concrètement captive de Microsoft ».

Quelles sont les conséquences de ce lock-in, comme on l’appelle dans le jargon technique, qui nous attache à un seul fournisseur ? Et comment les gouvernements peuvent-ils gérer cela ? L’équipe de journalistes d’Investigate Europe s’est lancée pendant trois mois dans une mission d’exploration pour établir des faits et interviewer des économistes, des responsables informatiques, des experts en sécurité et des politiciens dans douze pays européens, ainsi qu’à la Commission et au Parlement européens. Les résultats sont inquiétants.

La dépendance des États envers Microsoft :

  • engendre des coûts en hausse constante et bloque le progrès technique au sein des autorités publiques ;
  • contourne systématiquement les lois européennes en matière de passation des marchés et de règles de concurrence ;
  • introduit une influence politique étouffante de la part de cette entreprise ;
  • crée pour les systèmes informatiques étatiques, ainsi que pour les données de leurs citoyens, un grand risque technique et de sécurité politique.

Microsoft n’a souhaité répondre à aucune des questions d’Investigate Europe sur ces sujets. Et les personnels qui travaillent au sein des services informatiques des administrations savent pourquoi.

« De nombreuses administrations publiques sont tellement dépendantes de cet unique fournisseur qu’elles n’ont plus aucune liberté quand il s’agit de choisir un logiciel. Cela signifie que les États européens risquent de perdre le contrôle sur leurs propres infrastructures informatiques », avertit l’ingénieur informaticien et avocat Martin Schallbruch. Jusqu’à 2016, il était directeur du département des nouvelles technologies et de la cybersécurité au ministère de l’Intérieur fédéral allemand. Schallbruch n’est que trop familier de cette situation précaire. Si on voulait écarter ce danger et « basculer vers une architecture numérique indépendante, cela demanderait d’énormes investissements », déclare ce responsable informatique expérimenté, qui mène désormais des recherches au sein de l’école de commerce de Berlin ESMT.

Le problème n’est pas seulement grave, il est aussi complexe. Au cœur des enjeux se trouve le modèle économique de Microsoft. Le géant des logiciels, basé à Redmond dans l’État de Washington aux États-Unis, vend ses logiciels, en particulier le système d’exploitation Windows et les programmes de bureautique tels que Word, Excel, Powerpoint et Outlook, en tant que produits sous licence. Dans le métier, on qualifie ce type de logiciel de « propriétaire », ce qui signifie qu’il interdit à tout concurrent d’utiliser ses propres logiciels pour interpréter correctement les données encodées par les programmes de Microsoft. Concrètement, ce seront, par exemple, des titres, des tableaux ou des dates dont les données de mise en forme ou en page seront modifiées ou perdues.

C’est là la clé du monopole global de Microsoft – un business de rêve aussi ! Année après année, ce sont ainsi quelques 50 milliards de dollars que la multinationale empoche sous la forme de redevances de licences qui ne couvrent rien d’autre que la distribution de copies de ses programmes. Et parce que vos collègues, vos relations commerciales ou personnelles utilisent des fichiers Microsoft, cela paraît logique de faire de même, même si cela engage des frais, encore et toujours. La plupart des utilisateurs d’ordinateurs Apple, eux aussi, continuent d’acheter la suite Microsoft Office.

Les autorités administratives à la merci de Microsoft

Les administrateurs des services informatiques de l’État sont parfaitement avertis de cet état de fait. Cette monoculture présente de sérieux désavantages. Dans d’autres secteurs, le développement logiciel adhère depuis longtemps à un principe complètement différent. Google ou Siemens, par exemple, travaillent en priorité avec des programmes dits open source, en d’autres termes des programmes dont le code est partagé librement. Dans ce cadre, n’importe quel programmeur ou entreprise peut utiliser le code, à la condition que le dernier arrivé mette chaque amélioration qu’il apporte au code à la disposition de tous. Cela signifie que les entreprises ne peuvent pas gagner d’argent en vendant ce genre de logiciel. Mais, dans le même temps, elles bénéficient du travail des programmeurs du monde entier sans avoir à les rémunérer.

Quels que soient les produits, de la centrale électrique à l’appareil de radiographie, Siemens a besoin d’un ensemble étendu de logiciels. « Or, 90 % d’entre eux réalisent des tâches de pure routine », explique Karsten Gerloff, informaticien du service concerné au sein de l’entreprise. « Pour cela, nous utilisons bien sûr des solutions open source ». L’entreprise utilise du « code propriétaire » uniquement pour des fonctionnalités précises, propres aux machines de Siemens. Si tous les logiciels devaient être mis au point par des équipes de l’entreprise, « ce sont 1 000 programmeurs de plus que nous devrions employer et nous ne serions plus compétitifs », indique M. Gerloff.

Le recours à la créativité d’une masse de cerveaux de par le monde engendre une dynamique bien plus forte que celui qui serait restreint aux seuls cerveaux d’une entreprise. C’est pourquoi « l’open source est maintenant la norme dans le domaine scientifique et économique » pour Matthias Kirschner, président de la Free Software Foundation Europe (FSFE), qui plaide pour une plus grande autonomie dans l’usage des technologies de l’information. Cela s’applique autant aux smartphones qu’aux superordinateurs, systèmes de commande des machines ou serveurs web. L’ancien modèle du monopole ne concerne plus que les logiciels d’ordinateurs de bureau et les suites bureautiques.

Il n’en reste pas moins que les administrations publiques s’appuient toujours sur ce vieux monopole, et pas uniquement pour la bureautique. Il existe des milliers d’applications dont seules les autorités ont l’usage. Qu’il s’agisse d’augmenter les impôts, de payer les retraites ou de calculer le coût de la collecte des déchets, que ce soit dans la police, à la sécurité sociale ou dans les services de l’urbanisme, pour quasiment chaque service que rend l’État, il existe un logiciel opérationnel spécifiquement conçu pour cette tâche. Or, parce que le système d’exploitation Windows est utilisé partout, la plupart de ces « applications spécifiques » reposent sur ce système, mettant les autorités à la merci de son éditeur.

On a vu jusqu’où cela pouvait aller quand, à la fin de l’année 2014, Microsoft a cessé de fournir des mises à jour de sécurité pour Windows XP. Du jour au lendemain, des services publics partout en Europe se sont vus contraints de souscrire des contrats de service onéreux avec Microsoft afin de s’assurer que l’entreprise continuerait de colmater les failles de sécurité de son vieux système d’exploitation. Le gouvernement britannique a ainsi déboursé 6,5 millions de livres afin de disposer d’une année supplémentaire pour migrer ses ordinateurs vers Windows 7. Les Pays-Bas, ainsi que les länder allemands de Basse-Saxe et de Berlin, ont, eux aussi, payé plusieurs millions d’euros pour disposer d’un délai. « Il s’est passé la même chose dans toute l’Europe », confirme un expert de la Commission européenne. Et cela risque de se reproduire, vu que dans trois ans, c’en sera terminé des mises à jour de Windows 7.

La Commission européenne n’écoute pas ses propres experts

Dans le même temps, les États prennent du retard à cause du verrouillage de Microsoft. « Il n’existe pas de preuves formelles de ceci actuellement, mais il est logique de supposer que la dépendance envers un fournisseur unique ralentit le progrès technique dans le secteur public », prévient Dietmar Harhoff, directeur de l’institut Max-Planck pour l’innovation et la concurrence à Munich. Par exemple, si les municipalités pouvaient développer leurs centaines d’applications dédiées sur la base de programmes open source, chaque innovation pourrait être immédiatement utilisée par les services d’autres villes sans coût supplémentaire. « Ce potentiel est énorme pour le secteur public », selon D. Harhoff.

Dès 2012, la Commission européenne avait, par conséquent, lancé un programme au nom évocateur : « Contre le verrouillage ». L’idée était que les futurs appels d’offres publics portant sur l’achat de technologies informatiques et de logiciels ne comporteraient plus la mention explicite de noms d’entreprises et de technologies « propriétaires » de ces dernières. À la place, les administrations publiques devaient s’astreindre à demander le recours à des « normes ouvertes » accessibles à l’ensemble des fabricants et éditeurs logiciels. Ce faisant, le monopole de Microsoft disparaîtrait au fil du temps dans la mesure où les problèmes de compatibilité ne se poseraient plus : les fichiers pourraient être lus par des logiciels concurrents, et cela sans perte de données. Si tous les services administratifs publics utilisaient les mêmes formats ouverts, on économiserait le prix des licences. « Les normes ouvertes créent de la concurrence, mènent à l’innovation et font économiser de l’argent », expliquait la commissaire à la Concurrence d’alors, Nellie Kroes. Selon ses experts, « le manque de concurrence » dans le secteur informatique et télécoms « coûte à lui seul 1,1 milliards d’euros par an au secteur public ».

Mais l’inertie des bureaucrates de l’État a eu raison des bonnes intentions, et l’initiative n’a abouti à rien. Pourtant, la législation européenne définit désormais des règles précises. Les administrations publiques nationales sont tenues de passer par des appels d’offres européens pour toute commande dont le montant excède 135 000 euros. Pour les autres organismes publics, cette règle s’applique pour des montants supérieurs à 209 000 euros. Quand ils achètent des logiciels standards pour leurs administrations, les gouvernements des États membres, comme un seul homme, passent outre la loi en vigueur et privilégient le fournisseur habituel Microsoft.

La mise en concurrence remplacée par de curieuses procédures

Une curieuse façon de procéder. Sans passer d’appel d’offres publics, les administrations négocient des réductions avec l’entreprise états-unienne et concluent des contrats-cadres sur cette base. Tous les groupements publics peuvent ensuite en profiter. Dans les offres ultérieures, ils cherchent uniquement des revendeurs qui leur vendront des licences Microsoft selon ces conditions. Il n’y a de facto aucune concurrence pour ces contrats publics.

En Allemagne aussi. En 2015, le ministère de l’Intérieur a convenu de nouvelles « conditions contractuelles » avec la filiale irlandaise de Microsoft, d’où la firme conduit ses affaires européennes pour optimiser ses impôts. Les rabais identifiés dans le nouvel accord peuvent être utilisés par tous les pouvoirs publics, du ministère fédéral jusqu’à la petite municipalité. La ville de Dortmund a ainsi passé un appel d’offres, par exemple pour trouver un « distributeur pour le contrat BMI de licences Microsoft en volume ».

« C’est comme si l’État publiait une offre pour acheter des voitures, mais uniquement de revendeurs Volkswagen », se moque l’avocat néerlandais Matthieu Paapst, dont le doctorat à l’Université de Groningen a porté sur l’achat de logiciels dans le secteur public. Sa conclusion : « Se fournir en produits Microsoft, pour une administration publique, sans passer d’appel d’offres ouverts, viole la législation européenne en vigueur ». En vérité, selon l’avocat, la Commission européenne devrait engager des poursuites contre ce phénomène. L’unique raison pour laquelle elle s’en garde bien, c’est qu’elle n’applique pas elle-même les recommandations.

En effet, la Commission européenne a un contrat exclusif avec Microsoft, valable pour toutes les institutions de l’UE – elle ignore de ce fait les recommandations de ses propres experts. C’est aussi « parfaitement légal » se défend Gertrud Ingestad, qui est responsable de la Direction générale pour l’Informatique (DG Digit), dans une interview à Investigate Europe. Il n’y aurait « pas d’autres possibilités » de garantir la continuité du travail de l’Union européenne. Et, dans ce cas, la législation permet explicitement le recours à une « procédure de négociation » non publique. Mais ce n’est pas exact : cette exception est explicitement valable « seulement quand il n’existe pas d’alternative raisonnable ou de solution de remplacement », selon l’article 32 du livret de recommandations de l’UE. Et c’est justement ce que la Directrice générale G. Ingestad et ses collègues ne peuvent pas prouver. Il existe des alternatives viables.

Le général italien Camillo Sileo, par exemple, a beaucoup à dire sur ce sujet. Ce militaire, qui travaille au ministère de la Défense, à Rome, reçoit dans une petite bibliothèque. Là, un sourire aux lèvres, d’une voix douce, il parle de son projet comme d’une affaire mineure. Pourtant, il est à la tête d’une opération peu commune, voire révolutionnaire, l’opération «Libre Défense ». Son objectif est de migrer les quelques 100 000 ordinateurs de l’armée italienne vers des logiciels open source. « Nous avons constaté que les deux types de logiciels sont capables de satisfaire de la même façon nos besoins », explique le général. « Voyez par vous-même », dit-il en montrant à l’écran la première page d’une étude récente du ministère. « Ici, vous avez un fichier Microsoft Word », dit-il avant de cliquer, « Et, ici, la version open source LibreOffice. Le logo, le titre, la structure, tout est là. Aucune différence, » dit-il, radieux. «La migration permettra une économie de 28 millions d’euros d’ici 2020 », a prévu le général. Par temps de crise en Italie, l’armée, elle aussi, doit faire des économies.

Le fait est que si la migration s’est déroulée sans accroc jusqu’ici, c’est grâce à une solide planification, selon le général. Le logiciel libre de remplacement peut satisfaire tous les besoins, mais il se manipule différemment et les utilisateurs doivent donc être formés. Pour cela, des volontaires de l’association « LibreItalia » ont formé des personnels de tous les services de l’armée devenus à leur tour formateurs et conseillers pour former leurs collègues. Ainsi, il y aura bientôt assez d’experts dans tous les services de l’armée. « Bien communiquer est un préalable à la réussite du projet », précise le général Sileo. « Si les gens comprennent l’objectif du changement, ils sont capables de surmonter toutes leurs résistances mentales ». Il n’a pas encore été décidé si l’armée migrera aussi son système d’exploitation un jour,  pour être totalement indépendante de Microsoft, mais la question sera examinée de très près », accorde le général Sileo.

La gendarmerie nationale française, l’une des deux forces de police nationales, a déjà mené à bien une opération de migration démarrée dès 2005. Aujourd’hui, 72 000 ordinateurs de la gendarmerie nationale sont équipés d’une version particularisée du système d’exploitation Linux, avec LibreOffice comme application principale. La gendarmerie affirme que l’économie réalisée depuis le début du projet s’élevait en 2014 à quelques 20 millions d’euros. Précisons que jusqu’à cette année-là, la migration s’était déroulée pratiquement dans le secret. « La migration vers Linux pourrait  être vue par Microsoft comme une menace de son monopole », peut-on lire dans une note interne obtenue par Investigate Europe. Cela aurait pu « déclencher des actions visant à discréditer cette politique de la gendarmerie ». C’est pour cette raison que la migration s’est effectuée « sans publicité » jusqu’au moment où le processus est devenu irréversible.

Les institutions mettent la pression sur ceux qui se désengagent

Ces précautions étaient fondées. Encore aujourd’hui, 12 ans après le lancement du projet, la direction de la gendarmerie est sous « pression permanente » pour faire marche arrière, rapporte un membre de l’équipe du département Informatique et Télécom du ministère de l’Intérieur à Paris, qui ne souhaite pas être nommé de peur de représailles. « Chaque jour de fonctionnement du système est une gifle pour notre administration qui maintient que seul Microsoft fonctionne correctement » dit-il.

Le bras de fer entre le ministère de tutelle et les partisans de Linux au sein de la gendarmerie est confirmé par une lettre du ministre, d’avril 2016, qu’Investigate Europe a eue entre les mains. Dans cette lettre, le ministre demande aux fonctionnaires responsables de la gendarmerie un retour définitif et intégral à Windows – prescription dont la direction de la police n’a pas tenu compte jusqu’à présent. Interrogé sur la question, un porte-parole faisait savoir « avec regret » qu’il était dans « l’incapacité de fournir une explication ». En parallèle, cependant, il écrivait de façon clairement subversive que la migration vers le logiciel libre « se passait en douceur et pour longtemps ». « Nous avons choisi Linux parce que le rapport coût/bénéfice est meilleur et, au final, nous gagnons en indépendance».

Ce conflit est caractéristique de ce que vivent partout les pionniers d’une émancipation vis-à-vis du monopole. Partout en Europe, il y a eu et il y a des centaines d’administrations et de municipalités qui ont migré ou tentent de migrer vers des logiciels open source : que ce soit l’administration des retraites de l’État en Suède, les écoles de Jaworzno en Pologne, les services municipaux de la ville de Rome, l’arrondissement de Camden à Londres, la grande ville de Nantes en France, le gouvernement de la communauté autonome d’Estrémadure en Espagne ou encore la ville de Vieira do Minho au Portugal. Ces projets sont à ce jour autant d’îlots perdus dans l’océan Microsoft. Pour cette raison, nombreux sont ceux qui subissent régulièrement des pressions pour rentrer dans le rang, parce que les produits et les lobbyistes de Microsoft sont omniprésents et peuvent créer de nouveaux ennuis.

Des lobbyistes à l’œuvre au sein des ministères

Dans le différend concernant l’administration municipale de Munich, ce qui se passe en coulisses est aussi un élément à prendre en considération. Dans cette ville, le maire centre-gauche SPD a besoin des voix du centre-droit CSU. Or, ce dernier est étroitement lié à l’entreprise étasunienne. Dorothee Belz, par exemple, vice-présidente chez Microsoft Europe jusqu’en 2015, fait partie du comité exécutif du conseil économique du parti conservateur.

Des épisodes identiques « d’allers-retours » se constatent partout en Europe. En Italie, un ancien directeur chez Microsoft pilote aujourd’hui la « transformation numérique » des affaires de la ville de Milan. Au Portugal, c’est un cadre de Microsoft qui a organisé la campagne pour l’élection du président conservateur. Plus de six cadres et directeurs ont des liens étroits avec des ministres et des politiciens. Dans le même temps, des techniciens de Microsoft travaillent directement dans les services informatiques des administrations. Au moins cinq d’entre eux possèdent une adresse électronique qui les identifie comme s’ils faisaient partie du personnel administratif, ce qui leur permet de « faire leur travail de lobbying pour Microsoft à l’intérieur de l’administration », affirme un fonctionnaire à Investigate Europe. En Allemagne aussi, l’accès aux ordinateurs du gouvernement est largement ouvert. Il existe plusieurs milliers d’experts dans les centres informatiques du gouvernement, y compris des personnels de Microsoft et ses partenaires, indique l’ex-responsable informatique du gouvernement fédéral, Martin Schallbruch.

Microsoft peut également instrumentaliser sans restriction les écoles et les universités à des fins marketing. Les écoliers et les enseignants reçoivent en général les produits Microsoft gratuitement, de sorte que les enfants grandissent sans rien connaître d’autre. La stratégie veut qu’après leurs études ils payeront des frais de licence pendant le reste de leur existence. « Une telle méthode est un classique du modèle « crack », utilisé dans le trafic de drogue », explique Rufus Pollock du Centre pour la propriété Intellectuelle et les lois de l’information (CIPIL) à l’Université de Cambridge. Les produits sont gratuits jusqu’à ce que les utilisateurs soient rendus accros.
Cela démontre que les gouvernements européens approuvent tacitement leur propre dépendance envers Microsoft. Ainsi que le formule Anna Strezynska, ministre polonaise du numérique : « Oui, nous sommes dépendants, mais je pense que c’est raisonnable ».
Cela signifie aussi que ces décideurs exposent leurs pays et leurs citoyens à d’innombrables risques de sécurité, tant techniques que politiques.

Ce n’est pas un hasard si les attaques informatiques majeures qui, ces dernières années, ont pris pour cible des institutions de l’État comme le Bundestag allemand ou encore la Commission et le Parlement européens, ont systématiquement exploité des failles de sécurité des logiciels Microsoft. La suite bureautique de Microsoft, notamment, et les fichiers qu’elle permet de créer, sont une des portes d’entrée privilégiée par les hackeurs, selon le rapport 2011 du Bureau fédéral allemand pour la Sécurité des technologies de l’information (BSI). D’après ce rapport, la moitié des attaques ciblées avait pour origine des documents infectés de type Microsoft, tels les fichiers « .docx », dans lesquels les hackeurs avaient dissimulé leur logiciel malveillant. « La particulière complexité de ces fichiers facilite la tâche des hackeurs », affirment les experts du BSI. Ces fichiers contiennent bien plus de code que nécessaire, ne serait-ce que pour empêcher d’autres logiciels de les lire facilement. « Ce constat est toujours d’actualité, confirme Joachim Wagner, porte-parole du BSI. Le format des fichiers Microsoft est bien plus complexe que celui des logiciels open source, ce qui augmente d’autant la « surface d’attaque» de la cible pour les hackeurs ».

Italo Vignoli, un des experts qui travaillent sur le logiciel libre LibreOffice, l’a testé pour Investigate Europe avec un simple texte de 5 500 caractères. Sous la version courante de Microsoft Word, le code du fichier couvre 390 pages. Par comparaison, le format libre OpenDocumentText ne fait que onze pages.

Les programmes de Microsoft sont confus et vulnérables

La particulière vulnérabilité des logiciels de bureautique de Microsoft se voit au nombre de failles de sécurité. « Aux États-Unis, le National Institute for Standards and Technology (NIST, Institut national des normes et de la technologie) a repéré 188 nouvelles failles dans la suite Microsoft Office au cours des trois années précédant le mois d’avril 2017. Les trois quarts de ces failles font partie de la catégorie des failles les plus graves. Sur la même période, on n’a découvert que onze failles dans LibreOffice. D’après M. Vignoli, cela n’a rien à voir avec le fait que LibreOffice est moins répandu. Simplement, malgré tous leurs efforts, même les meilleurs experts n’ont pu dénicher d’autres failles dans LibreOffice.

Cela n’a rien de surprenant. N’importe quel utilisateur chevronné peut contrôler le code source de LibreOffice. Pour l’un des meilleurs experts européens, Michael Waidner, directeur de l’institut Fraunhofer pour la sécurité des technologies de l’information, c’est la clef de voûte : « Si l’Union européenne ou un État entend vraiment préserver sa souveraineté, il doit être en mesure de vérifier que ses matériels informatiques et ses logiciels font bien ce qu’ils sont censés faire et rien d’autre, explique-t-il. Cela ne revient pas à dire que l’Europe doit devenir autonome. « Mais nous devons faire en sorte que nos experts aient accès à toute l’information requise pour tester les logiciels là où la sécurité est en jeu. Il est essentiel d’avoir accès au code source », exige l’expert. Sans cela, affirme-t-il, il ne peut y avoir de « souveraineté numérique ».

Or, c’est précisément ce que Microsoft refuse de fournir. L’entreprise a créé un « centre de la transparence», à Bruxelles, où les représentants gouvernementaux sont invités à inspecter le code source. Mais le BSI allemand juge la proposition insuffisante. « Microsoft doit satisfaire à un éventail complet de prérequis techniques pour créer un climat de confiance », a expliqué le BSI au magazine spécialisé C’t. Or Microsoft n’autorise même pas les experts à conserver leurs notes écrites et exige la signature d’un accord de non-divulgation, a confirmé un expert de la BSI à Investigate Europe.
Même si une inspection du code était possible, les conclusions en seraient probablement obsolètes dès la mise à jour suivante. En outre, le risque que représentent les produits Microsoft n’est pas seulement technique, il est aussi politique.

Déclasser l’Europe au rang de colonie numérique

L’entreprise est soumise aux lois des États-Unis. Cela signifie qu’à tout moment l’administration de ce pays peut la forcer à collaborer afin d’accéder aux données des citoyens et des pouvoirs publics d’autres pays. Pour satisfaire cet objectif, il existe ce qu’on appelle « la lettre du renseignement » dans la loi américaine, autorisant des tribunaux secrets à délivrer de telles instructions, avec obligation de se taire sous peine de poursuites légales. Les révélations de l’ancien agent Edward Snowden ont montré que les services de renseignement américain font un usage démesuré de leurs pouvoirs. Les documents qu’il a publiés révèlent que Microsoft coopère étroitement avec les services secrets de la NSA.

Un document de la NSA du 8 mars 2013 explique avec force détails que Microsoft a ouvert aux autorités américaines l’accès à ses services dans le nuage (cloud), autrement dit aux dispositifs de stockage de données auxquels recourent un nombre grandissant d’organisations privées, mais aussi publiques, qui confient ainsi à un prestataire externe leurs données informatiques par souci d’économiser sur les coûts de leur informatique interne. Les documents de Snowden ont aussi révélé que la NSA utilise une cyber-arme, Regin, en collaboration avec ses partenaires britanniques pour espionner la Commission et le Parlement européens via une faille de sécurité du programme Windows.

Wikileaks a publié des documents secrets qui prouvent que ce n’était pas un cas isolé. Ils montrent que la CIA a même développé un véritable arsenal de logiciels malveillants (malwares) ciblant exclusivement les logiciels de Windows. La NSA n’est pas en reste, un de ses outils exploitant, ainsi que l’a révélé récemment le groupe de hackeurs Shadow Brokers, quatre failles de sécurité du système d’exploitation Windows inconnues jusqu’alors (vulnérabilités Jour Zéro).

De fait, l’utilisation de produits Microsoft par les institutions de l’État « n’est plus compatible avec un État de droit », affirme le juriste et député Vert du Parlement européen Jan Philipp Albrecht. Beaucoup le considèrent comme le père de la loi européenne sur la protection des données. Albrecht précise qu’il y a pléthore de données individuelles stockées dans des ordinateurs appartenant à l’État, tels les montants acquittés pour les impôts, l’état de santé, les fichiers de police et les données sociales. « Cependant, les institutions ne peuvent garantir la confidentialité de ces données tant qu’elles travaillent avec des logiciels dont elles n’ont pas le contrôle », prévient Albrecht. Il va falloir changer cela, sous peine de « transformer l’Europe en une colonie numérique ».

M. Albrecht n’est pas le seul à exprimer ce genre d’opinion. En 2014, après les révélations d’E. Snowden, une grande majorité du Parlement européen appelait les États membres de l’UE à s’unir pour « développer des compétences-clés autonomes dans le domaine des technologies de l’information », qui devraient « être basées sur des standards ouverts et des logiciels open source », de manière à pouvoir « être testées ».

Un an plus tard, le Parlement nouvellement élu appelait à nouveau à l’adoption d’« une stratégie européenne pour l’indépendance du secteur des technologies de l’information ». Il indiquait aussi comment cela pouvait être acté : il est important d’établir « un code source publiquement accessible comme critère de sélection obligatoire dans toutes les procédures d’attribution des technologies de l’information du secteur public », ainsi que le préconisait l’expert en sécurité Michael Waidner.

 

Si l’open source devenait la norme obligatoire pour le développement logiciel, « les acteurs européens deviendraient immédiatement compétitifs ».

Si cela se faisait, M. Albrecht pense qu’il y aurait un effet sur les technologies de l’information « semblable à celui du projet Airbus ». De la même manière que l’Europe s’est autrefois affranchie de Boeing, elle pourrait s’affranchir aujourd’hui de sa dépendance à Microsoft, et cela pour un coût bien moindre, pense-t-il ; si l’open source devenait la norme obligatoire pour le développement logiciel, « les acteurs européens deviendraient immédiatement compétitifs, affirme Albrecht. Après tout, ajoute-t-il, les solutions alternatives sont développées depuis longtemps ».

Pourtant, aujourd’hui encore, les gouvernements européens s’avèrent incapables de chiffrer le montant du tribut versé au « seigneur » des licences de Redmond, aux États-Unis. De la Norvège au Portugal, la réponse des administrations compétentes aux demandes d’information d’Investigate Europe a invariablement été qu’il n’existe pas de statistiques en la matière. En Allemagne, le bureau des achats du ministère fédéral de l’Intérieur a précisé ne pouvoir fournir qu’une « estimation » des dépenses en licences Microsoft des autorités fédérales. Dix semaines après la demande, le bureau n’était toujours pas en mesure de fournir ces données.

Pierre Audoin Consultants, société spécialisée dans l’analyse des marchés IT, estime que, globalement, en Europe, Microsoft a tiré près de 2 milliards d’euros de revenus de ses opérations avec le secteur public pour l’exercice fiscal 2015-16. Cela voudrait dire que ce sont au moins 20 milliards d’euros de recettes fiscales européennes qui partent vers l’entreprise étasunienne tous les dix ans,  assurément assez pour que l’Europe développe sa propre industrie du logiciel.

Jusqu’à présent, les dirigeants européens ne veulent rien entendre d’un « projet Airbus » pour le secteur des technologies de l’information. Andrus Ansip, commissaire européen au marché unique du numérique ne veut même pas en parler. Son directeur de cabinet, Roberto Viola, botte en touche en déclarant que ce n’est pas là leur principal souci

Les entreprises américaines de l’Internet, de leur côté, n’ont pas besoin d’un dessin. Que se soit Facebook, Google ou Amazon, leurs infrastructures informatiques fonctionnent exclusivement avec des logiciels libres à en croire leurs porte-paroles. C’est le seul moyen qu’elles ont de se protéger. C’est bien aussi l’intention des dirigeants chinois, qui ont commencé à se libérer du monopole de Microsoft après le scandale de la NSA.

Sous l’égide de l’Académie nationale d’ingénierie chinoise, un système d’exploitation ouvert, Neokylin, a été développé, accompagné de sa suite bureautique. L’opération de « déwindowsisation », comme l’appelle le professeur Ni Guangang, chef du projet, concernera au premier chef les secteurs les plus sensibles en termes de sécurité. C’est pourquoi l’usage de programmes libres/ouverts est en train de devenir obligatoire pour les militaires, l’administration d’État et le secteur financier. L’opération devrait se terminer en 2020.
La Chine prend le chemin de l’indépendance. Que fait l’Europe pendant ce temps-là ?

photo par Leonid Mamachenkov (CC BY 2.0)

Cet article est une traduction de la version anglaise d’un billet d’Investigate Europe publiée le 13 mai 2017. Pour savoir dans quelles publications de presse, pays et langues le billet est disponible, veuillez consulter la page suivante.