Les nouveaux Léviathans II — Surveillance et confiance (b)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la section précédente)

Trouver les bonnes clés

Cette logique du marché, doit être analysée avec d’autres outils que ceux de l’économie classique. L’impact de l’informationnalisation et la concentration des acteurs de l’économie numérique ont sans doute été largement sous-estimés, non pas pour les risques qu’ils font courir aux économies post-industrielles, mais pour les bouleversements sociaux qu’ils impliquent. Le besoin de défendre les droits et libertés sur Internet et ailleurs n’est qu’un effet collatéral d’une situation contre laquelle il est difficile d’opposer seulement des postures et des principes.

Il faut entendre les mots de Marc Rotenberg, président de l’Electronic Privacy Information Center (EPIC), pour qui le débat dépasse désormais la seule question de la neutralité du réseau ou de la liberté d’expression1. Pour lui, nous avons besoin d’analyser ce qui structure la concentration du marché. Mais le phénomène de concentration dans tous les services de communication que nous utilisons implique des échelles tellement grandes, que nous avons besoin d’instruments de mesure au moins aussi grands. Nous avons besoin d’une nouvelle science pour comprendre Internet, le numérique et tout ce qui découle des formes d’automatisation.

Diapositive extraite de la conférence "Dégooglisons Internet"
Diapositive extraite de la conférence « Dégooglisons Internet »

On s’arrête bien souvent sur l’aspect le plus spectaculaire de la fuite d’environ 1,7 millions de documents grâce à Edward Snowden en 2013, qui montrent que les États, à commencer par les États-Unis, ont créé des systèmes de surveillance de leurs populations au détriment du respect de la vie privée. Pour beaucoup de personnes, cette atteinte doit être ramenée à la dimension individuelle : dois-je avoir quelque chose à cacher ? comment échapper à cette surveillance ? implique-t-elle un contrôle des populations ? un contrôle de l’expression ? en quoi ma liberté est-elle en danger ? etc. Mais peu de personnes se sont réellement interrogées sur le fait que si la NSA s’est fait livrer ces quantités gigantesques d’informations par des fournisseurs de services (comme par exemple, la totalité des données téléphoniques de Verizon ou les données d’échanges de courriels du service Hotmail de Microsoft) c’est parce que ces entreprises avaient effectivement les moyens de les fournir et que par conséquent de telles quantités d’informations sur les populations sont tout à fait exploitables et interprétables en premier lieu par ces mêmes fournisseurs.

Face à cela, plusieurs attitudes sont possibles. En les caricaturant, elles peuvent être :

  • Positivistes. On peut toujours s’extasier devant les innovations de Google surtout parce que la culture de l’innovation à la Google est une composante du story telling organisé pour capter l’attention des consommateurs. La communication est non seulement exemplaire mais elle constitue un modèle d’après Google qui en donne même les recettes (cf. les deux liens précédents). Que Google, Apple, Microsoft, Facebook ou Amazon possèdent des données me concernant, cela ne serait qu’un détail car nous avons tous l’opportunité de participer à cette grande aventure du numérique (hum !).
  • Défaitistes. On n’y peut rien, il faut donc se contenter de protéger sa vie privée par des moyens plus ou moins dérisoires, comme par exemple faire du bruit pour brouiller les pistes et faire des concessions car c’est le prix à payer pour profiter des applications bien utiles. Cette attitude consiste à échanger l’utilité contre l’information, ce que nous faisons à chaque fois que nous validons les clauses d’utilisation des services GAFAM.
  • Complotistes. Les procédés de captation des données servent ceux qui veulent nous espionner. Les utilisations commerciales seraient finalement secondaires car c’est contre l’emploi des données par les États qu’il faut lutter. C’est la logique du moins d’État contre la liberté du nouveau monde numérique, comme si le choix consistait à donner notre confiance soit aux États soit aux GAFAM, liberté par contrat social ou liberté par consommation.

Les objectifs de cette accumulation de données sont effectivement différents que ceux poursuivis par la NSA et ses institutions homologues. La concentration des entreprises crée le besoin crucial d’organiser les monopoles pour conserver un marché stable. Les ententes entre entreprises, repoussant toujours davantage les limites juridiques des autorités de régulations, créent une logique qui ne consiste plus à s’adapter à un marché aléatoire, mais adapter le marché à l’offre en l’analysant en temps réel, en utilisant les données quotidiennes des utilisateurs de services. Il faut donc analyser ce capitalisme de surveillance, ainsi que le nomme Shoshana Zuboff, car comme nous l’avons vu :

  • les États ont de moins en moins les capacités de réguler ces activités,
  • nous sommes devenus des produits de variables qui configurent nos comportements et nos besoins.

L’ancienne conception libérale du marché, l’acception économique du contrat social, reposait sur l’idée que la démocratie se consolide par l’égalitarisme des acteurs et l’équilibre du marché. Que l’on adhère ou pas à ce point de vue, il reste qu’aujourd’hui le marché ne s’équilibre plus par des mécanismes libéraux mais par la seule volonté de quelques entreprises. Cela pose inévitablement une question démocratique.

Dans son rapport, Antoinette Rouvroy en vient à adresser une série de questions sur les répercutions de cette morphologie du marché. Sans y apporter franchement de réponse, elle en souligne les enjeux :

Ces dispositifs d’« anticipation performative » des intentions d’achat (qui est aussi un court-circuitage du processus de transformation de la pulsion en désir ou en intention énonçable), d’optimisation de la force de travail fondée sur la détection anticipative des performances futures sur base d’indicateurs produits automatiquement au départ d’analyses de type Big Data (qui signifie aussi une chute vertigineuse du « cours de l’expérience » et des mérites individuels sur le marché de l’emploi), posent des questions innombrables. L’anticipation performative des intentions –et les nouvelles possibilités d’actions préemptives fondées sur la détection des intentions – est-elle compatible avec la poursuite de l’autodétermination des personnes ? Ne faut-il pas concevoir que la possibilité d’énoncer par soi-même et pour soi-même ses intentions et motivations constitue un élément essentiel de l’autodétermination des personnes, contre cette utopie, ou cette dystopie, d’une société dispensée de l’épreuve d’un monde hors calcul, d’un monde où les décisions soient autre chose que l’application scrupuleuse de recommandations automatiques, d’un monde où les décisions portent encore la marque d’un engagement subjectif ? Comment déterminer la loyauté de ces pratiques ? L’optimisation de la force de travail fondée sur le profilage numérique est-il compatible avec le principe d’égalité et de non-discrimination ?2

Ce qui est questionné par A. Rouvroy, c’est ce que Zuboff nomme le capitalisme de surveillance, du moins une partie des pratiques qui lui sont inhérentes. Dès lors, au lieu de continuer à se poser des questions, il est important d’intégrer l’idée que si le paradigme a changé, les clés de lecture sont forcément nouvelles.

Déconstruire le capitalisme de surveillance

Shoshana Zuboff a su identifier les pratiques qui déconstruisent l’équilibre originel et créent ce nouveau capitalisme. Elle pose ainsi les jalons de cette nouvelle « science » qu’appelle de ses vœux Marc Rotenberg, et donne des clés de lecture pertinentes. L’essentiel des concepts qu’elle propose se trouve dans son article « Big other: surveillance capitalism and the prospects of an information civilization », paru en 20153. Dans cet article S. Zuboff décortique deux discours de Hal Varian, chef économiste de Google et s’en sert de trame pour identifier et analyser les processus du capitalisme de surveillance. Dans ce qui suit, je vais essayer d’expliquer quelques clés issues du travail de S. Zuboff.

Sur quelle stratégie repose le capitalisme de surveillance ?

Il s’agit de la stratégie de commercialisation de la quotidienneté en modélisant cette dernière en autant de données analysées, inférences et prédictions. La logique d’accumulation, l’automatisation et la dérégulation de l’extraction et du traitement de ces données rendent floues les frontières entre vie privée et consommation, entre les firmes et le public, entre l’intention et l’information.

Qu’est-ce que la quotidienneté ?

Il s’agit de ce qui concerne la sphère individuelle mais appréhendée en réseau. L’informationnalisation de nos profils individuels provient de plusieurs sources. Il peut s’agir des informations conventionnelles (au sens propre) telles que nos données d’identité, nos données bancaires, etc. Elles peuvent résulter de croisements de flux de données et donner lieu à des inférences. Elles peuvent aussi provenir des objets connectés, agissant comme des sensors ou encore résulter des activités de surveillance plus ou moins connues. Si toutes ces données permettent le profilage c’est aussi par elles que nous déterminons notre présence numérique. Avoir une connexion Internet est aujourd’hui reconnu comme un droit : nous ne distinguons plus nos activités d’expression sur Internet des autres activités d’expression. Les activités numériques n’ont plus à être considérées comme des activités virtuelles, distinctes de la réalité. Nos pages Facebook ne sont pas plus virtuelles que notre compte Amazon ou notre dernière déclaration d’impôt en ligne. Si bien que cette activité en réseau est devenue si quotidienne qu’elle génère elle-même de nouveaux comportements et besoins, produisant de nouvelles données analysées, agrégées, commercialisées.

Extraction des données

S. Zuboff dresse un inventaire des types de données, des pratiques d’extraction, et les enjeux de l’analyse. Il faut cependant comprendre qu’il y a de multiples manières de « traiter » les données. La Directive 95/46/CE (Commission Européenne) en dressait un inventaire, déjà en 19954 :

« traitement de données à caractère personnel » (traitement) : toute opération ou ensemble d’opérations effectuées ou non à l’aide de procédés automatisés et appliquées à des données à caractère personnel, telles que la collecte, l’enregistrement, l’organisation, la conservation, l’adaptation ou la modification, l’extraction, la consultation, l’utilisation, la communication par transmission, diffusion ou toute autre forme de mise à disposition, le rapprochement ou l’interconnexion, ainsi que le verrouillage, l’effacement ou la destruction.

Le processus d’extraction de données n’est pas un processus autonome, il ne relève pas de l’initiative isolée d’une ou quelques firmes sur un marché de niche. Il constitue désormais la norme commune à une multitude de firmes, y compris celles qui n’œuvrent pas dans le secteur numérique. Il s’agit d’un modèle de développement qui remplace l’accumulation de capital. Autant cette dernière était, dans un modèle économique révolu, un facteur de production (par les investissements, par exemple), autant l’accumulation de données est désormais la clé de production de capital, lui-même réinvesti en partie dans des solutions d’extraction et d’analyse de données, et non dans des moyens de production, et pour une autre partie dans la valorisation boursière, par exemple pour le rachat d’autres sociétés, à l’image des multiples rachats de Google.

Neutralité et indifférence

Les données qu’exploite Google sont très diverses. On s’interroge généralement sur celles qui concernent les catégories auxquelles nous accordons de l’importance, comme par exemple lorsque nous effectuons une recherche au sujet d’une mauvaise grippe et que Google Now nous propose une consultation médicale à distance. Mais il y a une multitude de données dont nous soupçonnons à peine l’existence, ou apparemment insignifiantes pour soi, mais qui, ramenées à des millions, prennent un sens tout à fait probant pour qui veut les exploiter. On peut citer par exemple le temps de consultation d’un site. Si Google est prêt à signaler des contenus à l’administration des États-Unis, comme l’a dénoncé Julian Assange ou si les relations publiques de la firme montrent une certaine proximité avec les autorités de différents pays et l’impliquent dans des programmes d’espionnage, il reste que cette attitude coopérante relève essentiellement d’une stratégie économique. En réalité, l’accumulation et l’exploitation des données suppose une indifférence formelle par rapport à leur signification pour l’utilisateur. Quelle que soit l’importance que l’on accorde à l’information, le postulat de départ du capitalisme de surveillance, c’est l’accumulation de quantités de données, non leur qualité. Quant au sens, c’est le marché publicitaire qui le produit.

L’extraction et la confiance

S. Zuboff dresse aussi un court inventaire des pratiques d’extraction de Google. L’exemple emblématique est Google Street View, qui rencontra de multiples obstacles à travers le monde : la technique consiste à s’immiscer sur des territoires et capturer autant de données possible jusqu’à rencontrer de la résistance qu’elle soit juridique, politique ou médiatique. Il en fut de même pour l’analyse du courrier électronique sur Gmail, la capture des communications vocales, les paramètres de confidentialité, l’agrégation des données des comptes sur des services comme Google+, la conservation des données de recherche, la géolocalisation des smartphones, la reconnaissance faciale, etc.

En somme, le processus d’extraction est un processus à sens unique, qui ne tient aucun compte (ou le moins possible) de l’avis de l’utilisateur. C’est l’absence de réciprocité.

On peut ajouter à cela la puissance des Big Data dans l’automatisation des relations entre le consommateur et le fournisseur de service. Google Now propose de se substituer à une grande partie de la confidentialité entre médecin et patient en décelant au moins les causes subjectives de la consultation (en interprétant les recherches). Hal Varian lui-même vante les mérites de l’automatisation de la relation entre assureurs et assurés dans un monde où l’on peut couper à distance le démarrage de la voiture si le client n’a pas payé ses traites. Des assurances santé et même des mutuelles (!) proposent aujourd’hui des applications d’auto-mesure (quantified self)de l’activité physique, dont on sait pertinemment que cela résultera sur autant d’ajustements des prix voire des refus d’assurance pour les moins chanceux.

La relation contractuelle est ainsi automatisée, ce qui élimine d’autant le risque lié aux obligations des parties. En d’autres termes, pour éviter qu’une partie ne respecte pas ses obligations, on se passe de la confiance que le contrat est censé formaliser, au profit de l’automatisation de la sanction. Le contrat se résume alors à l’acceptation de cette automatisation. Si l’arbitrage est automatique, plus besoin de recours juridique. Plus besoin de la confiance dont la justice est censée être la mesure.

Entre l’absence de réciprocité et la remise en cause de la relation de confiance dans le contrat passé avec l’utilisateur, ce sont les bases démocratiques de nos rapports sociaux qui sont remises en question puisque le fondement de la loi et de la justice, c’est le contrat et la formalisation de la confiance.

Warning : Don’t feed the Google
Warning : Don’t feed the Google

Qu’implique cette nouvelle forme du marché ?

Plus Google a d’utilisateurs, plus il rassemble des données. Plus il y a de données plus leur valeur predictive augmente et optimise le potentiel lucratif. Pour des firmes comme Google, le marché n’est pas composé d’agents rationnels qui choisissent entre plusieurs offres et configurent la concurrence. La société « à la Google » n’est plus fondée sur des relations de réciprocité, même s’il s’agit de luttes sociales ou de revendications.

L’« uberisation » de la société (voir le début de cet article) qui nous transforme tous en employés ou la transformation des citoyens en purs consommateurs, c’est exactement le cauchemar d’Hannah Arendt que S. Zuboff cite longuement :

Le dernier stade de la société de travail, la société d’employés, exige de ses membres un pur fonctionnement automatique, comme si la vie individuelle était réellement submergée par le processus global de la vie de l’espèce, comme si la seule décision encore requise de l’individu était de lâcher, pour ainsi dire, d’abandonner son individualité, sa peine et son inquiétude de vivre encore individuellement senties, et d’acquiescer à un type de comportement, hébété, « tranquillisé » et fonctionnel. Ce qu’il y a de fâcheux dans les théories modernes du comportement, ce n’est pas qu’elles sont fausses, c’est qu’elles peuvent devenir vraies, c’est qu’elles sont, en fait, la meilleure mise en concept possible de certaines tendances évidentes de la société moderne. On peut parfaitement concevoir que l’époque moderne (…) s’achève dans la passivité la plus inerte, la plus stérile que l’Histoire ait jamais connue.5

Devant cette anticipation catastrophiste, l’option choisie ne peut être l’impuissance et le laisser-faire. Il faut d’abord nommer ce à quoi nous avons affaire, c’est-à-dire un système (total) face auquel nous devons nous positionner.

Qu’est-ce que Big Other et que peut-on faire ?

Il s’agit des mécanismes d’extraction, marchandisation et contrôle. Ils instaurent une dichotomie entre les individus (utilisateurs) et leur propre comportement (pour les transformer en données) et simultanément ils produisent de nouveaux marchés basés justement sur la prédictibilité de ces comportements.

(Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.6

Avoir pu mettre un nom sur ce nouveau régime dont Google constitue un peu plus qu’une illustration (presque initiateur) est la grande force de Shoshana Zuboff. Sans compter plusieurs articles récents de cette dernière dans la Frankfurter Allgemeine Zeitung, il est étonnant que le rapport d’Antoinette Rouvroy, postérieur d’un an, n’y fasse aucune mention. Est-ce étonnant ? Pas vraiment, en réalité, car dans un rapport officiellement remis aux autorités européennes, il est important de préciser que la lutte contre Big Other (ou de n’importe quelle manière dont on peut l’exprimer) ne peut que passer par la légitimité sans faille des institutions. Ainsi, A. Rouvroy oppose les deux seules voies envisageables dans un tel contexte officiel :

À l’approche « law and economics », qui est aussi celle des partisans d’un « marché » des données personnelles, qui tendrait donc à considérer les données personnelles comme des « biens » commercialisables (…) s’oppose l’approche qui consiste à aborder les données personnelles plutôt en fonction du pouvoir qu’elles confèrent à ceux qui les contrôlent, et à tenter de prévenir de trop grandes disparités informationnelles et de pouvoir entre les responsables de traitement et les individus. C’est, à l’évidence, cette seconde approche qui prévaut en Europe.

Or, devant Google (ou devant ce Big Other) nous avons vu l’impuissance des États à faire valoir un arsenal juridique, à commencer par les lois anti-trust. D’une part, l’arsenal ne saurait être exhaustif : il concernerait quelques aspects seulement de l’exploitation des données, la transparence ou une série d’obligations comme l’expression des finalités ou des consentements. Il ne saurait y avoir de procès d’intention. D’autre part, nous pouvons toujours faire valoir que des compagnies telles Microsoft ont été condamnées par le passé, au moins par les instances européennes, pour abus de position dominante, et que quelques millions d’euros de menace pourraient suffire à tempérer les ardeurs. C’est faire peu de cas d’au moins trois éléments :

  1. l’essentiel des compagnies dont il est question sont nord-américaines, possèdent des antennes dans des paradis fiscaux et sont capables, elles, de menacer financièrement des pays entiers par simples effets de leviers boursiers.
  2. L’arsenal juridique qu’il faudrait déployer avant même de penser à saisir une cour de justice, devrait être rédigé, voté et décrété en admettant que les jeux de lobbies et autres obstacles formels soient entièrement levés. Cela prendrait un minimum de dix ans, si l’on compte les recours envisageables après une première condamnation.
  3. Il faut encore caractériser les Big Data dans un contexte où leur nature est non seulement extrêmement diverse mais aussi soumise à des process d’automatisation et calculatoires qui permettent d’en inférer d’autres quantités au moins similaires. Par ailleurs, les sources des données sont sans cesse renouvelées, et leur stockage et analyse connaissent une progression technique exponentielle.

Dès lors, quels sont les moyens de s’échapper de ce Big Other ? Puisque nous avons changé de paradigme économique, nous devons changer de paradigme de consommation et de production. Grâce à des dispositifs comme la neutralité du réseau, garantie fragile et obtenue de longue lutte, il est possible de produire nous même l’écosystème dans lequel nos données sont maîtrisées et les maillons de la chaîne de confiance sont identifiés.

Facebook is watching you
Facebook is watching you

Confiance et espaces de confiance

Comment évoluer dans le monde du capitalisme de surveillance ? telle est la question que nous pouvons nous poser dans la mesure où visiblement nous ne pouvons plus nous extraire d’une situation de soumission à Big Other. Quelles que soient nos compétences en matière de camouflage et de chiffrement, les sources de données sur nos individualités sont tellement diverses que le résultat de la distanciation avec les technologies du marché serait une dé-socialisation. Puisque les technologies sur le marché sont celles qui permettent la production, l’analyse et l’extraction automatisées de données, l’objectif n’est pas tant de s’en passer que de créer un système où leur pertinence est tellement limitée qu’elle laisse place à un autre principe que l’accumulation de données : l’accumulation de confiance.

Voyons un peu : quelles sont les actuelles échappatoires de ce capitalisme de surveillance ? Il se trouve qu’elles impliquent à chaque fois de ne pas céder aux facilités des services proposés pour utiliser des solutions plus complexes mais dont la simplification implique toujours une nouvelle relation de confiance. Illustrons ceci par des exemples relatifs à la messagerie par courrier électronique :

  • Si j’utilise Gmail, c’est parce que j’ai confiance en Google pour respecter la confidentialité de ma correspondance privée (no comment !). Ce jugement n’implique pas que moi, puisque mes correspondants auront aussi leurs messages scannés, qu’ils soient utilisateurs ou non de Gmail. La confiance repose exclusivement sur Google et les conditions d’utilisation de ses services.
  • L’utilisation de clés de chiffrement pour correspondre avec mes amis demande un apprentissage de ma part comme de mes correspondants. Certains services, comme ProtonMail, proposent de leur faire confiance pour transmettre des données chiffrées tout en simplifiant les procédures avec un webmail facile à prendre en main. Les briques open source de Protonmail permettent un niveau de transparence acceptable sans que j’en aie toutefois l’expertise (si je ne suis pas moi-même un informaticien sérieux).
  • Si je monte un serveur chez moi, avec un système libre et/ou open source comme une instance Cozycloud sur un Raspeberry PI, je dois avoir confiance dans tous les domaines concernés et sur lesquels je n’ai pas forcément l’expertise ou l’accès physique (la fabrication de l’ordinateur, les contraintes de mon fournisseur d’accès, la sécurité de mon serveur, etc.), c’est-à-dire tous les aspects qui habituellement font l’objet d’une division du travail dans les entreprises qui proposent de tels services, et que j’ai la prétention de rassembler à moi tout seul.

Les espaces de relative autonomie existent donc mais il faut structurer la confiance. Cela peut se faire en deux étapes.

La première étape consiste à définir ce qu’est un tiers de confiance et quels moyens de s’en assurer. Le blog de la FSFE a récemment publié un article qui résume très bien pourquoi la protection des données privées ne peut se contenter de l’utilisation plus ou moins maîtrisée des technologies de chiffrement7. La FSFE rappelle que tous les usages des services sur Internet nécessitent un niveau de confiance accordé à un tiers. Quelle que soit son identité…

…vous devez prendre en compte :

  • la bienveillance : le tiers ne veut pas compromettre votre vie privée et/ou il est lui-même concerné ;
  • la compétence : le tiers est techniquement capable de protéger votre vie privée et d’identifier et de corriger les problèmes ;
  • l’intégrité : le tiers ne peut pas être acheté, corrompu ou infiltré par des services secrets ou d’autres tiers malveillants ;

Comment s’assurer de ces trois qualités ? Pour les défenseurs et promoteurs du logiciel libre, seules les communautés libristes sont capables de proposer des alternatives en vertu de l’ouverture du code. Sur les quatre libertés qui définissent une licence libre, deux impliquent que le code puisse être accessible, audité, vérifié.

Est-ce suffisant ? non : ouvrir le code ne conditionne pas ces qualités, cela ne fait qu’endosser la responsabilité et l’usage du code (via la licence libre choisie) dont seule l’expertise peut attester de la fiabilité et de la probité.

En complément, la seconde étape consiste donc à définir une chaîne de confiance. Elle pourra déterminer à quel niveau je peux m’en remettre à l’expertise d’un tiers, à ses compétences, à sa bienveillance…. Certaines entreprises semblent l’avoir compris et tentent d’anticiper ce besoin de confiance. Pour reprendre les réflexions du Boston Consulting Group, l’un des plus prestigieux cabinets de conseil en stratégie au monde :

(…) dans un domaine aussi sensible que le Big Data, la confiance sera l’élément déterminant pour permettre à l’entreprise d’avoir le plus large accès possible aux données de ses clients, à condition qu’ils soient convaincus que ces données seront utilisées de façon loyale et contrôlée. Certaines entreprises parviendront à créer ce lien de confiance, d’autres non. Or, les enjeux économiques de ce lien de confiance sont très importants. Les entreprises qui réussiront à le créer pourraient multiplier par cinq ou dix le volume d’informations auxquelles elles sont susceptibles d’avoir accès. Sans la confiance du consommateur, l’essentiel des milliards d’euros de valeur économique et sociale que le Big Data pourrait représenter dans les années à venir risquerait d’être perdu.8

En d’autres termes, il existe un marché de la confiance. En tant que tel, soit il est lui aussi soumis aux effets de Big Other, soit il reste encore dépendant de la rationalité des consommateurs. Dans les deux cas, le logiciel libre devra obligatoirement trouver le créneau de persuasion pour faire adhérer le plus grand nombre à ses principes.

Une solution serait de déplacer le curseur de la chaîne de confiance non plus sur les principaux acteurs de services, plus ou moins dotés de bonnes intentions, mais dans la sphère publique. Je ne fais plus confiance à tel service ou telle entreprise parce qu’ils indiquent dans leurs CGU qu’ils s’engagent à ne pas utiliser mes données personnelles, mais parce que cet engagement est non seulement vérifiable mais aussi accessible : en cas de litige, le droit du pays dans lequel j’habite peut s’appliquer, des instances peuvent se porter parties civiles, une surveillance collective ou policière est possible, etc. La question n’est plus tellement de savoir ce que me garantit le fournisseur mais comment il propose un audit public et expose sa responsabilité vis-à-vis des données des utilisateurs.

S’en remettre à l’État pour des services fiables ? Les États ayant démontré leurs impuissances face à des multinationales surfinancées, les tentatives de cloud souverain ont elles aussi été des échecs cuisants. Créer des entreprises de toutes pièces sur fonds publics pour proposer une concurrence directe à des monopoles géants, était inévitablement un suicide : il aurait mieux valu proposer des ressources numériques et en faciliter l’accès pour des petits acteurs capables de proposer de multiples solutions différentes et alternatives adaptées aux besoins de confiance des utilisateurs, éventuellement avec la caution de l’État, la réputation d’associations nationales (association de défense des droits de l’homme, associations de consommateurs, etc.), bref, des assurances concrètes qui impliquent les utilisateurs, c’est-à-dire comme le modèle du logiciel libre qui ne sépare pas utilisation et conception.

Ce que propose le logiciel libre, c’est davantage que du code, c’est un modèle de coopération et de cooptation. C’est la possibilité pour les dynamiques collectives de réinvestir des espaces de confiance. Quel que soit le service utilisé, il dépend d’une communauté, d’une association, ou d’une entreprise qui toutes s’engagent par contrat (les licences libres sont des contrats) à respecter les données des utilisateurs. Le tiers de confiance devient collectif, il n’est plus un, il est multiple. Il ne s’agit pas pour autant de diluer les responsabilités (chaque offre est indépendante et s’engage individuellement) mais de forcer l’engagement public et la transparence des recours.

Chatons solidaires

Si s’échapper seul du marché de Big Other ne peut se faire qu’au prix de l’exclusion, il faut opposer une logique différente capable, devant l’exploitation des données et notre aliénation de consommateurs, de susciter l’action et non la passivité, le collectif et non l’individu. Si je produis des données, il faut qu’elles puissent profiter à tous ou à personne. C’est la logique de l’open data qui garanti le libre accès à des données placées dans le bien commun. Ce commun a ceci d’intéressant que tout ce qui y figure est alors identifiable. Ce qui n’y figure pas relève alors du privé et diffuser une donnée privée ne devrait relever que du seul choix délibéré de l’individu.

Le modèle proposé par le projet CHATONS (Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires) de Framasoft repose en partie sur ce principe. En adhérant à la charte, un hébergeur s’engage publiquement à remplir certaines obligations et, parmi celles-ci, l’interdiction d’utiliser les données des utilisateurs pour autre chose que l’évaluation et l’amélioration des services.

Comme écrit dans son manifeste (en version 0.9), l’objectif du collectif CHATONS est simple :

L’objectif de ce collectif est de mailler les initiatives de services basés sur des solutions de logiciels libres et proposés aux utilisateurs de manière à diffuser toutes les informations utiles permettant au public de pouvoir choisir leurs services en fonction de leurs besoins, avec un maximum de confiance vis-à-vis du respect de leur vie privée, sans publicité ni clause abusive ou obscure.

En lançant l’initiative de ce collectif, sans toutefois se placer dans une posture verticale fédérative, Framasoft ouvre une porte d’échappatoire. L’essentiel n’est pas tant de maximiser la venue de consommateurs sur quelques services identifiés mais de maximiser les chances pour les consommateurs d’utiliser des services de confiance qui, eux, pourront essaimer et se multiplier. Le postulat est que l’utilisateur est plus enclin à faire confiance à un hébergeur qu’il connaît et qui s’engage devant d’autres hébergeurs semblables, ses pairs, à respecter ses engagements éthiques. Outre l’utilisation de logiciels libres, cela se concrétise par trois principes

  1. Mutualiser l’expertise : les membres du collectif s’engagent à partager les informations pour augmenter la qualité des services et pour faciliter l’essaimage des solutions de logiciels libres utilisées. C’est un principe de solidarité qui permettra, à terme, de consolider sérieusement le tissu des hébergeurs concernés.
  2. Publier et adhérer à une charte commune. Cette charte donne les principaux critères techniques et éthiques de l’activité de membre. L’engagement suppose une réciprocité des échanges tant avec les autres membres du collectif qu’avec les utilisateurs.
  3. Un ensemble de contraintes dans la charte publique implique non seulement de ne s’arroger aucun droit sur les données privées des utilisateurs, mais aussi de rester transparent y compris jusque dans la publication de ses comptes et rapports d’activité. En tant qu’utilisateur je connais les engagements de mon hébergeur, je peux agir pour le contraindre à les respecter tout comme les autres hébergeurs peuvent révoquer de leur collectif un membre mal intentionné.

Le modèle CHATONS n’est absolument pas exclusif. Il constitue même une caricature, en quelque sorte l’alternative contraire mais pertinente à GAFAM. Des entreprises tout à fait bien intentionnées, respectant la majeure partie de la charte, pourraient ne pas pouvoir entrer dans ce collectif à cause des contraintes liées à leur modèle économique. Rien n’empêche ces entreprises de monter leur propre collectif, avec un niveau de confiance différent mais néanmoins potentiellement acceptable. Si le collectif CHATONS décide de restreindre au domaine associatif des acteurs du mouvement, c’est parce que l’idée est d’essaimer au maximum le modèle : que l’association philatélique de Trifouille-le-bas puisse avoir son serveur de courriel, que le club de football de Trifouille-le-haut puisse monter un serveur owncloud et que les deux puissent mutualiser en devenant des CHATONS pour en faire profiter, pourquoi pas, les deux communes (et donc la communauté).

Un chaton, deux chatons... des chatons !
Un chaton, deux chatons… des chatons !

Conclusion

La souveraineté numérique est souvent invoquée par les autorités publiques bien conscientes des limitations du pouvoir qu’implique Big Other. Par cette expression, on pense généralement se situer à armes égales contre les géants du web. Pouvoir économique contre pouvoir républicain. Cet affrontement est perdu d’avance par tout ce qui ressemble de près ou de loin à une procédure institutionnalisée. Tant que les citoyens ne sont pas eux-mêmes porteurs d’alternatives au marché imposé par les GAFAM, l’État ne peut rien faire d’autre que de lutter pour sauvegarder son propre pouvoir, c’est-à-dire celui des partis comme celui des lobbies. Le serpent se mord la queue.

Face au capitalisme de surveillance, qui a depuis longtemps dépassé le stade de l’ultra-libéralisme (car malgré tout il y subsistait encore un marché et une autonomie des agents), c’est à l’État non pas de proposer un cloud souverain mais de se positionner comme le garant des principes démocratiques appliqués à nos données numériques et à Internet : neutralité sans faille du réseau, garantie de l’équité, surveillance des accords commerciaux, politique anti-trust affirmée, etc. L’éducation populaire, la solidarité, l’intelligence collective, l’expertise des citoyens, feront le reste, quitte à ré-inventer d’autres modèles de gouvernance (et de gouvernement).

Nous ne sommes pas des êtres a-technologiques. Aujourd’hui, nos vies sont pleines de données numériques. Avec Internet, nous en usons pour nous rapprocher, pour nous comprendre et mutualiser nos efforts, tout comme nous avons utilisé en leurs temps le téléphone, les voies romaines, le papyrus, et les tablettes d’argile. Nous avons des choix à faire. Nous pouvons nous diriger vers des modèles exclusifs, avec ou sans GAFAM, comme la généralisation de block chains pour toutes nos transactions. En automatisant les contrats, même avec un système ouvert et neutre, nous ferions alors reposer la confiance sur la technologie (et ses failles), en révoquant toute relation de confiance entre les individus, comme si toute relation interpersonnelle était vouée à l’échec. L’autre voie repose sur l’éthique et le partage des connaissances. Le projet CHATONS n’est qu’un exemple de système alternatif parmi des milliers d’autres dans de multiples domaines, de l’agriculture à l’industrie, en passant par la protection de l’environnement. Saurons-nous choisir la bonne voie ? Saurons-nous comprendre que les relations d’interdépendances qui nous unissent sur terre passent aussi bien par l’écologie que par le partage du code ?


  1. Discours prononcé lors d’une conférence intitulée Surveillance capitalism: A new societal condition rising lors du sommet CPDP (Computers Privacy and Data protection), Bruxelles, 27-29 janvier 2016 (video).
  2. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, janvier 2016.
  3. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp.&nbspp;75-89.
  4. Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
  5. Hannah Arendt, La condition de l’homme moderne, Paris: Calmann-Lévy, Agora, 1958, pp. 400-401.
  6. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p.&nbspp;81.
  7. h2, « Why Privacy is more than Crypto », blog Emergency Exit, FSFE, 31 mai 2016.
  8. Carol Umhoefer et al., Le Big Data face au défi de la confiance, The Boston Consulting Group, juin 2014.



Les nouveaux Léviathans II — Surveillance et confiance (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Techniques d’anticipation

On pense habituellement les objets techniques et les phénomènes sociaux comme deux choses différentes, voire parfois opposées. En plus de la nature, il y aurait deux autres réalités : d’un côté un monde constitué de nos individualités, nos rapports sociaux, nos idées politiques, la manière dont nous structurons ensemble la société ; et de l’autre côté le monde des techniques qui, pour être appréhendé, réclamerait obligatoirement des compétences particulières (artisanat, ingénierie). Nous refusons même parfois de comprendre nos interactions avec les techniques autrement que par automatisme, comme si notre accomplissement social passait uniquement par le statut d’utilisateur et jamais comme producteurs. Comme si une mise à distance devait obligatoirement s’établir entre ce que nous sommes (des êtres sociaux) et ce que nous produisons. Cette posture est au plus haut point paradoxale puisque non seulement la technologie est une activité sociale mais nos sociétés sont à bien des égards elles-mêmes configurées, transformées, et même régulées par les objets techniques. Certes, la compréhension des techniques n’est pas toujours obligatoire pour comprendre les faits sociaux, mais il faut avouer que bien peu de faits sociaux se comprennent sans la technique.

L’avènement des sociétés industrielles a marqué un pas supplémentaire dans l’interdépendance entre le social et les objets techniques : le travail, comme activité productrice, est en soi un rapport réflexif sur les pratiques et les savoirs qui forment des systèmes techniques. Nous baignons dans une culture technologique, nous sommes des êtres technologiques. Nous ne sommes pas que cela. La technologie n’a pas le monopole du signifiant : nous trouvons dans l’art, dans nos codes sociaux, dans nos intentions, tout un ensemble d’éléments culturels dont la technologie est censée être absente. Nous en usons parfois même pour effectuer une mise à distance des techniques omniprésentes. Mais ces dernières ne se réduisent pas à des objets produits. Elles sont à la fois des pratiques, des savoir-faire et des objets. La raison pour laquelle nous tenons tant à instaurer une mise à distance par rapport aux technologies que nous utilisons, c’est parce qu’elles s’intègrent tellement dans notre système économique qu’elles agissent aussi comme une forme d’aliénation au travail comme au quotidien.

Attention, Amazon très méchant
Attention, Amazon très méchant

Ces dernières années, nous avons vu émerger des technologies qui prétendent prédire nos comportements. Amazon teste à grande échelle des dépôts locaux de produits en prévision des commandes passées par les internautes sur un territoire donné. Les stocks de ces dépôts seront gérés au plus juste par l’exploitation des données inférées à partir de l’analyse de l’attention des utilisateurs (mesurée au clic), les tendances des recherches effectuées sur le site, l’impact des promotions et propositions d’Amazon, etc. De son côté, Google ne cesse d’analyser nos recherches dans son moteur d’indexation, dont les suggestions anticipent nos besoins souvent de manière troublante. En somme, si nous éprouvons parfois cette nécessité d’une mise à distance entre notre être et la technologie, c’est en réponse à cette situation où, intuitivement, nous sentons bien que la technologie n’a pas à s’immiscer aussi profondément dans l’intimité de nos pensées. Mais est-ce vraiment le cas ? Ne conformons-nous pas aussi, dans une certaine mesure, nos envies et nos besoins en fonction de ce qui nous est présenté comme nos envies et nos besoins ? La lutte permanente entre notre volonté d’indépendance et notre adaptation à la société de consommation, c’est-à-dire au marché, est quelque chose qui a parfaitement été compris par les grandes firmes du secteur numérique. Parce que nous laissons tellement de traces transformées en autant d’informations extraites, analysées, quantifiées, ces firmes sont désormais capables d’anticiper et de conformer le marché à leurs besoins de rentabilité comme jamais une firme n’a pu le faire dans l’histoire des sociétés capitalistes modernes.

Productivisme et information

Si vous venez de perdre deux minutes à lire ma prose ci-dessus hautement dopée à l’EPO (Enfonçage de Portes Ouvertes), c’est parce qu’il m’a tout de même paru assez important de faire quelques rappels de base avant d’entamer des considérations qui nous mènerons petit à petit vers une compréhension en détail de ce système. J’ai toujours l’image de cette enseignante de faculté, refusant de lire un mode d’emploi pour appuyer deux touches sur son clavier afin de basculer l’affichage écran vers l’affichage du diaporama, et qui s’exclamait : « il faut appeler un informaticien, ils sont là pour ça, non ? ». Ben non, ma grande, un informaticien a autre chose à faire. C’est une illustration très courante de ce que la transmission des savoirs (activité sociale) dépend éminemment des techniques (un vidéo-projecteur couplé un ordinateur contenant lui-même des supports de cours sous forme de fichiers) et que toute tentative volontaire ou non de mise à distance (ne pas vouloir acquérir un savoir-faire technique) cause un bouleversement a-social (ne plus être en mesure d’assurer une transmission de connaissance, ou plus prosaïquement passer pour quelqu’un de stupide). La place que nous occupons dans la société n’est pas uniquement une affaire de codes ou relations interpersonnelles, elle dépend pour beaucoup de l’ordre économique et technique auquel nous devons plus ou moins nous ajuster au risque de l’exclusion (et la forme la plus radicale d’exclusion est l’absence de travail et/ou l’incapacité de consommer).

Des études déjà anciennes sur les organisations du travail, notamment à propos de l’industrialisation de masse, ont montré comment la technologie, au même titre que l’organisation, détermine les comportements des salariés, en particulier lorsqu’elle conditionne l’automatisation des tâches1. Souvent, cette automatisation a été étudiée sous l’angle des répercussions socio-psychologiques, accroissant les sentiments de perte de sens ou d’aliénation sociale2. D’un point de vue plus populaire, c’est le remplacement de l’homme par la machine qui fut tantôt vécu comme une tragédie (l’apparition du chômage de masse) tantôt comme un bienfait (diminuer la pénibilité du travail). Aujourd’hui, les enjeux sont très différents. On s’interroge moins sur la place de la machine dans l’industrie que sur les taux de productivité et la gestion des flux. C’est qu’un changement de paradigme s’est accompli à partir des années 1970-1980, qui ont vu apparaître l’informatisation quasi totale des systèmes de production et la multiplication des ordinateurs mainframe dans les entreprises pour traiter des quantités sans cesse croissantes de données.

Très peu de sociologues ou d’économistes ont travaillé sur ce qu’une illustre chercheuse de la Harvard Business School, Shoshana Zuboff a identifié dans la transformation des systèmes de production : l’informationnalisation (informating). En effet, dans un livre très visionnaire, In the Age Of The Smart Machine en 19883, S. Zuboff montre que les mécanismes du capitalisme productiviste du XXe siècle ont connu plusieurs mouvements, plus ou moins concomitants selon les secteurs : la mécanisation, la rationalisation des tâches, l’automatisation des processus et l’informationnalisation. Ce dernier mouvement découle des précédents : dès l’instant qu’on mesure la production et qu’on identifie des processus, on les documente et on les programme pour les automatiser. L’informationnalisation est un processus qui transforme la mesure et la description des activités en information, c’est-à-dire en données extractibles et quantifiables, calculatoires et analytiques.

Là où S. Zuboff s’est montrée visionnaire dans les années 1980, c’est qu’elle a montré aussi comment l’informationnalisation modèle en retour les apprentissages et déplace les enjeux de pouvoir. On ne cherche plus à savoir qui a les connaissances suffisantes pour mettre en œuvre telle procédure, mais qui a accès aux données dont l’analyse déterminera la stratégie de développement des activités. Alors que le « vieux » capitalisme organisait une concurrence entre moyens de production et maîtrise de l’offre, ce qui, dans une économie mondialisée n’a plus vraiment de sens, un nouveau capitalisme (dont nous verrons plus loin qu’il se nomme le capitalisme de surveillance) est né, et repose sur la production d’informations, la maîtrise des données et donc des processus.

Pour illustrer, il suffit de penser à nos smartphones. Quelle que soit la marque, ils sont produits de manière plus ou moins redondante, parfois dans les mêmes chaînes de production (au moins en ce qui concerne les composants), avec des méthodes d’automatisation très similaires. Dès lors, la concurrence se place à un tout autre niveau : l’optimisation des procédures et l’identification des usages, tous deux producteurs de données. Si bien que la plus-value ajoutée par la firme à son smartphone pour séduire le plus d’utilisateurs possible va de pair avec une optimisation des coûts de production et des procédures. Cette optimisation relègue l’innovation organisationnelle au moins au même niveau, si ce n’est plus, que l’innovation du produit lui-même qui ne fait que répondre à des besoins d’usage de manière marginale. En matière de smartphone, ce sont les utilisateurs les plus experts qui sauront déceler la pertinence de telle ou telle nouvelle fonctionnalité alors que l’utilisateur moyen n’y voit que des produits similaires.

L’enjeu dépasse la seule optimisation des chaînes de production et l’innovation. S. Zuboff a aussi montré que l’analyse des données plus fines sur les processus de production révèle aussi les comportements des travailleurs : l’attention, les pratiques quotidiennes, les risques d’erreur, la gestion du temps de travail, etc. Dès lors l’informationnalisation est aussi un moyen de rassembler des données sur les aspects sociaux de la production4, et par conséquent les conformer aux impératifs de rentabilité. L’exemple le plus frappant aujourd’hui de cet ajustement comportemental à la rentabilité par les moyens de l’analyse de données est le phénomène d’« Ubérisation » de l’économie5.

Ramené aux utilisateurs finaux des produits, dans la mesure où il est possible de rassembler des données sur l’utilisation elle-même, il devrait donc être possible de conformer les usages et les comportements de consommation (et non plus seulement de production) aux mêmes impératifs de rentabilité. Cela passe par exemple par la communication et l’apprentissage de nouvelles fonctionnalités des objets. Par exemple, si vous aviez l’habitude de stocker vos fichiers MP3 dans votre smartphone pour les écouter comme avec un baladeur, votre fournisseur vous permet aujourd’hui avec une connexion 4G d’écouter de la musique en streaming illimité, ce qui permet d’analyser vos goûts, vous proposer des playlists, et faire des bénéfices. Mais dans ce cas, si vous vous situez dans un endroit où la connexion haut débit est défaillante, voire absente, vous devez vous passer de musique ou vous habituer à prévoir à l’avance cette éventualité en activant un mode hors-connexion. Cette adaptation de votre comportement devient prévisible : l’important n’est pas de savoir ce que vous écoutez mais comment vous le faites, et ce paramètre entre lui aussi en ligne de compte dans la proposition musicale disponible.

Le nouveau paradigme économique du XXIe siècle, c’est le rassemblement des données, leur traitement et leurs valeurs prédictives, qu’il s’agisse des données de production comme des données d’utilisation par les consommateurs.

GAFAM : We <3 your Data
GAFAM : We <3 your Data

Big Data

Ces dernières décennies, l’informatique est devenu un média pour l’essentiel de nos activités sociales. Vous souhaitez joindre un ami pour aller boire une bière dans la semaine ? c’est avec un ordinateur que vous l’appelez. Voici quelques étapes grossières de cet épisode :

  1. votre mobile a signalé vers des antennes relais pour s’assurer de la couverture réseau,
  2. vous entrez un mot de passe pour déverrouiller l’écran,
  3. vous effectuez une recherche dans votre carnet d’adresse (éventuellement synchronisé sur un serveur distant),
  4. vous lancez le programme de composition du numéro, puis l’appel téléphonique (numérique) proprement dit,
  5. vous entrez en relation avec votre correspondant, convenez d’une date,
  6. vous envoyez ensuite une notification de rendez-vous avec votre agenda vers la messagerie de votre ami…
  7. qui vous renvoie une notification d’acceptation en retour,
  8. l’une de vos applications a géolocalisé votre emplacement et vous indique le trajet et le temps de déplacement nécessaire pour vous rendre au point de rendez-vous, etc.

Durant cet épisode, quel que soit l’opérateur du réseau que vous utilisez et quel que soit le système d’exploitation de votre mobile (à une ou deux exceptions près), vous avez produit des données exploitables. Par exemple (liste non exhaustive) :

  • le bornage de votre mobile indique votre position à l’opérateur, qui peut croiser votre activité d’émission-réception avec la nature de votre abonnement,
  • la géolocalisation donne des indications sur votre vitesse de déplacement ou votre propension à utiliser des transports en commun,
  • votre messagerie permet de connaître la fréquence de vos contacts, et éventuellement l’éloignement géographique.

Ramené à des millions d’utilisateurs, l’ensemble des données ainsi rassemblées entre dans la catégorie des Big Data. Ces dernières ne concernent pas seulement les systèmes d’informations ou les services numériques proposés sur Internet. La massification des données est un processus qui a commencé il y a longtemps, notamment par l’analyse de productivité dans le cadre de la division du travail, les analyses statistiques des achats de biens de consommation, l’analyse des fréquences de transaction boursières, etc. Tout comme ce fut le cas pour les processus de production qui furent automatisés, ce qui caractérise les Big Data c’est l’obligation d’automatiser leur traitement pour en faire l’analyse.

Prospection, gestion des risques, prédictibilité, etc., les Big Data dépassent le seul degré de l’analyse statistique dite descriptive, car si une de ces données renferme en général très peu d’information, des milliers, des millions, des milliards permettent d’inférer des informations dont la pertinence dépend à la fois de leur traitement et de leur gestion. Le tout dépasse la somme des parties : c’est parce qu’elles sont rassemblées et analysées en masse que des données d’une même nature produisent des valeurs qui dépassent la somme des valeurs unitaires.

Antoinette Rouvroy, dans un rapport récent6 auprès du Conseil de l’Europe, précise que les capacités techniques de stockage et de traitement connaissent une progression exponentielle7. Elle définit plusieurs catégories de data en fonction de leurs sources, et qui quantifient l’essentiel des actions humaines :

  • les hard data, produites par les institutions et administrations publiques ;
  • les soft data, produites par les individus, volontairement (via les réseaux sociaux, par exemple) ou involontairement (analyse des flux, géolocalisation, etc.) ;
  • les métadonnées, qui concernent notamment la provenance des données, leur trafic, les durées, etc. ;
  • l’Internet des objets, qui une fois mis en réseau, produisent des données de performance, d’activité, etc.

Les Big Data n’ont cependant pas encore de définition claire8. Il y a des chances pour que le terme ne dure pas et donne lieu à des divisions qui décriront plus précisément des applications et des méthodes dès lors que des communautés de pratiques seront identifiées avec leurs procédures et leurs réseaux. Aujourd’hui, l’acception générique désigne avant tout un secteur d’activité qui regroupe un ensemble de savoir-faire et d’applications très variés. Ainsi, le potentiel scientifique des Big Data est encore largement sous-évalué, notamment en génétique, physique, mathématiques et même en sociologie. Il en est de même dans l’industrie. En revanche, si on place sur un même plan la politique, le marketing et les activités marchandes (à bien des égards assez proches) on conçoit aisément que l’analyse des données optimise efficacement les résultats et permet aussi, par leur dimension prédictible, de conformer les biens et services.

Google fait peur ?

Eric Schmidt, actuellement directeur exécutif d’Alphabet Inc., savait exprimer en peu de mots les objectifs de Google lorsqu’il en était le président. Depuis 1998, les activités de Google n’ont cessé d’évoluer, jusqu’à reléguer le service qui en fit la célébrité, la recherche sur la Toile, au rang d’activité has been pour les internautes. En 2010, il dévoilait le secret de Polichinelle :

Le jour viendra où la barre de recherche de Google – et l’activité qu’on nomme Googliser – ne sera plus au centre de nos vies en ligne. Alors quoi ? Nous essayons d’imaginer ce que sera l’avenir de la recherche (…). Nous sommes toujours contents d’être dans le secteur de la recherche, croyez-moi. Mais une idée est que de plus en plus de recherches sont faites en votre nom sans que vous ayez à taper sur votre clavier.

En fait, je pense que la plupart des gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google dise ce qu’ils doivent faire ensuite. (…) La puissance du ciblage individuel – la technologie sera tellement au point qu’il sera très difficile pour les gens de regarder ou consommer quelque chose qui n’a pas été adapté pour eux.9

Google n’a pas été la première firme à exploiter des données en masse. Le principe est déjà ancien avec les premiers data centers du milieu des années 1960. Google n’est pas non plus la première firme à proposer une indexation générale des contenus sur Internet, par contre Google a su se faire une place de choix parmi la concurrence farouche de la fin des années 1990 et sa croissance n’a cessé d’augmenter depuis lors, permettant des investissements conséquents dans le développement de technologies d’analyse et dans le rachat de brevets et de plus petites firmes spécialisées. Ce que Google a su faire, et qui explique son succès, c’est proposer une expérience utilisateur captivante de manière à rassembler assez de données pour proposer en retour des informations adaptées aux profils des utilisateurs. C’est la radicalisation de cette stratégie qui est énoncée ici par Eric Schmidt. Elle trouve pour l’essentiel son accomplissement en utilisant les données produites par les utilisateurs du cloud computing. Les Big Data en sont les principaux outils.

D’autres firmes ont emboîté le pas. En résultat, la concentration des dix premières firmes de services numériques génère des bénéfices spectaculaires et limite la concurrence. Cependant, l’exploitation des données personnelles des utilisateurs et la manière dont elles sont utilisées sont souvent mal comprises dans leurs aspects techniques autant que par les enjeux économiques et politiques qu’elles soulèvent. La plupart du temps, la quantité et la pertinence des informations produites par l’utilisateur semblent négligeables à ses yeux, et leur exploitation d’une importance stratégique mineure. Au mieux, si elles peuvent encourager la firme à mettre d’autres services gratuits à disposition du public, le prix est souvent considéré comme largement acceptable. Tout au plus, il semble a priori moins risqué d’utiliser Gmail et Facebook, que d’utiliser son smartphone en pleine manifestation syndicale en France, puisque le gouvernement français a voté publiquement des lois liberticides et que les GAFAM ne livrent aux autorités que les données manifestement suspectes (disent-elles) ou sur demande rogatoire officielle (disent-elles).

Gigantismus

En 2015, Google Analytics couvrait plus de 70% des parts de marché des outils de mesure d’audience. Google Analytics est un outil d’une puissance pour l’instant incomparable dans le domaine de l’analyse du comportement des visiteurs. Cette puissance n’est pas exclusivement due à une supériorité technologique (les firmes concurrentes utilisent des techniques d’analyse elles aussi très performantes), elle est surtout due à l’exhaustivité monopolistique des utilisations de Google Analytics, disponible en version gratuite et premium, avec un haut degré de configuration des variables qui permettent la collecte, le traitement et la production très rapide de rapports (pratiquement en temps réel). La stratégie commerciale, afin d’assurer sa rentabilité, consiste essentiellement à coupler le profilage avec la régie publicitaire (Google AdWords). Ce modèle économique est devenu omniprésent sur Internet. Qui veut être lu ou regardé doit passer l’épreuve de l’analyse « à la Google », mais pas uniquement pour mesurer l’audience : le monopole de Google sur ces outils impose un web rédactionnel, c’est-à-dire une méthode d’écriture des contenus qui se prête à l’extraction de données.

Google n’est pas la seule entreprise qui réussi le tour de force d’adapter les contenus, quelle que soit leur nature et leurs propos, à sa stratégie commerciale. C’est le cas des GAFAM qui reprennent en chœur le même modèle économique qui conforme l’information à ses propres besoins d’information. Que vous écriviez ou non un pamphlet contre Google, l’extraction et l’analyse des données que ce contenu va générer indirectement en produisant de l’activité (visites, commentaires, échanges, temps de connexion, provenance, etc.) permettra de générer une activité commerciale. Money is money, direz-vous. Pourtant, la concentration des activités commerciales liées à l’exploitation des Big Data par ces entreprises qui forment les premières capitalisations boursières du monde, pose un certain nombre répercutions sociales : l’omniprésence mondialisée des firmes, la réduction du marché et des choix, l’impuissance des États, la sur-financiarisation.

Omniprésence

En produisant des services gratuits (ou très accessibles), performants et à haute valeur ajoutée pour les données qu’ils produisent, ces entreprises captent une gigantesque part des activités numériques des utilisateurs. Elles deviennent dès lors les principaux fournisseurs de services avec lesquels les gouvernements doivent composer s’ils veulent appliquer le droit, en particulier dans le cadre de la surveillance des populations et des opérations de sécurité. Ainsi, dans une démarche très pragmatique, des ministères français parmi les plus importants réunirent le 3 décembre 2015 les « les grands acteurs de l’internet et des réseaux sociaux » dans le cadre de la stratégie anti-terroriste10. Plus anciennement, le programme américain de surveillance électronique PRISM, dont bien des aspects furent révélés par Edward Snowden en 2013, a permit de passer durant des années des accords entre la NSA et l’ensemble des GAFAM. Outre les questions liées à la sauvegarde du droit à la vie privée et à la liberté d’expression, on constate aisément que la surveillance des populations par les gouvernements trouve nulle part ailleurs l’opportunité de récupérer des données aussi exhaustives, faisant des GAFAM les principaux prestataires de Big Data des gouvernements, quels que soient les pays11.

Réduction du marché

Le monopole de Google sur l’indexation du web montre qu’en vertu du gigantesque chiffre d’affaires que cette activité génère, celle-ci devient la première et principale interface du public avec les contenus numériques. En 2000, le journaliste Laurent Mauriac signait dans Libération un article élogieux sur Google12. À propos de la méthode d’indexation qui en fit la célébrité, L. Mauriac écrit :

Autre avantage : ce système empêche les sites de tricher. Inutile de farcir la partie du code de la page invisible pour l’utilisateur avec quantité de mots-clés…

Or, en 2016, il devient assez évident de décortiquer les stratégies de manipulation de contenus que les compagnies qui en ont les moyens financiers mettent en œuvre pour dominer l’index de Google en diminuant ainsi la diversité de l’offre13. Que la concentration des entreprises limite mécaniquement l’offre, cela n’est pas révolutionnaire. Ce qui est particulièrement alarmant, en revanche, c’est que la concentration des GAFAM implique par effets de bord la concentration d’autres entreprises de secteurs entièrement différents mais qui dépendent d’elles en matière d’information et de visibilité. Cette concentration de second niveau, lorsqu’elle concerne la presse en ligne, les éditeurs scientifiques ou encore les libraires, pose à l’évidence de graves questions en matière de liberté d’information.

Impuissances

La concentration des services, qu’il s’agisse de ceux de Google comme des autres géants du web, sur des secteurs biens découpés qui assurent les monopoles de chaque acteur, cause bien des soucis aux États qui voient leurs économies impactées selon les revenus fiscaux et l’implantation géographique de ces compagnies. Les lois anti-trust semblent ne plus suffire lorsqu’on voit, par exemple, la Commission Européenne avoir toutes les peines du monde à freiner l’abus de position dominante de Google sur le système Android, sur Google Shopping, sur l’indexation, et de manière générale depuis 2010.

Illustration cynique devant l’impuissance des États à réguler cette concentration, Google a davantage à craindre de ses concurrents directs qui ont des moyens financiers largement supérieurs aux États pour bloquer sa progression sur les marchés. Ainsi, cet accord entre Microsoft et Google, qui conviennent de régler désormais leurs différends uniquement en privé, selon leurs propres règles, pour ne se concentrer que sur leur concurrence de marché et non plus sur la législation. Le message est double : en plus d’instaurer leur propre régulation de marché, Google et Microsoft en organiseront eux-mêmes les conditions juridiques, reléguant le rôle de l’État au second plan, voire en l’éliminant purement et simplement de l’équation. C’est l’avènement des Léviathans dont j’avais déjà parlé dans un article antérieur.

Alphabet. CC-by-sa, Framatophe
Alphabet. CC-by-sa, Framatophe

Capitaux financiers

La capitalisation boursière des GAFAM a atteint un niveau jamais envisagé jusqu’à présent dans l’histoire, et ces entreprises figurent toutes dans le top 40 de l’année 201514. La valeur cumulée de GAFAM en termes de capital boursier en 2015 s’élève à 1 838 milliards de dollars. À titre de comparaison, le PIB de la France en 2014 était de 2 935 milliards de dollars et celui des Pays Bas 892 milliards de dollars.

La liste des acquisitions de Google explique en partie la cumulation de valeurs boursières. Pour une autre partie, la plus importante, l’explication concerne l’activité principale de Google : la valorisation des big data et l’automatisation des tâches d’analyse de données qui réduisent les coûts de production (à commencer par les frais d’infrastructure : Google a besoin de gigantesque data centers pour le stockage, mais l’analyse, elle, nécessite plus de virtualisation que de nouveaux matériels ou d’employés). Bien que les cheminements ne soient pas les mêmes, les entreprises GAFAM ont abouti au même modèle économique qui débouche sur le status quo de monopoles sectorisés. Un élément de comparaison est donné par le Financial Times en août 2014, à propos de l’industrie automobile vs l’économie numérique :

Comparons Detroit en 1990 et la Silicon Valley en 2014. Les 3 plus importantes compagnies de Detroit produisaient des bénéfices à hauteur de 250 milliards de dollars avec 1,2 million d’employés et la cumulation de leurs capitalisations boursières totalisait 36 milliards de dollars. Le 3 premières compagnies de la Silicon Valley en 2014 totalisaient 247 milliards de dollars de bénéfices, avec seulement 137 000 employés, mais un capital boursier de 1,09 mille milliard de dollars.15

La captation d’autant de valeurs par un petit nombre d’entreprises et d’employés, aurait été analysée, par exemple, par Schumpeter comme une chute inévitable vers la stagnation en raison des ententes entre les plus puissants acteurs, la baisse des marges des opérateurs et le manque d’innovation. Pourtant cette approche est dépassée : l’innovation à d’autres buts (produire des services, même à perte, pour capter des données), il est très difficile d’identifier le secteur d’activité concerné (Alphabet regroupe des entreprises ultra-diversifiées) et donc le marché est ultra-malléable autant qu’il ne représente que des données à forte valeur prédictive et possède donc une logique de plus en plus maîtrisée par les grands acteurs.


  1. Michel Liu, « Technologie, organisation du travail et comportement des salariés », Revue française de sociologie, 22/2 1981, pp. 205-221.
  2. Voir sur ce point Robert Blauner, Alienation and Freedom. The Factory Worker and His Industry, Chicago: Univ. Chicago Press, 1965.
  3. Shoshana Zuboff, In The Age Of The Smart Machine: The Future Of Work And Power, New York: Basic Books, 1988.
  4. En guise d’illustration de tests (proof of concepts) discrets menés dans les entreprises aujourd’hui, on peut se reporter à cet article de Rue 89 Strasbourg sur cette société alsacienne qui propose, sous couvert de challenge collectif, de monitorer l’activité physique de ses employés. Rémi Boulle, « Chez Constellium, la collecte des données personnelles de santé des employés fait débat », Rue 89 Strasbourg, juin 2016.
  5. Par exemple, dans le cas des livreurs à vélo de plats préparés utilisés par des sociétés comme Foodora ou Take Eat Easy, on constate que ces sociétés ne sont qu’une interface entre les restaurants et les livreurs. Ces derniers sont auto-entrepreneurs, payés à la course et censés assumer toutes les cotisations sociales et leurs salaires uniquement sur la base des courses que l’entreprise principale pourra leur confier. Ce rôle est automatisé par une application de calcul qui rassemble les données géographiques et les performances (moyennes, vitesse, assiduité, etc.) des livreurs et distribue automatiquement les tâches de livraisons. Charge aux livreurs de se trouver au bon endroit au bon moment. Ce modèle économique permet de détacher l’entreprise de toutes les externalités ou tâches habituellement intégrées qui pourraient influer sur son chiffre d’affaires : le matériel du livreur, l’assurance, les cotisations, l’accidentologie, la gestion du temps de travail, etc., seule demeure l’activité elle-même automatisée et le livreur devient un exécutant dont on analyse les performances. L’« Ubérisation » est un processus qui automatise le travail humain, élimine les contraintes sociales et utilise l’information que l’activité produit pour ajuster la production à la demande (quels que soient les risques pris par les livreurs, par exemple pour remonter les meilleures informations concernant les vitesses de livraison et se voir confier les prochaines missions). Sur ce sujet, on peut écouter l’émission Comme un bruit qui court de France Inter qui diffusa le reportage de Giv Anquetil le 11 juin 2016, intitulé « En roue libre ».
  6. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016.
  7. En même temps qu’une réduction de leur coût de production (leur coût d’exploitation ou d’analyse, en revanche, explose).
  8. On peut s’intéresser à l’origine de l’expression en lisant cet article de Francis X. Diebold, « On the Origin(s) and Development of the Term ‘Big Data’ », Penn Institute For Economic Research, Working Paper 12-037, 2012.
  9. Holman W. Jenkins, « Google and the Search for the Future The Web icon’s CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age », The Wall Street Journal, 14/08/2010.
  10. Communiqué du Premier ministre, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, Paris : Hôtel Matignon, 3/12/2015.
  11. Même si Apple a déclaré ne pas entrer dans le secteur des Big Data, il n’en demeure pas moins qu’il en soit un consommateur comme un producteur d’envergure mondiale.
  12. Laurent Mauriac, « Google, moteur en explosion », Libération, 29 juin 2000.
  13. Vincent Abry, « Au revoir la diversité. Quand 16 compagnies dominent complètement l’index Google », article de Blog personnel, voir la version archivée.
  14. PwC, Global Top 100 Companies by market capitalisation, (31/03/2015). Ces données sont à revoir en raison de l’éclatement de Google dans une sorte de holding nommée Alphabet début 2016.
  15. James Manyika et Michael Chui, « Digital era brings hyperscale challenges » (image), The Financial Times, 13/08/2014. Cité par S. Zuboff, « Big Other… », op. cit..



Le chiffrement ne suffira pas

Le chiffrement, s’il n’est pas encore dans tous nos usages — et loin s’en faut, chez la plupart des utilisateurs, est nettement devenu un argument marketing et une priorité pour les entreprises qui distribuent logiciels et services. En effet, le grand public est beaucoup plus sensible désormais à l’argument de la sécurité de la vie privée. Donc les services qui permettent la communication en ligne rivalisent d’annonces pour promettre et garantir une sécurité toujours plus grande et que l’on puisse activer d’un simple clic.

Que faut-il croire, à qui et quoi pouvons-nous confier nos communications ?

L’article de Hannes Hauswedell que nous avons traduit nous aide à faire un tri salutaire entre les solutions logicielles du marché, pointe les faux-semblants et les failles, puis nous conduit tranquillement à envisager des solutions fédérées et pair à pair reposant sur des logiciels libres. Des réseaux de confiance en somme, ce qui est proche de l’esprit de l’initiative C.H.A.T.O.N.S portée par Framasoft et qui suscite déjà un intérêt grandissant.

Comme d’habitude les commentaires sont ouverts et libres si vous souhaitez par exemple ajouter vos découvertes à ce recensement critique forcément incomplet.

 

Préserver sa vie privée, au-delà du chiffrement

par Hannes Hauswedell

d’après l’article publié sur son blog : Why Privacy is more than Crypto

Traduction Framalang : egilli, Lumi, goofy, roptat, lyn, tchevalier, touriste, Edgar Lori, Penguin

Au cours de l’année dernière on a pu croire que les poules avaient des dents quand les grandes entreprises hégémoniques comme Apple, Google et Facebook ont toutes mis en œuvre le chiffrement à un degré ou un autre. Pour Facebook avec WhatsApp et Google avec Allo, le chiffrement de la messagerie a même été implémenté par rien moins que le célèbre Moxie Marlinspike, un hacker anarchiste qui a la bénédiction d’Edward Snowden !
Donc tout est pour le mieux sur le front de la défense de la vie privée !… Euh, vraiment ?

Sommaire

1. Le chiffrement
2. Logiciels libres et intégrité des appareils
3. Décentralisation, contrôle par les distributeurs et métadonnées
4. En deux mots (pour les moins courageux)

J’ai déjà développé mon point de vue sur la sécurité de la messagerie mobile et j’en ai parlé dans un podcast (en allemand). Mais j’ai pensé qu’il fallait que j’y revienne, car il existe une certaine confusion sur ce que signifient sécurité et confidentialité (en général, mais particulièrement dans le contexte de la messagerie), et parce que les récentes annonces dans ce domaine ne donnent selon moi qu’un sentiment illusoire de sécurité.

Je vais parler de WhatsApp et de Facebook Messenger (tous deux propriétés de Facebook), de Skype (possédé par Microsoft), de Telegram, de Signal (Open Whisper systems), Threema (Threema GmbH), Allo (possédé par Google) et de quelques clients XMPP, je dirai aussi un mot de ToX et Briar. Je n’aborderai pas les diverses fonctionnalités mêmes si elles sont liées à la confidentialité, comme les notifications évidemment mal conçues du type « le message a été lu ». Je n’aborderai pas non plus les questions d’anonymat qui sont connexes, mais selon moi moins importantes lorsqu’il s’agit d’applis de substitution aux SMS, puisque vous connaissez vos contacts de toutes façons.

Le chiffrement

Quand on parle de confidentialité ou de sécurité des communications dans les messageries, il s’agit souvent de chiffrement ou, plus précisément, du chiffrement des données qui se déplacent, de la protection de vos messages pendant qu’ils voyagent vers vos contacts.

computer-1294045_640

Il existe trois moyens classiques pour faire cela :

  1. pas de chiffrement : tout le monde sur votre réseau WIFI local ou un administrateur système quelconque du réseau internet peut lire vos données
  2. le chiffrement en transit : la connexion au et à partir du fournisseur de service, par exemple les serveurs WhatsApp, et entre les fournisseurs de services est sécurisée, mais le fournisseur de service peut lire le message
  3. le chiffrement de bout en bout : le message est lisible uniquement par ceux à qui la conversation est adressée, mais le moment de la communication et les participants sont connus du fournisseur de service

Il y a aussi une propriété appelée « confidentialité persistante » (perfect forward secrecy en anglais) qui assure que les communications passées ne peuvent être déchiffrées, même si la clef à long terme est révélée ou volée.

À l’époque, la plupart des applications, même WhatsApp, appartenaient à la première catégorie. Mais aujourd’hui presque toutes les applications sont au moins dans la deuxième. La probabilité d’un espionnage insoupçonné en est réduite (c’est toujours possible pour les courriels par exemple), mais ce n’est évidemment pas suffisant, puisque le fournisseur de service peut être malveillant ou forcé de coopérer avec des gouvernements malveillants ou des agences d’espionnage sans contrôle démocratique.

C’est pour cela que vous voulez que votre messagerie fasse du chiffrement de bout en bout. Actuellement, les messageries suivantes le font (classées par taille supposée) : WhatsApp, Signal, Threema, les clients XMPP avec GPG/OTR/Omemo (ChatSecure, Conversations, Kontalk).

Les messageries qui disposent d’un mode spécifique (« chat secret » ou « mode incognito ») sont Telegram et Google Allo. Il est vraiment dommage qu’il ne soit pas activé par défaut, donc je ne vous les recommande pas. Si vous devez utiliser l’un de ces programmes, assurez-vous toujours d’avoir sélectionné le mode privé. Il est à noter que les experts considèrent que le chiffrement de bout en bout de Telegram est moins robuste, même s’ils s’accordent à dire que les attaques concrètes pour récupérer le texte d’un message ne sont pas envisageables.

D’autres programmes populaires, comme la messagerie de Facebook ou Skype n’utilisent pas de chiffrement de bout en bout, et devraient être évités. Il a été prouvé que Skype analyse vos messages, je ne m’attarderai donc pas sur ces deux-là.

Logiciels libres et intégrité des appareils

Donc maintenant, les données sont en sécurité tant qu’elles voyagent de vous à votre ami. Mais qu’en est-il avant et après leur envoi ? Ne pouvez-vous pas aussi tenter d’espionner le téléphone de l’expéditeur ou du destinataire avant qu’elles ne soient envoyées et après leur réception ? Oui c’est possible et en Allemagne le gouvernement a déjà activement utilisé la « Quellen-Telekommunikationsüberwachung » (surveillance des communications à la source) précisément pour passer outre le chiffrement.

Revenons à la distinction entre (2) et (3). La différence principale entre le chiffrement en transit et de bout en bout est que vous n’avez plus besoin de faire confiance au fournisseur de service… FAUX : Dans presque tous les cas, la personne qui fait tourner le serveur est la même que celle qui fournit le programme. Donc forcément, vous devez croire que le logiciel fait bien ce qu’il dit faire. Ou plutôt, il doit y avoir des moyens sociaux et techniques qui vous donnent suffisamment de certitude que le logiciel est digne de confiance. Sinon, la valeur ajoutée du chiffrement de bout en bout est bien maigre.

linux-hedi-magroun-auf-2008-11-638

La liberté des logiciels

C’est maintenant que le logiciel libre entre en jeu. Si le code source est publié, il y aura un grand nombre de hackers et de volontaires pour vérifier que le programme chiffre vraiment le contenu. Bien que ce contrôle public ne puisse vous donner une sécurité parfaite, ce processus est largement reconnu comme étant le meilleur pour assurer qu’un programme est globalement sûr et que les problèmes de sécurité sont découverts (et aussi corrigés). Le logiciel libre permet aussi de créer des versions non officielles ou rivales de l’application de messagerie, qui seront compatibles. S’il y a certaines choses que vous n’aimez pas ou auxquelles vous ne faites pas confiance dans l’application officielle, vous pourrez alors toujours en choisir une autre et continuer de chatter avec vos amis.

Certaines compagnies comme Threema qui ne fournissent pas leurs sources assurent évidemment qu’elles ne sont pas nécessaires pour avoir confiance. Elles affirment que leur code a été audité par une autre compagnie (qu’ils ont généralement payée pour cela), mais si vous ne faites pas confiance à la première, pourquoi faire confiance à une autre engagée par celle-ci ? Plus important, comment savoir que la version vérifiée par le tiers est bien la même version que celle installée sur votre téléphone ? (Vous recevez des mises à jours régulières ou non ?)

Cela vaut aussi pour les gouvernements et les entités publiques qui font ce genre d’audits. En fonction de votre modèle de menace ou de vos suppositions sur la société, vous pourriez être enclins à faire confiance aux institutions publiques plus qu’aux institutions privées (ou inversement), mais si vous regardez vers l’Allemagne par exemple, avec le TÜV il n’y a en fait qu’une seule organisation vérificatrice, que ce soit sur la valeur de confiance des applications de messagerie ou concernant la quantité de pollution émise par les voitures. Et nous savons bien à quoi cela a mené !

Capture du 2016-06-26 20-20-04
Jeu gratuit à imprimer du site turbulus.com

La confiance

Quand vous décidez si vous faites confiance à un tiers, vous devez donc prendre en compte :

  • la bienveillance : le tiers ne veut pas compromettre votre vie privée et/ou il est lui-même concerné
  • la compétence : le tiers est techniquement capable de protéger votre vie privée et d’identifier et de corriger les problèmes
  • l’intégrité : le tiers ne peut pas être acheté, corrompu ou infiltré par des services secrets ou d’autres tiers malveillants

Après les révélations de Snowden, il est évident que le public est le seul tiers qui peut remplir collectivement ces prérequis ; donc la mise à disposition publique du code source est cruciale. Cela écarte d’emblée WhatsApp, Google Allo et Threema.

« Attendez une minute… mais n’existe-t-il aucun autre moyen de vérifier que les données qui transitent sont bien chiffrées ? » Ah, bien sûr qu’il en existe, comme Threema le fera remarquer, ou d’autres personnes pour WhatsApp. Mais l’aspect important, c’est que le fournisseur de service contrôle l’application sur votre appareil, et peut intercepter les messages avant le chiffrement ou après le déchiffrement, ou simplement « voler » vos clés de chiffrement. « Je ne crois pas que X fasse une chose pareille. » Gardez bien à l’esprit que, même si vous faites confiance à Facebook ou Google (et vous ne devriez pas), pouvez-vous vraiment leur faire confiance pour ne pas obéir à des décisions de justice ? Si oui, alors pourquoi vouliez-vous du chiffrement de bout en bout ? « Quelqu’un s’en apercevrait, non ? » Difficile à dire ; s’ils le faisaient tout le temps, vous pourriez être capable de vous en apercevoir en analysant l’application. Mais peut-être qu’ils font simplement ceci :

si (listeDeSuspects.contient(utilisateurID))
 envoyerClefSecreteAuServeur() ;

Alors seules quelques personnes sont affectées, et le comportement ne se manifeste jamais dans des « conditions de laboratoire ». Ou bien la génération de votre clé est trafiquée, de sorte qu’elle soit moins aléatoire, ou qu’elle adopte une forme plus facile à pirater. Il existe plusieurs approches, et la plupart peuvent facilement être déployées dans une mise à jour ultérieure, ou cachée parmi d’autres fonctionnalités. Notez bien également qu’il est assez facile de se retrouver dans la liste de suspects, car le règlement actuel de la NSA assure de pouvoir y ajouter plus de 25 000 personnes pour chaque suspect « originel ».

À la lumière de ces informations, on comprend qu’il est très regrettable que Open Whisper Systems et Moxie Marlinspike (le célèbre auteur de Signal, mentionné précédemment) fassent publiquement les louanges de Facebook et de Google, augmentant ainsi la confiance en leurs applications [bien qu’il ne soit pas mauvais en soi qu’ils aient aidé à mettre en place le chiffrement, bien sûr]. Je suis assez confiant pour dire qu’ils ne peuvent pas exclure un des scénarios précédents, car ils n’ont pas vu le code source complet des applications, et ne savent pas non plus ce que vont contenir les mises à jour à l’avenir – et nous ne voudrions de toutes façons pas dépendre d’eux pour nous en assurer !

La messagerie Signal

« OK, j’ai compris. Je vais utiliser des logiciels libres et open source. Comme le Signal d’origine ». C’est là que ça se complique. Bien que le code source du logiciel client Signal soit libre/ouvert, il dépend d’autres composants non libres/fermés/propriétaires pour fonctionner. Ces composants ne sont pas essentiels au fonctionnement, mais ils (a) fournissent des métadonnées à Google (plus de détails sur les métadonnées plus loin) et (b) compromettent l’intégrité de votre appareil.

Le dernier point signifie que si même une petite partie de votre application n’est pas digne de confiance, alors le reste ne l’est pas non plus. C’est encore plus critique pour les composants qui ont des privilèges système, puisqu’ils peuvent faire tout et n’importe quoi sur votre téléphone. Et il est particulièrement impossible de faire confiance à ces composants non libres qui communiquent régulièrement des données à d’autres ordinateurs, comme ces services Google. Certes, il est vrai que ces composants sont déjà inclus dans la plupart des téléphones Android dans le monde, et il est aussi vrai qu’il y a très peu d’appareils qui fonctionnent vraiment sans aucun composant non libre, donc de mon point de vue, ce n’est pas problématique en soi de les utiliser quand ils sont disponibles. Mais rendre leur utilisation obligatoire implique d’exclure les personnes qui ont besoin d’un niveau de sécurité supérieur (même s’ils sont disponibles !) ; ou qui utilisent des versions alternatives plus sécurisées d’Android, comme CopperheadOS ; ou simplement qui ont un téléphone sans ces services Google (très courant dans les pays en voie de développement). Au final, Signal créé un « effet réseau » qui dissuade d’améliorer la confiance globale d’un appareil mobile, parce qu’il punit les utilisateurs qui le font. Cela discrédite beaucoup de promesses faites par ses auteurs.

Et voici le pire : Open Whisper Systems, non seulement, ne supporte pas les systèmes complètements libres, mais a également menacé de prendre des mesures légales afin d’empêcher les développeurs indépendants de proposer une version modifiée de l’application client Signal qui fonctionnerait sans les composants propriétaires de Google et pourrait toujours interagir avec les autres utilisateurs de Signal ([1] [2] [3]). À cause de cela, des projets indépendants comme LibreSignal sont actuellement bloqués. En contradiction avec leur licence libre, ils s’opposent à tout client du réseau qu’ils ne distribuent pas. De ce point de vue, l’application Signal est moins utilisable et moins fiable que par exemple Telegram qui encourage les clients indépendants à utiliser leurs serveurs et qui propose des versions entièrement libres.

Juste pour que je ne donne pas de mauvaise impression : je ne crois pas qu’il y ait une sorte de conspiration entre Google et Moxie Marlinspike, et je les remercie de mettre au clair leur position de manière amicale (au moins dans leur dernière déclaration), mais je pense que la protection agressive de leur marque et leur insistance à contrôler tous les logiciels clients de leur réseau met à mal la lutte globale pour des communications fiables.

Décentralisation, contrôle par les distributeurs et métadonnées

Un aspect important d’un réseau de communication est sa topologie, c’est-à-dire la façon dont le réseau est structuré. Comme le montre l’image ci-dessous, il y a plusieurs approches, toutes (plus ou moins) largement répandues. La section précédente concernait ce qui se passe sur votre téléphone, alors que celle-ci traite de ce qui se passe sur les serveurs, et du rôle qu’ils jouent. Il est important de noter que, même dans des réseaux centralisés, certaines communications ont lieu en pair-à-pair (c’est-à-dire sans passer par le centre) ; mais ce qui fait la différence, c’est qu’il nécessitent des serveurs centraux pour fonctionner.

Réseaux centralisés

Les réseaux centralisés sont les plus courants : toutes les applications mentionnées plus haut (WhatsApp, Telegram, Signal, Threema, Allo) reposent sur des réseaux centralisés. Bien que beaucoup de services Internet ont été décentralisés dans le passé, comme l’e-mail ou le World Wide Web, beaucoup de services centralisés ont vu le jour ces dernières années. On peut dire, par exemple, que Facebook est un service centralisé construit sur la structure WWW, à l’origine décentralisée.

Les réseaux centralisés font souvent partie d’une marque ou d’un produit plus global, présenté comme une seule solution (au problème des SMS, dans notre cas). Pour les entreprises qui vendent ou qui offrent ces solutions, cela présente l’avantage d’avoir un contrôle total sur le système, et de pouvoir le changer assez rapidement, pour offrir (ou imposer) de nouvelles fonctionnalités à tous les utilisateurs.

Même si l’on suppose que le service fournit un chiffrement de bout en bout, et même s’il existe une application cliente en logiciel libre, il reste toujours les problèmes suivants :

métadonnées : le contenu de vos messages est chiffré, mais l’information qui/quand/où est toujours accessible pour votre fournisseur de service
déni de service : le fournisseur de service ou votre gouvernement peuvent bloquer votre accès au service

Il y a également ce problème plus général : un service centralisé, géré par un fournisseur privé, peut décider quelles fonctionnalités ajouter, indépendamment du fait que ses utilisateurs les considèrent vraiment comme des fonctionnalités ou des « anti-fonctionnalités », par exemple en indiquant aux autres utilisateurs si vous êtes « en ligne » ou non. Certaines de ces fonctionnalités peuvent être supprimées de l’application sur votre téléphone si c’est du logiciel libre, mais d’autres sont liées à la structure centralisée. J’écrirai peut-être un jour un autre article sur ce sujet.

Métadonnées

Comme expliqué précédemment, les métadonnées sont toutes les données qui ne sont pas le message. On pourrait croire que ce ne sont pas des données importantes, mais de récentes études montrent l’inverse. Voici des exemples de ce qu’incluent les métadonnées : quand vous êtes en ligne, si votre téléphone a un accès internet, la date et l’heure d’envoi des messages et avec qui vous communiquez, une estimation grossière de la taille du message, votre adresse IP qui peut révéler assez précisément où vous vous trouvez (au travail, à la maison, hors de la ville, et cætera), éventuellement aussi des informations liées à la sécurité de votre appareil (le système d’exploitation, le modèle…). Ces informations sont une grande menace contre votre vie privée et les services secrets américains les utilisent réellement pour justifier des meurtres ciblés (voir ci-dessus).

La quantité de métadonnées qu’un service centralisé peut voir dépend de leur implémentation précise. Par exemple, les discussions de groupe avec Signal et probablement Threema sont implémentées dans le client, donc en théorie le serveur n’est pas au courant. Cependant, le serveur a l’horodatage de vos communications et peut probablement les corréler. De nouveau, il est important de noter que si le fournisseur de service n’enregistre pas ces informations par défaut (certaines informations doivent être préservées, d’autres peuvent être supprimées immédiatement), il peut être forcé à enregistrer plus de données par des agences de renseignement. Signal (comme nous l’avons vu) ne fonctionne qu’avec des composants non-libres de Google ou Apple qui ont alors toujours une part de vos métadonnées, en particulier votre adresse IP (et donc votre position géographique) et la date à laquelle vous avez reçu des messages.

Pour plus d’informations sur les métadonnées, regardez ici ou .

Déni de service

Un autre inconvénient majeur des services centralisés est qu’ils peuvent décider de ne pas vous servir du tout s’ils le veulent ou qu’ils y sont contraints par la loi. Comme nombre de services demandent votre numéro lors de l’enregistrement et sont opérés depuis les États-Unis, ils peuvent vous refuser le service si vous êtes cubain par exemple. C’est particulièrement important puisqu’on parle de chiffrement qui est grandement régulé aux États-Unis.

L’Allemagne vient d’introduire une nouvelle loi antiterroriste dont une partie oblige à décliner son identité lors de l’achat d’une carte SIM, même prépayée. Bien que l’hypothèse soit peu probable, cela permettrait d’établir une liste noire de personnes et de faire pression sur les entreprises pour les exclure du service.

Plutôt que de travailler en coopération avec les entreprises, un gouvernement mal intentionné peut bien sûr aussi cibler le service directement. Les services opérés depuis quelques serveurs centraux sont bien plus vulnérables à des blocages nationaux. C’est ce qui s’est passé pour Signal et Telegram en Chine.

Réseaux déconnectés

Lorsque le code source du serveur est libre, vous pouvez monter votre propre service si vous n’avez pas confiance dans le fournisseur. Ça ressemble à un gros avantage, et Moxie Marlinspike le défend ainsi :

Avant vous pouviez changer d’hébergeur, ou même décider d’utiliser votre propre serveur, maintenant les utilisateurs changent simplement de réseau complet. […] Si un fournisseur centralisé avec une infrastructure ouverte modifiait affreusement ses conditions, ceux qui ne seraient pas d’accord ont le logiciel qu’il faut pour utiliser leur propre alternative à la place.

Et bien sûr, c’est toujours mieux que de ne pas avoir le choix, mais la valeur intrinsèque d’un réseau « social » vient des gens qui l’utilisent et ce n’est pas évident de changer si vous perdez le lien avec vos amis. C’est pour cela que les alternatives à Facebook ont tant de mal. Mme si elles étaient meilleures sur tous les aspects, elles n’ont pas vos amis.

Certes, c’est plus simple pour les applications mobiles qui identifient les gens via leur numéro, parce qu’au moins vous pouvez trouver vos amis rapidement sur un nouveau réseau, mais pour toutes les personnes non techniciennes, c’est très perturbant d’avoir 5 applications différentes juste pour rester en contact avec la plupart de ses amis, donc changer de réseau ne devrait qu’être un dernier recours.

Notez qu’OpenWhisperSystems se réclame de cette catégorie, mais en fait ils ne publient que des parties du code du serveur de Signal, de sorte que vous ne soyez pas capables de monter un serveur avec les mêmes fonctionnalités (plus précisément la partie téléphonie manque).

networks_black
Centralisation, réseaux déconnectés, fédération, décentralisation en pair à pair

La fédération

La fédération est un concept qui résout le problème mentionné plus haut en permettant en plus aux fournisseurs de service de communiquer entre eux. Donc vous pouvez changer de fournisseur, et peut-être même d’application, tout en continuant à communiquer avec les personnes enregistrées sur votre ancien serveur. L’e-mail est un exemple typique d’un système fédéré : peu importe que vous soyez tom@gmail.com ou jeanne@yahoo.com ou même linda@serveur-dans-ma-cave.com, tout le monde peut parler avec tout le monde. Imaginez combien cela serait ridicule, si vous ne pouviez communiquer qu’avec les personnes qui utilisent le même fournisseur que vous ?

L’inconvénient, pour un développeur et/ou une entreprise, c’est de devoir définir publiquement les protocoles de communication, et comme le processus de standardisation peut être compliqué et très long, vous avez moins de flexibilité pour modifier le système. Je reconnais qu’il devient plus difficile de rendre les bonnes fonctionnalités rapidement disponibles pour la plupart des gens, mais comme je l’ai dit plus haut, je pense que, d’un point de vue de la vie privée et de la sécurité, c’est vraiment une fonctionnalité, car plus de gens sont impliqués et plus cela diminue la possibilité pour le fournisseur d’imposer des fonctionnalités non souhaitées aux utilisateurs ; mais surtout car cela fait disparaître « l’effet d’enfermement ». Cerise sur le gâteau, ce type de réseau produit rapidement plusieurs implémentations du logiciel, à la fois pour l’application utilisateur et pour le logiciel serveur. Cela rend le système plus robuste face aux attaques et garantit que les failles ou les bugs présents dans un logiciel n’affectent pas le système dans son ensemble.

Et, bien sûr, comme évoqué précédemment, les métadonnées sont réparties entre plusieurs fournisseurs (ce qui rend plus difficile de tracer tous les utilisateurs à la fois), et vous pouvez choisir lequel aura les vôtres, voire mettre en place votre propre serveur. De plus, il devient très difficile de bloquer tous les fournisseurs, et vous pouvez en changer si l’un d’entre eux vous rejette (voir « Déni de service » ci-dessus).

Une remarque au passage : il faut bien préciser que la fédération n’impose pas que des métadonnées soient vues par votre fournisseur d’accès et celui de votre pair. Dans le cas de la messagerie électronique, cela représente beaucoup, mais ce n’est pas une nécessité pour la fédération par elle-même, c’est-à-dire qu’une structure fédérée bien conçue peut éviter de partager les métadonnées dans les échanges entre fournisseurs d’accès, si l’on excepte le fait qu’il existe un compte utilisateur avec un certain identifiant sur le serveur.

XMPP_logo.svg_

Alors est-ce qu’il existe un système identique pour la messagerie instantanée et les SMS ? Oui, ça existe, et ça s’appelle XMPP. Alors qu’initialement ce protocole n’incluait pas de chiffrement fort, maintenant on y trouve un chiffrement du même niveau de sécurité que pour Signal. Il existe aussi de très bonnes applications pour mobile sous Android (« Conversations ») et sous iOS (« ChatSecure »), et pour d’autres plateformes dans le monde également.

Inconvénients ? Comme pour la messagerie électronique, il faut d’abord vous enregistrer pour créer un compte quelque part et il n’existe aucune association automatique avec les numéros de téléphone, vous devez donc convaincre vos amis d’utiliser ce chouette nouveau programme, mais aussi trouver quels fournisseur d’accès et nom d’utilisateur ils ont choisis. L’absence de lien avec le numéro de téléphone peut être considérée par certains comme une fonctionnalité intéressante, mais pour remplacer les SMS ça ne fait pas l’affaire.

La solution : Kontalk, un client de messagerie qui repose sur XMPP et qui automatise les contacts via votre carnet d’adresses. Malheureusement, cette application n’est pas encore aussi avancée que d’autres mentionnées plus haut. Par exemple, il lui manque la gestion des groupes de discussion et la compatibilité avec iOS. Mais Kontalk est une preuve tangible qu’il est possible d’avoir avec XMPP les mêmes fonctionnalités que l’on trouve avec WhatsApp ou Telegram. Selon moi, donc, ce n’est qu’une question de temps avant que ces solutions fédérées ne soient au même niveau et d’une ergonomie équivalente. Certains partagent ce point de vue, d’autres non.

Réseaux pair à pair

Les réseaux pair à pair éliminent complètement le serveur et par conséquent toute concentration centralisée de métadonnées. Ce type de réseaux est sans égal en termes de liberté et il est pratiquement impossible à bloquer par une autorité. ToX est un exemple d’application pair à pair, ou encore Ricochet (pas pour mobile cependant), et il existe aussi Briar qui est encore en cours de développement, mais ajoute l’anonymat, de sorte que même votre pair ne connaît pas votre adresse IP. Malheureusement il existe des problèmes de principe liés aux appareils mobiles qui rendent difficile de maintenir les nombreuses connexions que demandent ces réseaux. De plus il semble impossible pour le moment d’associer un numéro de téléphone à un utilisateur, si bien qu’il est impossible d’avoir recours à la détection automatique des contacts.

Je ne crois pas actuellement qu’il soit possible que ce genre d’applications prenne des parts de marché à WhatsApp, mais elles peuvent être utiles dans certains cas, en particulier si vous êtes la cible de la surveillance et/ou membre d’un groupe qui décide collectivement de passer à ces applications pour communiquer, une organisation politique par exemple.

 

En deux mots

  • La confidentialité de nos données privées est l’objet d’un intérêt accru et les utilisateurs cherchent activement à se protéger mieux.
  • On peut considérer que c’est un bon signe quand les distributeurs principaux de logiciels comprennent qu’ils doivent réagir à cette situation en ajoutant du chiffrement à leurs logiciels ; et qui sait, il est possible que ça complique un peu la tâche de la NSA.
  • Toutefois, il n’y a aucune raison de leur faire plus confiance qu’auparavant, puisqu’il n’existe aucun moyen à notre disposition pour savoir ce que font véritablement les applications, et parce qu’il leur reste beaucoup de façons de nous espionner.
  • Si en ce moment vous utilisez WhatsApp, Skype, Threema ou Allo et que vous souhaitez avoir une expérience comparable, vous pouvez envisager de passer à Telegram ou Signal. Ils valent mieux que les précédents (pour diverses raisons), mais ils sont loin d’être parfaits, comme je l’ai montré. Nous avons besoin à moyen et long terme d’une fédération.
  • Même s’ils nous paraissent des gens sympas et des hackers surdoués, nous ne pouvons faire confiance à OpenWhisperSystemspour nous délivrer de la surveillance, car ils sont aveugles à certains problèmes et pas très ouverts à la coopération avec la communauté.
  • Des trucs assez sympas se préparent du côté du XMPP, surveillez Conversations, chatSecure et Kontalk. Si vous le pouvez, soutenez-les avec du code, des dons et des messages amicaux.
  • Si vous souhaitez une approche sans aucune métadonnée et/ou anonymat, essayez Tor ou ToX, ou attendez Briar.

 




Un guide Framabook pour les communautés

Une communauté, comment ça marche ?
Et surtout comment faire pour que ça marche bien, que ça s’épanouisse et que ça dure ?

Nous sommes bien placés pour le savoir à Framasoft, la vie quotidienne d’une communauté se fait le plus souvent en mode bazar — peut-être devrais-je dire à la gauloise — jusqu’à ce qu’une bonne volonté à l’esprit plus cartésien prenne en charge une mise en ordre efficace, avec processus, deadline et animation d’une équipe (nous appelons ça des « comités »). Heureusement notre projet pluriannuel et planétaire dégooglisons internet nous fixe les grandes lignes d’une action qui reste empirique au jour le jour. Heureusement aussi que nous pouvons compter sur vous pour nous propulser, car c’est ainsi que nous avançons.
Bref, nous avons beaucoup à apprendre du nouveau Framabook que nous vous présentons aujourd’hui, car il s’agit d’un ouvrage fondé sur l’expérience et des cas concrets, et dont la démarche est celle d’un guide pas à pas pour une gestion optimale d’une communauté autour d’un projet libre. Vous allez le découvrir dans ce précieux manuel, les trois compères qui l’ont conçu n’ont rien oublié, car tous les détails qu’ils abordent peuvent s’avérer décisifs pour une communauté.
Avant d’ouvrir le Framabook qui vous attend, faisons connaissance avec Patrick et les deux Stéphane qui nous viennent d’INRIA, nous en saurons plus sur leurs motivations et l’esprit dans lequel ils ont travaillé.

Vous publiez aujourd’hui un guide très complet et riche en recommandations sur la façon d’animer une communauté. Selon votre expérience, on innove plus facilement à partir d’organisations communautaires qu’à partir de structures verticales et officielles ?

Les communautés de pratique qui se construisent autour de projets ouverts font partie des structures humaines les plus fécondes en innovations que l’on connaisse. Je dirais que l’on innove plus facilement avec des structures de type communautaire, pair à pair, encore faut-il qu’elles soient dynamiques.

Une des clés de succès est de bien choisir son modèle de gouvernance. Le modèle de gouvernance en « approche descendante » (top down) est souvent un frein à l’émergence de nouveautés, c’est même un puissant stérilisateur d’innovation. Cependant, les organisations qui ont choisi ce modèle sont alors davantage utilisatrices et/ou consommatrices d’innovation… Il est important de collaborer aussi avec ces structures. Une fois que les projets ont pris de l’élan, elles peuvent avoir du sens car elles permettent d’institutionnaliser les innovations produites.

Je crois que ces deux modes d’organisation sont complémentaires, à la condition cependant de laisser les inventions germer puis se transformer en innovations selon leur mouvement naturel qui est bottom-up.

Et dans l’institut de haut niveau où vous travaillez, on est plutôt bottom-up ou top-down ?

Le modèle Inria est selon nous à la fois une structure top down et une structure bottom up. L’écosystème bottom up est constitué des chercheurs et ingénieurs de recherche alors que le top down est représenté par les équipes de valorisation. L’organisation bottom up (accompagnée d’actions encourageant la prise d’initiatives) facilite l’émergence de projets très divers et dont l’usage dans la société est insoupçonné (quel impact ?)… en somme la structure bottom up produit de l’innovation et la structure top down pioche dedans. Tel est le cas pour Inria, pas forcément pour les projets FLOSS…

Vous publiez un guide dont le sous-titre est « Animer une communauté autour d’un projet ouvert », c’est parce que vous trouvez que les communautés libristes ne sont pas bien « animées » ?
Pas du tout ! Il nous semblait d’une part que ce sujet n’était pas encore largement traité et d’autre part que la diffusion et la mise en commun de nos expériences pouvaient être utiles. Stéphane Ribas apporte, en tant qu’expert en management de communautés, une assistance à l’ensemble des équipes de recherche et aux projets de développement logiciel au sens large chez Inria. Comme la demande est bien trop large pour être traitée par un seul spécialiste, ce guide a été écrit pour tenter d’amplifier la diffusion des quelques principes de base de la gestion de communauté.

On sent une volonté d’éducation populaire à la lecture de ce guide, qui dépasse le seul cadre du développement logiciel…

Éduc pop… oui. On est animés par une motivation intrinsèque incroyable : transmettre le savoir et le savoir-faire, se rendre utiles. Disons qu’on se rend bien compte de l’utilité de ce que l’on fait et c’est extrêmement motivant.

Ce guide est le fruit d’un travail collaboratif de longue haleine, qu’il a fallu coordonner et mener à terme, pas trop compliqué ?

Stéphane Ribas — Eh bien mes deux collègues ont dû supporter mon hyperactivité pendant presque 6 ans… Les périodes de disponibilité et les phases de l’écriture n’étaient pas toujours les mêmes, du coup la plupart des solutions sont venues d’un effort de coordination : calage de journées de travail dédiées au guide, Skype, etc. Il faut dire que la rédaction de ce guide est venue se superposer à des vies déjà bien remplies…

Patrick Guillaud — Notre proximité et le partage quotidien de nos interrogations, préoccupations et parfois de nos succès nous ont permis de finalement partager une vision commune et cohérente à partir de trois prismes ou angles de vue un peu décalés.

Est-ce que le choix de Framabook comme éditeur découle de l’aspect collaboratif de ce guide ou y a-t-il d’autres raisons qui vous ont poussés à placer cet ouvrage dans les communs ?
Patrick G. — Je crois que l’une des raisons qui nous poussent à agir est justement le fait que nous sommes de fervents supporters de la philosophie du libre, car nous sommes convaincus de son efficacité. Il ne faut pas oublier non plus que nous avons la chance de travailler dans un institut public de recherche, ce qui nous place dans des conditions idéales pour mettre cette philosophie en action, même si l’on voit de plus en plus d’entreprises privées y venir également. Cependant, après des années à travailler dans ce domaine, je crois que nos convictions vont bien au-delà, et nous sommes sûrement davantage aujourd’hui des supporters du mouvement appelé openness … D’ailleurs les conseils prodigués dans le guide Logiciels et Objets Libres s’appliquent aussi à d’autres domaines. On a mis un peu beaucoup d’openness dans ce guide (désolé pour l’anglicisme).

Il ne faut pas empêcher la transmission du savoir et du savoir-faire. À l’époque de la recherche de phénomènes autour de l’électricité, certains « scientifiques » présentaient des expériences au public comme des phénomènes magiques. C’était une mise en scène sans grande explication sur la logique de fonctionnement, l’explication était réservée à une toute petite partie de l’élite. Une deuxième école de pensée existait déjà, elle avait pour objectif de transmettre ce savoir au plus grand nombre, de pratiquer une sorte de médiation scientifique, de vulgarisation de la science. C’est bien sûr dans cette démarche que s’inscrit notre travail.

Le choix de la triple licence : LAL 1.3, GNU FDL 1.3 et CC By-SA 3.0, c’est par gourmandise ou par militantisme ?

Patrick Guillaud — Gourmandise ou militantisme ? Si je revendique le premier terme sans complexe, j’associerais volontiers celui d’activisme au second. En effet, l’un des principes qui fondent nos activités est celui d’action dont je dirais même qu’il précède notre discours militant et nous permet de le construire. On aurait pu aussi remplacer gourmandise par recherche du plaisir et militantisme par conviction.

Plus sérieusement, comment et pourquoi avez-vous choisi ces licences ?
En fait, nous avons suivi les conseils de Framasoft, mais en même temps nous convaincre était facile : nous avons plusieurs éditeurs dans le monde de la recherche qui ont mis en place des licences qui ne favorisent pas si facilement le partage et la diffusion, ou ne laissent pas de place à la reconnaissance de l’auteur… Nous avons donc très naturellement accepté la proposition de Christophe.

Vous donnez dans cet ouvrage des interviews et des cas concrets qui sont intéressants et qui complètent utilement les recommandations théoriques. Mais chez Inria, qui est une très vaste structure collaborative, comment se passe « l’animation » de la communauté ?

Patrick G. — Au sein d’Inria l’animation des communautés (je le mets au pluriel parce qu’elles sont nombreuses) se faisait au gré des vents et des courants et dépendait entièrement du contexte : lorsque l’équipe comptait un leader, charismatique et bon manager, elle était parfaite, mais parfois c’était plus compliqué. Dans ce genre de cas, un brin de méthode — on appelle ça « les bonnes pratiques » — ne peut pas faire de mal. Et c’est la fonction principale de Stéphane Ribas que d’améliorer les choses en la matière. Cela ne permet certainement pas de tout régler partout, mais cela permet de limiter la casse dans certains contextes difficiles, et surtout, à travers des activités de diffusion et « d’évangélisation », cela peut aider significativement les communautés un peu livrées à elles-mêmes de monter en compétence sur ce sujet et donc de gagner en efficience.

Stéphane R. — Il faut aussi ajouter le rôle très important de Stéphane Ubéda et de son rôle au sein d’Inria en 2011, qui ont grandement facilité la mise en place d’un service autour de la gestion de communauté, de manière plus formelle que cela ne se pratiquait auparavant au sein de l’institut. Patrick était responsable de l’animation de plusieurs projets clés dans les domaines de la science et de la société et il a beaucoup travaillé sur l’attractivité de l’institut auprès des étudiants et jeunes diplômés. En somme il a fait le community manager pour plusieurs projets structurants.

Il existe une différence sensible entre les deux exemples de cas concrets, très structurés et se déroulant dans le milieu de la recherche universitaire et/ou industrielle, et les deux projets exposés en interviews, Mozilla et Debian, pour lesquels un certain degré d’empirisme est de mise, avec un mode d’organisation non-directif qui laisse davantage de place à l’autonomie. Est-ce que vous ne voyez pas là une différence entre les projets du monde du Libre associatif et ceux du monde universitaire ?
Stéphane R. (rire) — En fait je ne suis pas sûr que la vision extérieure que l’on peut avoir d’Inria corresponde tout à fait à ce qui se passe à l’intérieur de l’institut. Les infrastructures sont entièrement au service de ses équipes de recherche, 200 environ, réparties dans et autour des huit centres implantés au niveau national. Les actions menées depuis le top management de l’institut ont plus pour but de coordonner que de contrôler. Du coup ce sont en réalité les chercheurs qui dirigent leur barque et les velléités de comportement exagérément top down sont assez efficacement filtrées. Il est permis de supposer que c’est l’un des facteurs qui font que l’institut conserve un niveau de pointe en recherche.

Vous parlez des bonnes pratiques et vous faites état de réussites (AspireRFID, Poppy Project) mais ne peut-on aussi tirer des leçons utiles des échecs ? Pour prendre à l’envers la démarche de votre ouvrage, qu’est-ce qui est défaillant lorsqu’une communauté ne fonctionne pas ?
Pour tout dire nous avons commis un article (publié chez OSS 2011) intitulé Comment tuer une communauté avec un diaporama

Vous ne craignez pas de décourager un peu ceux qui voudraient débuter dans la gestion-animation de communauté ? Parce que, dites donc, c’est copieux tout ce processus idéal… et ça prend du temps ! Ce n’est pas possible pour une communauté de bénévoles, si ?

Oui, cette question de savoir quoi mettre et où s’arrêter a été souvent débattue. Pour l’anecdote, au départ l’idée était de produire un petit document d’une vingtaine de pages maximum, vite écrit (mouahahaha), facile à diffuser et à lire, ne donnant que quelques principes-clés. Aujourd’hui on en rit mais au milieu du gué, euh…

On a voulu faire simple mais à la fois complet. On pense que vous pouvez créer une communauté de 10 membres comme une communauté de 800 membres et plus… Le guide s’adresse à ces deux possibles configurations. On peut le lire de différentes manières : on peut s’arrêter au premier chapitre qui donne les grandes lignes de la méthode. On peut aussi, si on le souhaite, rentrer dans les détails grâce à une lecture plus approfondie du reste des chapitres. Mais on peut aussi lire ce guide en picorant certains passages, certains chapitres. Il faut prendre ce guide comme une sorte de « bible » qui vous suivra tout au long de votre vie de Community Manager.

ensemble

Votre ouvrage s’adresse à des communautés institutionnelles assez structurées pour avoir une personne ou une équipe dédiée à l’animation, mais que conseilleriez-vous à des petites associations ?
Notre idée, souvent débattue également, c’est que, compte tenu du fléchage et des redites d’un chapitre sur l’autre qui permettent une lecture fractionnée ou partielle, le guide devrait être compatible avec de tout petits groupes.

D’ailleurs nous avons appliqué certaines parties pratiques du guide à un projet regroupant 5 à 7 personnes (un logiciel de preuves mathématiques) pour qu’il grossisse ! Nous avons suggéré au chef de ce projet de faire une journée de conférence à Paris où il a invité ses coopétiteurs dans le domaine, et l’avons incité à organiser une journée d’échange avec eux.

Au départ le porteur du projet n’en menait pas large mais il a trouvé l’idée intéressante. Finalement cette journée s’est avérée un joli succès : pleine d’échanges, de prises de contacts, bref, tout ce petit monde s’est retrouvé en mode coopération/compétition et le soir tout le monde était à la fois enchanté et ami. Suite à cette conférence, la communauté à plus que doublé, elle regroupe à présent vingt personnes à travers une liste de diffusion dynamique, où les collaborations sont quotidiennes. Cela peut prêter à sourire, mais ce qui nous importe c’est que le chef de projet soit heureux d’avoir créé une dynamique sur un sujet très, très pointu. Bien sûr, on en peut comparer un tel projet avec un projet grand public.

Je conseille d’utiliser ce guide comme un patchwork… à vous de picorer… picorer, picorer ! C’est vraiment un guide pour débutant, gourmand et grand spécialiste. Il est fait pour un large public et l’élaboration de mini-projets, de projets de taille moyenne, et de grands projets !

 Si vous aviez eu plus de temps/espace de publication, quel autre aspect auriez-vous abordé ? Ce sera pour une prochaine publication ?

Personnellement, je reviendrais sur la méthode pour choisir une licence, il manque des éléments tel que prendre en compte les objectifs du projet, ce que l’on veut partager et les valeurs que l’on veut transmettre. Je compléterais donc bien cette partie même si nous expliquons dans les deux cas concrets comment nous avons choisi les licences : selon les objectifs, le partage, les valeurs.

Nous sommes en 2016, et il y a encore beaucoup de mythes autour de ce sujet ! Je pense que les licences FLOSS décrivent suffisamment de règles pour ne pas ajouter des couches supplémentaires. Beaucoup trop de personnes se focalisent aussi sur le modèle économique au lieu de mettre en œuvre une gouvernance appropriée (avec le partage et les valeurs qui correspondent). On peut changer plus facilement de modèle économique que de modèle de gouvernance ou de licence. D’ailleurs je déconseille de tomber amoureux de son modèle économique ! Je compléterais bien le guide avec un chapitre sur le modèle économique appelé « consortium ».

Quelles sont les utilisations et/ou transformations que vous espérez pour ce guide ? Qui, selon vous, pourrait s’en emparer voire l’adapter ou le modifier ?

1erecouvlogicieletobjetslibres
Ce nouveau guide est maintenant disponible sur Framabook

J’aimerais aussi travailler sur les communautés d’apprentissage telles qu’on les retrouve dans le monde éducatif. Il y aurait de quoi écrire un autre guide, qui ne serait pas redondant avec celui-ci : les techniques pour motiver et faire collaborer un monde de professeurs entre eux ne sont pas si simples et ne correspondent pas toujours aux motivations des communautés de pratique.

Enfin et surtout, on aimerait que les gens réagissent sur un wiki à propos du guide et nous donnent leur avis, ajoutent leurs conseils, leurs expériences… Et pourquoi pas faire une version 2 annotée avec les avis du public ?

Nous lançons aussi un appel à contribution pour nous aider à traduire le livre en espagnol, en anglais, en italien…

Nous vous laissons « 3 mots de la fin »…

— À plusieurs on est meilleurs !
— Community over code !
— Doing business on Open Source is not selling a code that we did not pay but earn his life around a code that is not sold.




Minetest, piochez en toute liberté

MIcrosoft a acheté Minecraft, le fameux jeu « bac à sable », à son créateur. Et pour une petite fortune ! Forcément, l’ogre de Redmond avait une idée derrière la tête…

Dans ce long article traduit par le groupe Framalang, Paul Brown propose une alternative pour pouvoir piocher en paix, et utiliser la puissante idée de Markus Persson en toute liberté.

 

Minetest, un serious game pour l’éducation

par Paul Brown

Article original Mining for education

Traduction Framalang : Pouhiou, MagicFab, touriste, audionuma, lamessen, LaPalice, line, Qwerty, Bromind, line, goofy, Frédéric V., Penguin, Isammoc, roptat, Meridel, galadas, Frederic V., Valdo, Roka, Vincent + 14 contributeurs anonymes

Sommaire

Ce billet est très long, et peut-être qu’une bonne partie ne vous concerne pas. Si vous voulez aller directement aux parties qui vous intéressent, voici le sommaire :

  1. Pourquoi utiliser Minecraft comme outil pédagogique est une mauvaise idée
  2. Pourquoi utiliser Minetest comme outil pédagogique est une bien meilleure idée (et comment débuter)
  3. Tout est dans les mods
  4. Jouer au jeu
  5. Mettre un serveur en place
  6. Minetest comme outil pédagogique
  7. Blocs de construction
  8. Mises en garde
  9. Conclusion

Quelle serait votre réaction si tous les menus de la cantine de votre enfant étaient livrés par un seul et unique fournisseur de plats préparés et de boissons sucrées ? Que diriez-vous si le régime alimentaire de votre enfant était limité à des chips, des tortillas goût fromage et des boissons sucrées gazeuses, sans possibilité d’alternative plus saine ?

Étant parent moi-même, je suppose que vous trouveriez épouvantable l’idée que l’école n’offre que de la malbouffe à votre enfant, à tel point que vous seriez prêt à envisager de le changer d’établissement. Mais que faire si c’était la même chose dans tout le pays ?

Ce n’est pas tout, imaginez qu’en plus le fournisseur de malbouffe ait apposé son logo partout : sur les tasses, les assiettes et sur les affiches qui décorent les murs des classes. D’ailleurs, en parlant de salles de classe, quand arrive le moment de l’apprentissage des bases de la nutrition, les chapitres du manuel scolaire s’avèrent rédigés par le service marketing de cette même entreprise qui fournit déjà les repas.

La plupart des parents, je l’espère, trouveraient cela scandaleux. Pourtant, on n’entend pas beaucoup de protestations véhémentes quand il se passe exactement la même chose dans un cours d’informatique et même pendant une session d’apprentissage assisté par ordinateur.

Les élèves n’apprennent pas à se servir d’un traitement de texte, ils apprennent Microsoft Word. Il n’apprennent pas à concevoir des présentations, ils apprennent Microsoft PowerPoint. On leur demande de présenter leurs travaux, que ce soit une rédaction, un diaporama, ou un graphique, dans l’un des formats propriétaires de Microsoft, de les enregistrer sur des clés USB formatées suivant le système de fichiers breveté par Microsoft. C’est ça et rien d’autre.

Voici comment Microsoft souhaite rentrer dans les écoles...
Voici comment Microsoft souhaite rentrer dans les écoles…

Pour une gigantesque entreprise comme Microsoft, c’est tout à fait logique. Non seulement le marché de l’éducation est immense et juteux en soi, mais transformer des élèves en futurs travailleurs, managers et entrepreneurs qui ont appris à la lettre et de façon formelle à dépendre exclusivement de ses produits, voilà une perspective qui doit être irrésistible.

Mais tandis que les produits Microsoft prédominent dans l’enseignement secondaire et universitaire, il manquait encore à l’entreprise la principale part du gâteau de l’éducation. En tant que manipulateur aguerri du marché, Microsoft reconnaît que le lavage de cerveau fonctionne d’autant mieux que vous commencez jeune. Mais jusqu’à ces dernières années, ils n’avaient tout simplement pas le produit pour capter cette tranche d’âge.

Maintenant, si. Maintenant, ils ont Minecraft.

Pour détruire tout espoir que ce logiciel immensément populaire soit un jour publié sous licence libre (comme Markus « Notch » Persson a prétendu jadis qu’il pourrait l’être), Microsoft a déboursé 2,5 milliards de dollars en 2014 pour le jeu de Persson et s’est immédiatement attelé à le rendre encore plus attrayant grâce à la conclusion d’un accord avec Lego qui a fait du jeu la star de sa technologie Hololens, grâce aussi à la réalisation d’un film, en limitant toutefois les fonctionnalités dans le même temps.

Ah bon, vous n’aviez pas entendu parler de ce dernier point ? Je dois vous révéler que dès que vous faites abstraction du nouvel emballage attrayant et du tapage médiatique, vous pouvez enfin voir ce que Microsoft entend faire de Minecraft. En simplifiant le jeu pour l’adapter à sa version mobile, et en ne le faisant plus tourner sous Java, Microsoft peut mieux contrôler sur quelles plateformes il pourra fonctionner (vous savez que Minecraft fonctionne bien sous GNU/Linux parce qu’il est écrit en Java ? C’est la première chose qui sera supprimée), et tuer d’un coup tout l’écosystème de mods non validés par Microsoft.

C’est ainsi que les choses se profilent. Avant que tout ne parte en vrille, la question est de savoir si la communauté du logiciel libre a un plan B. Existe-t-il un logiciel libre susceptible de rivaliser avec Minecraft ?

Une solution ouverte

Cet article serait bien court si la réponse était « non ».

Pour être certain de ne pas me fourvoyer, j’ai passé la majeure partie des quatre dernières semaines à la recherche d’alternatives. N’ayant pas eu beaucoup d’expérience avec les jeux d’origine (Infiniminer et Dwarf Fortress), j’ai appris les rudiments du minage et de l’artisanat (du crafting), puis davantage. J’ai discuté avec des développeurs et des utilisateurs sur leurs canaux IRC – principalement pour demander de l’aide quand j’étais bloqué. J’ai aussi appelé en renfort des joueurs expérimentés de Minecraft (en l’occurrence, mon fils et ses copains) pour tester différentes versions libres et à code source ouvert de ce genre de jeux, afin qu’ils me fassent part de leurs commentaires.

Le verdict est tombé. La réponse est Minetest.

Le soleil se lève sur un lagon de Minetest. toutes les images sont CC-BY-SA Paul Brown / OCSMag
Le soleil se lève sur un lagon de Minetest.
toutes les images sont CC-BY-SA Paul Brown / OCSMag

Je ne vais pas enfoncer des portes ouvertes et vous dire que Minetest est libre tant au sens de « liberté d’expression » qu’au sens d’« entrée libre », c’est-à-dire gratuit. Il ne vous coûtera pas un sou pour être en droit de le télécharger, de le partager et d’y jouer ; vous n’aurez pas à endurer la moindre magouille de la part d’un vendeur ; il est soutenu par une communauté qui veut simplement construire un jeu vraiment amusant et y jouer, par conséquent de nouvelles fonctionnalités ont tendance à s’ajouter au fil du temps, et aucune ne sera supprimée de façon arbitraire. Je ne veux pas répéter ici ce qui est commun à la plupart des projets de logiciels libres… Bon, trop tard, je viens de le faire. Mais outre tout ce qui précède, Minetest est assez impressionnant par lui-même.

Pour commencer, il est écrit en C/C++, ce qui le rend plus léger et plus rapide que Minecraft. Mais surtout, il fonctionne plus ou moins partout (voyez sa page de téléchargements), que ce soit sur les ordinateurs fonctionnant avec FreeBSD, Windows, GNU/Linux (cherchez-le dans vos dépôts logiciels) et MacOS X ; sur les téléphones Android ; et, chose importante pour l’éducation, il fonctionne aussi sur le Raspberry Pi.

Minetest sur le Raspberry Pi

Faire tourner Minestest sur Raspbian pour Raspberry Pi est relativement simple. Commencez par ouvrir un terminal et saisissez :

sudo apt-get update
sudo apt-get upgrade

pour être certain que le système est bien à jour. Puis installez Minetest avec :

sudo apt-get install minetest

Vous pouvez aussi installer un serveur, des créatures (« MOBs ») et des mods pour étendre les capacités du jeu original. Recherchez-les avec :

apt-cache search minetest

et choisissez ce dont vous pensez avoir besoin.

Une fois que votre gestionnaire de logiciels en a terminé avec l’installation, Minetest devrait être disponible dans le sous-menu Jeux. Mais vous ne pourrez pas y jouer tout de suite !

Minetest nécessite OpenGL, une collection de bibliothèques 3D libres. Pour activer OpenGL, lancez :

sudo raspi-config

Sélectionnez Options avancées, puis AA GL Driver, Activer et OK. Ceci démarrera le pilote expérimental OpenGL pour votre bureau.

Redémarrez votre Pi. Quand vous serez de retour sur votre bureau, vous pourrez démarrer Minetest normalement.

N.B. : Il se peut que vous ayez besoin de désactiver le pilote OpenGL pour pouvoir jouer à Minecraft.

Ce qui est bien, c’est que mises à part certaines fonctionnalités pour la gestion des écrans tactiles, ça reste le même jeu. Même la version pour Raspberry Pi est exactement identique à la version PC. Cela constitue déjà un bon atout par rapport à Minecraft qui, sur Raspberry Pi, est très limité et ne fournit pas du tout la même expérience que son équivalent sur PC. Je le sais, car à une époque, j’ai écrit à propos de Minecraft sur le Pi, et depuis, les choses n’ont pas changé d’un iota.

Vous pouvez télécharger Minetest pour votre système d’exploitation, ou si vous avez la chance d’utiliser une distribution GNU/Linux, laisser votre gestionnaire de logiciels faire le gros du travail à votre place. Vous pourrez aussi trouver quelques extras dans les dépôts de votre distribution : un serveur Minetest évidemment, et des paquets de mods fournissant des créatures, une météo, etc.

 

Tout est affaire de Mods

C’est l’une des principales différences entre Minecraft et Minetest : dans ce dernier, presque tout est un mod. En fait, si vous lanciez Minetest sans aucun mod, vous vous retrouveriez à vagabonder dans un monde constitué exclusivement de blocs de pierre. Le jeu Minetest standard est principalement un catalogue de mods, de blocs (« nodes » dans le jargon Minetest), de textures et de sons ajoutés au moteur de jeu. Jetez un coup d’œil dans le dossier games/minetest_game situé dans le dossier partagé minetest/ et vous comprendrez ce que je veux dire.

Vous pouvez installer de nouveaux mods en les téléchargeant depuis le wiki du site Minetest. Ensuite, vous les déposez dans le dossier mods/ (créez-le s’il n’existe pas) situé dans votre dossier minetest/. Veuillez noter que sous GNU/Linux, le dossier peut être caché, dans ce cas recherchez .minetest/ dans votre dossier home.

Admettons que vous vouliez une météo, de la pluie, de la neige et des choses du genre, dans votre monde ? Allez dans votre dossier minetest/mods/

cd minetest/mods/

ou bien

cd .minetest/mods/

et téléchargez le mod météo :

git clone https://github.com/Jeija/minetest-mod-weather.git

Le mod est maintenant installé. C’était facile, non ?

Tout ce qu’il vous reste à faire, c’est de l’activer.

Un dépôt de Mods pour Minetest

Si vous exécutez la version 0.4.10 de Minetest, vous avez peut-être remarqué un bouton Online mod repository sous l’onglet Mods du menu.
Lorsque vous cliquez dessus, il ne se passe pas grand-chose. Si vous consultez le fichier debug.txt dans votre répertoire minetest, vous constaterez que le programme essaie de se connecter à une page web des forums Minetest qui n’existe plus. Selon les développeurs, le dépôt de mods, ainsi que l’installation de ceux-ci à partir du jeu lui-même, sont actuellement une expérimentation infructueuse, mise en pause jusqu’à ce qu’ils trouvent quelqu’un pour implémenter un modèle fonctionnel et évolutif.
Dans la version de développement 0.4.13 de Minetest, ce bouton n’existe plus.
Bonne nouvelle pour les utilisateurs de Minetest sous Android néanmoins : il existe une application qui installe les mods de façon transparente sur votre mobile. Elle est disponible sur Google Play et marche très bien.

Démarrez Minetest, et si ce n’est déjà fait, créez un nouveau monde en cliquant sur le bouton Nouveau dans l’onglet Solo. Une nouvelle boîte de dialogue apparaît. Donnez un nom à votre monde et laissez le reste tel quel. Cliquez sur Créer.

Une fois votre monde sélectionné, cliquez sur le bouton Configurer. Cela vous affiche une liste des mods disponibles. Double-cliquez sur weather et il passera du blanc au vert. Cela signifie que ce mod sera activé quand vous lancerez votre monde.

Cliquez sur Jouer et le mod weather ouvrira les canalisations d’eau de temps en temps. Si vous êtes impatient, vous pouvez faire pleuvoir en ouvrant le HUD ([F10]) et en saisissant :

/setweather rain

ou bien

/setweather snow

à l’invite de commande.

Pour l’arrêter, saisissez :/setweather none

Si un message d’erreur apparaît et vous indique que vous n’avez pas les permissions pour démarrer et arrêter la pluie, essayez de vous les octroyer vous-même en saisissant :

/grant [votre nom de joueur] weather

dans le HUD.

Faites tomber la neige avec le mod weather
Faites tomber la neige avec le mod weather

Quasiment toutes les touches de F1 à F12 ont une fonction, chacune peut être consultée sur le site de Minetest, en même temps que les autres paramètres du clavier. Parmi les plus utiles, on trouve :

Touche Fonction 2nd appui
F5 Affiche les coordonnées du joueur Affiche les statistiques du serveur
F7 Modifie la vue caméra Cycle parmi les vues caméra
F9 Ouvre une mini-carte Agrandit le zoom
F10 Ouvre le HUD Ferme le HUD
F12 Prend une capture d’écran

 

En parlant du HUD… De toutes les touches ci-dessus, F10 est peut-être celle qui mérite que l’on s’y attarde. Le HUD, ou Head Up Display (affichage tête haute), vous permet de saisir des messages dans le chat ou des commandes qui vous permettent de faire davantage de choses qu’avec de simples appuis de touches.
En saisissant :

/teleport 500,5,500

par exemple, vous pouvez directement vous rendre aux coordonnées (500, 5, 500) – si vous avez le pouvoir de téléportation, je précise.

/time 9:00

réglera l’heure du jour sur 9 heures du matin.

Utilisez le HUD pour tchater ou taper des commandes
Utilisez le HUD pour tchater ou taper des commandes

/sethome

Cette commande définit un point, par exemple, là où vous avez construit votre refuge, où vous pouvez toujours vous téléporter avec la commande :

/home

…utile si vous êtes perdu ou en danger.

Pour envoyer un message à un autre joueur, vous pouvez utiliser :

/msg [nom du joueur] [message]

La commande :

/msg Paul Bonjour Paul !

envoie « Bonjour Paul ! » au joueur de ce nom. Vous pouvez également envoyer des messages à tous les joueurs ou des messages privés comme décrit ci-dessus en appuyant sur la touche `t` (pour talk, parler en anglais).

Si vous administrez votre propre monde, vous pouvez utiliser le HUD pour envoyer des instructions afin de contrôler les joueurs indisciplinés, ainsi que des commandes spécifiques à certains mods (telles que la commande /setweather que nous avons vue plus haut). Pour obtenir la liste complète des commandes, saisissez :

/help all

 

Jouer au jeu

Créez un fourneau pour transformer les minerais en lingots.
Créez un fourneau pour transformer les minerais en lingots.

Est-ce vraiment différent de jouer à Minetest, en comparaison d’avec Minecraft ? Très peu en fait. La plupart des raccourcis clavier sont exactement les mêmes et, bien sûr, il y a toute la partie fabrication. Vous n’avez pas besoin de session d’apprentissage dans Minetest. Appuyez simplement sur la touche [i] et vous accéderez à tous les emplacements contenant les matériaux et objets que vous transportez avec vous, ainsi qu’une grille de fabrication. Cela dit, vous aurez besoin de construire un fourneau pour fondre le minerai en lingots.

À côté des haches, des pelles et des épées, un autre outil très utile (et spécifique à Minetest) que vous devriez construire est le tournevis. C’est une bonne idée d’en fabriquer un assez tôt dans le jeu, dès que vous avez du bois et du fer. Le tournevis vous permet de changer l’orientation des autres objets. Si vous fabriquez des escaliers, par exemple, et que vous les disposez dans le mauvais sens, placez le tournevis dessus et vous pourrez les faire tourner sur eux-mêmes.

Différents mods ajoutent de nouveaux objets que vous pourrez fabriquer et de nouveaux matériaux bruts ou transformés. Le module Technic, par exemple, ajoute toutes sortes de trucs hi-tech, depuis le fil en cuivre pour les circuits électriques, jusqu’aux forets en diamant. Ce mod est continuellement mis à jour. L’un des plus récents ajouts est le réacteur nucléaire, qui est utile, mais aussi dangereux !

Bien que l’intérêt de Minetest ne réside pas tant dans le combat contre des monstres (et c’est pour ça que les créatures ne sont pas incluses par défaut) que dans la construction, la présence de créatures menaçant votre propriété peut certainement rendre les choses plus amusantes. Mais ce qui est encore plus amusant cependant, c’est de construire et protéger sa propriété avec des amis.

Serveur Minetest

Monter un serveur Minetest pour vos amis, vos collègues ou votre école est facile. Minetest est constitué de deux parties : le client, qui est le programme avec lequel vous interagissez directement, et un serveur, qui génère le monde, gère les joueurs, leur localisation et leur inventaire, et avec lequel vous interagissez indirectement.
Lorsque vous jouez en solo, vous faites tourner un serveur pour vous seul. En fait, si vous voulez inviter des amis dans le monde dans lequel vous jouez, vous pouvez quitter votre partie et revenir au menu, et dans l’onglet « Serveur », cocher l’option « Public ». Si vos amis sont sur le même réseau, il leur suffira de se connecter à votre adresse IP avec leurs propre clients et de commencer à jouer.

Un serveur dédié

Bien que vous puissiez vouloir éviter de faire tourner un serveur Minetest pour votre organisation en arrière-plan sur le poste de travail de quelqu’un, vous n’avez pas besoin d’une machine exclusivement dédiée à Minetest. Minetest est conçu pour être léger et, avec la puissance du matériel moderne et les capacités disque qui de nos jours atteignent le téraoctet, une tour standard suffira.

Héberger un serveur Minetest sur votre serveur de fichiers ou d’impression fera probablement l’affaire, tant que vous faites attention à sa sécurisation (voir ci-dessous).

Même un Raspberry Pi conviendra pour servir de façon réactive une demi-douzaine d’utilisateurs environ. Cependant, s’il y a beaucoup plus de joueurs, des créatures errant ici et là, de nombreuses fabrications et que de vastes explorations ont lieu, vous pourriez trouver que le Pi commence à ramer et vous devrez alors opter pour une configuration plus musclée.

Si vous prévoyez quelque chose de plus ambitieux, peut-être un serveur public ou un serveur pour votre école entière, vous devriez envisager une machine sur laquelle le serveur Minetest pourra tourner sans interface graphique.

Sur Debian GNU/Linux ou sur un système basé sur cette distribution (comme Ubuntu, Mint ou Raspbian), saisir :
su
apt-get install minetest-server

sur Debian, ou bien :
sudo apt-get install minetest-server
pour Ubuntu, Raspbian et Linux Mint pour installer le serveur autonome.

Vous pouvez démarrer le serveur à la main sans être administrateur en saisissant :
minetestserver --info
Le paramètre –info vous informera des problèmes éventuels et affichera aussi des événements, par exemple quand un utilisateur se connecte au serveur pour jouer.

C’est une bonne méthode pour vérifier que tout fonctionne, mais les développeurs de Minetest recommandent, pour des raisons de sécurité, d’utiliser un utilisateur standard n’ayant pas les droits de super-utilisateur (sudo) pour faire tourner le serveur. Stoppez le serveur en appuyant sur les touches [Ctrl]+[c] et créez un utilisateur avec la commande suivante :

su
adduser minetest

si vous utilisez Debian, ou :

sudo su
adduser minetest

si vous utilisez Ubuntu, Mint ou Raspbian.

Définissez le mot de passe pour le nouvel utilisateur. Vous pouvez laisser tous les autres champs vides.

Quittez la session super-utilisateur (exit), connectez-vous en tant qu’utilisateur minetest et déplacez-vous dans son répertoire personnel :

exit
su minetest
[saisissez le mot de passe de minetest]
cd

Lancez à nouveau minetestserver en tant que ce nouvel utilisateur.

Vous pouvez aussi jouer sur les serveurs publics d'autres joueurs.
Vous pouvez aussi jouer sur les serveurs publics d’autres joueurs.

Le serveur Minetest écoute par défaut sur le port 30000 (bien que vous puissiez le changer avec le paramètre –port), donc vous devrez autoriser cet accès au niveau de votre pare-feu et faire suivre vers ce port au niveau de votre routeur si vous lancez le serveur sur votre réseau local et que vous voulez que des joueurs de l’extérieur puissent accéder à votre partie.

Pour installer des mods, copiez-les vers le répertoire /usr/share/games/minetest/games/minetest_game/mods/ et ils seront automatiquement chargés et activés quand le serveur tournera. Pour vérifier que les mods que vous voulez ont bien été chargés, lancez le jeu, ouvrez le HUD ([F10]) et saisissez /mods.

Si vous voulez restreindre l’accès à votre serveur, car vous ne voulez jouer qu’avec vos amis et ne souhaitez pas que des inconnus viennent gâcher la fête, créez un fichier .conf et chargez-le au moment de lancer le serveur.

Un fichier .conf Minetest est un fichier texte avec une série de paires clef = valeur sur chaque ligne. Si vous voulez limiter les utilisateurs à vos seuls amis, vous pouvez par exemple demander à ce que les joueurs utilisent un mot de passe et définir un mot de passe initial que seuls vous et vos amis connaissez. Le fichier .conf devrait ressembler à ça :

name = Mon Minetest
disallow_empty_password = true
default_password = MotDePasseSecret
motd = Si ce n'est pas déjà fait, merci de changer votre mot de passe.

où MotDePasseSecret est le mot de passe que vous communiquez à vos amis.

Cela affichera aussi un message à tous les utilisateurs leur demandant de changer leur mot de passe par défaut. Les utilisateurs peuvent changer leur mot de passe en appuyant sur [Échap] (ou sur le bouton retour sous Android) depuis le jeu et en cliquant sur le bouton Changer le mot de passe.

Changer son mot de passe depuis le menu utilisateur
Changer son mot de passe depuis le menu utilisateur

Démarrez le serveur en saisissant :

mineetestserver --config /chemin/vers/votre/fichier/de/configuration.conf

pour le forcer à charger votre fichier .conf.

Vous trouverez un exemple de fichier de configuration avec beaucoup d’autres options sur le dépôt GitHub de Minetest.

Une fois que tout est opérationnel, vous pouvez octroyer des privilèges à chaque utilisateur comme bon vous semble en éditant le fichier auth.txt que vous trouverez dans le répertoire de votre monde. Chaque ligne ressemble à ça :

Paul:x69lFMHqU/qrUHlRoCpIF34/56M:interact,shout

Vous voyez trois champs séparés par deux points (:). Vous avez d’abord le nom d’utilisateur, puis une version chiffrée de son mot de passe et enfin une liste séparée par des virgules de ses privilèges. Vous pouvez ajouter des privilèges en complétant la liste :

Paul2:x69lFMHqU/qrUHlRoCpIF34/56M:interact,shout,home

Le privilège « home » permet à un joueur d’utiliser les commandes /sethome et /home que nous avons vues précédemment.

Une autre manière d’accorder des privilèges est d’accorder le privilège « privs » à votre propre joueur. Ensuite, vous pourrez accorder de nouveaux privilèges directement depuis le HUD. La commande :

/grant [player name] home

permet d’accorder le privilège « home » à un joueur. Vous pouvez aussi vous accorder plus de privilèges de cette manière.

Vous pouvez révoquer les privilèges d’un joueur en saisissant :

/revoke [player name] [privilege]

Pour voir les privilèges dont vous disposez :

/privs

dans le HUD, ou bien :

/privs [player name]

pour voir les privilèges qu’un autre joueur possède.

Une fois que vous êtes satisfait de la configuration de votre serveur, vous pourriez souhaiter configurer votre système de façon à démarrer Minetest à chaque fois que vous allumez votre ordinateur. Pour ce faire, vous pouvez créer une tâche cron qui s’exécute au démarrage.

Accédez à votre utilisateur minetest depuis une fenêtre de terminal, et ouvrez l’éditeur crontab avec la commande :

crontab -e

Ajoutez à la fin du fichier une ligne semblable à celle-ci :

@reboot /usr/games/minetestserver --config /chemin/vers/votre/fichier/de/configuration.conf

Vous devez également ajouter toute autre option dont vous auriez besoin, comme le nom du monde que vous voulez charger au démarrage, le port sur lequel vous voulez que votre serveur écoute, etc. Pour voir une liste complète des commandes possibles, saisissez :

minetestserver --help

dans un terminal.

La plupart des distributions GNU/Linux modernes, dont Debian, Ubuntu, Mint et Raspbian, utilisent désormais systemd pour gérer des choses comme les démons et les services. Les versions futures de Minetest tireront profit de ce sous-système, installeront automatiquement les fichiers de configuration et créeront un utilisateur pour les exécuter.

Un outil pédagogique

L’argument majeur en faveur de l’utilisation de Minetest par rapport à une alternative propriétaire est sa modularité. Les débutants apprécieront le fait de pouvoir modifier toutes les caractéristiques de leur personnage et des différents objets à l’intérieur du monde qu’ils ont créé.

Même les formes des personnages peuvent être modifiées en utilisant Blender
Même les formes des personnages peuvent être modifiées en utilisant Blender

Il existe même un mod wardrobe (armoire) que l’administrateur du serveur peut remplir de textures personnalisées afin que les joueurs puissent changer leur apparence en cours de jeu.

La modularité va au delà de la simple esthétique cependant, et les développeurs de Minetest ont créé un framework complet séparé du programme principal, qui permet aux utilisateurs de créer de nouveaux blocs et d’en ajuster le comportement, de concevoir de nouveaux objets à fabriquer, et de construire pratiquement tout ce que vous pouvez imaginer. Vous pouvez également créer des mods qui affecteront le comportement du monde et vous permettre, par exemple, de créer des parties depuis le jeu Minetest lui-même.

Prenez par exemple l’ensemble de mods éducatifs listés sur le wiki de Minetest. Cela va de paquets apportant de simples blocs illustrés de lettres et de nombres, jusqu’à des mods qui rendent Minetest compatible avec l’API Python de Minecraft pour Raspberry Pi.

Voyons un exemple.

Les blocks du mod teaching
Les blocks du mod teaching

Le mod Minetest-teaching (l’apprentissage par Minetest) fournit des outils pour créer des casse-têtes arithmétiques et orthographiques. Si les élèves parviennent à les résoudre, vous pouvez les récompenser avec des objets rares ou des blocs.

Pour commencer à l’utiliser, téléchargez-le vers votre répertoire minetest/mods/ :

https://github.com/pbrown66/minetest-teaching.git

Renommez le répertoire en teaching/, sinon ça ne fonctionnera pas. Démarrez Minetest et activez le mod. Pour créer une énigme, par exemple 2+2=, entrez dans le jeu en utilisant le mode créatif et donnez-vous les privilèges de professeur. Pour cela, ouvrez le HUD ([F10]) et saisissez :

/grant [votre nom] teacher

Appuyez à nouveau sur [F10] pour fermer le HUD.

Pour mettre en place l’énigme, creusez une tranchée de 5 blocs de long. Ouvrez l’inventaire ([i]), choisissez l’onglet Nodes (Blocs) et déplacez-vous jusqu’à ce que vous voyiez les blocs d’apprentissage.

Pour l’énigme ci-dessus, vous aurez besoin de quatre blocs lab, d’un bloc checking, de deux blocs allow-dig, de deux blocs 2, d’un bloc +, d’un bloc =, d’un bloc 5 (une mauvaise réponse) et d’un bloc 4 (la bonne réponse).

Posez les quatre blocs lab dans la tranchée en commençant complètement à gauche. Dans le trou qui reste, posez le bloc checking. Placez les blocs 2, +, 2 et = sur les blocs lab comme indiqué ci-dessous.

En posant les blocs qui constituent l’énigme sur des blocs lab, vous les rendez indestructibles et les élèves ne pourront pas détruire de façon accidentelle ou volontaire l’activité proposée.

des blocs vont sur lab pour l'énigme, un emplacement cheking pour répondre, et des emplacement allow dig pour les blocs de réponses.
des blocs vont sur lab pour l’énigme, un emplacement cheking pour répondre, et des emplacement allow dig pour les blocs de réponses.

Cliquez du bouton droit de la souris sur le bloc checking à droite de la tranchée, et une boîte de dialogue apparaîtra. Utilisez-la pour indiquer au bloc quelle est la bonne réponse et lui faire offrir un nugget de sagesse et un prix. Dans l’exemple suivant, la bonne réponse est évidemment 4. Lorsque l’élève trouve la bonne réponse, le message « Bravo ! Voici un diamant. » s’affichera dans son chat et un diamant apparaîtra au-dessus du bloc de solution.

Pour résoudre l’énigme, les élèves doivent saisir les blocs de solution et placer le bon sur le bloc de vérification. Vous pouvez déposer les blocs de solution n’importe où, mais vous devez les placer sur un bloc allow-dig, sinon il deviennent indestructibles et les élèves ne pourront plus le récupérer. Donc, creusez deux trous là où vous souhaitez laisser les blocs de solution, placez un bloc allow-dig à l’intérieur de chacun d’eux, et placez les blocs 4 et 5 sur chacun des blocs allow-dig.

À présent, vous pouvez lâcher vos élèves en liberté dans votre monde.

Quand un élève place une réponse incorrecte (dans notre exemple, le bloc 5) sur le bloc de vérification, rien ne se passe. Il peut le détruire et réessayer. Mais quand il place la bonne réponse (dans notre cas, le bloc 4), l’énigme offre le prix et se verrouille, empêchant l’élève de frapper et de casser le bloc, et de le remettre sans cesse en place pour obtenir une infinité de diamants.

Et la bonne réponse, récompensée par un diamant.
Et la bonne réponse, récompensée par un diamant.

Seul le joueur possédant les droits de professeur peut réinitialiser l’énigme. Il peut effectuer cela en frappant le bloc de solution, en frappant le bloc situé en dessous du bloc de solution et en replaçant et reprogrammant le bloc de vérification.

Blocs de construction

Toute la magie du modding est obtenue grâce à l’utilisation de Lua, un langage de programmation de haut niveau ressemblant par bien des aspects à Python (le langage utilisé dans l’édition Raspberry Pi de Minecraft). C’est un bon choix, car il est clair (vous n’avez pas à vous soucier de symboles étranges comme en PERL, ou de points virgules en fin de ligne comme en C/C++). Il combine les fonctionnalités des langages orientés objet avancés et des langages fonctionnels, et il est spécialement conçu pour la programmation de jeux vidéo.

Bien que ce ne soit pas l’endroit pour enseigner le Lua (il y a déjà d’excellentes ressources en ligne), et qu’expliquer tous les tenants et aboutissants du modding de Minetest allongerait bien trop ce qui est déjà un article excessivement long, regardons au moins l’anatomie d’un mod de type Hello World pour que vous puissiez avoir une idée de la façon de vous lancer.

Ouvrez un éditeur de texte et copiez-y ce qui suit :

minetest.register_on_joinplayer(function(player)
minetest.chat_send_all("Hello " .. player:get_player_name() .. "!")
end)

Voici votre premier mod.

Pour comprendre la première ligne, songez au fait que dans Minetest, la plupart des choses s’exécutent lorsque le joueur fait quelque chose ou que quelque chose se produit dans le monde. On appelle ces choses des événements. Quand un joueur se connecte à un monde Minetest, un événement joinplayer est envoyé. « register_on_joinplayer » est une méthode intégrée qui demande à l’objet minetest de se mettre à écoute d’un tel événement et d’exécuter une fonction quand cela se produit. La fonction est ce que vous pouvez voir entre parenthèses.

Dans notre cas, la fonction prend l’objet « player » (joueur) associé à l’événement et, à la deuxième ligne, extrait le nom du joueur en utilisant la méthode intégrée « get_player_name() ». Le nom renvoyé est stocké dans une chaîne de caractères (notez que « .. » est ce que Lua utilise pour concaténer des chaînes de caractères) qui est ensuite envoyée à tous les joueurs via la méthode intégrée « chat_send_all ».

Une fois que vous avez fini de copier le code, créez un répertoire nommé hello/ dans minetest/mods/ (ou .minetest/mods/) et sauvegardez votre fichier sous le nom init.lua dans votre nouveau répertoire. Vous pouvez aussi créer un fichier texte dans le répertoire hello/ avec une brève description du module – enregistrez-le sous le nom description.txt et il apparaîtra dans l’onglet Mods du panneau de contrôle de Minetest.

Activez le mod et tous les joueurs seront salués lorsqu’ils se joindront à la partie.

Votre mod apparaîtra dans le panneau de contrôle.
Votre mod apparaîtra dans le panneau de contrôle.

Pour en savoir plus sur la manière d’écrire des mods Minetest, consultez le wiki officiel du site des développeurs et jetez un œil aux méthodes Minetest. Cela vous donnera une idée de ce que vous pouvez faire avec le framework Lua. N’oubliez pas non plus d’étudier la façon dont vous devriez organiser les bricoles à l’intérieur de votre répertoire mod.

Mises en garde

Minetest est assez génial, mais bien entendu, il n’est pas parfait. La complexité des composants logiciels sous-jacents fait que le client comme le serveur peuvent planter de temps en temps… Ou du moins, c’est ce que les développeurs me disent. Il est intéressant de noter qu’au cours des recherches consacrées à cet article, je n’ai fait l’expérience d’aucun plantage, même quand j’utilisais la branche de développement instable.

Voici un problème bien plus réel : si Minetest aspire à être utilisé en tant que logiciel éducatif, ce qui devrait être le cas, il ne doit pas seulement rivaliser avec le poids lourd Minecraft sur ses mérites, mais aussi avec le fait que Minecraft arrive pré-installé dans Raspbian pour le Raspberry Pi et avec son interface Python.

Même si l’API Lua de Minetest est bien plus puissante que le Python de Minecraft, à tel point que ce dernier passe pour un joujou en comparaison, et que Dieu me garde de préconiser l’adoption d’une technologie seulement parce que c’est le standard de fait, il faut bien prendre en compte la résistance naturelle de l’humain au changement. Demander aux professeurs de changer à la fois de jeu et de langage de programmation va être difficile à vendre.

La modularité est un autre aspect à prendre en compte. Je l’ai dit tout à l’heure, c’est l’une des raisons qui font de Minetest un jeu génial, mais elle peut être intimidante pour les nouveaux utilisateurs. Une installation basique de Minetest est un peu spartiate : pas de créatures, pas de survie, pas de nourriture, pas de météo… On excuserait facilement un nouvel utilisateur qui, y jouant pour la première fois, se dirait que Minetest n’est qu’une très pâle copie de Minecraft. Je suggérerais la création d’une « version grand public » de Minetest, qui embarquerait le plus grand nombre possible de fonctionnalités de Minecraft que les joueurs attendent de trouver, et qui par conséquent éviterait de décevoir les nouveaux venus.

Pour terminer, il y a ma bête noire que j’évoque très souvent : la documentation. J’ai souvent dû m’en remettre au canal IRC de Minetest. Les wikis de Minetest, bien qu’ils affichent un nombre d’index impressionnant, contiennent beaucoup trop de sections vides. Les exemples de code, quand ils existent, sont inexpliqués et non commentés. Il n’y a pas de tutoriels « apprendre par la pratique ». Quand vous posez la question, les moddeurs les plus expérimentés (qui sont par ailleurs très patients et serviables) mentionnent tout le temps un fichier texte spécifique qui contient des descriptions courtes et souvent énigmatiques des modules et des attributs. Encore une fois, il n’y a pas d’exemples dans ce document qui aideraient les nouveaux utilisateurs à comprendre les outils offerts par l’API.

Conclusion

Minetest a parcouru un chemin incroyable depuis la dernière fois où nous en avions parlé. Le seul fait qu’il fonctionne sur toutes les plateformes, que ce soit GNU/Linux, Windows, OS X, Android ou Raspberry Pi, le place clairement en tête de la compétition. Il a développé une communauté saine et dynamique, et étant open source et doté d’une API ouverte relativement facile à utiliser, il a bénéficié littéralement de centaines d’extensions et de mods.

En tant qu’outil éducatif/collaboratif à destination des jeunes (et des adultes), il est idéal, même meilleur que Minecraft, en raison de sa nature ouverte et libre et de la puissance du polyvalent framework Lua. C’est logique : Minecraft a été décrit à une époque comme un « Lego social » et est vénéré parce qu’il encourage la collaboration, mais qu’y a-t-il de plus social et de plus collaboratif qu’un logiciel libre ouvert jusqu’à son code source ?

Pour aller plus loin :




Logiciel privateur de liberté… jusqu’à la prison ?

Dans le mode du logiciel libre, et contrairement à ce que le nom laisse suggérer, ce n’est pas le logiciel qui est libre, mais bien l’utilisateur du logiciel.

Le logiciel propriétaire, c’est-à-dire l’opposé du logiciel libre, est alors parfois appelé « logiciel privateur », car il prive l’utilisateur de certaines libertés fondamentales (étudier, exécuter, etc. le code source du programme).

Rebecca Wexler, étudiante dans l’école de droit de Yale (Yale Law School) nous montre ici qu’en plus ne nous priver de ces libertés qui peuvent parfois sembler bien futiles pour tout un chacun, ces logiciels peuvent compromettre le système judiciaire et nous priver ainsi de nos libertés fondamentales.

Condamnés par le code

par Rebecca Wexler

Source : Convicted by code (Slate)

Traduction :Vincent,  McGregor, roptat, oS,Diane, CLC, touriste, teromene, Piup, Obny et anonymes.

Obny CC BY-NC-SA Dérivé de Su morais et CyberHades.
Obny CC BY-NC-SA Dérivé de Su morais et CyberHades.

Le code « secret » est partout : dans les ascenseurs, les avions, les appareils médicaux.

En refusant de publier le code source de leurs logiciels, les entreprises rendent impossible son inspection par des tiers, et ce même si le code a un impact énorme sur la société et la politique. Verrouiller l’accès au code empêche de connaître les failles de sécurité qui peuvent nous rendre vulnérables au piratage et à la fuite de données. Cela peut menacer notre vie privée en accumulant de l’information sur nous à notre insu. Cela peut interférer avec le principe d’égalité devant la loi si le gouvernement s’en sert pour vérifier notre éligibilité à une allocation, ou nous inscrire sur une liste d’interdiction de vol. De plus, le code gardé secret permet le trucage des données et occulte les erreurs, comme dans l’affaire Volkswagen : l’entreprise a récemment avoué avoir utilisé un logiciel caché pour truquer les tests d’émission menés sur 11 millions de voitures, qui rejetaient l’équivalent de 40 fois la limite légale.

Mais aussi choquante que la fraude de Volkswagen puisse être, elle ne fait qu’en annoncer bien d’autres du même genre. Il est temps de s’occuper de l’un des problèmes de transparence technologique les plus urgents et les plus négligés : les programmes secrets dans le système judiciaire. Aujourd’hui, des logiciels fermés, propriétaires, peuvent vous envoyer en prison et même dans le couloir de la mort. Et dans la plupart des juridictions des États-Unis, vous n’avez pourtant pas le droit de les inspecter. Pour faire court, les procureurs ont le même problème que Volkswagen.

Prenons la Californie. Martell Chubbs est actuellement accusé de meurtre pour des faits remontant à 1977, dans lesquels la seule preuve contre lui est une analyse ADN effectuée par un logiciel propriétaire. Chubbs, qui dirigeait une petite entreprise de dépannage à domicile à l’époque de son arrestation, a demandé à inspecter le code source du logiciel afin de pouvoir contester la précision de ses résultats. Il cherchait à déterminer si le code implémente correctement les procédures scientifiques établies pour l’analyse ADN et s’il fonctionne comme son fabriquant le prétend. Mais ce dernier a affirmé que l’avocat de la défense pourrait voler ou dupliquer le code et causer des pertes financières à l’entreprise. Le tribunal a rejeté la requête de Chubbs, lui autorisant l’examen du rapport de l’expert de l’état, mais pas l’outil qu’il a utilisé. Des tribunaux de Pennsylvanie, Caroline du Nord, Floride et d’autres ont rendu des décisions similaires.

Nous devons faire confiance aux nouvelles technologies pour nous aider à trouver et condamner les criminels, mais aussi pour disculper les innocents. Les logiciels propriétaires interfèrent avec cette confiance dans de plus en plus d’outils d’investigation, des tests ADN aux logiciels de reconnaissance faciale et aux algorithmes qui indiquent à la police où chercher les futurs crimes. Inspecter les logiciels n’est cependant pas seulement bon pour les accusés : divulguer le code à des experts de la défense a permis à la Cour suprême du New Jersey de confirmer la fiabilité scientifique d’un éthylotest.

Non seulement il est injuste de court-circuiter la possibilité pour la défense de contre-expertiser les preuves médico-légales, mais cela ouvre la voie à de mauvaises pratiques scientifiques. Les experts décrivent la contre-expertise comme « le meilleur instrument légal jamais inventé pour la recherche de la vérité ». Mais des révélations récentes ont révélé une épidémie de mauvaises pratiques scientifiques qui sapent la justice criminelle. Des études ont contesté la validité scientifique des recherche de similitudes sur les marques de morsure, les cheveux et les fibres, des diagnostics du syndrome du bébé secoué, de techniques balistiques, des séances d’identifications olfactives par des chiens, des preuves issues de l’interprétation de taches de sang, et des correspondances d’empreintes digitales. Le Massachusetts se démène pour gérer les retombées des falsifications de résultats par un technicien d’un laboratoire criminel qui a contaminé les preuves de dizaines de milliers d’affaires criminelles. Et le Projet Innocence rapporte que de mauvaises analyses légales ont contribué à l’incrimination injustifiée de 47% des prévenus. L’Académie Nationale des Sciences (National Academy of Sciences) accuse entre autres le manque de processus d’évaluation par les pairs dans les disciplines liées à l’analyse légale d’être responsable de cette crise.

Les logiciels ne sont pas non plus infaillibles. On a découvert des erreurs de programmation qui changent les ratios de probabilité des tests ADN d’un facteur 10, amenant des procureurs australiens à remplacer 24 avis d’experts dans des affaires criminelles. Quand les experts de la défense ont identifié une erreur dans le logiciel de l’éthylotest, la Cour suprême du Minnesota a invalidé le test en tant que preuve pour tous les futurs jugements. Trois des plus hautes cours de l’état (américain, NdT) ont encouragé à accepter davantage de preuves de failles dans des programmes, de manière à ce que les accusés puissent mettre en cause la crédibilité de futurs tests.

La contre-expertise peut aider à protéger contre les erreurs – et même les fraudes – dans la science et la technique de l’analyse légale. Mais pour que cet appareil judiciaire puisse fonctionner, l’accusé doit connaître les fondements des accusations de l’état. En effet, lorsque le juge fédéral de Manhattan, Jed S. Rakoff, a démissionné en signe de protestation contre la commission sur les sciences légales du président Obama, il a prévenu que si l’accusé n’a pas accès à toutes les informations pour effectuer une contre-expertise, alors le témoignage d’un expert judiciaire n’est « rien d’autre qu’un procès par embuscade » (c.-à-d. sans accès préalable aux éléments  de preuve, NdT).

La mise en garde de Rakoff est particulièrement pertinente pour les logiciels des outils d’analyse légale. Puisque éliminer les erreurs d’un code est très difficile, les experts ont adopté l’ouverture à l’analyse publique comme le moyen le plus sûr de garder un logiciel sécurisé. De manière identique, demander au gouvernement d’utiliser exclusivement des outils d’analyse légale ouverts permettrait leur contre-expertise participative. Les fabricants d’outils d’analyse légale, qui vendent exclusivement aux laboratoires d’expertise criminelle du gouvernement, peuvent manquer de motivations pour conduire les tests de qualité minutieux requis.

Pour en être certains, les régulateurs du gouvernement conduisent actuellement des tests de validation pour au moins quelques outils d’analyse légale numériques. Mais même les régulateurs peuvent être incapables d’auditer le code des appareils qu’ils testent, se contentant à la place d’évaluer comment ces technologies se comportent dans un environnement contrôlé en laboratoire. De tels tests « en boite noire » n’ont pas été suffisants à l’Agence de Protection de l’Environnement (Environmental Protection Agency) pour repérer la fraude de Volkswagen et ce ne sera pas non plus assez pour garantir la qualité des technologies numériques d’analyse légale.

La Cour suprême a depuis longtemps reconnu que rendre les procès transparents aide à s’assurer de la confiance du public dans leur équité et leur légitimité. Le secret de ce qu’il y a sous le capot des appareils d’informatique légale jette un doute sur ce processus. Les accusés qui risquent l’incarcération ou la peine de mort devraient avoir le droit d’inspecter les codes secrets des appareils utilisés pour les condamner.




Dogmazic fête la première année de sa nouvelle ère

Il y a un an le Framablog avait interviewé Alain, membre de Dogmazic qui avait participé au grand retour de la plateforme d’écoute de musique sous licence libre.

Pour fêter le premier anniversaire du site renouvelé, on a eu envie de détailler avec lui le bilan bien fourni de cette année… En profitant de deux belles conférences aux JDLL, Roka et Pouhiou ont mitonné la petite interview que voici pour qui ne pouvait être à Lyon lors de ces rencontres.

Salut Alain, même si on t’as déjà déjà interviewé sur le Framablog, peux-tu nous rappeler ce qu’est Dogmazic ?

Dogmazic est une archive de musiques publiées avec des licences libres et ouvertes existant depuis 2004. Le site est sans publicité. C’est un projet de l’association Musique Libre qui est financé par les dons. Il regroupe aujourd’hui près de 60 000 morceaux de musique, pour environ 5000 artistes/groupes et plus de 250 netlabels.

Donc je peux dire que vous êtes le Itunes ou le Spotify du libre ou alors je suis insultant ?

Nous ne vendons pas d’abonnements, ni de fichiers avec des DRM. Notre but est l’accessibilité, la diffusion, la mise en valeur de tout un pan de la culture qui n’est pas représentée dans des médias mainstream. Nous sommes une alternative à Aytoune et Spoutifay.

vue de dogmazic
…et ils font pas dans la confiture.

 

Concrètement, qu’est-ce qui est libre chez vous ? Je peux télécharger votre logiciel ? La musique ?

Le logiciel Ampache qui propulse le site est publié sous licence AGPLv3 depuis 2001. Le contenu du site est publié soit en licences libres (type Licence Art Libre, GNU-GPL-Art, Creative Commons By SA…), soit en licences ouvertes (Licences Creative Commons BY NC ND pour la plus restrictive). La musique est téléchargeable, partageable et, selon les licences, réutilisable selon différents contextes.

Voilà un an que le projet a été relancé et du coup on a plein de questions à te poser. D’abord, est-ce que tu es content de cette première année d’existence ?

Nous sommes absolument ravis de cette réouverture, après tant de péripéties derrière nous maintenant ! Avant la réouverture du site, parler de musique libre c’était un peu caduque : peu d’autres exemples francophones comme Dogmazic pouvaient être cités. Cette première année nous a permis de mieux cerner les possibilités d’Ampache, de faire évoluer le site, son interface et de faire remonter pas mal de retours d’expérience des utilisateurs (bugs, features…).

Est-ce que le public a été au rendez-vous ? C’est quoi la fréquentation du site aujourd’hui ?

Nous avons eu un pic à la réouverture du site, puis ça s’est un peu calmé. Aujourd’hui, le rythme des visites est le même qu’à la réouverture, donc c’est plutôt encourageant ! Nous avons en moyenne 2 à 3 albums publiés par semaine par des artistes.

Le logo de Dogmazic
Le logo de Dogmazic

J’imagine que pour beaucoup de musiciens ce n’est pas une évidence de diffuser ses créations sous licence libre. Tu dirais quoi pour convaincre un artiste de le faire ?

Si on veut être indépendant, on doit aussi se poser la question de l’indépendance vis-à-vis de la Sacem qui n’est pas qu’une simple société — privée — de gestion de redevances pour droits d’auteurs. Elle porte aussi un projet politique (Hadopi, DADVSI…etc.). De plus, participer à une alternative est souvent plus intéressant pour un artiste, cela lui permet de rentrer en contact direct avec ses auditeurs, de discuter de projets partagés, de participer à des créations collectives. Il est possible d’avoir une existence artistique sans la Sacem.

Dans mes rencontres, je laisse le libre choix aux personnes. Souvent, un artiste rentre à la Sacem « par défaut », et ne se rend pas compte de sa démarche. Parfois c’est déjà trop tard, l’artiste est lié avec son nom civil (donc quel que soit le pseudo de son projet artistique) pour 10 ans, parfois la réflexion nécessite de nouvelles rencontres.

Dernier point du bilan mais non des moindres, les sous ? Comment un projet libre tel que le vôtre s’est financé et surtout comment vous voyez l’avenir à ce sujet ?

Nous sommes financés par les dons de nos utilisateurs. Le site en lui-même ne nous coûte pas grand chose à financer, mais cela risque de changer avec sa montée en puissance et la publicité faite autour de lui. En 2008-2009, lorsque l’ancienne interface fonctionnait bien, l’association arrivait à recevoir près de 4000 € de dons par an. Nous pouvons nous donner cet objectif pour le moment, ça nous permettra de proposer par exemple des fichiers en .flac.

Quelles sont les innovations lancées cette année sur Dogmazic ? Je pense notamment à l’écoute sur mobile qui est forcément demandée par les utilisateurs.

L’écoute sur mobile est possible grâce à l’application Subsonic qui reprend l’interface d’Ampache. Il n’y a qu’à renseigner l’adresse du site ainsi que son login et mot de passe utilisateur pour utiliser le site en version mobile. Des applications sur f-droid comme sur le Playstore existent. Avoir une application dédiée serait le mieux, il nous manque quelques compétences à ce sujet.

Ampache, le moteur du site, a évolué et fait évoluer le site. En mars, une nouvelle interface avec un contenu plus directement accessible a été mise en ligne.

Derrière Dogmazic, il y a donc ce logiciel  : Ampache… Lui aussi il a grandi en un an ? Quelles sont ses nouveautés et les petites fonctionnalités qui changent tout ?

Le lien entre le développement d’Ampache et Dogmazic est fort. Il n’y a pas de fork du logiciel pour faire tourner Dogmazic. Ampache est passé de la version 3.7 à 3.8.2 avec de nombreuses corrections de bugs, des traductions de fonctions, une interface remaniée.

Les possibilités d’Ampache sont assez énormes et tout n’est pas encore bien mis en place. Notamment le lien avec des services d’identification de contenus basés sur Musicbrainz, LastFM, LibreFM, les modules de dons Flattr pour les comptes artistes… À terme, nous aimerions que les artistes et les labels puissent disposer d’un espace plus grand pour la personnalisation de leur espace (à base d’html).

Et si je veux utiliser Ampache pour autre chose que la musique… je peux ? T’as des exemples (ou des rêves) d’utilisations « autres » ?

Ampache est utilisé depuis le début comme un logiciel pour monter son propre serveur privé de médias. Images, vidéos, musiques, tout peut se partager avec Ampache. Mais Dogmazic est le premier exemple de serveur public avec une gestion multi-utilisateurs avancée (près de 28 000 comptes).

Cette vidéo présente le développement du projet (vidéo YouTube) :


Vidéo de présentation d'Ampache sur Youtube

Mon rêve pour Dogmazic ? Qu’Ampache permette de tout connaître d’un artiste : musique, vidéos, textes… avec des liens vers l’extérieur pour enrichir le contenu, des relations entre artistes… Et pourquoi pas intégrer des modules comme SourceML qui permet de partager des musiques avec leurs sources.

Ça peut être une idée pour un de vos prochains articles d’ailleurs…

C’est noté, merci ^^ ! C’est quoi vos projets pour la suite ? On peut s’attendre à quelles innovations pour la plateforme ?

Ampache va passer en version 4.0 à la fin de l’année, avec notamment une refonte de son interface. L’objectif : rendre plus visibles des fonctionnalités qui sont bien présentes aujourd’hui mais qui sont cachées, l’abandon de quelques vieilles technologies datant de 2001, l’intégration d’autres plus récentes.

Travailler sur la communauté du site, remettre en forme le forum (qui, petit à petit revient à la vie), les relations entre artistes avec les fonctions communautaires d’Ampache (messages persos, partages)…

Ça c’est pour le moyen terme.

Pour le plus long terme, on a quelques réflexions sur les modules de dons du site, le développement de la C3S, société coopérative européenne de gestion collective… De gros projets sur ce point sont en réflexion.

Pour que ces innovations adviennent, vous avez besoin de quoi ? De sous, de bras…  ?

Ampache a toujours besoin de bras, de développement. Le développement de la version 4.0 va demander pas mal de travail. La traduction de l’interface aussi (espagnol, allemand, portugais, arabe, japonais, russe…).

L’association Musique Libre a toujours besoin de dons pour développer ses actions, imprimer des flyers, des tracts à distribuer lors de concerts, des gens pour les distribuer, des programmateurs de concerts sur des événements libres, sur des web-radios… Nous aimerions aussi proposer une application native pour Dogmazic (Android).

L’association a aussi besoin de personnes pour s’y investir, être à l’écoute de ce qui se passe dans la musique libre, car nous avons des oreilles un peu partout, mais nous ne sommes pas omniscients… !

Dons / Adhésions : http://musique-libre.org/a-propos/adherer-soutenir/

Nous rencontrer : http://www.dogmazic.net/irc/

Quelle est l’actualité de l’association ?

Nous organisons un concert, le 17 juin, 20h à St Étienne au Pax (27 rue Élisée Reclus), PAF 8€. Avec Bololipsum et Mig Inc. Au menu, art libre avec circuit blending, et électro-noise.

Le 14 juillet, le NetLabel Day. Pour sa 2e édition le Netlabel Day prend de l’ampleur. Initié par les joyeux drilles du netlabel chilien MIST,lLe Netlabel Day représente déjà près de 1800 contributions (contre 150 l’an dernier).

Merci pour tes réponses Alain. En attendant de te retrouver dans un an pour un nouveau bilan je te laisse le dernier mot, tradition oblige.

La musique libre est une alternative, défendre cette possibilité, c’est aussi défendre l’idée que d’autres alternatives puissent exister et se développer.

 

Pour aller plus loin :




Dédicaces, BD, DRM et Yukulélé : l’interview Kamoulox.

La dernière fois qu’il a dédicacé dans cette librairie, il a sorti son yukulélé pour des moments… mémorables.

Gee est de retour dans la Librairie A Livr’Ouvert à Paris pour y dédicacer le premier tome de Grise Bouille qu’on vous a présenté il y a quelques semaines sur le framablog. Si vous voulez un beau dessin original sur votre exemplaire, il vous faut donc lui apporter une idée et votre bouille le samedi 28 mai, dès 15h, au 171 boulevard Voltaire à Paris (métro Charonne).

alivrouvert_mai_2016

À cette occasion (et parce qu’ils traînaient dans le coin) Frédéric Urbain et Pouhiou l’accompagneront pour présenter leurs romans publiés chez Framabook… mais surtout parce qu’une librairie libriste où Bookynette, la patronne, vous incite à apporter votre clé USB pour que vous téléchargiez les Framabooks qu’elle vend au format papier par ailleurs, c’est rare et précieux !

On ne résiste pas à l’occasion de s’offrir une petite interviouve croisée entre l’auteur de BD et la libraire qui l’accueille…

Questions à Gee (auteur illustrateur) et Bookynette (libraire libriste)

Dis, Gee : Grise Bouille est une anthologie du blog éponyme sur lequel tu dessines, écris, commentes l’actualité, déconnes, vulgarises de l’informatique… Bref : c’est un BD-blog au format papier. C’était facile le passage de l’écran au velin ?

Gee : Eh bah en fait très bien, et ça c’est principalement grâce à un merveilleux logiciel qui s’appelle Inkscape. Comme toutes mes BD sont au format vectoriel et sont assez « aérées » (dessins légers séparés uniquement par des blocs de textes), c’est très simple d’adapter la mise en page à un support papier. En gros, je divise mon dessin en hauteur en autant de pages que nécessaire et j’ajuste chaque élément (dessin, texte) pour qu’il couvre bien chaque page (et qu’il ne tombe pas sur une séparation entre 2 pages !). Là dessus, un petit script qui exporte chaque image en PNG (merci le mode console d’Inkscape), qui découpe chaque image en N pages (merci ImageMagick) et qui génère à la volée les fichiers TEX qui sont finalement inclus dans les sources du bouquin.

Pour être honnête, si je n’avais pas eu ces quelques outils libres (Inkscape et ImageMagick et un bon langage de script), ça m’aurait pris un temps fou. Mais avec un peu de bidouille et quelques commandes bien trouvées, on fait des miracles sous Gnunux 🙂

Du coup, t’es fier du rendu de ce tome ?

Gee : À mort. Et je ne dis pas ça pour me la jouer hein. Mais je suis content parce que je n’avais pas spécialement envisagé le passage au papier quand j’ai fixé le format de mes BD. Du coup c’est une bonne surprise que ça passe bien d’un format à l’autre sans trop avoir à tout retoucher dans tous les sens. Il y a juste les quelques aquarelles à la fin qui sont bien sûr diminuées (en noir et blanc et sur format A5), mais c’est plus un bonus dans le livre.

Et c’est aussi là que je me rends compte que j’en ai écrit un paquet, des BD, en 2015… je ne m’en rendais pas trop compte en ligne puisque chaque BD faisait exactement 1 image (plus ou moins longue), mais quand tu dois séparer en pages, bah tu arrives à un bouquin de plus de 250 pages ! Pas mal, non ?

Et qu’en pense notre libraire : ça se lit bien du blog-BD au format papier ?

Bookynette : Franchement, et c’est là qu’on voit l’expérience acquise, quand on compare Grise Bouille et les GKND, on voit la différence. C’est plus espacé, c’est clair, les textes, plus courts, sont toujours aussi frappants et quel humour ! Je défie quiconque de lire ce livre sans sourire une seule fois ! J’avoue l’avoir commencé à la librairie et être allée jusqu’au bout alors que je pensais me le dévorer le soir même. En quelques mots, quand on tombe dedans, on n’en sort plus. Les sujets sont variés, s’adressent à plein de publics différents, l’humour est élégant et on retrouve l’actualité traitée à la manière Gee ! Un régal.

Bookynette, ne nous cachons rien : tu es connue dans le monde libriste : membre de l’April, de Framasoft, de Parinux… Mais du coup il n’y a pas de grand écart entre libraire et libriste ? Par exemple à tes yeux (et en sortant les grand mots), le livre numérique tue-t-il la littérature ?

Bookynette : C’est difficile de répondre à cette question… Peux-tu définir ce que tu entends par livre numérique?

Il y a plusieurs sortes de livres numériques. Ceux avec et ceux sans DRM. Les DRM réduisent grandement les droits des lecteurs. Pour moi un livre numérique avec DRM est juste un service de location. Alors qu’avec un livre électronique sans DRM, l’utilisateur a globalement les mêmes droits que ceux dont il dispose avec un livre papier. Pour ceux que ça intéresse, je vous conseille cette vidéo que j’ai tournée avec mes coloc :

Pour en revenir à ta question, les livres numériques vendus par les éditeurs français sont tellement « menottés » qu’ils en deviennent quasi aussi chers que le papier. Pour se protéger, les éditeurs passent par des plate-formes professionnelles qui leur imposent les DRM, ce qui leur coûtent aussi cher que des libraires. Bref en France le livre numérique ne prend pas et n’est pas réellement un concurrent des libraires. Sauf pour les titres en langue étrangère… Mais perso, je n’en vends pas 🙂

Tu programmes de nombreuses animations dans ta librairie (dont des soirées Harry Potter)… Alors déjà, où est-ce qu’on trouve le programme, mais surtout : la venue d’une flopée d’auteurs Framabook, c’est un jour comme les autres à la librairie ?

Bookynette : Bon le programme tu le trouves sur mon site : alivrouvert.fr : ateliers pour enfants, club de lecture, soirée Harry Potter et bien sûr dédicaces ! Une journée avec les frama-auteurs c’est la fête non stop, no limite ! J’espère juste qu’il fera beau, parce que trois auteurs comme Pouhiou, Gee et Fred, vu leur carrure, ça va prendre de la place. Du coup, je les mettrais bien sur le trottoir [je sais j’ai déjà fait la blague en interne, mais je l’aime bien]. Et qui dit dédicace Frama, dit apéro après !

Et pour toi, Gee, aller à la rencontre du public et proposer une séance de dédicace…. C’est amusant, stressant, fatiguant ou revigorant ?

Gee : Un peu les quatre ? Bon, okay, pas spécialement stressant. Mais amusant parce qu’on rigole toujours bien avec les framacopains et ça fait toujours plaisir de rencontrer (ou de re-rencontrer) des lecteurs… surtout quand ce sont ceux à qui on parle déjà régulièrement sur les rézozozios 🙂

Bref, Grise Bouille, ce sont de longues heures solitaires à dessiner derrière un écran. Là, on voit des gens, on boit un coup, on passe un bon moment. D’où le côté revigorant. Et après, comme je suis ce qu’on appelle un « introverti » (si vous pensez que ça veut dire « timide », renseignez-vous un peu plus sur le sujet 🙂 ), j’ai toujours besoin de me poser tranquillement et au calme pendant un certain temps après ce genre d’événement pour recharger les batteries. Donc c’est fatiguant aussi (mais c’est bien d’être fatigué, des fois).

Bookynette, tu es une des (trop) rares librairies à proposer les Framabooks… Pourquoi ? C’est compliqué pour une librairie de proposer des éditeurs « hors normes » ? Et donc est-ce que c’est important pour toi en tant que libraire cette fonction de prescriptrice ?

Bookynette : Tout éditeur de livre qui ne passe pas un gros distributeur a du mal à se retrouver en librairie. Et puis les libraires n’aiment pas se compliquer la vie. Sans oublier que les Framabooks sont un peu hors norme… Il y a peu de demandes/clients pour les livres d’informatique, de thermodynamique et même de SF. Je ne sais pas si je suis prescriptrice mais en tout cas, je suis devenue fournisseuse officielle des franciliens et des librairies parisiennes (qui s’adressent à moi en m’envoyant leur coursier).

Si je me suis engagée à distribuer les Framabooks, sans marger, c’est parce que j’ai trouvé dommage de devoir obligatoirement passer un site internet En vente libre. En tant que libraire, libriste de surcroît, je me devais de distribuer ces livres et les rendre plus accessibles à tous les parisiens. C’était ma première contribution à Framasoft, maintenant je suis membre depuis peu et j’espère continuer à participer à cette association aussi vivante !

Concrètement vous deux, qu’est-ce qu’il va se passer le 28 mai, au 171 boulevard Voltaire ? On va (encore) y renverser du poiré ?

Gee : Alors moi je ne suis pas absolument pas responsable, mais j’ai vaguement entendu le mot « apéro » prononcé. Après, c’est p’têt une rumeur… sinon moi je dédicacerai à peu près tout ce que vous me mettrez sous le pinceau (ceci n’est pas un défi, ne mettez pas n’importe quoi sous mes pinceaux, merci). Et après si vous voulez juste passer pour tailler le bout de gras (c’est la vie), vous pouvez venir aussi, on mord pas (à part les bouts de gras, mais là c’est aut’chose).

Bookynette : Moi qui suis censée être responsable, dès 14h45, je vais installer une porte (et oui !) sur des tréteaux, avec une jolie nappe et des chaises hautes. Pi je vais acheter de quoi boire et manger, mais y aura pas de poiré car suis pas allée en Normandie cette année (gros sniff – suis en manque). Donc faudra vous contenter de bière et de chips (ça te fait rien de savoir qu’on va manger des chips ?! – la classe).

#défi : j’espère bien boire autant de verres que de livres vendus. 😀 Et puis je suis une fan du Yukulélé de Gee, donc y aura de la chanson.

Comme d’hab sur le framablog, on vous laisse le mot (ou le dessin) de le fin !

Gee : Courge.

(Oui, je finis façon Kamoulox.)

Bookynette  : Choisissez des livres ouverts !

Nodrm
CC-BY-SA Anne-Laure Marcault Source : April

Pour aller plus loin :