Les nouveaux Léviathans II — Surveillance et confiance (b)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la section précédente)

Trouver les bonnes clés

Cette logique du marché, doit être analysée avec d’autres outils que ceux de l’économie classique. L’impact de l’informationnalisation et la concentration des acteurs de l’économie numérique ont sans doute été largement sous-estimés, non pas pour les risques qu’ils font courir aux économies post-industrielles, mais pour les bouleversements sociaux qu’ils impliquent. Le besoin de défendre les droits et libertés sur Internet et ailleurs n’est qu’un effet collatéral d’une situation contre laquelle il est difficile d’opposer seulement des postures et des principes.

Il faut entendre les mots de Marc Rotenberg, président de l’Electronic Privacy Information Center (EPIC), pour qui le débat dépasse désormais la seule question de la neutralité du réseau ou de la liberté d’expression1. Pour lui, nous avons besoin d’analyser ce qui structure la concentration du marché. Mais le phénomène de concentration dans tous les services de communication que nous utilisons implique des échelles tellement grandes, que nous avons besoin d’instruments de mesure au moins aussi grands. Nous avons besoin d’une nouvelle science pour comprendre Internet, le numérique et tout ce qui découle des formes d’automatisation.

Diapositive extraite de la conférence "Dégooglisons Internet"
Diapositive extraite de la conférence « Dégooglisons Internet »

On s’arrête bien souvent sur l’aspect le plus spectaculaire de la fuite d’environ 1,7 millions de documents grâce à Edward Snowden en 2013, qui montrent que les États, à commencer par les États-Unis, ont créé des systèmes de surveillance de leurs populations au détriment du respect de la vie privée. Pour beaucoup de personnes, cette atteinte doit être ramenée à la dimension individuelle : dois-je avoir quelque chose à cacher ? comment échapper à cette surveillance ? implique-t-elle un contrôle des populations ? un contrôle de l’expression ? en quoi ma liberté est-elle en danger ? etc. Mais peu de personnes se sont réellement interrogées sur le fait que si la NSA s’est fait livrer ces quantités gigantesques d’informations par des fournisseurs de services (comme par exemple, la totalité des données téléphoniques de Verizon ou les données d’échanges de courriels du service Hotmail de Microsoft) c’est parce que ces entreprises avaient effectivement les moyens de les fournir et que par conséquent de telles quantités d’informations sur les populations sont tout à fait exploitables et interprétables en premier lieu par ces mêmes fournisseurs.

Face à cela, plusieurs attitudes sont possibles. En les caricaturant, elles peuvent être :

  • Positivistes. On peut toujours s’extasier devant les innovations de Google surtout parce que la culture de l’innovation à la Google est une composante du story telling organisé pour capter l’attention des consommateurs. La communication est non seulement exemplaire mais elle constitue un modèle d’après Google qui en donne même les recettes (cf. les deux liens précédents). Que Google, Apple, Microsoft, Facebook ou Amazon possèdent des données me concernant, cela ne serait qu’un détail car nous avons tous l’opportunité de participer à cette grande aventure du numérique (hum !).
  • Défaitistes. On n’y peut rien, il faut donc se contenter de protéger sa vie privée par des moyens plus ou moins dérisoires, comme par exemple faire du bruit pour brouiller les pistes et faire des concessions car c’est le prix à payer pour profiter des applications bien utiles. Cette attitude consiste à échanger l’utilité contre l’information, ce que nous faisons à chaque fois que nous validons les clauses d’utilisation des services GAFAM.
  • Complotistes. Les procédés de captation des données servent ceux qui veulent nous espionner. Les utilisations commerciales seraient finalement secondaires car c’est contre l’emploi des données par les États qu’il faut lutter. C’est la logique du moins d’État contre la liberté du nouveau monde numérique, comme si le choix consistait à donner notre confiance soit aux États soit aux GAFAM, liberté par contrat social ou liberté par consommation.

Les objectifs de cette accumulation de données sont effectivement différents que ceux poursuivis par la NSA et ses institutions homologues. La concentration des entreprises crée le besoin crucial d’organiser les monopoles pour conserver un marché stable. Les ententes entre entreprises, repoussant toujours davantage les limites juridiques des autorités de régulations, créent une logique qui ne consiste plus à s’adapter à un marché aléatoire, mais adapter le marché à l’offre en l’analysant en temps réel, en utilisant les données quotidiennes des utilisateurs de services. Il faut donc analyser ce capitalisme de surveillance, ainsi que le nomme Shoshana Zuboff, car comme nous l’avons vu :

  • les États ont de moins en moins les capacités de réguler ces activités,
  • nous sommes devenus des produits de variables qui configurent nos comportements et nos besoins.

L’ancienne conception libérale du marché, l’acception économique du contrat social, reposait sur l’idée que la démocratie se consolide par l’égalitarisme des acteurs et l’équilibre du marché. Que l’on adhère ou pas à ce point de vue, il reste qu’aujourd’hui le marché ne s’équilibre plus par des mécanismes libéraux mais par la seule volonté de quelques entreprises. Cela pose inévitablement une question démocratique.

Dans son rapport, Antoinette Rouvroy en vient à adresser une série de questions sur les répercutions de cette morphologie du marché. Sans y apporter franchement de réponse, elle en souligne les enjeux :

Ces dispositifs d’« anticipation performative » des intentions d’achat (qui est aussi un court-circuitage du processus de transformation de la pulsion en désir ou en intention énonçable), d’optimisation de la force de travail fondée sur la détection anticipative des performances futures sur base d’indicateurs produits automatiquement au départ d’analyses de type Big Data (qui signifie aussi une chute vertigineuse du « cours de l’expérience » et des mérites individuels sur le marché de l’emploi), posent des questions innombrables. L’anticipation performative des intentions –et les nouvelles possibilités d’actions préemptives fondées sur la détection des intentions – est-elle compatible avec la poursuite de l’autodétermination des personnes ? Ne faut-il pas concevoir que la possibilité d’énoncer par soi-même et pour soi-même ses intentions et motivations constitue un élément essentiel de l’autodétermination des personnes, contre cette utopie, ou cette dystopie, d’une société dispensée de l’épreuve d’un monde hors calcul, d’un monde où les décisions soient autre chose que l’application scrupuleuse de recommandations automatiques, d’un monde où les décisions portent encore la marque d’un engagement subjectif ? Comment déterminer la loyauté de ces pratiques ? L’optimisation de la force de travail fondée sur le profilage numérique est-il compatible avec le principe d’égalité et de non-discrimination ?2

Ce qui est questionné par A. Rouvroy, c’est ce que Zuboff nomme le capitalisme de surveillance, du moins une partie des pratiques qui lui sont inhérentes. Dès lors, au lieu de continuer à se poser des questions, il est important d’intégrer l’idée que si le paradigme a changé, les clés de lecture sont forcément nouvelles.

Déconstruire le capitalisme de surveillance

Shoshana Zuboff a su identifier les pratiques qui déconstruisent l’équilibre originel et créent ce nouveau capitalisme. Elle pose ainsi les jalons de cette nouvelle « science » qu’appelle de ses vœux Marc Rotenberg, et donne des clés de lecture pertinentes. L’essentiel des concepts qu’elle propose se trouve dans son article « Big other: surveillance capitalism and the prospects of an information civilization », paru en 20153. Dans cet article S. Zuboff décortique deux discours de Hal Varian, chef économiste de Google et s’en sert de trame pour identifier et analyser les processus du capitalisme de surveillance. Dans ce qui suit, je vais essayer d’expliquer quelques clés issues du travail de S. Zuboff.

Sur quelle stratégie repose le capitalisme de surveillance ?

Il s’agit de la stratégie de commercialisation de la quotidienneté en modélisant cette dernière en autant de données analysées, inférences et prédictions. La logique d’accumulation, l’automatisation et la dérégulation de l’extraction et du traitement de ces données rendent floues les frontières entre vie privée et consommation, entre les firmes et le public, entre l’intention et l’information.

Qu’est-ce que la quotidienneté ?

Il s’agit de ce qui concerne la sphère individuelle mais appréhendée en réseau. L’informationnalisation de nos profils individuels provient de plusieurs sources. Il peut s’agir des informations conventionnelles (au sens propre) telles que nos données d’identité, nos données bancaires, etc. Elles peuvent résulter de croisements de flux de données et donner lieu à des inférences. Elles peuvent aussi provenir des objets connectés, agissant comme des sensors ou encore résulter des activités de surveillance plus ou moins connues. Si toutes ces données permettent le profilage c’est aussi par elles que nous déterminons notre présence numérique. Avoir une connexion Internet est aujourd’hui reconnu comme un droit : nous ne distinguons plus nos activités d’expression sur Internet des autres activités d’expression. Les activités numériques n’ont plus à être considérées comme des activités virtuelles, distinctes de la réalité. Nos pages Facebook ne sont pas plus virtuelles que notre compte Amazon ou notre dernière déclaration d’impôt en ligne. Si bien que cette activité en réseau est devenue si quotidienne qu’elle génère elle-même de nouveaux comportements et besoins, produisant de nouvelles données analysées, agrégées, commercialisées.

Extraction des données

S. Zuboff dresse un inventaire des types de données, des pratiques d’extraction, et les enjeux de l’analyse. Il faut cependant comprendre qu’il y a de multiples manières de « traiter » les données. La Directive 95/46/CE (Commission Européenne) en dressait un inventaire, déjà en 19954 :

« traitement de données à caractère personnel » (traitement) : toute opération ou ensemble d’opérations effectuées ou non à l’aide de procédés automatisés et appliquées à des données à caractère personnel, telles que la collecte, l’enregistrement, l’organisation, la conservation, l’adaptation ou la modification, l’extraction, la consultation, l’utilisation, la communication par transmission, diffusion ou toute autre forme de mise à disposition, le rapprochement ou l’interconnexion, ainsi que le verrouillage, l’effacement ou la destruction.

Le processus d’extraction de données n’est pas un processus autonome, il ne relève pas de l’initiative isolée d’une ou quelques firmes sur un marché de niche. Il constitue désormais la norme commune à une multitude de firmes, y compris celles qui n’œuvrent pas dans le secteur numérique. Il s’agit d’un modèle de développement qui remplace l’accumulation de capital. Autant cette dernière était, dans un modèle économique révolu, un facteur de production (par les investissements, par exemple), autant l’accumulation de données est désormais la clé de production de capital, lui-même réinvesti en partie dans des solutions d’extraction et d’analyse de données, et non dans des moyens de production, et pour une autre partie dans la valorisation boursière, par exemple pour le rachat d’autres sociétés, à l’image des multiples rachats de Google.

Neutralité et indifférence

Les données qu’exploite Google sont très diverses. On s’interroge généralement sur celles qui concernent les catégories auxquelles nous accordons de l’importance, comme par exemple lorsque nous effectuons une recherche au sujet d’une mauvaise grippe et que Google Now nous propose une consultation médicale à distance. Mais il y a une multitude de données dont nous soupçonnons à peine l’existence, ou apparemment insignifiantes pour soi, mais qui, ramenées à des millions, prennent un sens tout à fait probant pour qui veut les exploiter. On peut citer par exemple le temps de consultation d’un site. Si Google est prêt à signaler des contenus à l’administration des États-Unis, comme l’a dénoncé Julian Assange ou si les relations publiques de la firme montrent une certaine proximité avec les autorités de différents pays et l’impliquent dans des programmes d’espionnage, il reste que cette attitude coopérante relève essentiellement d’une stratégie économique. En réalité, l’accumulation et l’exploitation des données suppose une indifférence formelle par rapport à leur signification pour l’utilisateur. Quelle que soit l’importance que l’on accorde à l’information, le postulat de départ du capitalisme de surveillance, c’est l’accumulation de quantités de données, non leur qualité. Quant au sens, c’est le marché publicitaire qui le produit.

L’extraction et la confiance

S. Zuboff dresse aussi un court inventaire des pratiques d’extraction de Google. L’exemple emblématique est Google Street View, qui rencontra de multiples obstacles à travers le monde : la technique consiste à s’immiscer sur des territoires et capturer autant de données possible jusqu’à rencontrer de la résistance qu’elle soit juridique, politique ou médiatique. Il en fut de même pour l’analyse du courrier électronique sur Gmail, la capture des communications vocales, les paramètres de confidentialité, l’agrégation des données des comptes sur des services comme Google+, la conservation des données de recherche, la géolocalisation des smartphones, la reconnaissance faciale, etc.

En somme, le processus d’extraction est un processus à sens unique, qui ne tient aucun compte (ou le moins possible) de l’avis de l’utilisateur. C’est l’absence de réciprocité.

On peut ajouter à cela la puissance des Big Data dans l’automatisation des relations entre le consommateur et le fournisseur de service. Google Now propose de se substituer à une grande partie de la confidentialité entre médecin et patient en décelant au moins les causes subjectives de la consultation (en interprétant les recherches). Hal Varian lui-même vante les mérites de l’automatisation de la relation entre assureurs et assurés dans un monde où l’on peut couper à distance le démarrage de la voiture si le client n’a pas payé ses traites. Des assurances santé et même des mutuelles (!) proposent aujourd’hui des applications d’auto-mesure (quantified self)de l’activité physique, dont on sait pertinemment que cela résultera sur autant d’ajustements des prix voire des refus d’assurance pour les moins chanceux.

La relation contractuelle est ainsi automatisée, ce qui élimine d’autant le risque lié aux obligations des parties. En d’autres termes, pour éviter qu’une partie ne respecte pas ses obligations, on se passe de la confiance que le contrat est censé formaliser, au profit de l’automatisation de la sanction. Le contrat se résume alors à l’acceptation de cette automatisation. Si l’arbitrage est automatique, plus besoin de recours juridique. Plus besoin de la confiance dont la justice est censée être la mesure.

Entre l’absence de réciprocité et la remise en cause de la relation de confiance dans le contrat passé avec l’utilisateur, ce sont les bases démocratiques de nos rapports sociaux qui sont remises en question puisque le fondement de la loi et de la justice, c’est le contrat et la formalisation de la confiance.

Warning : Don’t feed the Google
Warning : Don’t feed the Google

Qu’implique cette nouvelle forme du marché ?

Plus Google a d’utilisateurs, plus il rassemble des données. Plus il y a de données plus leur valeur predictive augmente et optimise le potentiel lucratif. Pour des firmes comme Google, le marché n’est pas composé d’agents rationnels qui choisissent entre plusieurs offres et configurent la concurrence. La société « à la Google » n’est plus fondée sur des relations de réciprocité, même s’il s’agit de luttes sociales ou de revendications.

L’« uberisation » de la société (voir le début de cet article) qui nous transforme tous en employés ou la transformation des citoyens en purs consommateurs, c’est exactement le cauchemar d’Hannah Arendt que S. Zuboff cite longuement :

Le dernier stade de la société de travail, la société d’employés, exige de ses membres un pur fonctionnement automatique, comme si la vie individuelle était réellement submergée par le processus global de la vie de l’espèce, comme si la seule décision encore requise de l’individu était de lâcher, pour ainsi dire, d’abandonner son individualité, sa peine et son inquiétude de vivre encore individuellement senties, et d’acquiescer à un type de comportement, hébété, « tranquillisé » et fonctionnel. Ce qu’il y a de fâcheux dans les théories modernes du comportement, ce n’est pas qu’elles sont fausses, c’est qu’elles peuvent devenir vraies, c’est qu’elles sont, en fait, la meilleure mise en concept possible de certaines tendances évidentes de la société moderne. On peut parfaitement concevoir que l’époque moderne (…) s’achève dans la passivité la plus inerte, la plus stérile que l’Histoire ait jamais connue.5

Devant cette anticipation catastrophiste, l’option choisie ne peut être l’impuissance et le laisser-faire. Il faut d’abord nommer ce à quoi nous avons affaire, c’est-à-dire un système (total) face auquel nous devons nous positionner.

Qu’est-ce que Big Other et que peut-on faire ?

Il s’agit des mécanismes d’extraction, marchandisation et contrôle. Ils instaurent une dichotomie entre les individus (utilisateurs) et leur propre comportement (pour les transformer en données) et simultanément ils produisent de nouveaux marchés basés justement sur la prédictibilité de ces comportements.

(Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.6

Avoir pu mettre un nom sur ce nouveau régime dont Google constitue un peu plus qu’une illustration (presque initiateur) est la grande force de Shoshana Zuboff. Sans compter plusieurs articles récents de cette dernière dans la Frankfurter Allgemeine Zeitung, il est étonnant que le rapport d’Antoinette Rouvroy, postérieur d’un an, n’y fasse aucune mention. Est-ce étonnant ? Pas vraiment, en réalité, car dans un rapport officiellement remis aux autorités européennes, il est important de préciser que la lutte contre Big Other (ou de n’importe quelle manière dont on peut l’exprimer) ne peut que passer par la légitimité sans faille des institutions. Ainsi, A. Rouvroy oppose les deux seules voies envisageables dans un tel contexte officiel :

À l’approche « law and economics », qui est aussi celle des partisans d’un « marché » des données personnelles, qui tendrait donc à considérer les données personnelles comme des « biens » commercialisables (…) s’oppose l’approche qui consiste à aborder les données personnelles plutôt en fonction du pouvoir qu’elles confèrent à ceux qui les contrôlent, et à tenter de prévenir de trop grandes disparités informationnelles et de pouvoir entre les responsables de traitement et les individus. C’est, à l’évidence, cette seconde approche qui prévaut en Europe.

Or, devant Google (ou devant ce Big Other) nous avons vu l’impuissance des États à faire valoir un arsenal juridique, à commencer par les lois anti-trust. D’une part, l’arsenal ne saurait être exhaustif : il concernerait quelques aspects seulement de l’exploitation des données, la transparence ou une série d’obligations comme l’expression des finalités ou des consentements. Il ne saurait y avoir de procès d’intention. D’autre part, nous pouvons toujours faire valoir que des compagnies telles Microsoft ont été condamnées par le passé, au moins par les instances européennes, pour abus de position dominante, et que quelques millions d’euros de menace pourraient suffire à tempérer les ardeurs. C’est faire peu de cas d’au moins trois éléments :

  1. l’essentiel des compagnies dont il est question sont nord-américaines, possèdent des antennes dans des paradis fiscaux et sont capables, elles, de menacer financièrement des pays entiers par simples effets de leviers boursiers.
  2. L’arsenal juridique qu’il faudrait déployer avant même de penser à saisir une cour de justice, devrait être rédigé, voté et décrété en admettant que les jeux de lobbies et autres obstacles formels soient entièrement levés. Cela prendrait un minimum de dix ans, si l’on compte les recours envisageables après une première condamnation.
  3. Il faut encore caractériser les Big Data dans un contexte où leur nature est non seulement extrêmement diverse mais aussi soumise à des process d’automatisation et calculatoires qui permettent d’en inférer d’autres quantités au moins similaires. Par ailleurs, les sources des données sont sans cesse renouvelées, et leur stockage et analyse connaissent une progression technique exponentielle.

Dès lors, quels sont les moyens de s’échapper de ce Big Other ? Puisque nous avons changé de paradigme économique, nous devons changer de paradigme de consommation et de production. Grâce à des dispositifs comme la neutralité du réseau, garantie fragile et obtenue de longue lutte, il est possible de produire nous même l’écosystème dans lequel nos données sont maîtrisées et les maillons de la chaîne de confiance sont identifiés.

Facebook is watching you
Facebook is watching you

Confiance et espaces de confiance

Comment évoluer dans le monde du capitalisme de surveillance ? telle est la question que nous pouvons nous poser dans la mesure où visiblement nous ne pouvons plus nous extraire d’une situation de soumission à Big Other. Quelles que soient nos compétences en matière de camouflage et de chiffrement, les sources de données sur nos individualités sont tellement diverses que le résultat de la distanciation avec les technologies du marché serait une dé-socialisation. Puisque les technologies sur le marché sont celles qui permettent la production, l’analyse et l’extraction automatisées de données, l’objectif n’est pas tant de s’en passer que de créer un système où leur pertinence est tellement limitée qu’elle laisse place à un autre principe que l’accumulation de données : l’accumulation de confiance.

Voyons un peu : quelles sont les actuelles échappatoires de ce capitalisme de surveillance ? Il se trouve qu’elles impliquent à chaque fois de ne pas céder aux facilités des services proposés pour utiliser des solutions plus complexes mais dont la simplification implique toujours une nouvelle relation de confiance. Illustrons ceci par des exemples relatifs à la messagerie par courrier électronique :

  • Si j’utilise Gmail, c’est parce que j’ai confiance en Google pour respecter la confidentialité de ma correspondance privée (no comment !). Ce jugement n’implique pas que moi, puisque mes correspondants auront aussi leurs messages scannés, qu’ils soient utilisateurs ou non de Gmail. La confiance repose exclusivement sur Google et les conditions d’utilisation de ses services.
  • L’utilisation de clés de chiffrement pour correspondre avec mes amis demande un apprentissage de ma part comme de mes correspondants. Certains services, comme ProtonMail, proposent de leur faire confiance pour transmettre des données chiffrées tout en simplifiant les procédures avec un webmail facile à prendre en main. Les briques open source de Protonmail permettent un niveau de transparence acceptable sans que j’en aie toutefois l’expertise (si je ne suis pas moi-même un informaticien sérieux).
  • Si je monte un serveur chez moi, avec un système libre et/ou open source comme une instance Cozycloud sur un Raspeberry PI, je dois avoir confiance dans tous les domaines concernés et sur lesquels je n’ai pas forcément l’expertise ou l’accès physique (la fabrication de l’ordinateur, les contraintes de mon fournisseur d’accès, la sécurité de mon serveur, etc.), c’est-à-dire tous les aspects qui habituellement font l’objet d’une division du travail dans les entreprises qui proposent de tels services, et que j’ai la prétention de rassembler à moi tout seul.

Les espaces de relative autonomie existent donc mais il faut structurer la confiance. Cela peut se faire en deux étapes.

La première étape consiste à définir ce qu’est un tiers de confiance et quels moyens de s’en assurer. Le blog de la FSFE a récemment publié un article qui résume très bien pourquoi la protection des données privées ne peut se contenter de l’utilisation plus ou moins maîtrisée des technologies de chiffrement7. La FSFE rappelle que tous les usages des services sur Internet nécessitent un niveau de confiance accordé à un tiers. Quelle que soit son identité…

…vous devez prendre en compte :

  • la bienveillance : le tiers ne veut pas compromettre votre vie privée et/ou il est lui-même concerné ;
  • la compétence : le tiers est techniquement capable de protéger votre vie privée et d’identifier et de corriger les problèmes ;
  • l’intégrité : le tiers ne peut pas être acheté, corrompu ou infiltré par des services secrets ou d’autres tiers malveillants ;

Comment s’assurer de ces trois qualités ? Pour les défenseurs et promoteurs du logiciel libre, seules les communautés libristes sont capables de proposer des alternatives en vertu de l’ouverture du code. Sur les quatre libertés qui définissent une licence libre, deux impliquent que le code puisse être accessible, audité, vérifié.

Est-ce suffisant ? non : ouvrir le code ne conditionne pas ces qualités, cela ne fait qu’endosser la responsabilité et l’usage du code (via la licence libre choisie) dont seule l’expertise peut attester de la fiabilité et de la probité.

En complément, la seconde étape consiste donc à définir une chaîne de confiance. Elle pourra déterminer à quel niveau je peux m’en remettre à l’expertise d’un tiers, à ses compétences, à sa bienveillance…. Certaines entreprises semblent l’avoir compris et tentent d’anticiper ce besoin de confiance. Pour reprendre les réflexions du Boston Consulting Group, l’un des plus prestigieux cabinets de conseil en stratégie au monde :

(…) dans un domaine aussi sensible que le Big Data, la confiance sera l’élément déterminant pour permettre à l’entreprise d’avoir le plus large accès possible aux données de ses clients, à condition qu’ils soient convaincus que ces données seront utilisées de façon loyale et contrôlée. Certaines entreprises parviendront à créer ce lien de confiance, d’autres non. Or, les enjeux économiques de ce lien de confiance sont très importants. Les entreprises qui réussiront à le créer pourraient multiplier par cinq ou dix le volume d’informations auxquelles elles sont susceptibles d’avoir accès. Sans la confiance du consommateur, l’essentiel des milliards d’euros de valeur économique et sociale que le Big Data pourrait représenter dans les années à venir risquerait d’être perdu.8

En d’autres termes, il existe un marché de la confiance. En tant que tel, soit il est lui aussi soumis aux effets de Big Other, soit il reste encore dépendant de la rationalité des consommateurs. Dans les deux cas, le logiciel libre devra obligatoirement trouver le créneau de persuasion pour faire adhérer le plus grand nombre à ses principes.

Une solution serait de déplacer le curseur de la chaîne de confiance non plus sur les principaux acteurs de services, plus ou moins dotés de bonnes intentions, mais dans la sphère publique. Je ne fais plus confiance à tel service ou telle entreprise parce qu’ils indiquent dans leurs CGU qu’ils s’engagent à ne pas utiliser mes données personnelles, mais parce que cet engagement est non seulement vérifiable mais aussi accessible : en cas de litige, le droit du pays dans lequel j’habite peut s’appliquer, des instances peuvent se porter parties civiles, une surveillance collective ou policière est possible, etc. La question n’est plus tellement de savoir ce que me garantit le fournisseur mais comment il propose un audit public et expose sa responsabilité vis-à-vis des données des utilisateurs.

S’en remettre à l’État pour des services fiables ? Les États ayant démontré leurs impuissances face à des multinationales surfinancées, les tentatives de cloud souverain ont elles aussi été des échecs cuisants. Créer des entreprises de toutes pièces sur fonds publics pour proposer une concurrence directe à des monopoles géants, était inévitablement un suicide : il aurait mieux valu proposer des ressources numériques et en faciliter l’accès pour des petits acteurs capables de proposer de multiples solutions différentes et alternatives adaptées aux besoins de confiance des utilisateurs, éventuellement avec la caution de l’État, la réputation d’associations nationales (association de défense des droits de l’homme, associations de consommateurs, etc.), bref, des assurances concrètes qui impliquent les utilisateurs, c’est-à-dire comme le modèle du logiciel libre qui ne sépare pas utilisation et conception.

Ce que propose le logiciel libre, c’est davantage que du code, c’est un modèle de coopération et de cooptation. C’est la possibilité pour les dynamiques collectives de réinvestir des espaces de confiance. Quel que soit le service utilisé, il dépend d’une communauté, d’une association, ou d’une entreprise qui toutes s’engagent par contrat (les licences libres sont des contrats) à respecter les données des utilisateurs. Le tiers de confiance devient collectif, il n’est plus un, il est multiple. Il ne s’agit pas pour autant de diluer les responsabilités (chaque offre est indépendante et s’engage individuellement) mais de forcer l’engagement public et la transparence des recours.

Chatons solidaires

Si s’échapper seul du marché de Big Other ne peut se faire qu’au prix de l’exclusion, il faut opposer une logique différente capable, devant l’exploitation des données et notre aliénation de consommateurs, de susciter l’action et non la passivité, le collectif et non l’individu. Si je produis des données, il faut qu’elles puissent profiter à tous ou à personne. C’est la logique de l’open data qui garanti le libre accès à des données placées dans le bien commun. Ce commun a ceci d’intéressant que tout ce qui y figure est alors identifiable. Ce qui n’y figure pas relève alors du privé et diffuser une donnée privée ne devrait relever que du seul choix délibéré de l’individu.

Le modèle proposé par le projet CHATONS (Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires) de Framasoft repose en partie sur ce principe. En adhérant à la charte, un hébergeur s’engage publiquement à remplir certaines obligations et, parmi celles-ci, l’interdiction d’utiliser les données des utilisateurs pour autre chose que l’évaluation et l’amélioration des services.

Comme écrit dans son manifeste (en version 0.9), l’objectif du collectif CHATONS est simple :

L’objectif de ce collectif est de mailler les initiatives de services basés sur des solutions de logiciels libres et proposés aux utilisateurs de manière à diffuser toutes les informations utiles permettant au public de pouvoir choisir leurs services en fonction de leurs besoins, avec un maximum de confiance vis-à-vis du respect de leur vie privée, sans publicité ni clause abusive ou obscure.

En lançant l’initiative de ce collectif, sans toutefois se placer dans une posture verticale fédérative, Framasoft ouvre une porte d’échappatoire. L’essentiel n’est pas tant de maximiser la venue de consommateurs sur quelques services identifiés mais de maximiser les chances pour les consommateurs d’utiliser des services de confiance qui, eux, pourront essaimer et se multiplier. Le postulat est que l’utilisateur est plus enclin à faire confiance à un hébergeur qu’il connaît et qui s’engage devant d’autres hébergeurs semblables, ses pairs, à respecter ses engagements éthiques. Outre l’utilisation de logiciels libres, cela se concrétise par trois principes

  1. Mutualiser l’expertise : les membres du collectif s’engagent à partager les informations pour augmenter la qualité des services et pour faciliter l’essaimage des solutions de logiciels libres utilisées. C’est un principe de solidarité qui permettra, à terme, de consolider sérieusement le tissu des hébergeurs concernés.
  2. Publier et adhérer à une charte commune. Cette charte donne les principaux critères techniques et éthiques de l’activité de membre. L’engagement suppose une réciprocité des échanges tant avec les autres membres du collectif qu’avec les utilisateurs.
  3. Un ensemble de contraintes dans la charte publique implique non seulement de ne s’arroger aucun droit sur les données privées des utilisateurs, mais aussi de rester transparent y compris jusque dans la publication de ses comptes et rapports d’activité. En tant qu’utilisateur je connais les engagements de mon hébergeur, je peux agir pour le contraindre à les respecter tout comme les autres hébergeurs peuvent révoquer de leur collectif un membre mal intentionné.

Le modèle CHATONS n’est absolument pas exclusif. Il constitue même une caricature, en quelque sorte l’alternative contraire mais pertinente à GAFAM. Des entreprises tout à fait bien intentionnées, respectant la majeure partie de la charte, pourraient ne pas pouvoir entrer dans ce collectif à cause des contraintes liées à leur modèle économique. Rien n’empêche ces entreprises de monter leur propre collectif, avec un niveau de confiance différent mais néanmoins potentiellement acceptable. Si le collectif CHATONS décide de restreindre au domaine associatif des acteurs du mouvement, c’est parce que l’idée est d’essaimer au maximum le modèle : que l’association philatélique de Trifouille-le-bas puisse avoir son serveur de courriel, que le club de football de Trifouille-le-haut puisse monter un serveur owncloud et que les deux puissent mutualiser en devenant des CHATONS pour en faire profiter, pourquoi pas, les deux communes (et donc la communauté).

Un chaton, deux chatons... des chatons !
Un chaton, deux chatons… des chatons !

Conclusion

La souveraineté numérique est souvent invoquée par les autorités publiques bien conscientes des limitations du pouvoir qu’implique Big Other. Par cette expression, on pense généralement se situer à armes égales contre les géants du web. Pouvoir économique contre pouvoir républicain. Cet affrontement est perdu d’avance par tout ce qui ressemble de près ou de loin à une procédure institutionnalisée. Tant que les citoyens ne sont pas eux-mêmes porteurs d’alternatives au marché imposé par les GAFAM, l’État ne peut rien faire d’autre que de lutter pour sauvegarder son propre pouvoir, c’est-à-dire celui des partis comme celui des lobbies. Le serpent se mord la queue.

Face au capitalisme de surveillance, qui a depuis longtemps dépassé le stade de l’ultra-libéralisme (car malgré tout il y subsistait encore un marché et une autonomie des agents), c’est à l’État non pas de proposer un cloud souverain mais de se positionner comme le garant des principes démocratiques appliqués à nos données numériques et à Internet : neutralité sans faille du réseau, garantie de l’équité, surveillance des accords commerciaux, politique anti-trust affirmée, etc. L’éducation populaire, la solidarité, l’intelligence collective, l’expertise des citoyens, feront le reste, quitte à ré-inventer d’autres modèles de gouvernance (et de gouvernement).

Nous ne sommes pas des êtres a-technologiques. Aujourd’hui, nos vies sont pleines de données numériques. Avec Internet, nous en usons pour nous rapprocher, pour nous comprendre et mutualiser nos efforts, tout comme nous avons utilisé en leurs temps le téléphone, les voies romaines, le papyrus, et les tablettes d’argile. Nous avons des choix à faire. Nous pouvons nous diriger vers des modèles exclusifs, avec ou sans GAFAM, comme la généralisation de block chains pour toutes nos transactions. En automatisant les contrats, même avec un système ouvert et neutre, nous ferions alors reposer la confiance sur la technologie (et ses failles), en révoquant toute relation de confiance entre les individus, comme si toute relation interpersonnelle était vouée à l’échec. L’autre voie repose sur l’éthique et le partage des connaissances. Le projet CHATONS n’est qu’un exemple de système alternatif parmi des milliers d’autres dans de multiples domaines, de l’agriculture à l’industrie, en passant par la protection de l’environnement. Saurons-nous choisir la bonne voie ? Saurons-nous comprendre que les relations d’interdépendances qui nous unissent sur terre passent aussi bien par l’écologie que par le partage du code ?


  1. Discours prononcé lors d’une conférence intitulée Surveillance capitalism: A new societal condition rising lors du sommet CPDP (Computers Privacy and Data protection), Bruxelles, 27-29 janvier 2016 (video).
  2. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, janvier 2016.
  3. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp.&nbspp;75-89.
  4. Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
  5. Hannah Arendt, La condition de l’homme moderne, Paris: Calmann-Lévy, Agora, 1958, pp. 400-401.
  6. Shoshana Zuboff, « Big other: surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p.&nbspp;81.
  7. h2, « Why Privacy is more than Crypto », blog Emergency Exit, FSFE, 31 mai 2016.
  8. Carol Umhoefer et al., Le Big Data face au défi de la confiance, The Boston Consulting Group, juin 2014.



Les nouveaux Léviathans II — Surveillance et confiance (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Techniques d’anticipation

On pense habituellement les objets techniques et les phénomènes sociaux comme deux choses différentes, voire parfois opposées. En plus de la nature, il y aurait deux autres réalités : d’un côté un monde constitué de nos individualités, nos rapports sociaux, nos idées politiques, la manière dont nous structurons ensemble la société ; et de l’autre côté le monde des techniques qui, pour être appréhendé, réclamerait obligatoirement des compétences particulières (artisanat, ingénierie). Nous refusons même parfois de comprendre nos interactions avec les techniques autrement que par automatisme, comme si notre accomplissement social passait uniquement par le statut d’utilisateur et jamais comme producteurs. Comme si une mise à distance devait obligatoirement s’établir entre ce que nous sommes (des êtres sociaux) et ce que nous produisons. Cette posture est au plus haut point paradoxale puisque non seulement la technologie est une activité sociale mais nos sociétés sont à bien des égards elles-mêmes configurées, transformées, et même régulées par les objets techniques. Certes, la compréhension des techniques n’est pas toujours obligatoire pour comprendre les faits sociaux, mais il faut avouer que bien peu de faits sociaux se comprennent sans la technique.

L’avènement des sociétés industrielles a marqué un pas supplémentaire dans l’interdépendance entre le social et les objets techniques : le travail, comme activité productrice, est en soi un rapport réflexif sur les pratiques et les savoirs qui forment des systèmes techniques. Nous baignons dans une culture technologique, nous sommes des êtres technologiques. Nous ne sommes pas que cela. La technologie n’a pas le monopole du signifiant : nous trouvons dans l’art, dans nos codes sociaux, dans nos intentions, tout un ensemble d’éléments culturels dont la technologie est censée être absente. Nous en usons parfois même pour effectuer une mise à distance des techniques omniprésentes. Mais ces dernières ne se réduisent pas à des objets produits. Elles sont à la fois des pratiques, des savoir-faire et des objets. La raison pour laquelle nous tenons tant à instaurer une mise à distance par rapport aux technologies que nous utilisons, c’est parce qu’elles s’intègrent tellement dans notre système économique qu’elles agissent aussi comme une forme d’aliénation au travail comme au quotidien.

Attention, Amazon très méchant
Attention, Amazon très méchant

Ces dernières années, nous avons vu émerger des technologies qui prétendent prédire nos comportements. Amazon teste à grande échelle des dépôts locaux de produits en prévision des commandes passées par les internautes sur un territoire donné. Les stocks de ces dépôts seront gérés au plus juste par l’exploitation des données inférées à partir de l’analyse de l’attention des utilisateurs (mesurée au clic), les tendances des recherches effectuées sur le site, l’impact des promotions et propositions d’Amazon, etc. De son côté, Google ne cesse d’analyser nos recherches dans son moteur d’indexation, dont les suggestions anticipent nos besoins souvent de manière troublante. En somme, si nous éprouvons parfois cette nécessité d’une mise à distance entre notre être et la technologie, c’est en réponse à cette situation où, intuitivement, nous sentons bien que la technologie n’a pas à s’immiscer aussi profondément dans l’intimité de nos pensées. Mais est-ce vraiment le cas ? Ne conformons-nous pas aussi, dans une certaine mesure, nos envies et nos besoins en fonction de ce qui nous est présenté comme nos envies et nos besoins ? La lutte permanente entre notre volonté d’indépendance et notre adaptation à la société de consommation, c’est-à-dire au marché, est quelque chose qui a parfaitement été compris par les grandes firmes du secteur numérique. Parce que nous laissons tellement de traces transformées en autant d’informations extraites, analysées, quantifiées, ces firmes sont désormais capables d’anticiper et de conformer le marché à leurs besoins de rentabilité comme jamais une firme n’a pu le faire dans l’histoire des sociétés capitalistes modernes.

Productivisme et information

Si vous venez de perdre deux minutes à lire ma prose ci-dessus hautement dopée à l’EPO (Enfonçage de Portes Ouvertes), c’est parce qu’il m’a tout de même paru assez important de faire quelques rappels de base avant d’entamer des considérations qui nous mènerons petit à petit vers une compréhension en détail de ce système. J’ai toujours l’image de cette enseignante de faculté, refusant de lire un mode d’emploi pour appuyer deux touches sur son clavier afin de basculer l’affichage écran vers l’affichage du diaporama, et qui s’exclamait : « il faut appeler un informaticien, ils sont là pour ça, non ? ». Ben non, ma grande, un informaticien a autre chose à faire. C’est une illustration très courante de ce que la transmission des savoirs (activité sociale) dépend éminemment des techniques (un vidéo-projecteur couplé un ordinateur contenant lui-même des supports de cours sous forme de fichiers) et que toute tentative volontaire ou non de mise à distance (ne pas vouloir acquérir un savoir-faire technique) cause un bouleversement a-social (ne plus être en mesure d’assurer une transmission de connaissance, ou plus prosaïquement passer pour quelqu’un de stupide). La place que nous occupons dans la société n’est pas uniquement une affaire de codes ou relations interpersonnelles, elle dépend pour beaucoup de l’ordre économique et technique auquel nous devons plus ou moins nous ajuster au risque de l’exclusion (et la forme la plus radicale d’exclusion est l’absence de travail et/ou l’incapacité de consommer).

Des études déjà anciennes sur les organisations du travail, notamment à propos de l’industrialisation de masse, ont montré comment la technologie, au même titre que l’organisation, détermine les comportements des salariés, en particulier lorsqu’elle conditionne l’automatisation des tâches1. Souvent, cette automatisation a été étudiée sous l’angle des répercussions socio-psychologiques, accroissant les sentiments de perte de sens ou d’aliénation sociale2. D’un point de vue plus populaire, c’est le remplacement de l’homme par la machine qui fut tantôt vécu comme une tragédie (l’apparition du chômage de masse) tantôt comme un bienfait (diminuer la pénibilité du travail). Aujourd’hui, les enjeux sont très différents. On s’interroge moins sur la place de la machine dans l’industrie que sur les taux de productivité et la gestion des flux. C’est qu’un changement de paradigme s’est accompli à partir des années 1970-1980, qui ont vu apparaître l’informatisation quasi totale des systèmes de production et la multiplication des ordinateurs mainframe dans les entreprises pour traiter des quantités sans cesse croissantes de données.

Très peu de sociologues ou d’économistes ont travaillé sur ce qu’une illustre chercheuse de la Harvard Business School, Shoshana Zuboff a identifié dans la transformation des systèmes de production : l’informationnalisation (informating). En effet, dans un livre très visionnaire, In the Age Of The Smart Machine en 19883, S. Zuboff montre que les mécanismes du capitalisme productiviste du XXe siècle ont connu plusieurs mouvements, plus ou moins concomitants selon les secteurs : la mécanisation, la rationalisation des tâches, l’automatisation des processus et l’informationnalisation. Ce dernier mouvement découle des précédents : dès l’instant qu’on mesure la production et qu’on identifie des processus, on les documente et on les programme pour les automatiser. L’informationnalisation est un processus qui transforme la mesure et la description des activités en information, c’est-à-dire en données extractibles et quantifiables, calculatoires et analytiques.

Là où S. Zuboff s’est montrée visionnaire dans les années 1980, c’est qu’elle a montré aussi comment l’informationnalisation modèle en retour les apprentissages et déplace les enjeux de pouvoir. On ne cherche plus à savoir qui a les connaissances suffisantes pour mettre en œuvre telle procédure, mais qui a accès aux données dont l’analyse déterminera la stratégie de développement des activités. Alors que le « vieux » capitalisme organisait une concurrence entre moyens de production et maîtrise de l’offre, ce qui, dans une économie mondialisée n’a plus vraiment de sens, un nouveau capitalisme (dont nous verrons plus loin qu’il se nomme le capitalisme de surveillance) est né, et repose sur la production d’informations, la maîtrise des données et donc des processus.

Pour illustrer, il suffit de penser à nos smartphones. Quelle que soit la marque, ils sont produits de manière plus ou moins redondante, parfois dans les mêmes chaînes de production (au moins en ce qui concerne les composants), avec des méthodes d’automatisation très similaires. Dès lors, la concurrence se place à un tout autre niveau : l’optimisation des procédures et l’identification des usages, tous deux producteurs de données. Si bien que la plus-value ajoutée par la firme à son smartphone pour séduire le plus d’utilisateurs possible va de pair avec une optimisation des coûts de production et des procédures. Cette optimisation relègue l’innovation organisationnelle au moins au même niveau, si ce n’est plus, que l’innovation du produit lui-même qui ne fait que répondre à des besoins d’usage de manière marginale. En matière de smartphone, ce sont les utilisateurs les plus experts qui sauront déceler la pertinence de telle ou telle nouvelle fonctionnalité alors que l’utilisateur moyen n’y voit que des produits similaires.

L’enjeu dépasse la seule optimisation des chaînes de production et l’innovation. S. Zuboff a aussi montré que l’analyse des données plus fines sur les processus de production révèle aussi les comportements des travailleurs : l’attention, les pratiques quotidiennes, les risques d’erreur, la gestion du temps de travail, etc. Dès lors l’informationnalisation est aussi un moyen de rassembler des données sur les aspects sociaux de la production4, et par conséquent les conformer aux impératifs de rentabilité. L’exemple le plus frappant aujourd’hui de cet ajustement comportemental à la rentabilité par les moyens de l’analyse de données est le phénomène d’« Ubérisation » de l’économie5.

Ramené aux utilisateurs finaux des produits, dans la mesure où il est possible de rassembler des données sur l’utilisation elle-même, il devrait donc être possible de conformer les usages et les comportements de consommation (et non plus seulement de production) aux mêmes impératifs de rentabilité. Cela passe par exemple par la communication et l’apprentissage de nouvelles fonctionnalités des objets. Par exemple, si vous aviez l’habitude de stocker vos fichiers MP3 dans votre smartphone pour les écouter comme avec un baladeur, votre fournisseur vous permet aujourd’hui avec une connexion 4G d’écouter de la musique en streaming illimité, ce qui permet d’analyser vos goûts, vous proposer des playlists, et faire des bénéfices. Mais dans ce cas, si vous vous situez dans un endroit où la connexion haut débit est défaillante, voire absente, vous devez vous passer de musique ou vous habituer à prévoir à l’avance cette éventualité en activant un mode hors-connexion. Cette adaptation de votre comportement devient prévisible : l’important n’est pas de savoir ce que vous écoutez mais comment vous le faites, et ce paramètre entre lui aussi en ligne de compte dans la proposition musicale disponible.

Le nouveau paradigme économique du XXIe siècle, c’est le rassemblement des données, leur traitement et leurs valeurs prédictives, qu’il s’agisse des données de production comme des données d’utilisation par les consommateurs.

GAFAM : We <3 your Data
GAFAM : We <3 your Data

Big Data

Ces dernières décennies, l’informatique est devenu un média pour l’essentiel de nos activités sociales. Vous souhaitez joindre un ami pour aller boire une bière dans la semaine ? c’est avec un ordinateur que vous l’appelez. Voici quelques étapes grossières de cet épisode :

  1. votre mobile a signalé vers des antennes relais pour s’assurer de la couverture réseau,
  2. vous entrez un mot de passe pour déverrouiller l’écran,
  3. vous effectuez une recherche dans votre carnet d’adresse (éventuellement synchronisé sur un serveur distant),
  4. vous lancez le programme de composition du numéro, puis l’appel téléphonique (numérique) proprement dit,
  5. vous entrez en relation avec votre correspondant, convenez d’une date,
  6. vous envoyez ensuite une notification de rendez-vous avec votre agenda vers la messagerie de votre ami…
  7. qui vous renvoie une notification d’acceptation en retour,
  8. l’une de vos applications a géolocalisé votre emplacement et vous indique le trajet et le temps de déplacement nécessaire pour vous rendre au point de rendez-vous, etc.

Durant cet épisode, quel que soit l’opérateur du réseau que vous utilisez et quel que soit le système d’exploitation de votre mobile (à une ou deux exceptions près), vous avez produit des données exploitables. Par exemple (liste non exhaustive) :

  • le bornage de votre mobile indique votre position à l’opérateur, qui peut croiser votre activité d’émission-réception avec la nature de votre abonnement,
  • la géolocalisation donne des indications sur votre vitesse de déplacement ou votre propension à utiliser des transports en commun,
  • votre messagerie permet de connaître la fréquence de vos contacts, et éventuellement l’éloignement géographique.

Ramené à des millions d’utilisateurs, l’ensemble des données ainsi rassemblées entre dans la catégorie des Big Data. Ces dernières ne concernent pas seulement les systèmes d’informations ou les services numériques proposés sur Internet. La massification des données est un processus qui a commencé il y a longtemps, notamment par l’analyse de productivité dans le cadre de la division du travail, les analyses statistiques des achats de biens de consommation, l’analyse des fréquences de transaction boursières, etc. Tout comme ce fut le cas pour les processus de production qui furent automatisés, ce qui caractérise les Big Data c’est l’obligation d’automatiser leur traitement pour en faire l’analyse.

Prospection, gestion des risques, prédictibilité, etc., les Big Data dépassent le seul degré de l’analyse statistique dite descriptive, car si une de ces données renferme en général très peu d’information, des milliers, des millions, des milliards permettent d’inférer des informations dont la pertinence dépend à la fois de leur traitement et de leur gestion. Le tout dépasse la somme des parties : c’est parce qu’elles sont rassemblées et analysées en masse que des données d’une même nature produisent des valeurs qui dépassent la somme des valeurs unitaires.

Antoinette Rouvroy, dans un rapport récent6 auprès du Conseil de l’Europe, précise que les capacités techniques de stockage et de traitement connaissent une progression exponentielle7. Elle définit plusieurs catégories de data en fonction de leurs sources, et qui quantifient l’essentiel des actions humaines :

  • les hard data, produites par les institutions et administrations publiques ;
  • les soft data, produites par les individus, volontairement (via les réseaux sociaux, par exemple) ou involontairement (analyse des flux, géolocalisation, etc.) ;
  • les métadonnées, qui concernent notamment la provenance des données, leur trafic, les durées, etc. ;
  • l’Internet des objets, qui une fois mis en réseau, produisent des données de performance, d’activité, etc.

Les Big Data n’ont cependant pas encore de définition claire8. Il y a des chances pour que le terme ne dure pas et donne lieu à des divisions qui décriront plus précisément des applications et des méthodes dès lors que des communautés de pratiques seront identifiées avec leurs procédures et leurs réseaux. Aujourd’hui, l’acception générique désigne avant tout un secteur d’activité qui regroupe un ensemble de savoir-faire et d’applications très variés. Ainsi, le potentiel scientifique des Big Data est encore largement sous-évalué, notamment en génétique, physique, mathématiques et même en sociologie. Il en est de même dans l’industrie. En revanche, si on place sur un même plan la politique, le marketing et les activités marchandes (à bien des égards assez proches) on conçoit aisément que l’analyse des données optimise efficacement les résultats et permet aussi, par leur dimension prédictible, de conformer les biens et services.

Google fait peur ?

Eric Schmidt, actuellement directeur exécutif d’Alphabet Inc., savait exprimer en peu de mots les objectifs de Google lorsqu’il en était le président. Depuis 1998, les activités de Google n’ont cessé d’évoluer, jusqu’à reléguer le service qui en fit la célébrité, la recherche sur la Toile, au rang d’activité has been pour les internautes. En 2010, il dévoilait le secret de Polichinelle :

Le jour viendra où la barre de recherche de Google – et l’activité qu’on nomme Googliser – ne sera plus au centre de nos vies en ligne. Alors quoi ? Nous essayons d’imaginer ce que sera l’avenir de la recherche (…). Nous sommes toujours contents d’être dans le secteur de la recherche, croyez-moi. Mais une idée est que de plus en plus de recherches sont faites en votre nom sans que vous ayez à taper sur votre clavier.

En fait, je pense que la plupart des gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google dise ce qu’ils doivent faire ensuite. (…) La puissance du ciblage individuel – la technologie sera tellement au point qu’il sera très difficile pour les gens de regarder ou consommer quelque chose qui n’a pas été adapté pour eux.9

Google n’a pas été la première firme à exploiter des données en masse. Le principe est déjà ancien avec les premiers data centers du milieu des années 1960. Google n’est pas non plus la première firme à proposer une indexation générale des contenus sur Internet, par contre Google a su se faire une place de choix parmi la concurrence farouche de la fin des années 1990 et sa croissance n’a cessé d’augmenter depuis lors, permettant des investissements conséquents dans le développement de technologies d’analyse et dans le rachat de brevets et de plus petites firmes spécialisées. Ce que Google a su faire, et qui explique son succès, c’est proposer une expérience utilisateur captivante de manière à rassembler assez de données pour proposer en retour des informations adaptées aux profils des utilisateurs. C’est la radicalisation de cette stratégie qui est énoncée ici par Eric Schmidt. Elle trouve pour l’essentiel son accomplissement en utilisant les données produites par les utilisateurs du cloud computing. Les Big Data en sont les principaux outils.

D’autres firmes ont emboîté le pas. En résultat, la concentration des dix premières firmes de services numériques génère des bénéfices spectaculaires et limite la concurrence. Cependant, l’exploitation des données personnelles des utilisateurs et la manière dont elles sont utilisées sont souvent mal comprises dans leurs aspects techniques autant que par les enjeux économiques et politiques qu’elles soulèvent. La plupart du temps, la quantité et la pertinence des informations produites par l’utilisateur semblent négligeables à ses yeux, et leur exploitation d’une importance stratégique mineure. Au mieux, si elles peuvent encourager la firme à mettre d’autres services gratuits à disposition du public, le prix est souvent considéré comme largement acceptable. Tout au plus, il semble a priori moins risqué d’utiliser Gmail et Facebook, que d’utiliser son smartphone en pleine manifestation syndicale en France, puisque le gouvernement français a voté publiquement des lois liberticides et que les GAFAM ne livrent aux autorités que les données manifestement suspectes (disent-elles) ou sur demande rogatoire officielle (disent-elles).

Gigantismus

En 2015, Google Analytics couvrait plus de 70% des parts de marché des outils de mesure d’audience. Google Analytics est un outil d’une puissance pour l’instant incomparable dans le domaine de l’analyse du comportement des visiteurs. Cette puissance n’est pas exclusivement due à une supériorité technologique (les firmes concurrentes utilisent des techniques d’analyse elles aussi très performantes), elle est surtout due à l’exhaustivité monopolistique des utilisations de Google Analytics, disponible en version gratuite et premium, avec un haut degré de configuration des variables qui permettent la collecte, le traitement et la production très rapide de rapports (pratiquement en temps réel). La stratégie commerciale, afin d’assurer sa rentabilité, consiste essentiellement à coupler le profilage avec la régie publicitaire (Google AdWords). Ce modèle économique est devenu omniprésent sur Internet. Qui veut être lu ou regardé doit passer l’épreuve de l’analyse « à la Google », mais pas uniquement pour mesurer l’audience : le monopole de Google sur ces outils impose un web rédactionnel, c’est-à-dire une méthode d’écriture des contenus qui se prête à l’extraction de données.

Google n’est pas la seule entreprise qui réussi le tour de force d’adapter les contenus, quelle que soit leur nature et leurs propos, à sa stratégie commerciale. C’est le cas des GAFAM qui reprennent en chœur le même modèle économique qui conforme l’information à ses propres besoins d’information. Que vous écriviez ou non un pamphlet contre Google, l’extraction et l’analyse des données que ce contenu va générer indirectement en produisant de l’activité (visites, commentaires, échanges, temps de connexion, provenance, etc.) permettra de générer une activité commerciale. Money is money, direz-vous. Pourtant, la concentration des activités commerciales liées à l’exploitation des Big Data par ces entreprises qui forment les premières capitalisations boursières du monde, pose un certain nombre répercutions sociales : l’omniprésence mondialisée des firmes, la réduction du marché et des choix, l’impuissance des États, la sur-financiarisation.

Omniprésence

En produisant des services gratuits (ou très accessibles), performants et à haute valeur ajoutée pour les données qu’ils produisent, ces entreprises captent une gigantesque part des activités numériques des utilisateurs. Elles deviennent dès lors les principaux fournisseurs de services avec lesquels les gouvernements doivent composer s’ils veulent appliquer le droit, en particulier dans le cadre de la surveillance des populations et des opérations de sécurité. Ainsi, dans une démarche très pragmatique, des ministères français parmi les plus importants réunirent le 3 décembre 2015 les « les grands acteurs de l’internet et des réseaux sociaux » dans le cadre de la stratégie anti-terroriste10. Plus anciennement, le programme américain de surveillance électronique PRISM, dont bien des aspects furent révélés par Edward Snowden en 2013, a permit de passer durant des années des accords entre la NSA et l’ensemble des GAFAM. Outre les questions liées à la sauvegarde du droit à la vie privée et à la liberté d’expression, on constate aisément que la surveillance des populations par les gouvernements trouve nulle part ailleurs l’opportunité de récupérer des données aussi exhaustives, faisant des GAFAM les principaux prestataires de Big Data des gouvernements, quels que soient les pays11.

Réduction du marché

Le monopole de Google sur l’indexation du web montre qu’en vertu du gigantesque chiffre d’affaires que cette activité génère, celle-ci devient la première et principale interface du public avec les contenus numériques. En 2000, le journaliste Laurent Mauriac signait dans Libération un article élogieux sur Google12. À propos de la méthode d’indexation qui en fit la célébrité, L. Mauriac écrit :

Autre avantage : ce système empêche les sites de tricher. Inutile de farcir la partie du code de la page invisible pour l’utilisateur avec quantité de mots-clés…

Or, en 2016, il devient assez évident de décortiquer les stratégies de manipulation de contenus que les compagnies qui en ont les moyens financiers mettent en œuvre pour dominer l’index de Google en diminuant ainsi la diversité de l’offre13. Que la concentration des entreprises limite mécaniquement l’offre, cela n’est pas révolutionnaire. Ce qui est particulièrement alarmant, en revanche, c’est que la concentration des GAFAM implique par effets de bord la concentration d’autres entreprises de secteurs entièrement différents mais qui dépendent d’elles en matière d’information et de visibilité. Cette concentration de second niveau, lorsqu’elle concerne la presse en ligne, les éditeurs scientifiques ou encore les libraires, pose à l’évidence de graves questions en matière de liberté d’information.

Impuissances

La concentration des services, qu’il s’agisse de ceux de Google comme des autres géants du web, sur des secteurs biens découpés qui assurent les monopoles de chaque acteur, cause bien des soucis aux États qui voient leurs économies impactées selon les revenus fiscaux et l’implantation géographique de ces compagnies. Les lois anti-trust semblent ne plus suffire lorsqu’on voit, par exemple, la Commission Européenne avoir toutes les peines du monde à freiner l’abus de position dominante de Google sur le système Android, sur Google Shopping, sur l’indexation, et de manière générale depuis 2010.

Illustration cynique devant l’impuissance des États à réguler cette concentration, Google a davantage à craindre de ses concurrents directs qui ont des moyens financiers largement supérieurs aux États pour bloquer sa progression sur les marchés. Ainsi, cet accord entre Microsoft et Google, qui conviennent de régler désormais leurs différends uniquement en privé, selon leurs propres règles, pour ne se concentrer que sur leur concurrence de marché et non plus sur la législation. Le message est double : en plus d’instaurer leur propre régulation de marché, Google et Microsoft en organiseront eux-mêmes les conditions juridiques, reléguant le rôle de l’État au second plan, voire en l’éliminant purement et simplement de l’équation. C’est l’avènement des Léviathans dont j’avais déjà parlé dans un article antérieur.

Alphabet. CC-by-sa, Framatophe
Alphabet. CC-by-sa, Framatophe

Capitaux financiers

La capitalisation boursière des GAFAM a atteint un niveau jamais envisagé jusqu’à présent dans l’histoire, et ces entreprises figurent toutes dans le top 40 de l’année 201514. La valeur cumulée de GAFAM en termes de capital boursier en 2015 s’élève à 1 838 milliards de dollars. À titre de comparaison, le PIB de la France en 2014 était de 2 935 milliards de dollars et celui des Pays Bas 892 milliards de dollars.

La liste des acquisitions de Google explique en partie la cumulation de valeurs boursières. Pour une autre partie, la plus importante, l’explication concerne l’activité principale de Google : la valorisation des big data et l’automatisation des tâches d’analyse de données qui réduisent les coûts de production (à commencer par les frais d’infrastructure : Google a besoin de gigantesque data centers pour le stockage, mais l’analyse, elle, nécessite plus de virtualisation que de nouveaux matériels ou d’employés). Bien que les cheminements ne soient pas les mêmes, les entreprises GAFAM ont abouti au même modèle économique qui débouche sur le status quo de monopoles sectorisés. Un élément de comparaison est donné par le Financial Times en août 2014, à propos de l’industrie automobile vs l’économie numérique :

Comparons Detroit en 1990 et la Silicon Valley en 2014. Les 3 plus importantes compagnies de Detroit produisaient des bénéfices à hauteur de 250 milliards de dollars avec 1,2 million d’employés et la cumulation de leurs capitalisations boursières totalisait 36 milliards de dollars. Le 3 premières compagnies de la Silicon Valley en 2014 totalisaient 247 milliards de dollars de bénéfices, avec seulement 137 000 employés, mais un capital boursier de 1,09 mille milliard de dollars.15

La captation d’autant de valeurs par un petit nombre d’entreprises et d’employés, aurait été analysée, par exemple, par Schumpeter comme une chute inévitable vers la stagnation en raison des ententes entre les plus puissants acteurs, la baisse des marges des opérateurs et le manque d’innovation. Pourtant cette approche est dépassée : l’innovation à d’autres buts (produire des services, même à perte, pour capter des données), il est très difficile d’identifier le secteur d’activité concerné (Alphabet regroupe des entreprises ultra-diversifiées) et donc le marché est ultra-malléable autant qu’il ne représente que des données à forte valeur prédictive et possède donc une logique de plus en plus maîtrisée par les grands acteurs.


  1. Michel Liu, « Technologie, organisation du travail et comportement des salariés », Revue française de sociologie, 22/2 1981, pp. 205-221.
  2. Voir sur ce point Robert Blauner, Alienation and Freedom. The Factory Worker and His Industry, Chicago: Univ. Chicago Press, 1965.
  3. Shoshana Zuboff, In The Age Of The Smart Machine: The Future Of Work And Power, New York: Basic Books, 1988.
  4. En guise d’illustration de tests (proof of concepts) discrets menés dans les entreprises aujourd’hui, on peut se reporter à cet article de Rue 89 Strasbourg sur cette société alsacienne qui propose, sous couvert de challenge collectif, de monitorer l’activité physique de ses employés. Rémi Boulle, « Chez Constellium, la collecte des données personnelles de santé des employés fait débat », Rue 89 Strasbourg, juin 2016.
  5. Par exemple, dans le cas des livreurs à vélo de plats préparés utilisés par des sociétés comme Foodora ou Take Eat Easy, on constate que ces sociétés ne sont qu’une interface entre les restaurants et les livreurs. Ces derniers sont auto-entrepreneurs, payés à la course et censés assumer toutes les cotisations sociales et leurs salaires uniquement sur la base des courses que l’entreprise principale pourra leur confier. Ce rôle est automatisé par une application de calcul qui rassemble les données géographiques et les performances (moyennes, vitesse, assiduité, etc.) des livreurs et distribue automatiquement les tâches de livraisons. Charge aux livreurs de se trouver au bon endroit au bon moment. Ce modèle économique permet de détacher l’entreprise de toutes les externalités ou tâches habituellement intégrées qui pourraient influer sur son chiffre d’affaires : le matériel du livreur, l’assurance, les cotisations, l’accidentologie, la gestion du temps de travail, etc., seule demeure l’activité elle-même automatisée et le livreur devient un exécutant dont on analyse les performances. L’« Ubérisation » est un processus qui automatise le travail humain, élimine les contraintes sociales et utilise l’information que l’activité produit pour ajuster la production à la demande (quels que soient les risques pris par les livreurs, par exemple pour remonter les meilleures informations concernant les vitesses de livraison et se voir confier les prochaines missions). Sur ce sujet, on peut écouter l’émission Comme un bruit qui court de France Inter qui diffusa le reportage de Giv Anquetil le 11 juin 2016, intitulé « En roue libre ».
  6. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016.
  7. En même temps qu’une réduction de leur coût de production (leur coût d’exploitation ou d’analyse, en revanche, explose).
  8. On peut s’intéresser à l’origine de l’expression en lisant cet article de Francis X. Diebold, « On the Origin(s) and Development of the Term ‘Big Data’ », Penn Institute For Economic Research, Working Paper 12-037, 2012.
  9. Holman W. Jenkins, « Google and the Search for the Future The Web icon’s CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age », The Wall Street Journal, 14/08/2010.
  10. Communiqué du Premier ministre, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, Paris : Hôtel Matignon, 3/12/2015.
  11. Même si Apple a déclaré ne pas entrer dans le secteur des Big Data, il n’en demeure pas moins qu’il en soit un consommateur comme un producteur d’envergure mondiale.
  12. Laurent Mauriac, « Google, moteur en explosion », Libération, 29 juin 2000.
  13. Vincent Abry, « Au revoir la diversité. Quand 16 compagnies dominent complètement l’index Google », article de Blog personnel, voir la version archivée.
  14. PwC, Global Top 100 Companies by market capitalisation, (31/03/2015). Ces données sont à revoir en raison de l’éclatement de Google dans une sorte de holding nommée Alphabet début 2016.
  15. James Manyika et Michael Chui, « Digital era brings hyperscale challenges » (image), The Financial Times, 13/08/2014. Cité par S. Zuboff, « Big Other… », op. cit..



Les nouveaux Léviathans I — Histoire d’une conversion capitaliste (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous êtes curieux ? Vous prendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :

Dans cette première partie (Léviathans I), je tente de synthétiser les transformations des utopies numériques des débuts de l’économie informatique vers ce que S. Zuboff nomme le « capitalisme de surveillance ». Dans cette histoire, le logiciel libre apparaît non seulement comme un élément critique présent dès les premiers âges de cette conversion capitaliste (Léviathans Ia), mais aussi comme le moyen de faire valoir la primauté de nos libertés individuelles face aux comportements imposés par un nouvel ordre numérique (Léviathans Ib). La dégooglisation d’Internet n’est plus un souhait, c’est un impératif !

Techno-capitalisme

Longtemps nous avons cru que le versant obscur du capitalisme était le monopole. En écrasant le marché, en pratiquant des prix arbitraires, en contrôlant les flux et la production à tous les niveaux, un monopole est un danger politique. Devant la tendance monopolistique de certaines entreprises, le gouvernement américain a donc très tôt mis en place une stratégie juridique visant à limiter les monopoles. C’est le Sherman Anti-Trust Act du 2 juillet 1890, ce qui ne rajeunit pas l’économie moderne. Avec cette loi dont beaucoup de pays ont adopté les principes, le fameux droit de la concurrence a modelé les économies à une échelle mondiale. Mais cela n’a pas pour autant empêché l’apparition de monopoles. Parmi les entreprises ayant récemment fait l’objet de poursuites au nom de lois anti-trust sur le territoire américain et en Europe, on peut citer Microsoft, qui s’en est toujours tiré à bon compte (compte tenu de son placement financier).

Que les procès soient gagnés ou non, les firmes concernées dépensent des millions de dollars pour leur défense et, d’une manière ou d’une autre, trouvent toujours un moyen de contourner les procédures. C’est le cas de Google qui, en août 2015, devant l’obésité due à ses multiples activités, a préféré éclater en plusieurs sociétés regroupées sous une sorte de Holding nommée Alphabet. Crainte de se voir poursuivie au nom de lois anti-trust ? Non, du moins ce n’est pas le premier objectif : ce qui a motivé cet éclatement, c’est de pouvoir rendre plus claires ses différentes activités pour les investisseurs.

Alphabet. CC-by-sa, Framatophe
Alphabet. CC-by-sa, Framatophe

 

Investir dans les sociétés qui composent Alphabet, ce serait donc leur permettre à toutes de pouvoir initier de nouveaux projets. N’en a-t-il toujours pas été ainsi, dans le monde capitaliste ? Investir, innover, produire pour le bien de l’humanité. Dans ce cas, quel danger représenterait le capitalisme ? Aucun. Dans le monde des technologies numériques, au contraire, il constitue le moteur idéal pour favoriser toute forme de progrès social, technique et même politique. Dans nos beaux pays industriels avancés (hum !) nous n’en sommes plus au temps des mines à charbon et des revendications sociales à la Zola : tout cela est d’un autre âge, celui où le capitalisme était aveugle. Place au capitalisme éclairé.

Convaincu ? pas vraiment n’est-ce pas ? Et pourtant cet exercice de remise en question du capitalisme a déjà été effectué entre la fin des années 1960 et les années 1980. Cette histoire est racontée par Fred Turner, dans son excellent livre Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand un homme d’influence1. Dans ce livre, Fred Turner montre comment les mouvements communautaires de contre-culture ont soit échoué par désillusion, soit se sont recentrés (surtout dans les années 1980) autour de techno-valeurs, en particulier portées par des leaders charismatiques géniaux à la manière de Steve Jobs un peu plus tard. L’idée dominante est que la revendication politique a échoué à bâtir un monde meilleur ; c’est en apportant des solutions techniques que nous serons capables de résoudre nos problèmes.

Ne crachons pas dans la soupe ! Certains principes qui nous permettent aujourd’hui de surfer et d’aller sur Wikipédia, sont issus de ce mouvement intellectuel. Prenons par exemple Ted Nelson, qui n’a rien d’un informaticien puisqu’il est sociologue. Au milieu des années 1960, il invente le terme hypertext par lequel il entend la possibilité de lier entre eux des documents à travers un réseau documentaire. Cela sera formalisé par la suite en système hypermédia (notamment avec le travail de Douglas Engelbart). Toujours est-il que Ted Nelson, en fondant le projet Xanadu a proposé un modèle économique d’accès à la documentation et de partage d’informations (pouvoir par exemple acheter en ligne tel ou tel document et le consulter en lien avec d’autres). Et il a fallu attendre dix ans plus tard l’Internet de papa pour développer de manière concrète ce qui passait auparavant pour des utopies et impliquait un changement radical de modèle (ici, le rapport livresque à la connaissance, remplacé par une appropriation hypertextuelle des concepts).

La conversion des hippies de la contre-culture nord-américaine (et d’ailleurs aussi) au techno-capitalisme ne s’est donc pas faite à partir de rien. Comme bien souvent en histoire des techniques, c’est la convergence de plusieurs facteurs qui fait naître des changements technologiques. Ici les facteurs sont :

  • des concepts travaillés théoriquement comme l’hypertext, l’homme augmenté, l’intelligence artificielle, et tout ce qui sera par la suite dénommé « cyber-culture »,
  • des innovations informatiques : les réseaux (par exemple, la commutation de paquets), les micro-computers et les systèmes d’exploitation, les langages informatiques (Lisp, C, etc.),
  • des situations politiques et économiques particulières : la guerre froide (développement des réseaux et de la recherche informatique), les déréglementations des politiques néolibérales américaines et anglaises, notamment, qui permirent une expansion des marchés financiers et donc l’émergence de startups dont la Silicon Valley est l’emblème le plus frappant, puis plus tard l’arrivée de la « bulle Internet », etc.

Le logiciel libre montre la faille

Pour tout changement technologique, il faut penser les choses de manière globale. Ne jamais se contenter de les isoler comme des émergences sporadiques qui auraient révolutionné tout un contexte par un jeu de dominos. Parfois les enchaînements n’obéissent à aucun enchaînement historique linéaire et ne sont dus qu’au hasard d’un contexte favorable qu’il faut identifier. On peut se demander quelle part favorable de ce contexte intellectuellement stimulant a permis l’émergence de concepts révolutionnaires, et quelle part a mis en lumière les travers de la « contre-culture dominante » de la future Silicon Valley.

Tel l’œuf et la poule, on peut parler du logiciel libre dont le concept a été formalisé par Richard Stallman2. Ce dernier évoluait dans le milieu high-tech du M.I.T. durant cette période qui vit l’émergence des hackers – voir sur ce point le livre de Steven Lévy, L’Éthique des hackers3. Dans le groupe de hackers dont R. Stallman faisait partie, certains se disputaient les programmes de Machines Lisp4. Deux sociétés avaient été fondées, distribuant ce type de machines. Le marché tacite qui était passé : faire en sorte que tous les acteurs (l’université et ces entreprises) puissent profiter des améliorations apportées par les uns et les autres. Néanmoins, une firme décida de ne plus partager, accusant l’université de fausser la concurrence en reversant ses améliorations à l’autre entreprise. Cet événement, ajouté à d’autres épisodes aussi peu glorieux dans le monde des hackers, amena Richard Stallman à formaliser juridiquement l’idée qu’un programme puisse non seulement être partagé et amélioré par tous, mais aussi que cette caractéristique puisse être virale et toucher toutes les améliorations et toutes les versions du programme.

Extrait de l'expolibre de l'APRIL
Extrait de l’expolibre de l’APRIL

En fait, le logiciel libre est doublement révolutionnaire. Il s’oppose en premier lieu à la logique qui consiste à privatiser la connaissance et l’usage pour maintenir les utilisateurs dans un état de dépendance et établir un monopole basé uniquement sur le non-partage d’un programme (c’est-à-dire du code issu d’un langage informatique la plupart du temps connu de tous). Mais surtout, il s’oppose au contexte dont il est lui-même issu : un monde dans lequel on pensait initier des modèles économiques basés sur la capacité de profit que représente l’innovation technologique. Celle-ci correspondant à un besoin, elle change le monde mais ne change pas le modèle économique de la génération de profit par privatisation de la production. Or, avec le logiciel libre, l’innovation, ou plutôt le programme, ne change rien de lui-même : il est appelé à être modifié, diffusé et amélioré par tous les utilisateurs qui, parce qu’ils y participent, améliorent le monde et partagent à la fois l’innovation, son processus et même le domaine d’application du programme. Et une fois formalisé en droit par le concept de licence libre, cela s’applique désormais à bien d’autres productions que les seuls programmes informatiques : les connaissances, la musique, la vidéo, le matériel, etc.

Le logiciel libre représente un épisode divergent dans le story telling des Silicon Valley et des Steve Jobs du monde entier. Il correspond à un moment où, dans cette logique de conversion des techno-utopistes au capitalisme, la principale faille fut signalée : l’aliénation des utilisateurs des technologies. Et le remède fut compris : pour libérer les utilisateurs, il faut qu’il participent eux-mêmes en partageant les connaissances et la contrepartie de ce partage est l’obligation du partage. Et on sait, depuis lors, que ce modèle alternatif n’empêche nullement le profit puisque celui-ci se loge dans l’exercice des connaissances (l’expertise est monnayable) ou dans la plus-value elle-même de programmes fortement innovants qui permettent la production de services ou de nouveaux matériels, etc.

Économie du partage ?

Il faut comprendre, néanmoins, que les fruits de l’intellectualisme californien des seventies n’étaient pas tous intentionnellement tournés vers le dieu Capital, un peu à la manière dont Mark Zuckerberg a fondé Facebook en s’octroyant cette fonction salvatrice, presque morale, de facilitateur de lien social. Certains projets, voire une grande majorité, partaient réellement d’une intention parfaitement en phase avec l’idéal d’une meilleure société fondée sur le partage et le bien commun. La plupart du temps, ils proposaient un modèle économique fondé non pas sur les limitations d’usage (payer pour avoir l’exclusivité de l’utilisation) mais sur l’adhésion à l’idéologie qui sous-tend l’innovation. Certains objets techniques furent donc des véhicules d’idéologie.

Dans les années 1973-1975, le projet Community Memory5 véhiculait de l’idéologie. Ses fondateurs, en particulier Lee Felsenstein (inventeur du premier ordinateur portable en 1981), se retrouvèrent par la suite au Homebrew Computer Club, le club d’informatique de la Silicon Valley naissante parmi lesquels on retrouva plus tard Steve Jobs. La Silicon Valley doit beaucoup à ce club, qui regroupa, à un moment ou à un autre, l’essentiel des hackers californiens. Avec la Community Memory, l’idée était de créer un système de communication non hiérarchisé dont les membres pouvaient partager de l’information de manière décentralisée. Community Memory utilisait les services de Resource One, une organisation non gouvernementale crée lors de la crise de 1970 et l’invasion américaine du Cambodge. Il s’agissait de mettre en place un accès à un calculateur pour tous ceux qui se reconnaissaient dans le mouvement de contre-culture de l’époque. Avec ce calculateur (Resource One Generalized Information Retrieval System – ROGIRS), des terminaux maillés sur le territoire américain et les lignes téléphoniques WATTS, les utilisateurs pouvaient entrer des informations sous forme de texte et les partager avec tous les membres de la communauté, programmeurs ou non, à partir de terminaux en accès libre. Il s’agissait généralement de petites annonces, de mini-tracts, etc. dont les mots-clé permettaient le classement.

Community Memory Project 1975 Computer History Museum Mountain View California CC By Sa Wikipedia
Community Memory Project 1975 Computer History Museum Mountain View California CC By Sa Wikipedia

Pour Lee Felsenstein, le principal intérêt du projet était de démocratiser l’usage de l’ordinateur, en réaction au monde universitaire ou aux élus des grandes entreprises qui s’en réservaient l’usage. Mais les caractéristiques du projet allaient beaucoup plus loin : pas de hiérarchie entre utilisateurs, respect de l’anonymat, aucune autorité ne pouvait hiérarchiser l’information, un accès égalitaire à l’information. En cela, le modèle s’opposait aux modèles classiques de communication par voie de presse, elle-même dépendante des orientations politiques des journaux. Il s’opposait de même à tout contrôle de l’État, dans un climat de méfiance entretenu par les épisodes de la Guerre du Vietnam ou le scandale du WaterGate. Ce système supposait donc, pour y accéder, que l’on accepte :

  1. de participer à et d’entrer dans une communauté et
  2. que les comptes à rendre se font au sein de cette communauté indépendamment de toute structure politique et surtout de l’État. Le système de pair à pair s’oppose frontalement à tout moyen de contrôle et de surveillance externe.

Quant au fait de payer quelques cents pour écrire (entrer des informations), cela consistait essentiellement à couvrir les frais d’infrastructure. Ce don participatif à la communauté finissait de boucler le cercle vertueux de l’équilibre économique d’un système que l’on peut qualifier d’humaniste.

Si beaucoup de hackers avaient intégré ce genre de principes et si Internet fut finalement conçu (pour sa partie non-militaire) autour de protocoles égalitaires, la part libertarienne et antiétatiste ne fut pas toujours complètement (et aveuglément) acceptée. L’exemple du logiciel libre le montre bien, puisqu’il s’agit de s’appuyer sur une justice instituée et réguler les usages.

Pour autant, combinée aux mécanismes des investissements financiers propres à la dynamique de la Silicon Valley, la logique du « moins d’État » fini par l’emporter. En l’absence (volontaire ou non) de principes clairement formalisés comme ceux du logiciel libre, les sociétés high-tech entrèrent dans un système concurrentiel dont les motivations consistaient à concilier le partage communautaire, l’indépendance vis-à-vis des institutions et la logique de profit. Le résultat ne pouvait être autre que la création d’un marché privateur reposant sur la mise en commun des pratiques elles-mêmes productrices de nouveaux besoins et de nouveaux marchés. Par exemple, en permettant au plus grand nombre possible de personnes de se servir d’un ordinateur pour partager de l’information, l’informatique personnelle devenait un marché ouvert et prometteur. Ce n’est pas par hasard que la fameuse « Lettre aux hobbyistes » de Bill Gates fut écrite en premier lieu à l’intention des membres du Homebrew Computer Club : le caractère mercantile et (donc) privateur des programmes informatiques est la contrepartie obligatoire, la conciliation entre les promesses d’un nouveau monde technologique a-politique et le marché capitaliste qui peut les réaliser.

C’est de ce bain que sortirent les principales avancées informatiques des années 1980 et 1990, ainsi que le changement des pratiques qu’elles finirent par induire dans la société, de la gestion de nos comptes bancaires aux programmes de nos téléphones portables.


  1. Fred Turner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand un homme d’influence, Trad. Fr., Caen: C&F Éd., 2012.
  2. Richard M. Stallman, Sam Williams, Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Paris: Eyrolles/Framasoft, 2010.
  3. Steven Lévy, L’Éthique des hackers, Paris: Globe, 2013, pp.–169 sq.
  4. Voir Richard Stallman et la révolution du logiciel libre, op.&nbscit., chap. 7.
  5. On peut aussi se reporter à Bob Doub, « Community Memory: Precedents in Social Media and Movements », Computer History Museum, 2016.



Opération « Dégooglisons » à Nevers les 24/25/26 juin

Mi-avril, les services de la ville de Nevers, dans le cadre de leur Année du Numérique, ont pris contact avec nous pour nous proposer d’animer, avec Nevers Libre (le tout récent GULL local) un événement d’envergure autour de la thématique de la décentralisation d’internet.

On y parlera donc essentiellement de la concentration des pouvoirs des GAFAM (Google, Apple, Facebook, Amazon, Microsoft), mais aussi auto-hébergement, biens communs, et bien évidemment logiciels libres !

Opération Dégooglisons à Nevers

Les temps forts

Nous commencerons dès le vendredi 24 juin par une présentation du manifeste et de la charte de notre futur projet CHATONS, qui sera suivie par une projection-débat du documentaire « Les Nouveaux Loups du Web ». C’est l’occasion pour nous de remercier le cinéMazarin de nous accueillir. Vous pouvez pré-reserver vos places !

Dès le samedi matin et jusqu’au dimanche soir, vous pourrez retrouver à l’Inkub vos structures préférées sur un village du libre : April, Cozy Cloud, FabLab de Clamecy, FFDN, Framasoft, Nevers Libre, La Quadrature du Net, OpenStreetMap, PIQO, SavoirsCom1, Ville et Agglomération de Nevers.

La journée débutera par une introduction au logiciel libre (April), et se poursuivra par la présentation des enjeux de la décentralisation (Framasoft), la démonstration d’outils (Cozy Cloud, notamment), et le cas d’un secteur « non-informatique » impacté (celui de la presse, avec nos amis de NextINpact).

Le dimanche verra sa matinée consacrée à une « carte blanche à Louis Pouzin » inventeur du datagramme, précurseur d’internet et natif de la Nièvre. Il participera notamment à une table ronde sur l’enjeu de la question d’un internet neutre et décentralisé, au côté le La Quadrature, de la Fédération FDN, et bien d’autres. Enfin, le week-end s’achèvera par une dernière table ronde qui visera à prendre un peu de recul en abordant la question des « communs numériques » à l’heure de GAFAM.

Les nouveaux loups du web

Le « off »

Le samedi soir, un BarCamp sera organisé. Pour rappel, un BarCamp est une « non-conférence », donc les sujets ne sont évidemment pas définis, car c’est vous qui décidez 😉

Par ailleurs, en parallèle des conférences, des ateliers s’enchaîneront le samedi et le dimanche, autour du thème de ces journées : contributions à OpenStreetMap ou Wikipédia, utilisation de Cozy Cloud, démonstration d’outils Framasoft, ateliers d’auto-hébergement, etc.

Ces temps sont volontairement ouverts à tou-te-s afin d’avoir un programme « souple » permettant à chacun de participer et de partager ses questions et ses connaissances.

Venez !

Pour nous retrouver, rien de tel qu’une Framacarte 😉

 

Voir en plein écran

Le programme complet

Vendredi 24/06

APRES MIDI

Lieu : Lycée Raoul Follereau, 9 Bd St-Exupéry, Nevers

  • 14H Intervention « Internet et vie privée : je t’aime, moi non plus ? » (Framasoft)

SOIRÉE

Lieu CinéMAZARIN, 120 rue de Charleville, Nevers
  • 20H à 20H30: Conférence de presse : Annonce manifeste et charte CHATONS, par Framasoft.
  • 20H30 : projection-débat du documentaire « Les Nouveaux Loups du Web », de Cullen Hoback (1h15)

Avez vous déjà lu les conditions générales d’utilisation des données privées présentes sur chaque site internet que vous visitez, ou sur les applications que vous utilisez ? Bien sûr que non. Et pourtant, ces mentions autorisent les entreprises à utiliser vos informations personnelles dans un cadre au delà de votre imagination. Le film vous révèle ce que les entreprises et les gouvernements vous soustraient en toute légalité, à partir du moment où vous avez cliqué sur « J’accepte », et les conséquences scandaleuses qui en découlent. La projection du film sera suivie d’un débat animé par l’association Framasoft.

Samedi 25/06

Lieu : l’Inkub, site Pittié, 5 rue du 13eme de ligne, Nevers

Tout au long de la journée, retrouvez sur le « village associatif » différentes associations qui pourront vous présenter différents aspects du logiciel et de la culture libres. Différents ateliers animés par ces mêmes structures pourront vous permettre de pratiquer (« Comment contribuer à Wikipédia ou OpenStreetMap ? », « Utilisation de CozyCloud », « Créer un fournisseur d’accès à internet libre de proximité », « Mieux contrôler sa vie privée avec Firefox », etc.)

MATIN

  • 10/12H : Conférence « Qu’est ce que le Logiciel libre ? »

Cette conférence vise à présenter au grand public ce qu’est le logiciel libre, son histoire, ainsi que les enjeux de ce mouvement qui est loin de n’être que technique.

Intervenantes : Magali Garnero, Odile Benassy, Association April

APRÈS MIDI

  • 14H/15H30 : conférence « Nos vies privées sont-elles solubles dans les silos de données de Google ? »

L’emprise de Google, Apple, Facebook, Amazon ou Microsoft ne cesse de croître. Non seulement sur internet, mais aussi dans bien d’autres domaines (robotique, automobile, santé, presse, média, etc). L’association Framasoft s’est fixé l’ambitieuse mission de montrer qu’il était possible – grâce au logiciel libre – de résister à la colonisation d’internet et à marchandisation de notre vie privée.

Intervenants : Pierre-Yves Gosset, Pouhiou, Association Framasoft

  • 16H00/17H30 : conférence « Google, un big brother aux pieds d’argile ! »

Cozy permet à n’importe qui d’avoir son serveur web et de l’administrer à travers une interface très simple. Il offre la possibilité d’installer des applications web et de stocker ses données personnelles sur un matériel que l’on maîtrise. Contacts, calendriers, fichiers… Tout est au même endroit !

Intervenant : Benjamin André, CEO et co-fondateur de Cozy Cloud

  • 18H00/19H30 : Paroles croisées « La presse à l’heure des GAFAM »

Tous les secteurs sont impactés par l’omniprésence et la puissance des géants du numérique (Google, Apple, Facebook, Amazon, Microsoft, etc.). La presse n’est pas épargnée. Comment s’adapter aux changements de pratiques des lecteurs ? Comment résister à la pression des plateformes ? Quels sont les modèles économiques existants ou à inventer ? Quels sont les impacts sur le métier de journaliste ? En croisant les expériences d’un journal historiquement « papier » à dimension régional et celui d’un site d’informations spécialisé né sur internet, nous essaieront de mettre en valeur les enjeux d’une presse à traversée par le numérique.

Intervenants : David Legrand, directeur des rédactions de NextInpact, Jean Philippe Berthin, rédacteur en chef du Journal du Centre

Animateur : Pierre-Yves Gosset, Framasoft

A partir de 20H : BARCAMP : « Venez découvrir et contribuer à des projets libres (OpenStreetMap, Wikipédia, Firefox, Cozy, etc.) »
Wikipédia définit le barcamp comme « une non-conférence ouverte qui prend la forme d’ateliers-événements participatifs où le contenu est fourni par les participants qui doivent tous, à un titre ou à un autre, apporter quelque chose au Barcamp. C’est le principe pas de spectateur, tous participants. »

Dimanche 26

Lieu : l’Inkub, site Pittié, 5 rue du 13eme de ligne, Nevers

MATIN

  • 10h à 10h45 : Carte blanche à Louis Pouzin
  • 11H/13h00 : Table ronde citoyenne : « Un internet neutre et relocalisé : quels enjeux pour les territoires ? »

« Le « cloud », c’est l’ordinateur de quelqu’un d’autre. ». Au travers des regards et expériences de différents acteurs tentant – chacun à leur façon – de promouvoir un internet et des services de proximité au service des citoyen, la table ronde vise à explorer les pistes de résistance à une appropriation d’internet par quelques entreprises.

Intervenants : Fédération FDN, Association April, La Quadrature du Net, Stéphane Bernier (DSI Ville de Nevers), Quentin Bouteiller (Nevers Libre), Louis Pouzin

Animateur : Benjamin Jean (Inno3)

APRES MIDI

  • 14H/16H : table ronde « Les communs numériques »

Pour conclure ces journées, cette table ronde vise à « prendre de la hauteur » en posant la question essentielle de la présence des « communs » à l’heure du numérique, mais aussi des pressions sociétales, lobbyistes, économiques auquel ces ressources doivent faire face.

Intervenants : Odile Benassy (April), Christian Quest (Président OpenStreetMap France), Pouhiou (Collectif SavoirsCom1)

Animateur : Jérémie Nestel

  • 16H : Clôture de l’événement : Alain Bourcier, Vice Président de l’Agglomération de Nevers en Charge du Numérique

 

Téléchargez le programme complet en version PDF.

 

Nous remercions chaleureusement tous les partenaires de cet événement (Ville/agglo de Nevers, Nevers Libre, PIQO, etc.) ainsi que toutes les structures ayant répondu présentes, et nous espérons vous voir nombreuses et nombreux pour partager ce moment avec nous !

 

Partenaires de l'opération

 




Il faut libérer Nuit Debout !

Chez Framasoft on aime bien quand les gens utilisent nos services « Dégooglisons ». C’est pour ça que quand on a vu que le mouvement Nuit Debout utilise l’outil Framacarte et l’intègrer sur son site officiel notre première réaction ça a été : « Chouette ! ». Notre deuxième ça a été : « Et si on interviewait ce joyeux geek qui a repris la Framacarte pour lui demander ce qu’il en pense ? ».

Séance de vote à Nuit Debout
Séance de vote à Nuit Debout

On s’est donc mis à la recherche du mystérieux développeur qui avait créé la Framacarte de Nuit Debout pour lui poser nos questions. Autant vous dire que ça n’a pas été facile ! Pas de mail ou de formulaire de contact sur leur site, pas de service presse ou communication et encore moins d’organigramme pour retrouver qui fait quoi chez eux. Bilan de l’enquête, tout ce qu’on a obtenu, c’est un pseudo, « Pea », le libriste concepteur de la Framacarte de Nuit Debout. Mais nos recherches nous ont amené à discuter avec tout plein de geeks qui collaborent à Nuit Debout et qui ont tenté de nous donner le point de vue du mouvement concernant les logiciels libres, la surveillance d’Internet, le libre accès à l’information, etc.
On a donc décidé de vous faire une petite synthèse de tous ces échanges qui peuvent constituer, non pas un point de vue officiel de Nuit Debout, mais au moins la tendance générale du mouvement.

« Pea », quant à toi, si tu existes vraiment, n’hésite pas à te manifester, car on ne perd pas espoir de t’interviewer !

Le moins que l’on puisse dire, c’est que Nuit Debout n’est pas indifférent à la question des logiciels libres et même à la culture libre en général. Pour s’en convaincre, il suffit d’aller faire un tour sur le site wiki, et plus précisément à la page Numérique. Nuit Debout essaie, quand c’est possible, de favoriser l’utilisation de logiciels libres ou au moins open-source. Ils utilisent par exemple le tchat Rocket, Mediawiki pour leur wiki et même pas mal d’outils Framasoft comme les framapads, framacalcs, etc. Pierre Lalu, un des administrateurs du tchat de Nuit Debout a d’ailleurs confirmé que la question des logiciels libres et open-source était « centrale » pour Nuit Debout. En discutant avec les nuit-deboutistes (ça se dit, ça ?), on se rend rapidement compte que, comme nous, ils ne portent pas particulièrement les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) dans leurs cœurs. Ils dénoncent unanimement le modèle de société proposé par ces grands groupes. C’est même une de leurs préoccupations, même s’ils voudraient que le sujet soit plus abordé au cours de leurs assemblées générales : « De toute façon nous n’avons fait qu’effleurer les problématiques liées au numérique dans la société… Nous n’avons pas encore évoqué par exemple les sociétés comme Uber ou les livraisons de repas qui participent à un modèle de société où chacun est son propre petit patron exploité, et ça fait partie de la société que nous rejetons (je crois) » me disait @mex. Au-delà des logiciels libres, de nombreux sujets touchant au numérique le préoccupent :
« – Veut-on du modèle de société que nous apportent Uber/Blablacar/Airbnb/Deliveroo, etc. ?
– La place des femmes dans l’informatique ;
– La robotisation VS la perte d’emplois ;
– Bientôt, les questions de singularité et de transhumanisme ».

12976855_1597712423878280_6639492834143097761_o
Stand de Libre@Toi* – Fourni par OliCat

Dans son fonctionnement, Nuit Debout a adopté nombre de solutions issues de la philosophie libriste. L’autogestion prônée par le mouvement rappelle celle qui gouverne la conception de nombreux logiciels libres. Certains geeks rencontrés m’ont d’ailleurs confiés collaborer fréquemment au développement de logiciels libres. Nuit Debout s’est d’ailleurs tournée vers La Quadrature Du Net qui, au nom de ces valeurs communes, a accepté d’héberger son chat et d’autres sites rattachés au mouvement. Ces sites, ainsi que leur contenu, sont pour la plupart sous licence libre, à l’exception du logo de Nuit Debout.

EDIT 26/04/2016 : Ce n’est pas La Quadrature Du Net qui héberge les services de Nuit Debout, mais une personne membre de LQDN qui exerce par ailleurs une activité d’hébergeur. Pardon à nos ami-e-s de La Quadrature d’avoir entretenu la confusion.

Alors, le Libre a-t-il vraiment conquis Nuit Debout ? Eh bien malheureusement, pas vraiment. Si les membres de Nuit Debout utilisent volontiers des outils libres quand ils sont disponibles, ils n’ont pas de problème à utiliser des logiciels propriétaires, voir les services des affreux GAFAM, faute de mieux. C’est ce que me disait Pierre Lalu : « Tant qu’on peut faire de l’open source et du libre, on le fait. S’il est indispensable d’utiliser du propriétaire, on le fait. Mais pour l’instant, rien n’entrave notre faim du logiciel libre. »

Un exemple concret de ce problème est le choix d’un système pour les votes par Internet. Les organisateurs de Nuit Debout cherchent depuis le début un moyen pour permettre à ceux qui ne sont pas présents physiquement de prendre part aux assemblées générales. Après plusieurs essais, la solution la plus globalement retenue est l’application Loomio, créée pour le mouvement Occupy Wall Street et sous licence libre (et dont Framasoft sortira une version relocalisée dans le cadre de sa campagne Dégooglisons Internet. Mais devant la difficulté à faire adopter Loomio au grand public, beaucoup de rassemblements se sont finalement rabattus sur Google Hangouts. De même pour la communication, Facebook est un outil essentiel du mouvement.

En fait, Nuit Debout rencontre ici un problème qu’on connaît bien à Framasoft : si les avertis sont convaincus de l’intérêt des logiciels libres, il reste très compliqué de convaincre le grand public. Comme me le dit Pierre Lalu, « avant de parler de logiciels libres, il y a besoin que des gens se forment à des outils très simples ». À Framasoft on répondra que les logiciels libres peuvent être simples et le sont souvent, mais on sait aussi que le simple terme en effraie plus d’un. Le tout est donc d’aborder la question avec pédagogie afin de convaincre le plus grand nombre, non seulement de l’intérêt des logiciels libres, mais aussi de leur facilité d’utilisation. Sauf que, comme l’ont dit plusieurs organisateurs, dans les nombreux stands existants place de la République, on ne trouve pas encore de stand pour promouvoir la philosophie libriste. En fait, le seul stand que j’ai trouvé qui portait un panneau « 100% logiciel libre » est celui de nos copains de la webradio Libre@Toi* que nous avions déjà interviewés en septembre dernier. Je suis donc retourné voir OliCat, l’un des animateurs de la radio, pour savoir ce qu’il pensait de l’utilisation des logiciels libres à Nuit Debout.

Stand de Libre@Toi* – Photos par OliCat

Salut OliCat, même si à Framasoft on connaît bien Libre@Toi*, rappelle nous un peu qui tu es et ce que tu fais.
Libre@Toi* est une structure transmédia d’Éducation Populaire. Son but est d’initier un réseau pair à pair et open source où chacun se réapproprie les outils, les techniques et les concepts, les redistribue et contribue ainsi au bien commun. Libre@Toi* articule l’ensemble de son action autour des quatre principes énoncés comme des libertés par le mouvement du logiciel libre : utiliser, comprendre / analyser, redistribuer, modifier.

Je t’ai rencontré par hasard place de la République un soir, on peut savoir ce que tu faisais là-bas ?
Comme depuis plusieurs jours, nous y produisons en direct une émission qu’on a appelée « La place aux gens ». En retrait des AG, notre envie était tout simplement de recueillir la parole des gens sur place en leur demandant ce qu’ils faisaient à Nuit Debout. Une bonne entrée en matière pour verbaliser les craintes, mais aussi et surtout les espoirs.
Par ailleurs, nous nous faisons également l’écho des quelques poches de résistance présentes sur la place ou d’initiatives sympas qui prennent forme bien loin du tumulte des assemblées générales. Par exemple, nous aimons diffuser les prises de paroles de la commission Santé.
Nous avons également tendu nos micros et quelques casques aux participants d’une lecture / débat organisée à la sauvage autour d’un bouquin de Lordon. Ça a donné lieu à une émission de très bonne facture à laquelle a d’ailleurs participé Judith Bernard qui passait par là et s’est assise avec Thomas, l’instituteur qui avait lancé cet atelier pour finalement l’animer avec lui.

Qu’est-ce qui vous a poussé à installer Libre@Toi* au milieu de la Nuit Debout ? Il existe déjà une radio-debout non ? Vous apportez quoi de différent ?
Ta question est étonnante mais très révélatrice de l’ambiance sur place. Les gens veulent faire la révolution mais ont besoin des modèles qui constituent le monde qu’ils sont sensés rejeter avec ce mouvement. Nous ne comptons pas le nombre de ceux qui, à juste titre ou par pur fantasme s’estimant détenteurs de la « bonne parole » concernant Nuit Debout, commencent par nous demander si nous sommes Radio Debout. Et la plupart, évidemment préfère aller leur parler. En gros, ils cherchent le TF1 ou le BFMTV de la place de la République. C’est finalement plutôt amusant. Alors, qu’est-ce qu’on apporte de différent ? Ben précisément ça : un média alternatif.

C’est quoi le rapport entre Nuit Debout et la culture libre pour toi ?
S’il s’agit bien, à Nuit Debout, d’initier le mouvement vers le monde d’après, alors la Culture Libre est – ou devrait – être au cœur des structures qui organisent la lutte. C’est en effet pour Libre@Toi* une exigence, un mot d’ordre assez évident.

En parlant avec des gars de Nuit Debout j’ai bien vu qu’ils sympathisaient avec la philosophie du Libre sans pour autant faire grand-chose à ce sujet, c’est quelque chose que tu as remarqué aussi ?
C’est assez tardivement (sans doute aussi un peu par provocation) que nous avons accroché à notre stand une pancarte « 100% Logiciels Libres ». Et du coup, en effet, on a été contraint d’expliquer ce positionnement aux uns aux autres. Le moment drôle, c’est quand Radio Debout est venue nous demander de parler logiciels libres sur leur antenne. Ce que nous n’avons évidemment pas fait : ils peuvent venir quand ils veulent, à notre micro, causer logiciels libres avec nous en revanche ! 😀
Donc, pour te répondre : les Nuits Debouts sentent bien une pression au sujet du logiciel libre puisque d’autres que nous, La Quadrature par exemple, ont tenté de les y sensibiliser. Mais c’est clairement quelque chose de lointain. Un truc auquel ils n’ont pas pensé et dont la logique politique leur échappe complètement.

 

une interview sur le place de la République
une interview sur le place de la République

 

Est-ce que vous profitez de votre présence place de la République pour sensibiliser les gens aux logiciels libres ? Est-ce qu’on vient vous en parler d’ailleurs ?
J’ai un peu répondu au-dessus. La raison de notre présence à Nuit Debout, ce n’est pas de faire de l’évangélisation, mais bien de donner « leur place aux gens » en libérant leur parole, sans le théâtre des assemblées générales et autres commissions. La promotion du logiciel libre, nous la faisons par ailleurs chez Libre@Toi*, mais je ne t’apprends rien.

Et d’ailleurs vous avez donné des coups de main pour « libérer » Nuit Debout ?
Notre premier choc, ça a été le lancement de Radio Debout qui impose à chacun pour les écouter, la présence d’un lecteur Flash sur leur ordinateur. Ainsi, ceux qui venaient porter la voix de la « révolution » utilisaient Mixlr. Avec du recul, c’est risible. Sur ce la Quadrature est arrivée avec la promesse de « libérer Radio Debout » sur l’initiative de Benjamin Sonntag. Cette tentative ayant échoué, j’ai proposé et à plusieurs reprises de fournir un serveur Icecast. On a juste été snobés. Alors est-ce qu’on donne un coup de main pour libérer Nuit Debout ? Oui, en portant sa voix, différemment.


Ce qu’on peut donc dire de Nuit Debout c’est que le terreau pour accueillir les logiciels libres est fertile. Certains ont même déjà commencé à planter quelques graines. Mais ils sont en manque cruel de jardinier pour les former et faire croître la philosophie Libre chez eux. Il reste donc à trouver les volontaires prêts à ouvrir les stands Libre-Debout dans tous les rassemblements de France afin que les logiciels libres ne soient plus seulement un vœu pieux de Nuit Debout mais bien une réalité.

Pour celles et ceux qui souhaiteraient en savoir plus sur les aspects techniques « derrière » Nuit Debout, nous les renvoyons à la lecture de l’article « #NuitDebout : comment l’orchestre participatif s’est organisé » de Rue89 (où l’on apprend que Nuit Debout utilise a aussi utilisé un Framadate à 367 participants) et « Mais qui contrôle le site nuitdebout.fr » de Numérama.

Merci à Pierre Lalu, @mex, @pm56, @lili et à tous ceux qui ont répondu à mes questions sur le chat de Nuit Debout.




Boris, ébéniste libre

La culture libre, ce n’est pas que du logiciel, de la musique et des bouquins !

Boris nous parle d’ébénisterie libre, et rien que de voir ses vidéos ça donne envie de s’y mettre.

 


Qui es-tu ? D’où viens-tu ?
Je suis Boris Beaulant, un garçon qui a grandi en bricolant avec les outils de papa, un jeune ingénieur diplômé qui a passé dix années dans l’univers de la programmation et y a découvert le philosophie du logiciel libre. Et maintenant, un homme qui a eu envie de bifurquer en se reconvertissant pour devenir ébéniste.
Je crois pouvoir dire que mon parcours scolaire m’a appris à apprendre. Pour le reste, c’est donc en autodidacte que je me suis formé. Autant devant un ordinateur que devant un établi.

Quel est ton projet actuel ? En quoi consiste-t-il, exactement ?
Mon projet (enfin, le projet qui nous occupe ici) est grandement lié à mon parcours, à la manière dont j’ai appris les choses et à la philosophie qui était derrière. Ce projet, c’est L’Air du Bois. L’Air du Bois c’est un site web, mais pas que. Lancé en février 2013, L’Air du Bois est une plate-forme qui permet à chacun de partager ses connaissances autour du travail du bois et de venir en puiser d’autres. L’Air du Bois, c’est donc une communauté réunie autour d’un outil et d’une philosophie.
Cette philosophie maîtresse qui a guidé le développement du site est de permettre à chacun de contribuer simplement et à son niveau à un tout plus grand. Ce tout restant libre et gratuit.
Rien de complètement neuf. C’est finalement un mode d’échange qui existe naturellement chez l’homme. Là où pour moi l’outil avait tout son intérêt, c’est qu’il devait savoir réunir, classer, organiser, présenter… bref faire tout ce qui peut être rébarbatif pour les contributeurs et visiteurs.

Est-ce que ta démarche correspond à ce que les anglo-saxons appellent open-hardware ?
Je ne connaissais pas le terme open-hardware. À la lecture de la définition sur Wikipédia, je pense qu’il y a des similitudes dans la démarche.

Où veux tu aller ? Comment ? Avec qui et pourquoi ?
Ce qu’il faut voir, c’est qu’un tel projet peut aller très loin en terme de profondeur de contenu. Mon ambition, c’est qu’il puisse être une véritable boîte à outils de l’amoureux du travail du bois. Autant catalogue d’idées et de savoirs qu’annuaire de bonnes adresses. Bref, répondre au mieux aux questions qu’on peut se poser quand on travaille le bois.
Excepté pour des questions d’éthique, il n’y a pas de super contrôleur de contenu (modérateur) sur L’Air du Bois. Ce que j’aime à penser, c’est que ce type de plate-forme peut s’autogérer si elle a été pensée pour. Et c’est bien là qu’est la force du « qui ».
Par ailleurs, je ne vois pas L’Air du Bois comme un outil qui se contenterait d’exister seul. Je ne l’imagine pas sans chercher à collaborer avec les autres moyens d’échanger (forums, réseaux sociaux, wiki, etc.).

Le libre et la licence libre — pour toi, qu’est-ce que c’est ?
La notion du libre est assez large à mes yeux. D’autant qu’elle peut s’appliquer sur une multitude de domaines. Mais une chose reste générale pour moi, c’est la volonté d’échange et de mise en commun hors du système monétaire. Ce que A fait peut être complété par B pour servir à C. Et cet ensemble est mouvant. Chacun peut à son tour être soit contributeur, soit utilisateur.

Comment penses-tu l’inclure dans ton projet ou t’inclure dans le projet du libre ?
Sur L’Air du Bois, il y a plusieurs niveaux de partage. On y partage des projets concrets, des idées, des méthodes, du savoir. Chaque niveau peut avoir ses nuances. Mais d’une façon générale, les contributeurs auront le choix de partager suivant les diverses variantes de la licence Creative Commons. Et le panel est resté complet, parce que, à mes yeux, la philosophie du libre c’est aussi avoir le choix.

Nous, les libristes de l’informatique, on écume les salons et les conventions avec notre PC sous le bras. Est-ce que tu montres tes machines à bois ? Est-ce qu’on peut te rencontrer en vrai ?

Bien sûr, qu’on peut se rencontrer en vrai ! Et ça me ferait grand plaisir de montrer mes machines et mon atelier. Ma porte est grande ouverte.
Si tu as la curiosité de voir mon boulot tout de suite, je t’invite à jeter un coup d’œil sur mes vidéos.

Le Zélo - vélo couché en bois par Boris sur L'Air du Bois
Le Zélo – vélo couché en bois – photo Boris Beaulant – licence CC-BY-NC-SA

Comment est-ce qu’on peut t’aider à faire avancer ton projet ?
En en parlant, c’est déjà un gros coup de main. Après, pour aller plus loin, je me dis que l’Air du Bois ne doit pas rester comme un truc à part. Ça doit pouvoir s’intégrer dans une mouvement plus large. Et dans ce sens, je recherche des « partenaires » qui pourraient à la fois être utilisateurs et contributeurs (de contenu) de cet outil. Je pense aux FabLab, aux ateliers associatifs, etc.

Le message est passé !
http://www.lairdubois.fr/

logo l’air du boisMerci à Raymond Rochedieu, le doyen du groupe Framabook, d’avoir mené cet entretien.




3 auteurs de romans Framabook en dédicace à Paris !

Vous l’avez peut-être remarqué, mais la collection Framabook est active, et se diversifie de plus en plus… allant même défendre la Culture Libre dans la fiction !

Alors pour fêter cela, on s’est dit qu’on allait mettre nos auteur-e-s de romans Libre à l’honneur lors d’une dédicace… Car quoi de mieux pour faire découvrir le Libre aux Dupuis-Morizeau de notre entourage que de trouver au pied du sapin un roman dédicacé personnellement… Une histoire qu’ils peuvent adapter, reprendre, diffuser autour d’eux, voire dont ils peuvent écrire la suite…?

affiche framadedi- v1

On connaît déjà 2 romancier-e-s Framabook…

 

Apolog_couv#Apolog, de Pouhiou

Il y a bien entendu Pouhiou qui, quand il n’est pas Framaslave ou ne parle pas de sexe libre et open-source, continue de temps en temps d’écrire les aventures des NoéNautes, ses télépathes foutraques, aux bras cassés et pieds nickelés.

Le 3e roman de la série des NoéNautes, #Apolog, est sorti en août dernier, et bonne nouvelle : pas besoin d’avoir lu les deux tomes précédents pour l’apprécier !

En revenant aux origines de la prophétie qui pourrit la vie de ses personnages, Pouhiou se permet de réécrire l’Histoire avec l’irrévérence qu’on lui connaît…

Tout en balisant son roman d’un « code » littéraire nous méta-donnant des infos afin d’encore mieux jouer avec notre esprit.

 

Avant de dormir, CouvertureAvant de dormir, de Lilly Bouriot

Lilly, c’est notre auteure-prodige. Une jeune femme si talentueuse qu’elle a vu son premier roman édité avant même que d’aller passer son bac de Français.

Il faut dire qu’Avant de dormir est une œuvre singulière. Un conte initiatique, une épopée gothique à l’imaginaire dense qui ne dépaysera pas les amateurs de Lovecraft ou de Neil Gaiman.

C’est l’histoire d’Andreï, un adolescent de 13 ans qui emménage dans une ville où un mal mystérieux tue ses voisins par dizaine. Lorsqu’Andreï découvre sous son lit un passage vers une forêt et un monde peuplé de monstres, il décide de partir à la recherche de celle qui pourrait être à l’origine de ces malheurs : la Vouivre.

…et le 3e auteur est une exclu !

vfvv_premcouvVieux flic et vieux voyou, de Frédéric Urbain

Une exclu dans le Libre, vraiment…? OK : parlons plutôt d’avant-première. À l’heure où nous écrivons ces lignes, le polar drôle et prenant de Frédéric Urbain est en cours d’édition, et n’est pas encore officiellement sorti. Vous l’aurez donc avant tout le monde lors de cette séance de dédicaces !

Frédéric est connu du groupe Framabook, puisqu’il en est l’un des correcteurs. Mais il n’a pas bénéficié de passe-droit pour autant : comme les autres, son roman est passé en comité de lecture et la qualité de son intrigue, l’humour des situations comme la langue enlevée de ces personnages nous ont séduits.

Vieux flic et vieux voyou est un polar dans la plus pure tradition de ces romans de gare qui nous font délicieusement frissonner. Deux papys (un flic à la retraite et un pickpocket rangé des affaires) s’embarquent dans une enquête au suspense maîtrisé, qui va leur faire traîner leur expérience, leurs rhumatismes et leur argot de titis dans les rues de Paname… entre meurtre, trafic de drogue, et tracking GPS.

À vous de diffuser la Culture Libre

Tous ces livres sont Libres (CC-0 pour les romans de Frédéric Urbain et Pouhiou, LAL pour celui de Lilly Bouriot). Ce qui signifie que vous pourrez venir dans la librairie avec votre clé USB et repartir avec tous les romans dans votre poche !

Le logiciel libre bénéficie déjà de communautés qui veillent à le faire connaître et adopter par un maximum de monde. La culture libre ne profite pas encore de ces prescripteurs et prescriptrices, et pourtant… Pourtant c’est une porte d’entrée formidable vers le Libre pour toutes les personnes qui angoissent à l’idée de changer leurs habitudes logicielles.

À vous donc de faire passer l’info autour de vous, et d’emmener un maximum de monde à cette rencontre avec des auteur-e-s qui remettent en question le paradigme vieillissant de la propriété intellectuelle classique 😉

Rendez-vous donc le vendredi 11 décembre dès 19h

À la librairie libriste À Livr’Ouvert

171 bvd Voltaire (M° Charonne)

Pour une Framarencontre très conviviale !




Menaces sur les œuvres du domaine public

La numérisation des collections patrimoniales des musées devrait constituer une chance pour la diffusion de la culture. Trop souvent hélas, ce n’est pas le cas, à cause du copyfraud auquel se livrent les institutions. Comme l’a dit très justement Pier-Carl Langlais, le copyfraud est l’inverse du piratage : une revendication abusive de droits sur le domaine public pour en restreindre la réutilisation.

Les exemples de copyfraud ne manquaient déjà pas, mais le Reiss Engelhorn Museum de Mannheim en Allemagne a franchi cette semaine une ligne rouge en la matière. L’établissement a en effet décidé d’attaquer en justice la Wikimedia Foundation et Wikimedia Deuschland, pour la diffusion de 17 images d’œuvres du domaine public sur Wikimedia Commons. Depuis 2008, la Wikimedia Foundation a défini une position très claire à propos du copyfraud, en indiquant qu’elle ne reconnaissait pas la légitimité des restrictions rajoutées sur la réutilisation d’images en deux dimensions d’œuvres du domaine public. L’année suivante, une alerte sérieuse s’était produite lorsque le wikimédien Derrick Coetzee avait téléversé sur Wikimedia Commons plusieurs milliers d’images extraites du site de la National Portrait Gallery de Londres. Son geste dénonçait le fait qu’elle portait un copyright alors qu’elles correspondaient à des œuvres du domaine public . La National Portait Gallery avait alors agité la menace d’un procès, sans la mettre à exécution à la différence cette fois du musée Reiss Engelhorn.

Si l’on peut déplorer un tel comportement de la part d’une institution patrimoniale, ce sera peut-être aussi l’occasion pour un tribunal de se prononcer sur la légalité des pratiques de copyfraud. Comme le dit la fondation Wikimedia dans sa réponse au musée, la reproduction fidèle de tableaux ne crée pas une « nouvelle œuvre » et il est improbable que ces photographies satisfassent au critère de l’originalité, impliquant que le créateur imprime « l’empreinte de sa personnalité » dans son œuvre pour bénéficier d’une protection.

En France également, nombreux sont les établissements culturels se livrant à des pratiques de copyfraud. Le site Images d’art, lancé récemment par la Réunion des Musées Nationaux, comporte plus de 500 000 œuvres numérisées provenant de nombreux musées français. Mais toutes ces images portent le copyright du photographe les ayant réalisées, ce qui en interdit la réutilisation. Quelques institutions choisissent pourtant au contraire de diffuser librement leurs images et certaines comme le Musée des Augustins à Toulouse ou le Musée des Beaux Arts de Lyon ont engagé des partenariats avec Wikimedia France pour diffuser leurs images sur Wikipédia . Mais elles restent encore minoritaires.

Le plus inquiétant, c’est que la loi française risque bientôt d’évoluer pour légaliser les pratiques de copyfraud. Le recours au droit d’auteur par le musée Reiss Engelhorn reste juridiquement très fragile et la fondation Wikimédia peut encore affronter un procès avec des chances sérieuses de l’emporter. Mais la loi Valter, actuellement en cours d’adoption, s’apprête à consacrer la possibilité pour les établissements culturels de fixer des redevances de réutilisation sur les reproductions d’œuvres qu’elles produisent — y compris à partir des œuvres du domaine public —  en les assimilant à des données publiques.

Là où devant la justice allemande, on peut encore revendiquer le droit de réutiliser le domaine public librement, ce ne sera peut-être bientôt plus possible en France.

Lionel Maurel (Calimaq)

*  *  *  *  *

Wikimedia Foundation et Wikimedia Deutschland invitent instamment le musée Reiss Engelhorn à abandonner ses poursuites concernant des œuvres d’art du domaine public.

source : cet article du blog de Wikimedia
Traduction Framalang : KoS, goofy, Bromind, sebastien, r0u

Le 28 octobre, le musée Reiss Engelhorn de Mannheim, en Allemagne, a intenté un procès à la Wikimedia Foundation et ensuite à Wikimedia Deutschland, la branche allemande du mouvement international Wikimedia. L’objet en est une plainte pour copyright concernant 17 images d’œuvres d’art du musée qui relèvent du domaine public et qui ont été mises en ligne sur Wikimedia Commons. Wikimedia Foundation et Wikimedia Deutschland examinent la plainte et feront une réponse commune avant l’échéance fixée en décembre.

La Wikimedia Foundation et Wikimedia Deutschland maintiennent fermement leur engagement à rendre les œuvres publiques gratuites et libres d’accès. Les institutions publiques telles que les galeries et musées ont la même mission, et ont été des alliées historiques pour rendre accessibles à tous les connaissances du monde entier. Avec ce procès, le musée Reiss Engelhorn limite l’accès public à d’importantes œuvres culturelles qui seraient inaccessibles autrement pour le reste du monde.

Les peintures, portraits et autres œuvres d’art concernés par ce procès sont exposés au sein du musée Reiss Engelhorn, mais sont déjà présents dans le domaine public. Quoi qu’il en soit, la loi allemande sur le droit d’auteur peut s’appliquer aux photographies des œuvres qui appartiennent au domaine public, selon différents critères incluant l’artiste créateur de l’œuvre lui-même, la compétence et les efforts qui ont été mis dans la photographie, la créativité et l’originalité, et enfin l’art en tant que tel. Le musée Reiss Engelhorn prétend que ces images sont soumises au droit d’auteur car le musée a rémunéré le photographe qui a pris certaines d’entre elles, ce qui lui a demandé du temps, de la compétence et des efforts pour les prendre. Le Musée Reiss Engelhorn affirme encore que, à  cause de ce droit d’auteur, les images des œuvres d’art ne peuvent pas être partagées au travers des Wikimedia Commons.

635px-Hendrick_Goltzius_Cadmus_Statens_Museum_for_Kunst_1183Les œuvres du domaine public affrontant l’hydre du droit d’auteur (allégorie)

(Hendrick Goltzius, Cadmus (Statens Museum for Kunst). Licence Domaine public via Commons)

La Wikimedia Foundation et Wikimedia Deutschland estiment que le point de vue du musée Reiss Engelhorn est erroné. Les lois sur le droit d’auteur ne doivent pas être utilisées à mauvais escient dans le but de contrôler la dissémination d’œuvres d’art appartenant au domaine public depuis longtemps, telles que les peintures exposées au musée Reiss Engelhorn. Le but du droit d’auteur est de récompenser la créativité et l’originalité, et non de créer de nouveaux droits limitant le partage en ligne d’images d’œuvres du domaine public. De plus, même si la loi allemande accorde quelques droits sur ces images, nous pensons qu’utiliser ces droits dans le but d’empêcher le partage des travaux du domaine public va à l’encontre de la mission du musée Reiss Engelhorn et de la ville de Mannheim et appauvrit l’héritage culturel mondial.

De nombreuses institutions se sont donné pour mission de rendre leurs collections le plus accessible possible pour le monde entier. En octobre, le musée des Arts et Métiers d’Hambourg, en Allemagne, a rendu sa collection accessible librement en ligne. Le Rijksmuseum d’Amsterdam a fourni un accès en ligne à toutes ses peintures, y compris la possibilité de les télécharger et d’utiliser les reproductions sous licence domaine public CC0. Au Danemark, SMK (Statens Museum for Kunst, la Galerie Nationale du Danemark) a rendu publiques ses images et vidéos numériques sous la licence CC-BY. La British Library [N.d.T : Bibliothèque de Grande-Bretagne, équivalent de la BNF] et le Japan Center for Asian Historical Records [N.d.T : le Centre japonais d’archives historiques asiatiques] ont conjointement libéré plus de 200 gravures japonaises et chinoises dans le domaine public.
Ces institutions culturelles conservent les valeurs du domaine public et protègent le droit de prendre part à notre héritage culturel. La tentative du musée Reiss Engelhorn de créer un nouveau copyright dans le domaine public va à l’encontre des principes européens sur le domaine public.

soldatsFrançaisL’armée française part en campagne contre le copyfraud

(image issue du catalogue en ligne de The British Library, aucune restriction de droit d’auteur connue – Voir tous les détails)

Dans un communiqué du 11 août 2008, la Commission européenne a écrit : « il faut souligner qu’il est essentiel que les œuvres qui sont dans le domaine public restent accessibles après un changement de format. En d’autres termes, les œuvres qui sont dans le domaine public devraient y rester une fois numérisées et être rendues accessibles par Internet ». Cela a été renforcé par la charte d’Europeana de 2010 qui stipule : « Aucun autre droit sur la propriété intellectuelle ne doit être utilisé pour rétablir une exclusivité sur des matériaux du domaine public. Le domaine public fait partie intégrante de l’équilibre interne du système de droit d’auteur. Cet équilibre interne ne doit pas être rompu par des tentatives pour obtenir ou rétablir un contrôle exclusif via des règles extérieures au droit d’auteur. »

Ces dernières années, le mouvement Wikimédia a bénéficié de partenariats fructueux avec des musées et des galeries à travers le monde grâce à l’initiative GLAM-Wiki, qui aide des institutions culturelles à partager leurs ressources avec le monde entier par le biais de projets de collaboration avec des éditeurs expérimentés de Wikipédia. Ces partenariats ont permis à des millions de personnes de découvrir et d’apprécier des collections situées dans des endroits qu’ils ne pourront jamais visiter. Wikimédia Deutschland, seule, a travaillé avec plus de 30 musées en Allemagne pour rendre leurs collections accessibles gratuitement à n’importe qui n’importe où, au travers des projets Wikimédia. Ces partenariats font partie d’un effort indispensable qui permet aux institutions culturelles et à Wikimédia d’accomplir leur mission de libération de la connaissance et de partage de la culture.

Partout dans le monde des gens utilisent Wikipédia pour découvrir et comprendre le monde qui les entoure. Grâce à Internet, de nombreux obstacles traditionnels à la connaissance et à l’apprentissage ont disparu. Refuser l’accès en ligne à des images du domaine public empêche les gens d’explorer et de partager notre patrimoine culturel mondial. Nous exhortons le musée Reiss Engelhorn à reconsidérer sa position et à travailler avec la communauté Wikimédia pour rendre encore plus accessibles leurs œuvres élevées dans le domaine public.

Michelle Paulson, Legal Director
Geoff Brigham, General Counsel
Wikimedia Foundation