Quand on touche à la vie privée, c’est la démocratie qui est menacée (1/3)

Une conférence d’Eben Moglen

Nous proposons aujourd’hui la première partie d’une longue conférence d’Eben Moglen qui envisage les révélations de Snowden dans une perspective historique pour montrer comment ont été dévoyés les principes démocratiques au profit de la surveillance généralisée, et comment au-delà de la vie privée individuelle de chacun c’est le fragile équilibre démocratique qui est menacé.

Source : le Guardian Privacy under attack: the NSA files revealed new threats to democracy

Traduction : Thérèse et fatalerrors (Geoffray Levasseur), audionuma, Diab, Paul, Omegax, lumi, Paul, Goofy

Attaques contre la vie privée : les fichiers de la NSA ont révélé de nouvelles menaces pour la démocratie

Grâce à Edward Snowden, nous savons que l’appareil de répression a été secrètement intégré à l’État démocratique. Cependant, notre lutte pour préserver notre vie privée est loin d’être sans espoir.

Dans la troisième partie de son Histoire de la décadence et de la chute de l’Empire romain, Edward Gibbon expose deux raisons pour lesquelles l’esclavage dans lequel avaient sombré les Romains sous le règne de l’empereur Auguste et de ses successeurs les avait laissés plus misérables qu’aucun autre peuple esclave avant eux. En premier lieu, Gibbon déclare que les Romains avaient emporté avec eux, dans l’esclavage, la culture des peuples libres — leur langue et leur conception d’eux-mêmes en tant qu’êtres humains postulaient la liberté. Et en conséquence, selon Gibbon, malgré le poids de la corruption et de la violence militaire, les Romains ont longtemps gardé les sentiments, ou du moins les idées, d’un peuple né libre. En second lieu, l’Empire romain s’est étendu au monde entier et quand cet empire est tombé entre les mains d’une seule personne, le monde était devenu une prison sûre et morne pour ses ennemis. Comme l’écrit Gibbon, résister était fatal et il était impossible de s’échapper.

Le pouvoir de cet Empire romain résidait dans le contrôle des communications par ceux qui gouvernaient. La mer Méditerranée était leur lac. Et d’un bout à l’autre de leur empire, depuis l’Écosse jusqu’à la Syrie, ils ont tracé des voies qui quinze siècles plus tard étaient toujours les artères principales du transport européen. C’est par ces routes que l’empereur envoyait ses armées. Grâce à ces routes, les informations importantes remontaient jusqu’à lui. Les empereurs ont inventé les services de postes pour transporter messagers et dépêches à la plus grande vitesse possible.

En utilisant cette infrastructure pour tout ce qui impliquait l’administration du pouvoir, l’empereur avait fait en sorte de devenir l’être humain le mieux informé de toute l’histoire du monde.

Ce pouvoir avait éradiqué les libertés humaines. « Souviens-toi », dit Cicéron à Marcellus en exil, « où que tu sois, tu es à égale distance du pouvoir du conquérant. »

L’empire des États-Unis, après la Seconde Guerre mondiale, dépendait lui aussi du contrôle des communications. Ceci est devenu plus évident quand, à peine 20 ans plus tard, les États-Unis se sont enfermés dans un affrontement d’anéantissement nucléaire avec l’Union soviétique. Dans une guerre de sous-marins tapis dans l’ombre sous les continents, capables d’éradiquer toute civilisation humaine en moins d’une heure, la règle d’engagement était : « lancement sur alerte » [1]. En conséquence, les États-Unis ont donné au contrôle des communications une importance aussi grande que l’avait fait l’empereur Auguste. Leurs grandes oreilles avaient la même soif de tout savoir.

Nous savons tous que les États-Unis ont pendant des décennies dépensé autant pour leur puissance militaire que toutes les autres puissances mondiales réunies. Nous, les Américains, prenons maintenant conscience de ce qu’implique le fait d’avoir consacré à l’interception de signaux et au cassage de chiffrements une proportion de nos ressources équivalente à celle du reste du monde.

Le système d’écoute des États-Unis est constitué d’un commandement militaire qui contrôle une main-d’œuvre civile importante. Une telle structure suppose à priori que cette activité de renseignement a pour cible l’étranger. Le contrôle militaire était à la fois le symbole et la garantie de la nature de l’activité qui était engagée. Une surveillance à grande échelle du territoire national sous contrôle militaire aurait violé le principe fondamental du contrôle par les citoyens.

Il s’agissait donc au contraire d’un service de renseignement extérieur responsable devant le Président en tant que commandant en chef militaire. La chaîne de commandement militaire garantissait le respect absolu du principe fondamental qui était « pas d’écoute ici ». La frontière entre la patrie et l’étranger séparait ce qui est anticonstitutionnel de ce qui est autorisé.

La distinction entre patrie et étranger était au moins crédible techniquement, étant donné la réalité des médias de communication du 20e siècle, qui étaient organisés hiérarchiquement et très souvent contrôlés par les États. Quand les services gouvernementaux des États-Unis choisissaient d’écouter les autres gouvernements étrangers — leurs forces armées, leurs communications diplomatiques et leurs hommes politiques partout où c’était possible — ils écoutaient dans un monde de cibles définies. Les principes de bases étaient : pénètre, enregistre et vole. Nous avons écouté, nous nous sommes introduits partout, nous avons fait du troc, nous avons volé.

Au début nous écoutions les forces armées et leurs gouvernements. Plus tard nous avons surveillé les flux des marchés internationaux pour peu que les intérêts de la sécurité nationale des États-Unis aient été engagés.

Le régime que nous avions construit pour nous défendre de l’anéantissement nucléaire fut restructuré à la fin du 20e siècle. En premier lieu, la guerre froide a touché à sa fin et l’Union soviétique a été dissoute. Une structure toute entière de sécurité nationale s’est réorientée d’elle-même. Il n’était plus nécessaire de surveiller un empire pointant vingt-cinq mille armes nucléaires sur nous. Désormais nous devions surveiller la population du monde dans son ensemble afin de localiser quelque milliers de personnes fomentant diverses formes de massacres. Ainsi, nous dit-on, espionner des sociétés entières est devenu normal.

En second lieu, la nature des communications humaines a changé. Le système que nous avions construit s’attaquait à des cibles définies : un branchement, un numéro de téléphone, une plaque d’immatriculation, une localisation géographique. La question au 20e siècle était de savoir combien de cibles il était possible de suivre simultanément dans un monde où chacune nécessitait infiltration, écoute et interception. Mais ensuite on a commencé à mettre au point une nouvelle forme de communication humaine. À partir du moment où nous avons créé Internet, deux des hypothèses de base ont commencé à faire défaut : la simplicité du « une cible, un branchement » a disparu et la différence entre l’intérieur et l’extérieur du pays s’est, elle aussi, évanouie.

Cette distinction a disparu aux États-Unis parce que c’est là que réside, pour le meilleur et pour le pire, une grande partie du réseau et des services qui lui sont associés. Par conséquent, la question « Va-t-on écouter à l’intérieur de nos frontières ? » a été, semble-t-il, réduite à « Allons-nous écouter ou non ? ».

C’est alors que s’est manifestée une administration américaine d’une extrême imprudence. Elle avait pour caractéristique de ne pas réfléchir longtemps avant d’agir. Confrontée à une catastrophe nationale qui constituait également une opportunité politique [2], rien ne se dressait entre elle et toutes les erreurs que l’empressement peut engendrer, et dont les enfants de ses enfants se repentiront à loisir. Ce qu’elle a fait — secrètement, avec l’assistance de juges choisis par un seul homme opérant en secret et avec la connivence de beaucoup de personnes honnêtes qui croyaient agir pour sauver la société — a été d’affranchir de la loi ceux qui nous écoutent.

Non seulement les circonstances avaient fait voler en éclats la simplicité de la règle « pas d’écoute à l’intérieur », non seulement les magouilles autour de la FISA [3] avaient amené cette administration dans une situation où aucune loi ne lui fournissait de points de repères utiles, mais de plus elle avait la ferme intention de le faire. Sa vision de la nature du pouvoir humain était « augustienne » à défaut d’être auguste [4]. L’administration désirait ce dont les personnes censées n’ont pas le droit de prendre la responsabilité. Et ainsi elle a failli et nous avons failli avec elle.

Nos grandes oreilles militaires ont envahi le cœur d’un Internet en pleine évolution

Nos journalistes ont failli. Le New York Times a laissé les élections de 2004 se dérouler sans rien révéler de ce qu’il savait sur les écoutes. Cette décision d’autocensure fut, comme tout type de censure ou d’autocensure, une blessure mortelle infligée à la démocratie. Nous, le peuple, n’avons pas exigé que soit mis un terme à tout cela dès le début. Or, à présent, nous en sommes déjà bien loin.

Nos grandes oreilles militaires ont envahi le cœur d’un Internet en pleine évolution, où des supercerveaux numériques bons pour le service militaire recueillent du renseignement sur la race humaine pour des raisons triviales et au nom du capitalisme. Aux USA, les sociétés de télécommunication jouissent de l’immunité juridique pour leur complicité, leur permettant d’aller encore plus loin.

L’invasion de notre réseau a été secrète et nous n’avons pas compris que nous devions résister. Mais la résistance est apparue telle une cinquième colonne au sein des grandes oreilles elles-mêmes. À Hong Kong, Edward Snowden a déclaré quelque chose de simple et d’utile : les analystes, a-t-il dit, ne sont pas des gens malintentionnés et ils ne veulent pas se considérer comme tels. Mais ils en sont arrivés à conclure que si un programme produit quoi que ce soit d’utile, il est justifié. Ce n’était pas le boulot des analystes d’évaluer l’éthique fondamentale du système à notre place.

En démocratie, cette tâche est confiée par le peuple aux dirigeants qu’il élit. Ces dirigeants ont failli — tout comme nous — parce qu’ils ont refusé d’adhérer à l’éthique de la liberté. Le personnel civil des agences fédérales est le premier à avoir ressenti cette défaillance. Depuis le milieu de la dernière décennie, des gens ont commencé à tirer la sonnette d’alarme à tous les niveaux. Ces employés courageux ont sacrifié leur carrière, effrayé leur famille et parfois souffert personnellement de persécutions, pour avoir dévoilé qu’il existait quelque chose de profondément mauvais. La réponse a été le règne par la peur. Deux administrations successives des États-Unis ont cherché à régler la question des lanceurs d’alerte parmi les « grandes oreilles » en leur réservant le traitement le plus impitoyable possible.

Snowden a dit à Hong Kong qu’il se sacrifiait afin de sauver le monde d’un tel système, qui « n’est contraint que par la réglementation ». Les idées politiques de Snowden méritent notre respect et notre profonde considération. Mais pour l’instant il me suffira de dire qu’il n’exagérait pas sur la nature des difficultés. Grâce à Snowden, nous avons appris que ceux qui écoutent ont entrepris de faire ce qu’ils ont sans cesse répété à l’opinion respectable des experts qu’ils ne feraient jamais. Ils ont toujours prétendu qu’ils n’essaieraient pas de casser le chiffrement qui sécurise le système financier mondial. C’était faux. Quand Snowden a révélé l’existence du programme Bullrun de la NSA, nous avons appris que l’agence avait menti pendant des années à ces financiers qui croient avoir droit à la vérité de la part du gouvernement qui leur appartient. La NSA n’avait pas seulement subverti des standards techniques en tentant de casser le chiffrement qui est la clé de voûte de l’industrie mondiale de la finance, elle avait aussi volé les clés d’autant de « coffres-forts » que possible. Avec cette révélation, la NSA a perdu la respectabilité qu’elle avait dans le monde entier. Leur inconscience dans la mise en danger de ceux qui n’acceptent pas les dangers émanant du gouvernement des États-Unis était à couper le souffle.

…ces dix dernières années, après la mise au rencart de l’éthique de la liberté, l’État a commencé à ancrer des procédés totalitaires dans la substance même de la démocratie.

L’empire des États-Unis était l’empire de la liberté exportée. Ce qu’il avait à offrir au monde entier c’était la liberté et l’indépendance. Après la colonisation, après les vols commis par l’Europe, après les diverses incarnations de l’horreur d’origine étatique, il promettait un monde libéré de l’oppression de l’État. Au siècle dernier, nous étions prêts à sacrifier nombre des plus grandes villes du monde et à accepter le sacrifice de dizaines de millions de vies humaines. C’était le prix à payer pour écraser des régimes que nous appelions « totalitaires », dans lesquels l’État devenait si puissant et si invasif qu’il ne reconnaissait plus aucune des limites de la sphère privée. Nous avons combattu désespérément jusqu’à la mort des systèmes dans lesquels l’État écoutait chaque conversation téléphonique et conservait la liste de toutes les personnes en relation avec chaque fauteur de trouble. Mais ces dix dernières années, après la mise au rencart de l’éthique de la liberté, l’État a commencé à ancrer des procédés totalitaires dans la substance même de la démocratie.

Proclamer que les procédés du totalitarisme sont compatibles avec le système de l’autogouvernance éclairée, individuelle et démocratique est sans précédent dans l’histoire. Un tel raisonnement devrait être voué à l’échec. Il devrait suffire de lui objecter que l’omniprésence d’écoutes invasives engendre la peur, et que cette peur est l’ennemie de la liberté raisonnée et organisée. Tenter d’ancrer des procédés totalitaristes au sein de l’autogouvernance constitutionnelle des États-Unis est en totale contradiction avec l’idéal américain. Mais il y a une incohérence encore plus profonde entre ces idéaux et le fait de soumettre à une surveillance de masse chacune des autres sociétés de la planète. Certains des serviteurs du système ont finalement compris que tout ceci était mis en place, non pas avec, mais contre l’ordre démocratique. Ils savaient que les amarres de leurs vaisseaux avaient été larguées dans le noir et sans drapeau. Quand ils ont lancé l’alerte, le système a lancé ses alertes en retour. Finalement — du moins à ce jour, et jusqu’à nouvel ordre — il y a eu Snowden, qui a vu tout ce qui se passait et observé le sort de ceux qui se sont mis à parler.

Il a compris, comme Chelsea Manning l’a aussi toujours compris, que lorsque vous portez l’uniforme, vous consentez au pouvoir. Il connaissait très bien son affaire. Tout jeune qu’il était, il a déclaré à Hong Kong : « J’ai été un espion toute ma vie. » Et il a fait ce qui demande un grand courage, lorsqu’on est en présence de ce qu’on croit être une injustice radicale. Il n’était pas le premier, il ne sera pas le dernier, mais il a sacrifié l’existence qu’il connaissait pour nous dire les choses que nous avions besoin de savoir. Snowden s’est rendu coupable d’espionnage pour le compte de la race humaine. Il en connaissait le prix, il savait pourquoi. Mais comme il l’a dit, seul le peuple des États-Unis pourra décider, au travers de sa réponse, si le sacrifice de sa vie en valait la peine. Aussi est-il de la plus haute importance que nous fassions l’effort de comprendre ce message : comprendre son contexte, son propos et sa signification, et tirer les conséquences concrètes du fait d’en avoir eu communication. Et même une fois que nous aurons compris, il sera difficile de juger Snowden, parce qu’il y a toujours beaucoup à dire d’un côté comme de l’autre lorsque quelqu’un a entièrement raison trop tôt.

Aux États-Unis, ceux qui furent des « antifascistes précoces » [5] ont souffert. Il n’était bon d’avoir raison que lorsque tous les autres avaient raison. Il était malvenu d’avoir raison quand seuls ceux que nous désapprouvions avaient un point de vue que nous adopterions nous-mêmes plus tard.

nous devons commencer par écarter, pour nos besoins immédiats, à peu près tout ce qu’ont dit les présidents, premiers ministres, chanceliers et sénateurs. Les discours publics de ces « leaders » constituent un catalogue remarquable de manipulations, de tromperies et de complets mensonges.

Snowden a été parfaitement précis. Il connaît son affaire. Il a été pour nous l’espion des injustices et nous a dit ce qu’il fallait pour que nous fassions ce travail et que nous le fassions bien. Et s’il est une responsabilité que nous avons, c’est celle d’apprendre, maintenant, avant que quelqu’un ne conclue qu’apprendre doit être interdit. En réfléchissant à la signification politique du message de Snowden et à ses conséquences, nous devons commencer par écarter, pour nos besoins immédiats, à peu près tout ce qu’ont dit les présidents, premiers ministres, chanceliers et sénateurs. Les discours publics de ces « leaders » constituent un catalogue remarquable de manipulations, de tromperies et de complets mensonges. Nous devons plutôt nous concentrer sur la pensée qui sous-tend les actions menées par Snowden. Ce qui importe le plus maintenant, c’est de savoir dans quelle mesure l’ensemble de la race humaine a été piégée dans ce système de surveillance envahissant.

Nous commencerons là où les dirigeants sont déterminés à ne pas s’arrêter, en nous demandant si une forme quelconque de gouvernement autonome démocratique, où que ce soit, est compatible avec ce type de surveillance massive et envahissante dans laquelle le gouvernement des États-Unis a entraîné non seulement son peuple, mais aussi le monde entier. En fait, ce ne devrait pas être une enquête compliquée.

L’anonymat est nécessaire à la conduite d’une politique démocratique. Non seulement nous devons pouvoir choisir avec qui nous discutons de politique, mais nous devons aussi être capables de nous protéger des représailles contre l’expression de nos idées politiques.

Pour quiconque vivait au 20e siècle, du moins en son milieu, il était évident que la liberté ne pouvait pas être compatible avec des procédés totalitaires. Ainsi, quand on observe les réactions aux révélations de Snowden, on voit que l’invasion massive de la vie privée déclenche une anxiété justifiée sur le sort de la liberté parmi les survivants du totalitarisme. Pour comprendre pourquoi, nous devons comprendre plus précisément ce que notre conception de la « vie privée » implique vraiment. Notre conception de la vie privée combine trois éléments. Le premier est la confidentialité, la possibilité que le contenu de nos messages ne soit connu que de ceux auxquels ils sont destinés. Le deuxième est l’anonymat, c’est-à-dire le secret sur qui envoie ou reçoit les messages, quand bien même le contenu n’en serait absolument pas confidentiel. Il est très important que l’anonymat soit une préoccupation que nous puissions avoir, à la fois lorsque nous publions et lorsque nous lisons. Le troisième est l’autonomie, notre capacité à libérer nos décisions de vie personnelle de toute force ayant violé notre confidentialité ou notre anonymat. Ces trois éléments — confidentialité, anonymat et autonomie — sont les principaux composants d’un subtil cocktail qu’on appelle « vie privée ».

Sans confidentialité, l’autogouvernance démocratique est impossible. Sans confidentialité, les gens ne peuvent discuter des affaires publiques avec ceux qu’il choisissent en excluant ceux avec qui ils ne souhaitent pas dialoguer. L’anonymat est nécessaire à la conduite d’une politique démocratique. Non seulement nous devons pouvoir choisir avec qui nous discutons de politique, mais nous devons aussi être capables de nous protéger des représailles contre l’expression de nos idées politiques. L’autonomie est viciée par l’invasion généralisée de la confidentialité et de l’anonymat. La libre prise de décision est impossible dans une société où chaque déplacement est surveillé, comme nous le démontreraient un bref regard sur la Corée du Nord, toute conversation avec ceux qui ont vécu les totalitarismes du 20e siècle ou toute étude historique des réalités quotidiennes de l’esclavage aux États-Unis avant la guerre civile.

(à suivre…)

Notes

[1] Launch on warning est une option stratégique mise en œuvre par les États-Unis et l’URSS pendant la guerre froide. Elle consiste à lancer une attaque nucléaire en riposte à toute détection d’un lancement d’arme stratégique par l’adversaire, sans attendre l’explosion. Pour éviter les fausses alertes, la qualité du renseignement est évidemment primordiale.

[2] Moglen fait ici bien sûr allusion aux attentats du 11 septembre 2001.

[3] Foreign Intelligence Surveillance Act, Loi de surveillance du renseignement étranger, votée par le 50e congrès en 1978.

[4] Auguste (adj.) : digne de vénération, en référence à l’empereur Auguste de l’Empire Romain, considéré d’ailleurs comme l’inventeur du renseignement organisé.

[5] groupe d’antifascistes dénonçant l’amitié entre les États-Unis et l’Italie, l’Espagne et l’Allemagne juste avant le début de la Seconde Guerre mondiale, souvent accusés à tort d’être des agents communistes




Vu à la télé : le lobbying de Microsoft à l’école dévoilé dans un documentaire

Alexis Kauffmann - Spécial Investigation - Canal+« Le logiciel libre, c’est la hantise des entreprises high-techs… »

Le 8 septembre a été diffusé sur Canal+ le documentaire « École du futur : la fin des profs ? » dans le cadre de l’émission Spécial Investigation. Il nous montre des expériences innovantes dans des classes en France et aux USA, s’intéresse aux marchés des manuels scolaires et accorde une large part à l’offre et aux stratégies commerciales de géants comme Apple ou Microsoft.

Pour avoir, ici-même sur le Framablog, souvent dénoncé des liens trop forts entre Microsoft et l’éducation au détriment de la nécessaire et légitime place à donner au Libre, j’ai été contacté par la réalisatrice Pascale Labout. Du coup j’apparais dans le documentaire (dont vous trouverez un extrait signifiant ci-dessous), tout comme la députée Isabelle Attard qui fait partie de ces trop rares politiques qui prennent le relais et interpellent les pouvoirs publics sur ces questions (le travail d’une structure comme l’April n’y étant pas pour rien).

Merci à la journaliste d’avoir estimé qu’il était important d’informer sur certaines pratiques un peu troubles, de questionner le ministère à ce sujet et d’accorder une place au logiciel libre dans son travail d’enquête.

Un extrait à voir et faire circuler si vous pensez comme nous que cela a assez duré.

Transcript

URL d’origine du document
Merci au groupe de travail transcriptions de l’April

Prof devant TBI : Vous ne voyez pas très bien, j’en suis navré. OK. Ces verbes sont au présent

Journaliste : La France entame aujourd’hui son virage numérique. Il va donc falloir acheter du matériel informatique : tablettes, ordinateurs, tableaux interactifs, mais aussi des logiciels éducatifs quasiment inexistants dans l’hexagone. Le marché anglo-saxon, en revanche, en déborde déjà. Nous sommes à Londres, au BETT, le salon des technologies de l’éducation. Tout le monde du numérique à l’école s’y est donné rendez-vous.

Des élèves anglais, en uniforme, chantent autour de tablettes.

Journaliste : On y retrouve madame Becchetti-Bizot, la toute nouvelle responsable du numérique au sein de l’Éducation nationale.

Intervenant : Je vous présente la société Education City.

Journaliste : Elle est venue découvrir ce qui pourrait demain équiper nos écoles.

Jamie Southerington, commercial d’Education City : Je voudrais vous montrer ce qu’on peut proposer en français. On a des activités pour les élèves de trois ans. Si vous avez un tableau blanc interactif dans vos classes, on a ce logiciel qui permet aux enfants d’apprendre l’alphabet en chantant. Voilà, il suffit d’appuyer là.

Catherine Becchetti-Bizot, responsable de la direction pour le numérique éducatif : Je suis très surprise par la richesse et la diversité de ce qui est proposé, par la vitalité des petites entreprises qui sont là et qui cherchent vraiment à s’adapter aux besoins de la communauté enseignante.

Journaliste : Aujourd’hui le ministère de l’Éducation nationale est prêt à fournir tous les enfants en tablettes ?

Madame Becchetti-Bizot : Le Ministère n’est pas prêt à acheter pour l’ensemble, ce serait impossible, vous imaginez le prix que ça représenterait ! En revanche il est prêt à nouer des partenariats, à imaginer des consortiums avec les collectivités et les entreprises, peut-être, peut-être ! Je ne sais pas si on va le faire, mais on va essayer de faire ça, pour qu’effectivement on puisse encourager, faciliter l’équipement.

Journaliste : Des partenariats qui font rêver les industriels car le marché à conquérir est énorme. Sur le plan mondial, il est estimé à 100 milliards d’euros et les prévisions de croissance donnent le tournis : plus de 1500 % pour les dix ans à venir.

Aujourd’hui le leader sur le marché de la tablette éducative, c’est Apple. Pourtant la marque n’a pas de stand officiel sur le salon, elle préfère mettre en avant ses partenaires fournisseurs de contenus, les fameux logiciels éducatifs.

Pourquoi la société Apple est-elle absente du salon ?

Mark Herman, directeur d’Albion : Parce qu’on n’a plus besoin d’expliquer ce qu’est un iPad. Tout le monde sait ce que c’est. En revanche on doit prendre les gens par la main et leur faire des démonstrations pour leur montrer le potentiel éducatif de nos logiciels. Ensuite ils pourront décider si ça les intéresse ou s’ils veulent acheter chez nos concurrents et c’est là qu’on est utile. On est là pour conseiller des écoles, pas pour leur forcer la main. Mais vous savez, dans les écoles qu’on a équipées, on a pu constater des changements incroyables et c’est une vraie motivation pour nous.

Journaliste : Pour les industriels, ces logiciels sont les meilleurs moyens d’attirer les clients dans leurs filets. Une fois achetés, vous devenez dépendants de leur système informatique. Dans la plupart des cas, votre logiciel Mac, n’est utilisable que par un ordinateur ou une tablette Mac. Idem pour les PC. Nous sommes allés voir l’autre géant du numérique, Microsoft. Pour découvrir leur stratégie de vente, ils nous invitent dans un showroom de logiciels et matériels éducatifs à Paris. Ce lieu a été baptisé la classe immersive.

Enseignante : Voilà. Vous vous asseyez par parterre, là.

Journaliste : Mis en place il y a deux ans au siège de l’entreprise, ici les profs et leurs élèves sont invités à découvrir l’école de demain selon Microsoft.

Robot Nao : Bonjour. Je suis Nao, un robot humanoïde. Je viens de la planète Saturne.

Journaliste : Ce jour-là, une prof à la retraite, engagée par la multinationale, nous fait une petite démonstration devant quelques cobayes.

Prof : Qu’est-ce que c’est ça ?

Enfants : C’est la terre.

Prof : Il va falloir écrire le nom des planètes. Vous prenez ce stylo,là, vous choisissez une couleur.

Journaliste : Le but : séduire les élèves et leurs profs pour vendre aux établissements scolaires une classe du futur, clefs en main.

Prof : On va aller sortir une image d’un livre.

Enfants : Oh ! De la lave et de la fumée !

Prof : Voilà, qui sort. Après ça sort d’où ?

Journaliste : L’homme qui a eu l’idée de showroom c’est Thierry de Vulpillières, le responsable éducation chez Microsoft France.

Thierry de Vulpillières, responsable éducation de Microsoft France : On est chez Microsoft. Notre sujet c’est d’aider la passion pour l’éducation des enseignants et des élèves. 55 % des enfants français s’ennuient à l’école. C’est dommage. Eh bien c’est parce qu’on va déplacer la façon d’enseigner et on va impliquer davantage les élèves que ces outils viennent naturellement s’insérer dans ce nouveau mode d’apprentissage. Ce qu’on souhaite c’est qu’effectivement l’ensemble des élèves puisse bénéficier du numérique. Moi je serais enchanté qu’il y ait 11 millions de tablettes entre les mains de chaque élève.

Journaliste : La difficulté pour Thierry de Vulpillières : la loi interdit de faire de la pub dans les écoles. Alors pour contourner le problème, Microsoft a trouvé une autre stratégie. Nous allons vous montrer comment, depuis des années, l’entreprise américaine noyaute l’Éducation nationale pour vendre ses produits. L’homme qui a découvert le pot aux roses, c’est Alexis Kauffmann, un professeur de mathématiques. En 2008 il se rend sur le site du forum des enseignants innovants, un forum, parrainé par l’Éducation nationale, où les profs présentent des projets pédagogiques. Alexis y découvre une photo qui l’intrigue, celle de cette petite fille asiatique assise dans une classe.

Alexis Kauffmann, professeur de mathématiques : J’ai pu montrer que le site du premier forum des enseignants innovants utilisait les images qu’on retrouvait sur les sites officiels de Microsoft. On voit qu’ils ont un petit bâclé le travail, ils n’ont même pas pris le soin de maquiller, le soin de changer les images.

Journaliste : Ah si, ils l’ont renversée.

Alexis Kauffmann : C’est vrai ils l’ont renversée.

Journaliste : Alexis veut savoir pourquoi une photo de Microsoft se retrouve sur le site. Il découvre alors que la multinationale est à l’origine de ces forums et qu’elle continue de les financer en toute discrétion.

Nous nous sommes rendus au dernier forum des enseignants innovants. Cette année il se tient au Conseil régional d’Aquitaine. Dans le hall, des professeurs présentent leurs projets.

Enseignant : Il n’y a pas de classe, en fait, c’est un espace qui est totalement ouvert sur la vie. On sort dans la vie…

Journaliste : Sur l’estrade des représentants des professeurs, du Conseil régional et du ministère de l’Éducation nationale

Jean-Yves Capul, sous-directeur du développement numérique, Éducation nationale : La direction du numérique pour l’éducation a été voulue par le ministre comme une direction à vocation pédagogique. C’est la pédagogie et pas la technique qui est au cœur de cette direction, même si l’ambition était de réunir les deux aspects, la pédagogie et les systèmes d’information et la technologie.

Journaliste : Dans l’auditoire, au premier rang, assis derrière la plante, Thierry de Vulpillières, monsieur Microsoft. Alexis Kauffmann est venu lui demander plus de transparence sur l’implication financière de la multinationale dans le forum.

Alexis Kauffmann : Quelle est la somme allouée par Microsoft à ce type d’événement, par exemple ?

Thierry de Vulpillières : Moi je ne donne pas de chiffre. La somme est marginale aujourd’hui sur l’organisation de ce forum. Malheureusement. Je suis très content que tu me demandes…

Alexis Kauffmann : Puisque la première fois, Serge Pouts-Lajus avait lancé un chiffre, c’était quasiment 50 % du budget.

Thierry de Vulpillières : Je pense qu’on n’a jamais excédé les 50 %, mais effectivement on a été dans l’ordre de 50 %.

Alexis Kauffmann : C’est quand même assez fort !

Thierry de Vulpillières : Absolument ! Et on est très fier de soutenir cet événement-là.

Alexis Kauffmann : D’accord.

Journaliste : Thierry de Vulpillières n’en dira pas plus. Son parrainage reste discret. Certains professeurs n’en ont même pas connaissance.

C’est un événement qui est en grande partie financé par Microsoft. Ça vous inspire quoi ?

Christophe Viscogliosi, professeur d’économie : Ça je ne savais pas, déjà, d’une part. Et d’autre part ça aurait été mieux que l’Éducation nationale finance intégralement ce type de forum.

Journaliste : Pourquoi ?

Professeur d’économie : Il y a un risque de conflit d’intérêt. Je n’ai pas envie nécessairement d’être obligé d’utiliser les produits Microsoft en cours.

Journaliste : Thierry de Vulpillières est le seul industriel du monde numérique présent ici. De stand en stand, il entretient son réseau avec le corps enseignant.

Thierry de Vulpillières : Laurence Juin. Ce n’est pas son premier forum.

Laurence Juin, professeur de français : Non.

Thierry de Vulpillières : Et donc paradoxalement on a l’impression qu’on est dans un stand de travaux manuels. Vous voyez des fils et de la laine. C’est une enseignante qui a été une des premières enseignantes à utiliser Twitter.

Professeur de français : Twitter ça permet aux élèves de communiquer, c’est-à-dire qu’on est dans une salle de classe mais ça permet d’ouvrir. On a fait des projets de communication où on communiquait avec des hommes politiques, des écrivains, des journalistes. Des échanges courts, qui nous ont amenés à faire des projets plus larges, des rencontres, des écrits, des échanges.

Journaliste : Adepte d’Internet, l’enseignante devient une cible pour le représentant de Microsoft. Ce matin même il a offert dix tablettes à sa classe Professeur de français : On a la chance d’avoir quinze postes informatiques, ce n’est pas le cas tout le temps. On va peut-être avoir des tablettes.

Journaliste : Microsoft ?

Laurence Juin, professeur de français : Oui.

Thierry de Vulpillières : Les petites surfaces vont débarquer chez elle.

Professeur de français : Les bonnes nouvelles. Les forums permettent aussi ces échanges-là.

Journaliste : Dix tablettes offertes pour essayer d’emporter le marché dans un établissement de sept cents élèves. Microsoft a mis en place un lobby bien rodé avec le corps enseignant et sa hiérarchie. Nous avons pu récupérer cette invitation envoyée à certains fonctionnaires de l’Éducation nationale. L’académie de Paris les invite à découvrir l’innovation numérique au siège de Microsoft. Au programme la classe immersive. Souvenez-vous, le showroom de Microsoft, inventé pour faire la promo de la classe du futur. Pour Alexis Kauffmann c’est la neutralité de l’école qui est mise à mal.

Alexis Kauffmann : Ce qui est scandaleux c’est qu’une journée académique d’information, formation, étude, autour du numérique se retrouve chez Microsoft. Elle n’a absolument rien à faire chez Microsoft, tout simplement. Est-ce qu’on imagine le ministère de l’Agriculture organiser ses journées d’étude chez Monsanto par exemple ? Non !

Journaliste : Nous sommes allés présenter l’invitation à la nouvelle directrice du numérique éducatif.

Le 28 mai il y avait l’académie de Paris qui organisait une journée sur l’innovation au siège de Microsoft.

Catherine Becchetti-Bizot : Oui, effectivement, le rectorat de Paris a fait cette manifestation au siège de Microsoft.

Journaliste : Vous ne trouvez pas que ça fait un peu beaucoup, il y a peut-être une collusion d’intérêt.

Catherine Becchetti-Bizot : Effectivement, moi je l’ai découvert le jour même.

Journaliste : Vous y étiez ?

Catherine Becchetti-Bizot : Ah je n’y étais pas ! Je n’y serais pas allée, parce que je pense que là on une confusion des genres. Je ne désapprouve pas le recteur, je pense qu’il y a une forme de naïveté, qu’il n’y avait pas la volonté de promouvoir Microsoft. Journaliste : Mais vous êtes contre ?

Catherine Becchetti-Bizot : Je ne suis ni pour ni contre. Je pense que ça n’est pas du tout une politique du ministère de l’Éducation nationale que d’organiser, avec Microsoft en particulier, des choses de ce type-là, et qu’il faudra cadrer effectivement. Ça fait d’ailleurs partie des projets immédiats que j’ai en ouvrant cette direction, c’est de cadrer clairement nos partenariats avec les entreprises.

Journaliste : Les multinationales ont des lobbies puissants et rien ne semble les arrêter dans leur conquête de l’école du futur. Récemment ils se sont attaqués à un amendement de la loi de refondation de l’école. L’amendement proposait que notre école utilise en priorité les logiciels libres. Les logiciels libres c’est la hantise des entreprises high-tech. Ils peuvent être créés, partagés, et modifiés par n’importe qui et ils sont presque toujours gratuits. Un système qui vient concurrencer les géants du numérique. C’est la députée écologiste Isabelle Attard qui propose à l’Assemblée cet amendement en faveur des logiciels libres.

Isabelle Attard, députée du Calvados : Cet amendement a été entièrement validé par la Commission culture et éducation en première lecture à l’Assemblée, au Sénat également. Et lorsque le texte revient en deuxième lecture à l’Assemblée, on s’aperçoit que le syndicat du secteur du numérique, le Syntec, vient d’envoyer un communiqué de presse qui alerte, justement sur cette amendement accepté par l’Assemblée et le Sénat, sur la loi refondation de l’école.

Journaliste : Voici ce communiqué du syndicat des entreprises du numérique. Un communiqué très alarmiste : « Ces dispositions handicaperont gravement la plupart des entreprises déjà présentes sur cette filière ». Il a été envoyé à la presse, à tous les députés et au ministre de l’Éducation nationale de l’époque, Vincent Peillon. Alors que l’amendement d’Isabelle Attard aurait permis à l’État de faire des économies importantes, Vincent Peillon recule.

Comment vous expliquez cette situation ?

Isabelle Attard : Parce qu’il y a un lobby et une pression incroyable de la part des plus gros éditeurs de logiciels propriétaires et, comme je le disais, Microsoft est le plus gros.

Journaliste : Nous avons tenté à plusieurs reprises de joindre l’ancien ministre pour qu’il nous explique sa marche arrière. Il a refusé.

Quelques liens connexes pour aller plus loin

Alexis Kauffmann




Et si on faisait le point sur le réseau social libre Diaspora*

En 2010, 4 étudiants New Yorkais lançaient un pari fou : créer un réseau social similaire à Facebook, mais cette fois libre et décentralisé.

Avec Diaspora* (c’est le nom du logiciel, “*” compris), non seulement il deviendrait possible d’installer son propre réseau social (pour sa famille, son entreprise, sa communauté), mais les différentes installations de Diaspora* (ces instances sont appelées des “pods”) seraient capable de discuter entre elles. Cela signifie que vous pouvez avoir créé votre compte sur le pod francophone https://framasphere.org, tout en échangeant avec des amis brésiliens (par exemple) hébergés eux sur https://diasporabrazil.org/

Estimant qu’ils avaient besoin de 10 000 $ pour financer leur projet, ces étudiants firent appel à un mode de financement original pour l’époque, le financement participatif. Annoncé en avril 2010, la somme fut atteinte en 12 jours seulement, mais les financements continuèrent d’affluer jusqu’à atteindre plus de 200 000 $, faisant de Diaspora* un des premiers logiciels à être financé ainsi par le public, mais aussi l’un des rares logiciels libres disposant de fonds non négligeables. Autant dire que les attentes étaient énormes, notamment par tous les détracteurs de Facebook qui en avaient assez d’être traqués dans leurs moindres “J’aime”.

La fin de l’année 2011 fut particulièrement rude pour le projet : critique d’internautes trouvant que le projet n’avançait pas suffisamment rapidement, première version bêta repoussée de plusieurs mois et décès de l’un des fondateurs. En août 2012, le projet fut confié à la communauté via une fondation, créée pour l’occasion.

Et depuis ? … Peu de nouvelles, en fait. Le projet continue pourtant non seulement d’exister, mais de s’améliorer, et compte plusieurs dizaines de milliers d’utilisateurs a travers le monde.

Récemment, le projet a de nouveau fait parler de lui : une dépêche AFP reprise sur de nombreux médias pointait du doigt Diaspora* et sa décentralisation comme un lieu d’expression pour les djihadistes de l’Etat Islamique.

Flaburgan, qui contribue activement au projet Diaspora* depuis deux ans, a bien voulu répondre à nos questions et nous dire où en est le projet aujourd’hui.


Diaspora-logo-roboto2.png


Bonjour Flaburgan, avant tout, peux-tu te présenter aux lecteurs du Framablog et nous dire comment tu es venu à contribuer à Diaspora* ?

Alors, je suis un jeune développeur web et Libriste avant tout (merci à l’IUT de Grenoble qui m’a bien éduqué en utilisant exclusivement du libre !) et je cogite un peu sur le fonctionnement actuel de notre société numérique, particulièrement l’approche que nous avons de la notion de vie privée. Je me suis donc engagé dans le projet Mozilla, et vous m’avez peut-être croisé aux conférences « Web et Vie privée » que je donne dans ce cadre (au Fosdem, aux JDLL ou ailleurs). Ma contribution au Logiciel Libre est donc orientée éducation et services. Pour moi, l’objectif du Libre est de proposer une alternative solide. Le but n’est donc pas le Graal « tout le monde n’utilise que du code Libre », mais plus simplement « si tu ne veux pas utiliser du logiciel propriétaire / non respectueux, nous avons quelque chose d’autre à te proposer ». Voici pour “alternative”. Par “solide”, j’entends utilisable sans avoir à faire de compromis (comprendre, sans perte de fonctionnalités ni d’utilisabilité).

Pour moi, le Libre remplit déjà cet objectif sur le desktop (Ubuntu / Firefox / Thunderbird / VLC / LibreOffice remplissent 90% des usages sans être plus compliqués ou plus pauvres que leur équivalent propriétaire, au contraire) et est en passe de réussir sur le mobile (au travers de projets comme Cyanogenmod et Firefox OS). Par contre, concernant les services (partage de photos, fournisseur de mail, réseaux sociaux…), il n’y a que peu d’alternatives libres, et elles sont en général plus pauvres. De plus, si on n’a aucune garantie sur ce que fait de nos données un logiciel propriétaire (mais on pourrait lui laisser le bénefice du doute), ce n’est pas le cas pour un service propriétaire, dont on est sûr qu’il exploite nos données. C’est sur ce secteur que les libristes devraient concentrer leurs efforts, Framasoft a d’ailleurs un raisonnement similaire puisque l’association réfléchit à un “Plan de Libération du Monde”[1] pour mettre en place des services Libres.

Quelle est la première brique à poser parmi tous ces services à libérer ? Le social, qui va permettre à chacun de se retrouver, d’échanger et de réfléchir pour construire ensuite notre idéal numérique. Il est pour moi capital de pouvoir accéder à tous ces échanges sans dépendre d’une entreprise à but lucratif. Le choix de diaspora* en soi s’est fait naturellement, c’est le projet le plus connu dans ce domaine, et il suffit de s’y connecter et de voir l’énergie et l’engouement des gens pour trouver du courage à contribuer. Me voici donc à suivre le projet depuis maintenant 3 ans, et à écrire du code (principalement front-end) depuis 2 ans. Comme j’avais besoin d’un endroit pour tester mon code en production, j’ai installé il y a un an le serveur diaspora-fr.org qui est sur la branche de développement de diaspora*, et je travaille maintenant avec Framasoft à la mise en place de Framasphère, un serveur diaspora* stable où tous seront les bienvenus.

Diaspora* souffre encore aujourd’hui d’une image un peu sulfureuse : il s’agissait de la première réussite d’envergure de crowdfunding logiciel, ce qui avait généré une énorme attente de la part des contributeurs. Avec le recul, beaucoup de gens semblent avoir été déçus avec un sentiment de « tout ça pour ça ? ». À juste titre, selon toi ?

Tordons le cou une fois pour toute aux rumeurs : $200k, cela fait $180k une fois que KickStarter a pris sa commission. Les fondateurs étaient 4, en ne se payant que $30k chacun, quand un salaire de développeur débutant à San Francisco est autour de $80k par an, il ne reste déjà plus que $60k. Oui, la somme récoltée était énorme pour un crowdfunding à l’époque, mais elle est ridicule lorsque l’on lance une startup, encore plus quand on la compare aux moyens de Facebook. Donc, je n’ai aucun doute en la bonne volonté des fondateurs, et ce ne sont certainement pas des voleurs comme on les a parfois injustement qualifiés.

Cependant, on ne peut pas dire que diaspora* au bout de deux ans de développement (2012) a été la réussite que l’on espérait. De mon point de vue (extérieur au projet à l’époque), il y a eu deux problèmes majeurs : une mauvaise communication et une absence de financement durable (il n’y avait à ma connaissance aucun autre business model que les dons). Il faut dire que lorsqu’ils ont demandé $10k sur KickStarter, les 4 étudiants pensaient faire une expérience pendant l’été, entre deux années de leurs cours, et n’envisageaient pas de laisser tomber leurs études pour lancer une start up. Ils l’ont finalement fait face au succès du crowdfunding. Le cocktail « beaucoup de pression + peu d’expérience » donne rarement de bons résultats, pour autant, d’un point de vue technique, la majorité des choix faits ont du sens, et la base de code aujourd’hui est saine : nous ne sommes pas dans un sac de nœuds rempli de hacks inmaintenables.

On peut donc reprocher leur manque de communication aux fondateurs, mais une chose est sûre, ils ont été les premiers à se lancer et à porter pour nous cette pression. Peut-être que sans eux, nous serions toujours là à nous plaindre à chaque changement un peu plus intrusif de Facebook sans pour autant faire quelque chose. Diaspora* a été une étincelle, un élément déclencheur : oui, on peut faire quelque chose, et oui, de nombreuses personnes pensent que cela est important. C’est en effet la première fois que l’on voyait un crowdfunding de cet ampleur, et chaque jour qui passe un nouveau scandale éclate en nous rappelant que ce projet n’est pas important mais carrément essentiel.

Par la suite, le décès d’un des fondateurs, puis le transfert du code (sous licence libre) à la communauté, via une fondation chapeautée par la FSSN a un peu donné l’impression d’un logiciel… abandonné. Rassure-nous : le projet est-il toujours actif ?

Lorsque les fondateurs ont souhaité arrêter en 2012, quelques courageux ont repris le flambeau, et la communauté de diaspora* reprend vie de plus en plus chaque jour. L’euphorie du départ n’est plus la même, mais on sait que l’on va dans la bonne direction, et de nombreux contributeurs nous rejoignent. Nous sommes aujourd’hui 446 sur loomio, l’outil que nous utilisons pour gérer le projet et prendre des décisions, et 47 personnes différentes ont participé au code depuis Août 2012, date où le projet a officiellement été transféré de Diaspora Inc à la communauté. Le projet a toujours été sous licence libre (AGPL) et plusieurs personnes qui sont aujourd’hui au cœur de la communauté travaillaient déjà avec les fondateurs à l’époque. Nous avons mis en place des numéros de versions en suivant semver, donc majeure.mineure.hotfix, en gardant un 0. en premier pour montrer que le projet n’est pas encore en “1.0”, c’est-à-dire complètement stable et prêt à être installé par tous, car s’il est prêt à être utilisé même par les plus novices, installer son instance de diaspora* est encore trop compliqué à notre goût. Nous avons sorti début septembre la version 0.4.1.0 de diaspora*, soit une version mineure après la sortie de la 0.4.0.0 fin Juin. En deux ans, nous avons donc sorti 4 versions majeures soit 2405 commits depuis la 0.0.0.0 le 15 octobre. Vous pouvez retrouver chaque release sur github. Je pense qu’on peut le dire, le projet est actif 🙂

Par ailleurs, les critiques techniques relatives au logiciel ont toujours été présentes : diaspora* utilise Ruby et Postgresql ou Mysql, alors que d’autres lui préféreraient XMPP et ou CouchDB. Même s’il faut reconnaître que critiquer les choix technologiques d’un logiciel est pour le geek l’équivalent sportif de la critique des choix d’un sélectionneur d’une équipe de foot, peut-on considérer que Diaspora* est construit sur des bases solides ?

Chaque technologie a ses avantages et ses inconvénients. Si diaspora* avait été écrit en PHP, il aurait été beaucoup plus facile d’installer un serveur, car les mutualisés ont tous PHP disponible. De même, il y a beaucoup plus de monde qui connaît PHP que Ruby, donc nous aurions certainement eu plus de contributions. Pour autant, maintenir une grosse application en PHP est un véritable calvaire, et même si Ruby reste le langage principal de diaspora*, 30% du code est aujourd’hui du JavaScript avec Backbone. Il n’y a pas de technologie parfaite, chacune a ses avantages et ses inconvénients. Les choix faits ici ne sont ni meilleurs ni pires qu’autre chose. La seule problématique importante pour moi est celle du protocole utilisé pour communiquer entre les nœuds. Il n’existe pas de protocole parfaitement adapté pour faire du social de manière décentralisé. Des projets comme Movim ou Libertree se sont basés sur XMPP. Cela a l’avantage d’avoir un chat et une gestion des contacts déjà en place et interopérable avec de nombreux autres services, d’ailleurs, nous travaillons en ce moment à l’intégration d’un chat basé sur XMPP dans diaspora*. Mais XMPP n’est pas non plus le protocole miraculeux : il n’est notamment pas prévu pour gérer la notion de messages “publics”, c’est à dire sans destinataire particulier. Je n’ai cependant pas étudié suffisamment le fonctionnement de ces protocoles pour en parler en détail (à quand une interview de Timothée sur le Framablog ?) En tout cas, l’idée de partir sur quelque chose de nouveau (mais basé sur Salomon) pour diaspora* puis de l’améliorer au fur et à mesure avant de le faire devenir un standard “De Facto” est une manière de faire classique sur le web. Donc, pourquoi pas.

Selection_107.png

Les expérimentations d’autres réseaux sociaux fédérés et décentralisées sont nombreuses. Que penses-tu, à titre personnel, de tels projets, comparés à Diaspora* ?

La réponse précédente explique mon point de vue sur la question. Il est rare de voir des gens travailler d’abord sur un standard puis les projets l’implémenter, même si c’est ce que cherchent à faire les gens de Tent.io. En général, on voit plutôt chaque projet se développer dans son coin, et celui qui fonctionne le mieux devient un standard et il est adopté par les autres. La diversité est toujours bonne quand la concurrence est saine. Ce qui est certain, c’est qu’on aimerait bien avoir une plus grande interopérabilité entre les projets, nous travaillons notamment un peu avec Friendica / la RedMatrix et GNU Social, mais on manque vraiment de monde pour travailler sur ces sujets.

Très récemment, Diaspora* est revenu sur le devant de la scène médiatique : les réseaux sociaux décentralisés seraient devenus un repaire pour djihadistes en mal d’hébergement et de visibilité. Peux-tu nous en dire plus sur cette affaire ?

Nous avons vu arriver en quelques jours environ 200 comptes qui diffusaient du contenu de propagande pour l’État Islamique. La communauté s’est très vite mobilisée pour lister les contenus susceptibles d’être illégaux puis nous avons averti chaque administrateur. Selon le pays où il se trouve, un hébergeur est responsable du contenu sur ses serveurs. À ma connaissance, les podmins ont donc choisi de supprimer les contenus litigieux. C’est un choix que chaque administrateur a eu à faire, de par la nature décentralisée du réseau diaspora*, la fondation n’est pas responsable des contenus et n’a donc pas eu de rôle légal dans l’histoire. Vous pouvez en savoir plus en lisant les articles rédigés sur le blog pour l’occasion : https://blog.diasporafoundation.org/

Diaspora*, c’est une poignée de développeurs bénévoles sur leur temps libre, et très, très peu de fonds. Facebook, c’est plus de 7 000 employés à temps plein et un chiffre d’affaires de près de 8 milliards de dollars en 2013. Les réseaux sociaux libres ont-t-il une chance face au mastodonte Facebook ?

Tout dépend où l’on fixe l’objectif. Comme je l’ai dit dans la première question, si le but est d’avoir plus d’utilisateurs que Facebook, probablement pas. Mais notre but est-il là ? Pour moi, notre but est de permettre aux gens qui veulent quitter Facebook de le faire facilement. Si nous arrivons à offrir un équivalent de qualité facile à utiliser, nous aurons réussi, peu importe le nombre d’utilisateurs. Il y en a déjà bien assez pour ne pas se sentir seul.

Il y a ces derniers jours un gros buzz autour d’Ello, un nouveau réseau social qui se veut une alternative à Facebook, avec plus de liberté pour l’utilisateur (possibilité d’utiliser un pseudo, moins strict sur le contenu autorisé (pornographique notamment), pas de pub ni de revente de données). Est-ce que tu penses que de nombreuses personnes vont migrer de Facebook vers ce projet, nouveau concurrent de diaspora* ?

Le seul avantage que je vois à Ello est la facilité à comprendre le projet pour les Mme Michus : un site, une entreprise, un compte à se créer bref, aucun nouveau concept à assimiler pour l’utiliser, à la différence des réseaux décentralisés qui sont différents de ce à quoi les gens sont habitués. Mais l’intérêt s’arrête là. La comparaison ne tient sur aucun des autres points : les avantages mis en avant par Ello et cités dans la question sont présents dans tous les réseaux sociaux Libres que je connais. Pour autant, Ello ne propose aucune garantie :

  • Code source fermé : impossible de savoir ce que fait vraiment le logiciel ;
  • Plateforme centralisée : impossible d’installer son instance pour contrôler ses données ;
  • Compagnie à but lucratif qui vient de lever presque $500k auprès de FreshTracks Capital (lire https://aralbalkan.com/notes/ello-goodbye/) ;
  • …et même dans l’application, aucun réglage de vie privée, que des messages publics…

Bref, Ello n’est clairement pas la solution que l’on attend pour remplacer Facebook, et je crois que beaucoup l’ont déjà compris. Ce qu’il est intéressant de noter, c’est que depuis que ce buzz a commencé, nous avons vu plus de 3 000 personnes inactives depuis longtemps se reconnecter sur diaspora*, lisant les articles sur Ello et se rappelant qu’elles avaient déjà entendu parler d’une vraie alternative libre à Facebook. L’annonce de ce projet est donc une bonne nouvelle pour Diaspora*, cela démontre qu’aujourd’hui encore nous avons besoin d’une alternative solide.

Où peut-on tester Diaspora* aujourd’hui ?

Il y a de nombreux serveurs ouverts à l’inscription, le site officiel indique bien (et en français) comment commencer dans l’univers de diaspora*. Si vous ne savez pas lequel choisir et que vous avez confiance en Framasoft pour héberger vos données, alors framasphere est le serveur qu’il vous faut !

Merci Flaburgan, quelque chose à ajouter ?

Bien sûr : si vous aussi vous pensez que le Web a besoin d’un endroit où tous peuvent communiquer sans que leurs données soient analysées à des fins publicitaires ou autres, venez nous donner un coup de main ! Nous avons un wiki très complet et besoin de tout type de contributeurs, développeurs (Backbone, Bootstrap, Rails ou SQL) comme traducteurs, communicants / marketing, blogueurs, sysadmin et autre ! Découvrez comment contribuer au code ou de manière non technique.

Notes

[1] Note de Framasoft : on vous en reparle très bientôt ! 🙂




Geektionnerd : Shellshock

geektionnerd_211-1_simon-gee-giraudot_cc-by-sa.jpg

geektionnerd_211-2_simon-gee-giraudot_cc-by-sa.jpg

Sources sur Numerama :

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Le combat pour Internet est un combat pour des personnes

Blogueur, journaliste, essayiste, Cory Doctorow est une figure intellectuelle du Libre, notoire en particulier pour ses combats contre le copyright (…et bien sûr pour son œuvre romanesque : précipitez-vous sur Little Brother si vous ne l’avez pas encore lu ! Vous pouvez aussi contribuer à la version française en cours).

Nous avons souvent traduit ici ses tribunes et autres prises de position où il défend ardemment les libertés numériques. Aussi n’est-ce pas sans provocation malicieuse qu’il remet ici en cause ce qu’un excellent article de Calimaq nomme un des slogans les plus forts de la Culture Libre :

L’information veut être libre

À l’occasion de la conférence du dConstruct 2014 à Brighton, il intitule en effet son intervention « Information doesn’t want to be free » : l’information ne veut pas être libre. 

Il y aborde aussi l’épineuse question de la rémunération des artistes, énonce non sans humour trois « lois de Doctorow », mais surtout il ajoute son témoignage personnel de façon assez émouvante (écoutez la source audio de l’intégralité de la conférence en anglais) et nous fait comprendre que son combat pour Internet est un combat pour des personnes qui partout dans le monde ont désormais besoin d’Internet au quotidien comme d’un moyen d’accéder à un meilleur niveau de vie, à la culture, à l’éducation… et que c’est notre liberté d’accès à tous qui mérite le combat.

L’information ne veut pas être libre

par Cory Doctorow

Transcription effectuée par Marie-Alice 

Traduction Framalang : Marie-Alice, audionuma, KoS, Omegax, Goofy et des anonymes.

Bon, il y a pas mal de chances que les personnes qui assistent à des événements comme celui-ci gagnent leur vie avec une activité en ligne et même si vous ne gagnez pas votre vie en ligne aujourd’hui, vous le ferez probablement demain, parce que tout ce que nous faisons aujourd’hui implique Internet et Internet sera nécessaire pour tout ce que nous ferons demain.

Ce qu’il y a de merveilleux dans l’idée de gagner sa vie avec un travail créatif, c’est qu’il existe un grand nombre de façons de le faire. Pratiquement chaque artiste qui a un succès commercial est un cas particulier et gagne sa vie d’une manière différente de ce que font tous les autres. Presque tous ceux qui ont déjà entrepris de gagner leur vie à partir de la création artistique ont échoué, en fait la plupart des gens qui se disposent à gagner leur vie dans une activité de création perdront de l’argent dans l’affaire et c’est vrai non seulement maintenant, mais toujours, indépendamment de votre support, de votre époque ou de l’environnement technologique. Personne n’a jamais vraiment trouvé un plan qui transformerait tous ceux qui veulent être des artistes en membres de la classe moyenne de la société, à part leur dire : « si vous affirmez être un artiste on vous donne 40 000 livres par an jusqu’à ce que vous arrêtiez ».

Lancer une pièce à pile ou face et espérer qu’elle tombe sur la tranche…

En fait, gagner sa vie dans le domaine de la création est tellement rare que ce n’est peut-être qu’une sorte d’anomalie statistique, une probabilité infinitésimale. Imaginez que nous ayons une compétition de pile ou face, tout le monde serait aligné et jetterait sa pièce le plus grand nombre de fois possible, un certain nombre tomberait sur la tranche, une ou deux sur des millions et des millions et peut-être que les gens qui les auront lancées sont vraiment bons à pile ou face, peut-être qu’ils ont passé de nombreuses heures à s’entraîner, mais il est évident que le point commun des personnes dont la pièce est tombée sur la tranche n’est pas l’habileté. C’est la chance. C’est cet enchaînement parfait du lancer et de l’atterrissage chanceux. Si les gagnants du concours de pile ou face étaient célébrés, grassement payés et affichés sur les couvertures de magazines… il est probable que beaucoup de gens essayeraient de gagner leur vie en tant que lanceurs de pièces…

Après tout, les gens jouent au loto. Et si en plus le lancer de pièce à pile ou face était une expérience humaine qui donnait une satisfaction entière et profonde et créait une connexion authentique entre le lanceur et son public, alors vivre dans le monde du lancer de pièce serait tout à fait respectable. Et l’art, c’est ça. Parce que créer est inné pour nous. Les bébés font de l’art. On soigne le stress post-traumatique avec l’art-thérapie. Chanter, raconter des histoires, faire des dessins… ça semble faire partie intégrante de la condition humaine. Et on traite les artistes connus avec une déférence qui confine à l’adoration, ce qui rend la chose plutôt attractive, en tous cas vu de l’extérieur. Mais les arts sont intrinsèquement une activité non commercialisable. Les gens qui décident de vivre de leur art ne font pas un calcul économique réaliste. Ils comptent gagner le concours de lancer de pièce sur la tranche, où, même si on essaie encore et encore et qu’on s’entraîne énormément, il est impossible de gagner sans avoir beaucoup, beaucoup de chance.

Lorsque nous parlons de l’Internet et des arts, nous avons tendance à mettre l’accent sur les modèles économiques qui favorisent le plus les artistes. Mais c’est prendre le problème à l’envers. Il y a tellement de gens qui s’adonnent à une activité artistique à tout moment que, quel que soit le modèle économique en vigueur à un moment précis, nous ne manquerons jamais d’artistes qui attendent d’en profiter. Et quand nous essayons de préserver les modèles qui ont fonctionné l’an dernier, ce que nous disons en réalité, c’est que les gagnants de la loterie de l’année dernière devraient avoir la garantie de gagner cette année, ce qui est une bonne affaire pour les gagnants de la loterie — et je suis l’un des gagnants de la loterie, donc je ne suis pas tout à fait opposé à cette proposition — mais c’est le genre de remède qui peut s’avérer pire que le mal. Parce que les modèles économiques ne poussent pas hors-sol. Ils reflètent des réalités sociales plus vastes : les technologies, l’économie, la politique, les goûts du public… Quand vous figez les anciens modèles, vous le faites au détriment de tous ceux qui réussiraient dans les nouveaux. Et vous finissez par entrer en guerre contre les facteurs technologiques, économiques, politiques et sociaux qui déterminent les nouveaux modèles.

En tant qu’artiste qui a trouvé une place et un modèle économique pendant 20 ans, et qui espère continuer comme ça encore 20 ans, je voudrais présenter l’idée que notre priorité ne devrait pas être de protéger des modèles économiques. Ça devrait être de s’assurer que, quel que soit le modèle qui fonctionne en ce moment, ce modèle donne le contrôle, autant que possible, d’abord aux créateurs, ensuite à leurs investisseurs et, tout à la fin s’il en reste, aux revendeurs et plateformes qui leur permettent de trouver leur public.

Et pour ça, je vais proposer trois lois à toute épreuve pour que l’argent circule dans le bon sens. Des choses que les créateurs peuvent choisir, que les politiciens et régulateurs peuvent promulguer, que le public et les entreprises commerciales peuvent adopter, pour que l’argent finisse dans la poche de ceux qui sont le plus directement impliqués dans la création de l’art que l’on aime. Pour l’anecdote, au début j’avais une loi, et j’en ai parlé à mon agent, qui est aussi l’agent des ayants-droits d’Arthur C. Clarke, et il m’a dit « tu ne peux pas avoir qu’une seule loi, il t’en faut trois ! »

Voici donc la première règle, la « première loi de Doctorow ». À chaque fois que quelqu’un met un cadenas sur quelque chose qui vous appartient et refuse de vous donner la clé, ce n’est pas pour vous procurer un avantage. Donc si vous avez déjà uploadé une création intellectuelle numérique sur Steam, ou Amazon, ou Apple, on vous a présenté une petite case à cocher qui dit « Protéger ce fichier », ou peut-être « Activer la protection contre le piratage », et si vous êtes chez un grand éditeur ou label ou producteur — pour aller plus vite je les appellerai tous des éditeurs — ils ont probablement déjà fait ce choix à votre place et ils ont coché la case. Et ce que fait cette case une fois cochée, c’est d’ajouter une couche qui est appelée DRM pour digital rights management (gestion des droits numériques), et c’est censé empêcher les gens de faire des copies de votre œuvre sans votre permission.

Mais en pratique, le DRM ne fait pas ça très bien. Pour être efficace le DRM doit d’une façon ou d’une autre fournir au public la clé nécessaire pour défaire le chiffrement de l’œuvre, mais en même temps, d’une façon ou d’une autre restreindre ce qu’on en fera quand on aura la clé. Il faut que le public puisse défaire le chiffrement uniquement pour lire ou écouter ou regarder l’œuvre une fois, puis qu’il se débarrasse de la version en clair plutôt que de la partager avec des amis, ou de la regarder plus tard sans avoir besoin de la clé. Mais évidemment, cacher la clé à l’intérieur d’une chose que votre adversaire possède et qu’il peut inspecter et manipuler à volonté, c’est pas très malin, surtout quand votre adversaire comprend tous les gens au monde qui veulent avoir accès non seulement à votre œuvre mais à toutes les œuvres protégées par la même solution de DRM. Et quand dans ces gens il y a des thésards qui s’ennuient et qui sont équipés de microscopes électroniques à effet tunnel… ça ne peut pas durer bien longtemps ! D’ailleurs en sécurité on appelle ça la solution « vœu pieux ».

Bien évidemment, c’est illégal de casser les verrous, grâce aux lois comme l’EUCD de 2001 (European Union Copyright Directive, en français « Directive sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information »), qui a été transposée ici dans la législation britannique par la loi de 2003 pour la régulation du copyright et des droits voisins. Et il y a d’autres versions de cette loi dans à peu près tous les pays industrialisés au monde, et dans beaucoup de pays en voie de développement. Évidemment, ça n’empêche pas non plus les gens de faire sauter les verrous. En fait, la solution la plus simple pour faire sauter le verrou de n’importe quelle œuvre c’est d’aller sur the Pirate Bay et de télécharger une copie dont quelqu’un d’autre a déjà fait sauter le verrou, car après tout, pourquoi faire le boulot plusieurs fois ? En revanche, ça veut dire qu’une fois qu’Apple ou Amazon ou Adobe — et ça c’est juste ceux qui commencent par A — mettent leurs verrous sur votre propriété intellectuelle, vous en perdez le contrôle, et vous perdez le contrôle sur l’acheteur de votre œuvre.

Le client est désormais lié pour toujours à l’entreprise qui a installé le verrou, parce que le seul moyen de convertir un livre de l’iBook store d’Apple pour le lire sur Google Play, le seul moyen de le convertir pour l’ouvrir sur le Kindle d’Amazon, c’est de débloquer le verrou d’abord. Et la seule entreprise qui a légalement l’autorité pour convertir un livre d’iBooks… c’est Apple. De la même façon que seul Google a l’autorité pour convertir une vidéo de Google Play en vidéo pour Amazon, et ainsi de suite. Ce qui signifie qu’inévitablement, quand la plateforme commerciale dont la seule contribution à votre œuvre est de faire tourner un script dessus veut négocier une plus grosse part du prix de vente, vous ne pouvez plus vous passer de ces revendeurs. Parce que si vous arrêtez de vendre sur Amazon et que vous proposez une remise chez Google pour inciter vos clients à convertir leurs bibliothèques et vous suivre là-bas… aucun de vos meilleurs clients ne pourra se permettre financièrement d’accepter votre offre. Parce que leur seule possibilité pour passer d’Amazon à Google, ou d’Apple à Adobe, c’est de balancer toutes les œuvres qu’ils ont payées et de les racheter dans le nouveau format, ou alors de garder deux écosystèmes séparés et de passer de l’un à l’autre en fonction du revendeur de chaque œuvre, et ceci n’est pas un exemple hypothétique.

Vous avez dû entendre parler de ce qui arrive entre Amazon et l’un des 5 plus grands éditeurs au monde, Hachette, une entreprise qui s’y connaît en stratégie — le groupe qui les possède fabrique des bombes à sous-munitions à destination des pays en développement, donc ils savent penser en militaires : un des 5 plus grands éditeurs au monde est en train de perdre, de perdre lamentablement, contre Amazon sur la question du pourcentage sur chaque vente Amazon peut garder. Et Amazon va gagner sur toute la ligne, parce qu’Hachette a insisté depuis le début pour que tous ses livres soient vendus avec le DRM d’Amazon. Donc les clients d’Hachette, plus encore que ceux des autres éditeurs, sont enfermés dans l’écosystème Amazon. Et si Hachette décide de se passer des services d’Amazon, les clients resteront dans la cage dorée d’Amazon.

Il existe une autre division d’Amazon, Audible, qui contrôle 90% des livres audio vendus dans le monde. Ils sont les seuls fournisseurs de livres audio pour iTunes. Et ils ne vous donnent même pas la possibilité de vendre sans DRM ! Et ils ont déjà commencé à serrer la vis aux éditeurs et aux studios de livres audio, et ils ne vont pas lâcher le morceau. Maintenant, je vous parie un testicule — pas un des miens hein — qu’ils vont éjecter les fournisseurs hors de leur magasin, sauf s’ils acceptent de faire d’énormes concessions dans le partage des revenus et de la commercialisation de leurs livres. Tout comme Apple l’a fait avec les applications — également vendues avec DRM obligatoires — dès qu’ils ont réussi à imposer leur plateforme dominante obligatoire. Vous souvenez-vous quand Apple vendait vos applications pour 30 % et vous permettait de garder 100 % de l’argent que votre application gagnait ? Maintenant, ils vendent votre application pour 30 % et ils vous réservent 30 % de l’argent de votre application gagne, mais pas avant que beaucoup de gens aient investi leur fortune dans la création d’applications pour Apple. Et tous ces fournisseurs vont se rendre sans conditions. Parce que chaque grand consommateur de livres audio, les 20 % qui représentent 80 % des ventes, a déjà englouti des milliers de d’euros dans un investissement qui est verrouillé dans le coffre-fort d’Amazon jusqu’à ce que Amazon décide de le déverrouiller, autant dire jamais !

Chaque fois que quelqu’un vous promet de vous protéger en enfermant vos trucs sans vous donner de clé ? — Ce n’est pas pour vous protéger.

Ce qui m’amène à la loi n° 2. La célébrité ne vous rendra pas riche, mais vous ne pouvez pas vendre votre art sans elle. Vous avez entendu Tim O’Reilly dire « pour la plupart des artistes, le problème n’est pas le piratage mais l’obscurité ». Et il ne voulait pas dire qu’une fois célèbre vous devenez automatiquement riche, mais plutôt « si personne n’a entendu parler de vos trucs, personne ne les achètera ». Évidemment, de nombreuses personnes qui ont entendu parler de vos trucs ne les achèteront pas non plus, mais aucune des personnes qui ignorent jusqu’à votre existence ne vous donnera jamais rien. Au XXIe siècle, la manière dont les gens vous découvrent, c’est sur Internet. Par l’intermédiaire de moteurs de recherche et de réseaux sociaux, par l’intermédiaire d’hébergeurs de contenus en ligne comme YouTube… et la manière dont vous êtes payés pour vos trucs passe également par Internet : solutions de paiement comme PayPal, régies publicitaires comme Google, financement participatif comme Kickstarter.

Internet à donné naissance à de nombreux succès d’indépendants qui ont rassemblé toutes les fonctions d’un éditeur à partir de ces bribes éparses sur Internet. Certains d’entre eux sont des artistes qui ont débuté dans le système traditionnel et ont fait le saut vers le secteur indépendant comme Trent Reznor ou Amanda Palmer, certains sont des artistes qui ont débuté comme indépendants et sont devenus grand public comme Randall Munroe, l’auteur de xkcd, ou Hugh Howey, l’auteur de Wool [1] . Et certains artistes sont simplement restés des indépendants, comme Jonathan Coulton. Le monde du contenu de masse a été pris dans la même concentration industrielle que tous les autres secteurs. Il ne reste plus que 5 éditeurs, 4 labels et 4 studios de production dans le monde. Et quand la compétition entre les acheteurs (les éditeurs) diminue, les conditions négociée pour les vendeurs (les créateurs) sont moins avantageuses.

Et les contrats avec ces grands acteurs sont le reflet de ce marché. Vous savez, si vous signez avec un label musical, vous allez probablement devoir lui céder le droit de déduire de vos royalties, de chaque enveloppe de royalties, un pourcentage fixe pour la casse. Et qu’est-ce que la casse ? La casse date de l’époque des disques en vinyl ou en gomme-laque. Elle représente la fraction de produits physiques qui sont détruits par des chutes entre l’usine et le détaillant. Ils déduisent cela de vos royalties sur des mp3. Si vous êtes romancier, en signant avec un des cinq grands éditeurs, vous allez probablement devoir abandonner vos droits sur l’adaptation en BD, et peut-être vos droits sur un film ou à l’international, et presque toujours vos droits sur le livre audio. Et ainsi de suite.

Donc le secteur indépendant est une sorte de concurrence de la dernière chance par rapport aux grands acteurs. Les pires conditions que les grands acteurs puissent vous offrir, d’un point de vue financier, doivent être meilleures que les meilleures conditions que vous pouvez espérer sans eux. L’existence d’un secteur indépendant, même pour les artistes qui ne le choisissent pas, donne la limite basse des conditions que les éditeurs peuvent offrir. Donc logiquement, plus le secteur indépendant est compétitif et plus il y a d’entreprises qui fournissent des services, meilleurs sont les contrats pour les artistes, qu’ils signent avec des grands acteurs ou des indépendants.

Mais le secteur indépendant est en train de se faire écraser par les industries du divertissement. Par exemple, Viacom (NdT : le conglomérat états-unien des médias)  a demandé à la Cour suprême des États-Unis de voter que YouTube soit déclaré responsable de toute violation de copyright dans les vidéos qu’ils hébergent, sauf s’ils ont déterminé a priori, parfaitement et sans le moindre doute, si oui ou non ces vidéos respectent le copyright. Ce qui veut dire que chacune des 96 heures de vidéo qui sont chargées sur YouTube chaque minute devraient être étudiées par un avocat spécialiste du copyright pour décider si elle est légale. Sauf que même s’il y avait assez d’argent pour payer des avocats à faire ça — et ça voudrait dire le plein emploi pour quiconque a fait des études de droit, d’aujourd’hui jusqu’à… la fin des temps — il n’y a tout simplement pas assez d’avocats, ni à l’heure actuelle ni même dans toute l’histoire de l’humanité, pour entamer cette masse. En fait, on serait à court d’heures de travail d’avocats avant d’atteindre la mort thermodynamique de l’univers.

Mais il n’y a rien dans la proposition de Viacom de rendre YouTube responsable des violations de copyright qui ferait que Google ou n’importe quel autre service en ligne comme Twitter et Blogger et Facebook, ne soient pas eux-mêmes responsables de leur contenu. Alors comment une entreprise pourrait-elle s’en sortir dans la théorie de Viacom ? C’est très simple, elle ferait exactement comme ça se passe pour les entreprises du câble : si vous voulez faire passer quelque chose sur une chaîne câblée vous devez lui fournir la garantie que ça ne viole pas le copyright, et pour s’assurer que vous pouvez leur garantir cela les chaînes câblées vérifient que vous êtes assurés. Et quand vous allez voir l’assureur il vous fait engager un avocat pour évaluer votre œuvre et s’assurer qu’elle ne viole pas de copyright. En d’autres termes, n’importe qui pourra s’exprimer sur Internet du moment qu’il a autant d’argent qu’un grand label ou studio de production, et ceux qui n’ont pas cet argent ne pourront pas. Ce qui veut dire qu’on recopierait le monde extérieur en miniature dans le monde intérieur de l’Internet.

Empêcher Internet de créer des copies c’est comme empêcher l’eau d’être mouillée.

Et ça ne s’arrête pas là, parce que des tentatives comme TPP (le partenariat trans-pacifique), ACTA (l’accord commercial anti-contrefaçon), TTIP (le partenariat trans-atlantique pour le commerce et l’investissement), et les efforts ad hoc de forces de l’ordre comme ceux de la police de la City de Londres avec leur brigade en charge de la propriété intellectuelle, ont tous essayé d’élargir ce type de responsabilité, pas seulement aux hébergeurs de contenus mais aux fournisseurs de solutions de paiement, aux régies publicitaires, aux bureaux d’enregistrement des noms de domaine, aux plateformes de réseaux sociaux, et ainsi de suite. Mais de même que les DRM n’empêchent pas les gens de faire des copies, toutes ces régulations n’empêchent pas les gens de trouver des copies illégales. Le darknet d’une part échappe complètement à l’application de ce genre de lois, et d’autre part il existe des quantités d’autres voies pour trouver ces contenus. Après tout, le principe du réseau c’est de créer des copies. Vous savez qu’Internet fonctionne quand des copies sont créées rapidement, fidèlement et à bas coût. Empêcher Internet de créer des copies c’est comme empêcher l’eau d’être mouillée.

Du coup, tout ce que ça fait, c’est de réduire la diversité et la compétitivité et les services pour le secteur de la création indépendante, et ça vous rend plus difficile d’obtenir un contrat avantageux avec votre éditeur et de faire connaître votre travail pour pouvoir gagner votre vie avec. Parce que même si la célébrité ne vous rend pas riche, personne ne peut vous donner d’argent s’il n’a pas entendu parler de vous.

Et maintenant nous en arrivons à la troisième et dernière loi, la plus importante : l’information ne veut pas être libre. Vous avez peut-être entendu parler de ce débat sur le copyright et l’Internet pour déterminer si l’information veut être libre… mais j’ai eu une révélation au printemps dernier. J’ai invité l’information à une sorte de retraite dans les montagnes : on a loué une cabane dans les bois, on a fait du feu, on s’est peint le corps, on a dansé, on a chanté, on a bu du vin et pleuré sur nos parents, et quand ce fut terminé, une information à l’odeur de foin coupé m’a serré dans ses bras avec émotion et chuchoté sa confession à mon oreille : elle ne veut pas être libre. Tout ce qu’elle veut de nous, tout ce que l’information veut de chacun de nous, c’est qu’on arrête d’anthropomorphiser l’information. Parce que l’information n’est qu’une abstraction et elle ne peut pas vouloir le moindre fichu truc.

L’information ne veut pas être libre…

Je n’ai pas consacré ma vie à ce genre de choses parce que je veux aider l’information à atteindre ses objectifs. C’est un combat qui concerne les gens et les gens veulent être libres. À l’ère de l’information, vous ne pouvez être libre que si vous avez des systèmes d’information libres et équitables. Lorsque nous formulons la question de la régulation de l’Internet comme un moyen d’améliorer le sort des zéro virgule zéro zéro zéro un pour cent du monde qui gagnent leur vie dans les arts, nous traitons le Net comme s’il s’agissait d’un glorieux service de vidéo à la demande. Mais ce n’est pas le cas ! Et contrairement à ce qu’en pense du ministère de l’Intérieur, ce n’est pas un moyen de perfectionner le djihad, ce n’est pas un meilleur système de diffusion de la pornographie. Qu’est-ce que l’Internet ? c’est le système nerveux du 21e siècle à travers lequel passent toutes nos activités. Tout ce que nous faisons aujourd’hui implique l’Internet et l’Internet sera nécessaire pour tout ce que nous ferons demain.

… ce sont les gens qui veulent être libres

Ainsi, bien que les DRM soient effectivement une mauvaise affaire pour les créateurs, et les éditeurs, et le public, ce n’est qu’un problème secondaire. Le véritable coût des DRM, le voici : pour permettre leur fonctionnement, à peu près tous les pays du monde ont interdit de communiquer aux utilisateurs des informations leur permettant de supprimer les DRM. Et cela signifie qu’il est illégal de signaler des vulnérabilités, des défaillances dans le code des DRM. Ce qui veut dire que quiconque vous informe de vulnérabilités dans votre téléphone, ou votre ordinateur, ou votre thermostat, ou dans le micrologiciel de votre automobile, ou dans les logiciels qui pilotent votre prothèse auditive ou votre pacemaker, peut être jeté en prison pour ce motif. Ce qui veut dire que des équipements sur lesquels nous comptons pour des questions vitales deviennent des réservoirs à longue durée de vie de vulnérabilités prêtes à être exploitées par des malfrats et des voyeurs, des usurpateurs d’identité, des espions, des flics et des gouvernements.

Notre monde est fait d’ordinateurs. Votre voiture est un ordinateur qui file sur l’autoroute à 100 km/h avec vous enfermé dedans. Votre immeuble moderne, une maison neuve ou une institution publique sont des ordinateurs dans lesquels vous vivez. Quand vous retirez les ordinateurs de la plupart de ces bâtiments, ils cessent d’être habitables immédiatement. Si vous ne relancez pas les ordinateurs très rapidement, la plupart de ces bâtiments tombent en ruine, car sans la capacité de réguler leur respiration, ils commencent à pourrir presque instantanément.

Vous et moi, et tous ceux qui ont grandi avec un casque de walkman sur les oreilles, on a passé assez d’heures avec nos écouteurs à fond pour qu’un jour on ait tous besoin de prothèses auditives. Et cette aide auditive ne sera pas un gadget Bose rétro-hipster-analogue-à-transistors. Ce sera un ordinateur que vous mettrez dans votre tête. Et selon la façon dont cet ordinateur sera conçu et paramétré, il pourra vous empêcher d’entendre certaines choses. Il pourra vous faire entendre des choses qui n’existent pas. Il pourra dire aux autres ce que vous avez entendu.

J’étais dans un aéroport il ya quelques mois — je passe beaucoup de temps dans les aéroports — et bien sûr la première règle dans les zones d’attente des aéroports est ABC : Accéder à une prise, Brancher, Charger. Je suis donc arrivé le premier dans ce salon d’attente de l’aéroport, je me suis jeté tout de suite sur l’emplacement stratégique, la seule prise de courant disponible du lieu, j’ai branché mon ordinateur portable et j’étais assis là à travailler quand un type est arrivé et m’a demandé sans complexe « Je peux utiliser cette prise de courant ? ». J’ai répondu « vous voyez bien que je charge mon portable ! ». Alors il a retroussé sa jambe de pantalon et m’a montré la prothèse qu’il portait à partir du genou et m’a dit : « Je dois charger ma jambe ». Et là j’ai débranché mon portable et dit : « je vous en prie ». Piper les dés pour empêcher la divulgation des failles dans les dispositifs dont on dépend pour tout — pour absolument tout — est une idée complètement démente. Vous devriez être avoir le droit de connaître les failles dans votre iPhone, un appareil doté d’une caméra, d’un micro, d’un capteur de position, et qui connaît tous vos amis et ce que vous en dites. Vous devriez avoir le droit de connaître les failles dans votre iPhone, même si le fait que vous connaissez ces failles complique les choses pour Apple qui voudrait garder son monopole sur le marché des applications.

Et quand il s’agit d’augmenter la responsabilité des fournisseurs de services, l’effet majeur n’a rien à voir avec le domaine artistique. Parce que les 96 heures de vidéos qui débarquent dans la boîte de réception de YouTube chaque minute ne sont pas des films amateurs ou de la télé pirate… Ce sont des communications personnelles, des conversations, ce sont des images filmées par des dissidents dans des zones de guerre, il s’agit de la matière brute de la communication. C’est la même chose pour les tweets, les messages Facebook et tout le reste. Et c’est là qu’il y a toujours des cyniques pour dire « peuh, tout ça pour préserver toute cette merde sur Facebook, toutes ces conneries sur Twitter, toutes ces photos de chats… ». Et ça c’est la réaction typique des gens qui refusent de prendre au sérieux tout ce qui se passe sur Internet. Et là je suis censé répondre « non, non, il y a aussi des choses nobles sur Internet, il y a des victimes de maltraitance qui parlent de leur parcours pour s’en sortir, il y a des personnes qui dénoncent les violences policières et ainsi de suite … », et tout ça, c’est important, mais pour une fois je vais m’exprimer en faveur de toutes les choses banales et les plus triviales.

Quand ma femme descend le matin — je suis le premier levé, dès 5h du matin, je suis un lève-tôt — quand ma femme descend le matin donc, et que je lui demande si elle a bien dormi, ce n’est pas vraiment pour savoir si elle a bien dormi. Je dors à côté d’elle, je le sais bien comment elle a dormi ! Si je demande à ma femme si elle a bien dormi, c’est parce qu’il s’agit d’une communication sociale qui signifie en réalité : « Je te vois ce matin. Tu comptes pour moi. Je t’aime. Je suis là ». Et quand quelqu’un expose une chose importante et lourde de conséquences comme « j’ai le cancer » ou bien « j’ai gagné » ou « j’ai perdu mon emploi », ces moments mémorables ont du sens parce qu’ils sont basés sur ce faisceau de millions d’échanges apparemment insignifiants. Et si les échanges insignifiants des autres vous semblent banals, c’est parce que vous n’êtes pas le destinataire de ces échanges. Mais eux, si. Eux et leur réseau social. Et c’est le comble de l’arrogance d’affirmer que juste pour s’assurer que les gens regardent la télé comme il faut, on est prêts à les surveiller, les censurer, et abandonner complètement les canaux de communication où se font leurs échanges.

Nous avons mis en place des systèmes par lesquels n’importe quel fichier peut être supprimé d’Internet simplement en le montrant du doigt et en disant : « J’ai entendu dire que ce fichier porte atteinte à mes droits d’auteur », sans présenter la moindre preuve et sans conséquences judiciaires pour ceux qui en abusent. Cette procédure de « notification et retrait » fait régulièrement l’objet d’abus par toutes sortes de salauds, du roi de Thaïlande aux néo-nazis britanniques élevés au grain. Parce que si vous mettez en place un système de censure sans procédure officielle et sans poursuites en cas d’abus, il serait d’une naïveté criminelle de ne pas prévoir qu’il y aura des abus. Ici au Royaume-Uni, nous avons la loi sur l’économie numérique de 2010. La dernière loi de la dernière législature, passée dans les dernières heures avant qu’ils se mettent en campagne pour les élections. Suivant les injonctions du whip du parti tout député travailliste qui n’aurait pas voté pour cette loi aurait perdu son poste et le soutien du parti, à la veille de la campagne électorale. Elle a donc été adoptée sans aucun débat parlementaire et elle permet au secrétaire de l’entreprise, qui était alors Peter Mandelson, et maintenant Vince Cable, d’imposer une règle à sa seule discrétion qui dit que toute personne disposant d’une connexion internet qui est impliquée dans 3 accusations d’infraction à l’Internet sans preuve et même sans suite peut être déconnecté d’Internet pendant un an. Ce qui signifie que si vous êtes simplement accusé de vivre dans le voisinage d’un appareil connecté au réseau qu’un tiers inconnu peut ou non avoir utilisé pour écouter de la musique de façon inappropriée, vous et tous ceux qui vivent dans votre maison êtes condamnés à la peine de mort d’Internet pour un an.

Et Martha Lane Fox, qui est maintenant baronne Soho — bon, tous ces trucs d’aristocratie, ça fait très Donjons et Dragons, mais la baronne Soho est cool… — donc Martha Lane Fox, avant de devenir baronne Soho, avait un job encore plus incroyablement cool : son titre était « championne de l’inclusion numérique ». Et l’un de ses premiers actes a été de commissionner l’entreprise de conseil Pricewhaterhousecoopers pour étudier ce qui se passe quand les gens accèdent à Internet. Pour mener à bien leur mission ils sont allés dans une cité HLM du nord de l’Angleterre qui a bénéficié d’un accès gratuit à Internet pendant quelques années. Il se trouve que cette cité était juste à côté d’un nœud de raccordement du réseau, et ils ont été raccordés, ils ne l’ont pas demandé ou signé quoi que ce soit… Et PWC a comparé les habitants de cette cité à ceux de HLM voisins qui n’avaient pas eu ce coup de chance géographique. Et ils ont trouvé que les familles qui avaient été connectées, par rapport aux familles des autres HLM, faisaient de meilleures études, se nourrissaient plus sainement, avaient de meilleurs emplois, un plus grand pouvoir d’achat, moins de dettes, plus de mobilité sociale, une meilleure participation à la vie publique, étaient mieux informés sur la politique et votaient davantage.

Alors quand nous, en tant que société, sommes prêts à punir collectivement des familles entières qui sont accusées sans preuve de se divertir sans autorisation, en leur coupant le tuyau qui leur offre à lui seul la liberté d’expression, la liberté de la presse, la liberté de réunion, l’accès à l’éducation, à la santé, de la nutrition, à la richesse, à l’engagement civique et politique… il est parfaitement évident que ce n’est pas un combat pour l’information, mais pour des personnes. En ce qui me concerne, j’estime que je peux gagner ma vie sans qu’il soit nécessaire d’espionner tout le monde, sans devenir l’autorité de censure d’Internet, sans un système comme la loi sur l’économie numérique de Peter Mandelson qui est si manifestement injuste et grotesque. Mais même si ce n’était pas le cas, même si cela signifiait que je doive renoncer à gagner ma vie comme ça, je combattrais encore pour qu’Internet soit libre et équitable. Parce que, même si j’ai rêvé toute ma vie, ma vie entière, d’être un écrivain, même si j’aime être en mesure de subvenir aux besoins de ma famille avec le revenu de mes travaux créatifs, je veux léguer un monde libre et juste à ma fille bien avant de vouloir être un artiste, et cela compte bien plus que mon désir profond d’être un artiste.

Il existe des millions de façons de gagner de l’argent avec de l’art et des milliards de façons de faire faillite en essayant de gagner de l’argent dans les arts. Veiller à ce que les artistes qui réussissent obtiennent autant d’argent que possible dans le système en place est un objectif honorable, mais au-delà de cela, les artistes doivent être opposés à la censure, à la surveillance et au contrôle, parce que les arts ne devraient jamais être du côté de censure, de la surveillance et du contrôle ! Essayez n’importe quoi et faites tout ce que vous pouvez pour que votre pièce tombe sur la tranche, mais si vous avez besoin de casser l’Internet pour réussir votre truc… alors vous êtes du mauvais côté de l’histoire.

Merci.

Crédit photo : portrait de Cory Doctorow par Jonathan Worth (CC BY-SA 2.0)

Notes :

[1] Roman traduit en français sous le titre de Silo.




Internet. Pour un contre-ordre social

Nous publions ci-dessous une tribune de Christophe Masutti, membre de Framasoft,

Elle paraît simultanément dans le magazine Linux Pratique, que vous trouverez dans tous les bons points presse et que nous remercions vivement pour son autorisation..

Linux Pratique 85

Internet. Pour un contre-ordre social

Christophe Masutti – Framasoft
19 juillet 2014
Ce document est placé sous Licence Art Libre 1.3 (Document version 1.0)
Paru initialement dans Linux Pratique n°85 Septembre/Octobre 2014, avec leur aimable autorisation

De la légitimité

Michel Foucault, disparu il y a trente ans, proposait d’approcher les grandes questions du monde à travers le rapport entre savoir et pouvoir. Cette méthode a l’avantage de contextualiser le discours que l’on est en train d’analyser : quels discours permettent d’exercer quels pouvoirs ? Et quels pouvoirs sont censés induire quelles contraintes et en vertu de quels discours ? Dans un de ses plus célèbres ouvrages, Surveiller et punir[1], Foucault démontre les mécanismes qui permettent de passer de la démonstration publique du pouvoir d’un seul, le monarque qui commande l’exécution publique des peines, à la normativité morale et physique imposée par le contrôle, jusqu’à l’auto-censure. Ce n’est plus le pouvoir qui est isolé dans la forteresse de l’autorité absolue, mais c’est l’individu qui exerce lui-même sa propre coercition. Ainsi, Surveiller et punir n’est pas un livre sur la prison mais sur la conformation de nos rapports sociaux à la fin du XXe siècle.

Les modèles économiques ont suivi cet ordre des choses : puisque la société est individualiste, c’est à l’individu que les discours doivent s’adresser. La plupart des modèles économiques qui préexistent à l’apparition de services sur Internet furent considérés, au début du XXIe siècle, comme les seuls capables de générer des bénéfices, de l’innovation et du bien-être social. L’exercice de la contrainte consistait à susciter le consentement des individus-utilisateurs dans un rapport qui, du moins le croyait-on, proposait une hiérarchie entre d’un côté les producteurs de contenus et services et, de l’autre côté, les utilisateurs. Il n’en était rien : les utilisateurs eux-mêmes étaient supposés produire des contenus œuvrant ainsi à la normalisation des rapports numériques où les créateurs exerçaient leur propre contrainte, c’est-à-dire accepter le dévoilement de leur vie privée (leur identité) en guise de tribut à l’expression de leurs idées, de leurs envies, de leurs besoins, de leurs rêves. Que n’avait-on pensé plus tôt au spectaculaire déploiement de la surveillance de masse focalisant non plus sur les actes, mais sur les éléments qui peuvent les déclencher ? Le commerce autant que l’État cherche à renseigner tout comportement prédictible dans la mesure où, pour l’un il permet de spéculer et pour l’autre il permet de planifier l’exercice du pouvoir. La société prédictible est ainsi devenue la force normalisatrice en fonction de laquelle tout discours et tout pouvoir s’exerce désormais (mais pas exclusivement) à travers l’organe de communication le plus puissant qui soit : Internet. L’affaire Snowden n’a fait que focaliser sur l’un de ses aspects relatif aux questions des défenses nationales. Mais l’aspect le plus important est que, comme le dit si bien Eben Moglen dans une conférence donnée à Berlin en 2012[2], « nous n’avons pas créé l’anonymat lorsque nous avons inventé Internet. »

Depuis le milieu des années 1980, les méthodes de collaboration dans la création de logiciels libres montraient que l’innovation devait être collective pour être assimilée et partagée par le plus grand nombre. La philosophie du Libre s’opposait à la nucléarisation sociale et proposait un modèle où, par la mise en réseau, le bien-être social pouvait émerger de la contribution volontaire de tous adhérant à des objectifs communs d’améliorations logicielles, techniques, sociales. Les créations non-logicielles de tout type ont fini par suivre le même chemin à travers l’extension des licences à des œuvres non logicielles. Les campagnes de financement collaboratif, en particulier lorsqu’elles visent à financer des projets sous licence libre, démontrent que dans un seul et même mouvement, il est possible à la fois de valider l’impact social du projet (par l’adhésion du nombre de donateurs) et assurer son développement. Pour reprendre Eben Moglen, ce n’est pas l’anonymat qui manque à Internet, c’est la possibilité de structurer une société de la collaboration qui échappe aux modèles anciens et à la coercition de droit privé qu’ils impliquent. C’est un changement de pouvoir qui est à l’œuvre et contre lequel toute réaction sera nécessairement celle de la punition : on comprend mieux l’arrivée plus ou moins subtile d’organes gouvernementaux et inter-gouvernementaux visant à sanctionner toute incartade qui soit effectivement condamnable en vertu du droit mais aussi à rigidifier les conditions d’arrivée des nouveaux modèles économiques et structurels qui contrecarrent les intérêts (individuels eux-aussi, par définition) de quelques-uns. Nous ne sommes pas non plus à l’abri des resquilleurs et du libre-washing cherchant, sous couvert de sympathie, à rétablir une hiérarchie de contrôle.

Dans sa Lettre aux barbus[3], le 5 juin 2014, Laurent Chemla vise juste : le principe selon lequel « la sécurité globale (serait) la somme des sécurités individuelles » implique que la surveillance de masse (rendue possible, par exemple, grâce à notre consentement envers les services gratuits dont nous disposons sur Internet) provoque un déséquilibre entre d’une part ceux qui exercent le pouvoir et en ont les moyens et les connaissances, et d’autre part ceux sur qui s’exerce le pouvoir et qui demeurent les utilisateurs de l’organe même de l’exercice de ce pouvoir. Cette double contrainte n’est soluble qu’à la condition de cesser d’utiliser des outils centralisés et surtout s’en donner les moyens en « (imaginant) des outils qui créent le besoin plutôt que des outils qui répondent à des usages existants ». C’est-à-dire qu’il relève de la responsabilité de ceux qui détiennent des portions de savoir (les barbus, caricature des libristes) de proposer au plus grand nombre de nouveaux outils capables de rétablir l’équilibre et donc de contrecarrer l’exercice illégitime du pouvoir.

Une affaire de compétences

Par bien des aspects, le logiciel libre a transformé la vie politique. En premier lieu parce que les licences libres ont bouleversé les modèles[4] économiques et culturels hérités d’un régime de monopole. En second lieu, parce que les développements de logiciels libres n’impliquent pas de hiérarchie entre l’utilisateur et le concepteur et, dans ce contexte, et puisque le logiciel libre est aussi le support de la production de créations et d’informations, il implique des pratiques démocratiques de décision et de liberté d’expression. C’est en ce sens que la culture libre a souvent été qualifiée de « culture alternative » ou « contre-culture » parce qu’elle s’oppose assez frontalement avec les contraintes et les usages qui imposent à l’utilisateur une fenêtre minuscule pour échanger sa liberté contre des droits d’utilisation.

Contrairement à ce que l’on pouvait croire il y a seulement une dizaine d’années, tout le monde est en mesure de comprendre le paradoxe qu’il y a lorsque, pour pouvoir avoir le droit de communiquer avec la terre entière et 2 amis, vous devez auparavant céder vos droits et votre image à une entreprise comme Facebook. Il en est de même avec les formats de fichiers dont les limites ont vite été admises par le grand public qui ne comprenait et ne comprend toujours pas en vertu de quelle loi universelle le document écrit il y a 20 ans n’est aujourd’hui plus lisible avec le logiciel qui porte le même nom depuis cette époque. Les organisations libristes telles la Free Software Foundation[5], L’Electronic Frontier Foundation[6], l’April[7], l’Aful[8], Framasoft[9] et bien d’autres à travers le monde ont œuvré pour la promotion des formats ouverts et de l’interopérabilité à tel point que la décision publique a dû agir en devenant, la plupart du temps assez mollement, un organe de promotion de ces formats. Bien sûr, l’enjeu pour le secteur public est celui de la manipulation de données sensibles dont il faut assurer une certaine pérennité, mais il est aussi politique puisque le rapport entre les administrés et les organes de l’État doit se faire sans donner à une entreprise privée l’exclusivité des conditions de diffusion de l’information.

Les acteurs associatifs du Libre, sans se positionner en lobbies (alors même que les lobbies privés sont financièrement bien plus équipés) et en œuvrant auprès du public en donnant la possibilité à celui-ci d’agir concrètement, ont montré que la société civile est capable d’expertise dans ce domaine. Néanmoins, un obstacle de taille est encore à franchir : celui de donner les moyens techniques de rendre utilisables les solutions alternatives permettant une émancipation durable de la société. Peine perdue ? On pourrait le croire, alors que des instances comme le CNNum (Conseil National du Numérique) ont tendance à se résigner[10] et penser que les GAFA (Google, Apple, Facebook et Amazon) seraient des autorités incontournables, tout comme la soumission des internautes à cette nouvelle forme de féodalité serait irrémédiable.

Pour ce qui concerne la visibilité, on ne peut pas nier les efforts souvent exceptionnels engagés par les associations et fondations de tout poil visant à promouvoir le Libre et ses usages auprès du large public. Tout récemment, la Free Software Foundation a publié un site web multilingue exclusivement consacré à la question de la sécurité des données dans l’usage des courriels. Intitulé Email Self Defense[11], ce guide explique, étape par étape, la méthode pour chiffrer efficacement ses courriels avec des logiciels libres. Ce type de démarche est en réalité un symptôme, mais il n’est pas seulement celui d’une réaction face aux récentes affaires d’espionnage planétaire via Internet.

Pour reprendre l’idée de Foucault énoncée ci-dessus, le contexte de l’espionnage de masse est aujourd’hui tel qu’il laisse la place à un autre discours : celui de la nécessité de déployer de manière autonome des infrastructures propres à l’apprentissage et à l’usage des logiciels libres en fonction des besoins des populations. Auparavant, il était en effet aisé de susciter l’adhésion aux principes du logiciel libre sans pour autant déployer de nouveaux usages et sans un appui politique concret et courageux (comme les logiciels libres à l’école, dans les administrations, etc.). Aujourd’hui, non seulement les principes sont socialement intégrés mais de nouveaux usages ont fait leur apparition tout en restant prisonniers des systèmes en place. C’est ce que soulève très justement un article récent de Cory Doctorow[12] en citant une étude à propos de l’usage d’Internet chez les jeunes gens. Par exemple, une part non négligeable d’entre eux suppriment puis réactivent au besoin leurs comptes Facebook de manière à protéger leurs données et leur identité. Pour Doctorow, être « natifs du numérique » ne signifie nullement avoir un sens inné des bons usages sur Internet, en revanche leur sens de la confidentialité (et la créativité dont il est fait preuve pour la sauvegarder) est contrecarré par le fait que « Facebook rend extrêmement difficile toute tentative de protection de notre vie privée » et que, de manière plus générale, « les outils propices à la vie privée tendent à être peu pratiques ». Le sous-entendu est évident : même si l’installation logicielle est de plus en plus aisée, tout le monde n’est capable d’installer chez soi des solutions appropriées comme un serveur de courriel chiffré.

Que faire ?

Le diagnostic posé, que pouvons-nous faire ? Le domaine associatif a besoin d’argent. C’est un fait. Il est d’ailleurs remarqué par le gouvernement français, qui a fait de l’engagement associatif la grande « cause nationale de l’année 2014 ». Cette action[13] a au moins le mérite de valoriser l’économie sociale et solidaire, ainsi que le bénévolat. Les associations libristes sont déjà dans une dynamique similaire depuis un long moment, et parfois s’essoufflent… En revanche, il faut des investissements de taille pour avoir la possibilité de soutenir des infrastructures libres dédiées au public et répondant à ses usages numériques. Ces investissements sont difficiles pour au moins deux raisons :

  • la première réside dans le fait que les associations ont pour cela besoin de dons en argent. Les bonnes volontés ne suffisent pas et la monnaie disponible dans les seules communautés libristes est à ce jour en quantité insuffisante compte tenu des nombreuses sollicitations ;
  • la seconde découle de la première : il faut lancer un mouvement de financements participatifs ou des campagnes de dons ciblées de manière à susciter l’adhésion du grand public et proposer des solutions adaptées aux usages.

Pour cela, la première difficulté sera de lutter contre la gratuité. Aussi paradoxal que cela puisse paraître, la gratuité (relative) des services privateurs possède une dimension attractive si puissante qu’elle élude presque totalement l’existence des solutions libres ou non libres qui, elles, sont payantes. Pour rester dans le domaine de la correspondance, il est très difficile aujourd’hui de faire comprendre à Monsieur Dupont qu’il peut choisir un hébergeur de courriel payant, même au prix « participatif » d’1 euro par mois. En effet, Monsieur Dupont peut aujourd’hui utiliser, au choix : le serveur de courriel de son employeur, le serveur de courriel de son fournisseur d’accès à Internet, les serveurs de chez Google, Yahoo et autres fournisseurs disponibles très rapidement sur Internet. Dans l’ensemble, ces solutions sont relativement efficaces, simples d’utilisation, et ne nécessitent pas de dépenses supplémentaires. Autant d’arguments qui permettent d’ignorer la question de la confidentialité des courriels qui peuvent être lus et/ou analysés par son employeur, son fournisseur d’accès, des sociétés tierces…

Pourtant des solutions libres, payantes et respectueuses des libertés, existent depuis longtemps. C’est le cas de Sud-Ouest.org[14], une plate-forme d’hébergement mail à prix libre. Ou encore l’association Lautre.net[15], qui propose une solution d’hébergement de site web, mais aussi une adresse courriel, la possibilité de partager ses documents via FTP, la création de listes de discussion, etc. Pour vivre, elle propose une participation financière à la gestion de son infrastructure, quoi de plus normal ?

Aujourd’hui, il est de la responsabilité des associations libristes de multiplier ce genre de solutions. Cependant, pour dégager l’obstacle de la contrepartie financière systématique, il est possible d’ouvrir gratuitement des services au plus grand nombre en comptant exclusivement sur la participation de quelques uns (mais les plus nombreux possible). En d’autres termes, il s’agit de mutualiser à la fois les plates-formes et les moyens financiers. Cela ne rend pas pour autant les offres gratuites, simplement le coût total est réparti socialement tant en unités de monnaie qu’en contributions de compétences. Pour cela, il faut savoir convaincre un public déjà largement refroidi par les pratiques des géants du web et qui perd confiance.

Framasoft propose des solutions

Parmi les nombreux projets de Framasoft, il en est un, plus généraliste, qui porte exclusivement sur les moyens techniques (logiciels et matériels) de l’émancipation du web. Il vise à renouer avec les principes qui ont guidé (en des temps désormais très anciens) la création d’Internet, à savoir : un Internet libre, décentralisé (ou démocratique), éthique et solidaire (l.d.e.s.).

Framasoft n’a cependant pas le monopole de ces principes l.d.e.s., loin s’en faut, en particulier parce que les acteurs du Libre œuvrent tous à l’adoption de ces principes. Mais Framasoft compte désormais jouer un rôle d’interface. À l’instar d’un Google qui rachète des start-up pour installer leurs solutions à son compte et constituer son nuage, Framasoft se propose depuis 2010, d’héberger des solutions libres pour les ouvrir gratuitement à tout public. C’est ainsi que par exemple, des particuliers, des syndicats, des associations et des entreprises utilisent les instances Framapad et Framadate. Il s’agit du logiciel Etherpad, un système de traitement de texte collaboratif, et d’un système de sondage issu de l’Université de Strasbourg (Studs) permettant de convenir d’une date de réunion ou créer un questionnaire. Des milliers d’utilisateurs ont déjà bénéficié de ces applications en ligne ainsi que d’autres, qui sont listées sur Framalab.org[16].

Depuis le début de l’année 2014, Framasoft a entamé une stratégie qui, jusqu’à présent est apparue comme un iceberg au yeux du public. Pour la partie émergée, nous avons tout d’abord commencé par rompre radicalement les ponts avec les outils que nous avions tendance à utiliser par pure facilité. Comme nous l’avions annoncé lors de la campagne de don 2013, nous avons quitté les services de Google pour nos listes de discussion et nos analyses statistiques. Nous avons choisi d’installer une instance Bluemind, ouvert un serveur Sympa, mis en place Piwik ; quant à la publicité et les contenus embarqués, nous pouvons désormais nous enorgueillir d’assurer à tous nos visiteurs que nous ne nourrissons plus la base de données de Google. À l’échelle du réseau Framasoft, ces efforts ont été très importants et ont nécessité des compétences et une organisation technique dont jusque là nous ne disposions pas.

Nous ne souhaitons pas nous arrêter là. La face immergée de l’iceberg est en réalité le déploiement sans précédent de plusieurs services ouverts. Ces services ne seront pas seulement proposés, ils seront accompagnés d’une pédagogie visant à montrer comment[17] installer des instances similaires pour soi-même ou pour son organisation. Nous y attachons d’autant plus d’importance que l’objectif n’est pas de commettre l’erreur de proposer des alternatives centralisées mais d’essaimer au maximum les solutions proposées.

Au mois de juin, nous avons lancé une campagne de financement participatif afin d’améliorer Etherpad (sur lequel est basé notre service Framapad) en travaillant sur un plugin baptisé Mypads : il s’agit d’ouvrir des instances privées, collaboratives ou non, et les regrouper à l’envi, ce qui permettra in fine de proposer une alternative sérieuse à Google Docs. À l’heure où j’écris ces lignes, la campagne est une pleine réussite et le déploiement de Mypads (ainsi que sa mise à disposition pour toute instance Etherpad) est prévue pour le dernier trimestre 2014. Nous avons de même comblé les utilisateurs de Framindmap, notre créateur en ligne de carte heuristiques, en leur donnant une dimension collaborative avec Wisemapping, une solution plus complète.

Au mois de juillet, nous avons lancé Framasphère[18], une instance Diaspora* dont l’objectif est de proposer (avec Diaspora-fr[19]) une alternative à Facebook en l’ouvrant cette fois au maximum en direction des personnes extérieures au monde libriste. Nous espérons pouvoir attirer ainsi l’attention sur le fait qu’aujourd’hui, les réseaux sociaux doivent afficher clairement une éthique respectueuse des libertés et des droits, ce que nous pouvons garantir de notre côté.

Enfin, après l’été 2014, nous comptons de même offrir aux utilisateurs un moteur de recherche (Framasearx) et d’ici 2015, si tout va bien, un diaporama en ligne, un service de visioconférence, des services de partage de fichiers anonymes et chiffrés, et puis… et puis…

Aurons-nous les moyens techniques et financiers de supporter la charge ? J’aimerais me contenter de dire que nous avons la prétention de faire ainsi œuvre publique et que nous devons réussir parce qu’Internet a aujourd’hui besoin de davantage de zones libres et partagées. Mais cela ne suffit pas. D’après les derniers calculs, si l’on compare en termes de serveurs, de chiffre d’affaire et d’employés, Framasoft est environ 38.000 fois plus petit que Google[20]. Or, nous n’avons pas peur, nous ne sommes pas résignés, et nous avons nous aussi une vision au long terme pour changer le monde[21]. Nous savons qu’une population de plus en plus importante (presque majoritaire, en fait) adhère aux mêmes principes que ceux du modèle économique, technique et éthique que nous proposons. C’est à la société civile de se mobiliser et nous allons développer un espace d’expression de ces besoins avec les moyens financiers de 200 mètres d’autoroute en équivalent fonds publics. Dans les mois et les années qui viennent, nous exposerons ensemble des méthodes et des exemples concrets pour améliorer Internet. Nous aider et vous investir, c’est rendre possible le passage de la résistance à la réalisation.

Notes

[1] Michel Foucault, Surveiller et punir. Naissance de la prison, Paris : Gallimard, 1975; http://fr.wikipedia.org/wiki/Surveiller_et_punir

[2] Eben Moglen, « Why Freedom of Thought Requires Free Media and Why Free Media Require Free Technology », Re:Publica Conference, 02 mai 2012, Berlin; http://12.re-publica.de/panel/why-freedom-of-thought-requires-free-media-and-why-free-media-require-free-technology/

[3] Laurent Chemla, « Lettre aux barbus », Mediapart, 05/06/2014; http://blogs.mediapart.fr/blog/laurent-chemla/050614/lettre-aux-barbus

[4] Benjamin Jean, Option libre. Du bon usage des licences libres, Paris : Framasoft/Framabook, 2011; http://framabook.org/option-libre-du-bon-usage-des-licences-libres

[5] La FSF se donne pour mission mondiale la promotion du logiciel libre et la défense des utilisateurs; http://www.fsf.org/

[6] L’objectif de l’EFF est de défendre la liberté d’expression sur Internet, ce qui implique l’utilisation des logiciels libres; http://www.eff.org

[7] April. Promouvoir et défendre le logiciel libre; http://www.april.org

[8] Association Francophone des Utilisateurs de Logiciels Libres; https://aful.org

[9] Framasoft, La route est longue mais la voie est libre; http://framasoft.org

[10] Voir à ce sujet l’analyse du dernier rapport du CNNum sur « la neutralité des plateformes », par Stéphane Bortzmeyer; http://www.bortzmeyer.org/neutralite-plateformes.html

[11] Autodéfense courriel; https://emailselfdefense.fsf.org/fr/.

[12] Cory Doctorow, « Vous êtes “natif du numérique” ? – Ce n’est pas si grave, mais… », trad. fr. sur Framablog, le 6 juin 2014; https://framablog.org/index.php/post/2014/06/05/vous-etes-natifs-num%C3%A9riques-pas-grave-mais

[13] Sera-t-elle efficace ? c’est une autre question

[14] Plateforme libre d’hébergement mail à prix libre; https://www.sud-ouest.org

[15] L’Autre Net, hébergeur associatif autogéré; http://www.lautre.net

[16] Le laboratoire des projets Framasoft; https://framalab.org

[17] On peut voir ce tutoriel d’installation de Wisemapping comme exemple de promotion de la décentralisation; http://framacloud.org/cultiver-son-jardin/installation-de-wisemapping/

[18] Un réseau social libre, respectueux et décentralisé; https://framasphere.org

[19] Noeud du réseau Diaspora*, hébergé en France chez OVH; https://diaspora-fr.org/

[20] Voir au sujet de la dégooglisation d’Internet la conférence de Pierre-Yves Gosset lors des Rencontres Mondiales du Logiciel Libre, juillet 2014, Montpellier; http://video.rmll.info/videos/quelles-alternatives-a-google-retours-sur-lexperience-framacloud

[21] Cette vision du monde vaut bien celle de Google, qui faisait l’objet de la Une de Courrier International du mois de mai 2014. http://www.courrierinternational.com/article/2014/05/27/google-maitre-du-futur.




La bidouillabilité à l’école : une expérience Suisse autour du Raspberry Pi

Faire entrer le logiciel libre à l’école reste un défi.

Si l’on se réfère aux nombreux articles publiés sur le sujet sur le Framablog, il apparaît que les initiatives individuelles en faveur du libre, portées par des enseignants motivés et volontaires, se multiplient. Mais aussi que celles-ci se heurtent à une administration pas toujours bienveillante et parfois sclérosée par une mentalité difficile à faire évoluer («Un PC, ça fonctionne avec Windows. », « Le traitement de texte, c’est Word. »). Il faut dire que les services de Microsoft restent très présents et actifs pour promouvoir leurs produits[1][2][3].

Sachant cela, quelle porte d’entrée trouver pour montrer aux enfants que l’informatique ne se résume pas plus à Microsoft qu’internet ne se résumerait à Facebook, Twitter ou Google ?

Christophe Lincoln, un enseignant suisse, propose un projet éducatif original et innovant, basé sur des Raspberry Pi. Certes, il ne s’agit pas (encore) de matériel libre, mais au moins peut-on y voir un premier pas vers une découverte de la « bidouillabilité » chère à Tristan Nitot et qui permettrait (enfin ?) de faire entrevoir aux jeunes générations la face immergée de l’informatique.

piclass-leds.png

Bonjour Christophe, peux-tu te présenter ?

Bonjour, je suis un passionné et j’aime être en projet ! Mon premier projet open-source d’envergure est la distribution SliTaz GNU/Linux. Le projet SliTaz a l’âge de mon fils, c’est à dire 8 ans et me permet de vivre une expérience géniale dans le monde du libre. Je suis aussi enseignant dans des classes primaires de l’établissement d’Entre-Bois à Lausanne en Suisse romande.

Et PiClass alors, qu’est-ce que c’est ?

Le but du projet est de proposer un atelier informatique et robotique itinérant et utilisant des Raspberry Pi. L’atelier PiClass pourra prendre en charge une demi classe, c’est à dire 10 à 12 élèves. C’est par un projet Pilote que PiClass démarre : proposer un outil informatique au service des disciplines scolaires en utilisant les dernières technologies et du matériel conçu pour l’éducation. Le projet pédagogique répond aux objectifs du PER (Plan d’Etudes Roman) et il est destiné à tous les élèves de l’établissement primaire d’Entre-Bois à Lausanne.

Quels sont les avantages de la mise en œuvre d’un tel projet, et quel est son rapport avec le libre à l’école ?

Les classes Lausannoise (et ailleurs dans le monde) n’ont souvent qu’une seule machine à disposition et pas de salle informatique. Avec PiClass on a une salle informatique pour 10-12 élèves qui peut se déplacer d’un bâtiment scolaire à un autre. L’avantage c’est qu’il n’y a pas besoin d’équiper toutes les classes ou tous les bâtiments. L’autre gros avantage d’une PiClass c’est le coût du matériel : imbattable !

Son rapport au libre à l’école est simple, le Raspberry Pi ne tourne que sous GNU/Linux ! Les élèves utilisent donc un OS libre et uniquement des logiciels libres, que ce soit pour la bureautique, les jeux éducatifs ou la programmation avec Scratch et Python.

En France, le débat est maintenant ouvert sur le “codage”[4][5] à l’école. Quelle est ton opinion sur le sujet ?

Je pense que coder c’est structurant : il faut suivre le code ! Si on veut obtenir quelque chose il faut suivre des règles précises, c’est comme dans la vie, il y a des règles. Ensuite coder c’est apprendre à utiliser le clavier, c’est constamment avoir recourt aux mathématiques, c’est apprendre l’anglais et développer la pensée créatrice des élèves. Je pense vraiment que coder avec les élèves est pédagogique et cela apporte un coté concret et ludique que les élèves apprécient beaucoup.

Pour l’instant, un projet-pilote est prévu à Entre-Bois. Comment imagines-tu la suite ? Ce projet est-il suffisamment rémunérateur, non seulement pour toi, mais pour inciter d’autres enseignants à faire “tâche d’huile” ?

Si le projet pilote passe la rampe à Entre-bois, il y a des chances pour que des PiClass s’ouvrent dans tous les établissement de la ville de Lausanne.

Avec le projet pilote j’aurais 4 classes sur les 150 de l’établissement et les 6 périodes d’enseignements par semaine me seraient payées. Si le projet passe, Piclass pourra être rémunérateur pour plusieurs enseignants sur Lausanne vu le nombre de classes que cela fait pour toute la ville !

Le projet PiClass a aussi une visée internationale et humanitaire. Nous sommes déjà en discussion pour une PiClass au Brésil pour 2015.

Christophe, merci ! Un dernier mot pour la fin ?

Mais merci à vous ! Je me réjouis de vous revoir dans un salon ou lors d’une opération libre pour vous faire un câlin ! Au delà du code, le libre c’est un grand projet humain.




OpenStreetMap : le prochain projet libre vraiment indispensable, par Glyn Moody

OpenStreetMap vient de fêter sa dixième bougie (et la communauté française vous invite à célébrer cela le lundi 8 septembre à Numa Paris).

Et comme le souligne Glyn Moody dans l’article traduit ci-dessous, on est bien content qu’il soit là parce qu’on ne peut pas compter sur Google pour aborder la cartographie sous l’angle des biens communs…

OpenStreetMap 10 ans

OpenStreetMap : le prochain projet libre vraiment indispensable

OpenStreetMap: the Next Truly Indispensable Open Project

Glyn Moody – 28 août 2014 – ComputerWorld
(Traduction : Narcisse, rocherd, aKa, PxlCtzn, Asta, fal7i, Piup, yoLotus, Mooshka, tetrakos, Mooshka, Jeff_, Omegax, Goofy, yaap, GregR + 4 anonymes)

L’année dernière, je décrivais OpenStreetMap (OSM) comme « la cartographie open source » » À l’occasion des dix ans du projet, j’aimerais me pencher plus avant sur cet exemple important de collaboration ouverte et expliquer en quoi il est selon moi destiné à devenir le prochain projet ouvert absolument incontournable.

Tout d’abord, un peu d’histoire ; pour fêter l’anniversaire d’OSM, TechCrunch a réalisé une excellente interview de Steve Coast, le fondateur du projet. Voici comment tout a commencé :

L’idée de départ était très très simple. J’avais un GPS sur mon portable mais l’on ne pouvait pas en faire grand-chose car il ne contenait aucune donnée. On pouvait télécharger l’image d’une carte, mais si l’on voulait faire quoi que ce soit d’un peu utile comme demander à l’ordinateur d’identifier la route sur laquelle on se trouvait ou de nous guider à chaque intersection, c’était impossible car il n’y avait pas de données cartographiques. Je me suis donc dit : pourquoi ne pas créer des données cartographiques ? Avec un GPS, il suffit de passer en voiture, en vélo ou à pied sur toutes les routes, tous les chemins et utiliser ces informations pour créer une carte. J’établis un petit bout de carte là où j’habite et tu établis un petit bout de carte là où tu habites et nous construisons tout cela comme un puzzle géant — et accessoirement, on le met à disposition gratuitement. Tout comme Wikipédia qui développait une encyclopédie de façon très similaire ; j’ai copié beaucoup d’éléments utilisés par Wikipédia — comme la licence libre, la possibilité que tout le monde puisse contribuer, etc.

Bien que Coast évoque ici Wikipédia, GNU/Linux a également joué un rôle déterminant dans le développement du projet :

J’ai fait beaucoup d’interventions. Les groupes d’utilisateurs de Linux étaient très à la mode — les gens se retrouvaient le samedi après-midi pour discuter de Linux. Ils connaissaient déjà une bonne partie de l’histoire puisqu’ils connaissaient l’open source et avaient des connaissances informatiques. Il n’était donc pas très difficile de leur expliquer ce que faisait OpenStreetMap. À partir de là, je suis intervenu dans des conférences sur la cartographie. J’ai arrêté de compter après environ 500 interventions. J’avais l’habitude de mettre le chiffre sur ma première diapo.

L’existence préalable des communautés Linux a permis à Coast d’avancer dans leur sillage. Comme il le souligne, les idées fondatrices comme la collaboration et le fait que le produit fini soit libre étaient les mêmes, il n’a donc pas bataillé pour convaincre. C’est un autre bon exemple de l’aspect déterminant du succès de GNU/Linux sur celui des autres choses « ouvertes » — le contenu ouvert, les données ouvertes, l’accès ouvert et OpenStreetMap.

L’autre parallèle intéressant avec la montée de GNU/Linux est que Coast travaille maintenant pour Telenav, une entreprise développant un logiciel de navigation (il a aussi travaillé pour Microsoft pendant un temps, curieux…). Telenav a apparemment embauché plusieurs acteurs clés d’OSM, tout comme des entreprises comme Red Hat ont employé des bidouilleurs du noyau de Linux à ses débuts. Dans l’interview TechCrunch, Coast explique les principaux défis actuels :

Il manque plusieurs choses à OpenStreetMap. Des informations de navigation comme les rues à sens unique, les restrictions horaires ou les limites de vitesse. Il manque aussi des adresses. Telenav a beaucoup de tracés GPS. Nous traitons ces tracés en informations pour la navigation. Si vous prenez toutes les personnes qui voyagent sur une nationale et qu’elles vont toutes à 90 km/h, vous savez que c’est probablement la vitesse limite. Si personne ne tourne à gauche à une intersection, c’est probablement qu’il y a une interdiction de tourner à cet endroit.

Vous pouvez donc résoudre ce problème avec les traces GPS. Cependant, les données d’adresse sont plus difficiles à utiliser. Aux États-Unis, il est possible de placer une licence sur ces données, mais, en Europe, entre autres, c’est plus difficile. Aux États-Unis, le gouvernement fédéral est comparable à une organisation du domaine public, et cela transpire sur les gouvernements locaux. Vous pouvez en obtenir les données. Tous les autres pays essayent de s’approprier les données cartographiques. Aux États-Unis, la plupart des adresses sont prévisibles. Dans le reste du monde, ce n’est pas aussi simple. Au Japon, les numéros de rue sont à la fois basés sur le bloc et l’âge de la maison. La première maison a le numéro un, la suivante le deux, et ainsi de suite. De fait, il est plus difficile de prédire où se trouvent les choses.

C’est quelque chose que beaucoup de personnes cherchent à résoudre, donc j’imagine que ce sera résolu un de ces jours ; et il existe beaucoup de façons intéressantes de le faire. Vous pouvez faire intervenir la communauté pour obtenir ces données, vous pouvez payer des gens pour les collecter mais, je pense qu’au final, la solution sera un mix de plusieurs choses. Par exemple, à chaque fois que vous utilisez une application qui vous permet de vous géolocaliser, vous signalez que tel restaurant à telle adresse se trouve à tel endroit.

Cela nous amène directement au futur d’OSM : que peut ajouter OSM à ses données géographiques de base – et que faut-il ajouter ? Doit-on, par exemple, chercher à coller au fonctionnement de Google Maps en tous points, y compris la navigation (point qui est visiblement important pour Coast) ou même l’imagerie satellitaire ? La première semble réellement faisable, et peut être que des drones bon marché pourraient être utilisés par la communauté pour la seconde. Mais que pourrions-nous ajouter encore ?

Comme je l’ai écrit l’an dernier, je pense qu’OSM devrait essayer de devenir l’infrastructure open source du monde mobile, comme GNU/Linux l’a fait pour la précédente génération d’ordinateurs (et pour la plateforme mobile dominante, Android). le service Waze donne une assez bonne idée de ce que cela pourrait être :

Le concept de Waze est la contribution au bien commun quand vous êtes sur la route.

En connectant les conducteurs les uns aux autres, nous aidons les gens à créer des communautés locales de conducteurs qui travaillent ensemble pour améliorer la qualité de conduite de chacun au quotidien. Cela leur permet d’éviter la frustration de rester bloqués par des bouchons ou un barrage de police, ou de gagner 5 minutes sur leur trajet quotidien en leur montrant un nouveau trajet dont ils ne connaissaient même pas l’existence.

Alors, comment ça fonctionne ?

Après avoir saisi l’adresse de destination, les utilisateurs n’ont qu’à conduire avec l’application lancée sur leur téléphone afin de contribuer passivement à mettre à jour les informations liées au trafic et aux autres informations de la route. Mais ils peuvent aussi être actifs en partageant un état de la route comme un accident, un barrage de police ou tout autre danger sur leur chemin, ce qui aide les autres usagers à savoir ce qui se passe sur leur trajet.

En plus de la communauté de conducteurs locaux utilisant l’application, Waze profite aussi d’une communauté active éditant la carte en ligne afin d’assurer que les environs soient aussi à jour que possible.

Même si cela met l’accent sur les données routières issues des voitures, le processus se généralise à toute forme de transport. Waze porte sur l’utilisation d’une application sur périphériques mobiles pour produire en temps réel et de manière participative des informations à jour sur les déplacements et les lieux. C’est une bonne idée, avec une erreur fatale : l’énorme quantité des données uniques fournies par les utilisateurs de Waze appartiennent à Waze : c’est un cas classique où les utilisateurs créent le service pour ensuite laisser quelqu’un d’autre en gérer la valeur. Voilà pour « la contribution “au bien commun” ».

Les choses sont pires depuis que Waze fait maintenant partie de Google, car cela veut dire que toutes ces informations incroyablement personnelles à propos de vous et de vos compagnons de voyage sont envoyées aux machines avides de Google, dans le but d’être traitées, liées et analysées pour révéler plus de choses sur les gens qu’ils ne le pensent probablement.

En fait, le problème avec Google est encore plus vaste depuis qu’il possède le service de cartographie qui domine le monde de la cartographie exactement comme le fait Microsoft Windows dans le monde du système d’exploitation grand public. Même avant qu’il n’achète Waze, Google encourageait ses utilisateurs à contribuer à « l’amélioration » de l’entreprise, qui en conserve la plupart des bénéfices, comme il le fait avec la quasi-totalité des ses services « gratuits ».

Mikel Maron nous a avertis du danger de cette approche pour OSM — et pour nous — depuis 2011, lorsqu’il a écrit un billet intitulé « Nous devons empêcher Google d’exploiter les communautés ouvertes »

La stratégie de Google est de construire un marché en Afrique en s’appropriant des méthodes de la communauté des données ouvertes tout en laissant à l’entreprise le contrôle de ce qui mérite d’être une ressource partagée. Ils ciblent spécifiquement les gouvernements et les ONG, proposant de « cartographier leurs pays gratuitement », mais en gardant les résultats et en attirant les consommateurs.

Ce qui me dérange le plus, c’est qu’ils ont copié OpenStreetMap de manière flagrante. Premièrement, leur produit MapMaker est directement calqué sur OSM, mais avec une licence restrictive pour les données qui fait en sorte que vous ne puissiez pas les utiliser comme bon vous semble. Ensuite, ils ont volé l’idée des Carto-parties, un concept unique et un nom que nous avons développé. Enfin, ils ont même copié des initiatives visant à cartographier des bidonvilles, comme Map Kibera.

Ce ne sont pas des choses qui importent uniquement aux geeks de la cartographie. Maron donne un très bon exemple concernant l’importance de la cartographie dans notre société. Il nous invite à comparer la carte de Google d’une zone particulièrement digne d’intérêt à l’heure actuelle — Gaza — avec celle d’OSM. Quand la première montre une grosse grille de rues anonymes, sans aucun détail, et donc aucune humanité quelle qu’elle soit, celle d’OSM ne se contente pas de montrer le nom de la plupart des principales rues et bâtiments, mais montre aussi la présence actuelle des bâtiments — une représentation exacte de la population et des vies qu’ils contiennent. En d’autres mots, les cartes sont très politiques et il est important qu’elles ne soient pas contrôlées par quelques entités commerciales.

Dans un article paru cette année dans le Guardian, Serge Wroclawski se penche sur ce problème et suggère à quel point l’importance d’OSM est vitale ici. Il distingue trois motifs d’inquiétude à propos des cartes fournies par Google (ou par une autre société quelconque) :

Qui décide de ce qui s’affiche sur Google Maps ? C’est Google, bien sûr. J’ai entendu cette préoccupation lors d’une rencontre avec une collectivité locale en 2009 : le souci portait sur le choix par Google des commerces affichés dans Google Maps. Les personnes présentes à cette réunion avaient raison d’être inquiètes, car les pouvoirs publics doivent rester impartiaux. En sous-traitant leurs cartes, ils en donneraient le contrôle à des tiers.

Il semble inévitable que Google se mette à monétiser les recherches géographiques, avec des résultats premium ou de l’affichage prioritaire — si ce n’est pas déjà en place (est-ce une coïncidence si, quand je cherche « petit-déjeuner » près de mon domicile, la chaîne Subway est le premier résultat ?)

C’est le problème habituel du contrôle. Si le logiciel sur votre ordinateur n’est pas un logiciel libre, ce n’est pas réellement votre ordinateur, mais juste un que le fournisseur de logiciel propriétaire vous autorise à utiliser d’une certaine façon, définie par lui.

Le second problème concerne la localisation. Qui définit où se situe un quartier ou si oui on non vous devriez vous y rendre ? Ce problème a été soulevé par l’American Civil Liberties (ACLU) quand les algorithmes d’un fournisseur d’itinéraires (en voiture, en vélo ou à pied) prenaient en compte le fait qu’un quartier était considéré comme « sûr » ou « dangereux » pour éditer ses trajets. Cela soulève la question de qui détermine ce qui fait un quartier « sûr » ou non ou si le terme « sûr » cache quelque chose de plus grave.

On peut étendre cet avis à Gaza : les cartes ne sont pas seulement un ensemble de données mais représentent un point de vue. Bien qu’une carte totalement neutre soit probablement impossible, on peut au moins la faire aussi ouverte que possible. La façon dont les cartes sont élaborées pose aussi problème finalement, et la façon dont les métadonnées peuvent être bien ou mal utilisées… d’autant plus crucial dans un monde post-Snowden :

Les fournisseurs de cartes ont une propension à collecter des informations vous concernant avec des méthodes que vous pourriez ne pas apprécier. Google et Apple amoncellent toutes vos données géographiques quand vous utilisez leurs services. Ils peuvent les utiliser pour améliorer la précision de leurs cartes mais Google a déjà annoncé qu’il utiliserait ces données pour calculer la corrélation entre les recherches que vous effectuez et les endroits où vous vous rendez. Avec plus de 500 millions de smartphones sous Android en cours d’utilisation, cela représente une masse énorme d’informations collectées à l’échelle individuelle à propos des habitudes des gens : s’ils se baladent occasionnellement, s’ils effectuent un changement dans les transports en commun pour aller travailler, s’ils se rendent chez le médecin ou peut-être s’ils participent à une manifestation.

Ce n’est pas un problème avec OSM, qui ne collecte que les données de base dont il a besoin pour créer les cartes, sans intentions cachées.

Comme l’indique ce qui précède, du moins je l’espère, le succès mondial d’OSM nous concerne tous autant que le succès de GNU/Linux dans le monde du logiciel. Nous avons besoin d’une source complète et indépendante de données et d’informations géoréférencées. Durant ces dix années d’existence, OpenStreetMap a largement progressé dans ce sens ; c’est dans notre intérêt à tous de l’aider à prospérer et grandir jusqu’à ce qu’elle réussisse et devienne aussi incontournable que GNU/Linux l’est aujourd’hui.