Politique et Logiciel Libre : Europe Écologie loin devant tous les autres ?

Le 15 juin 2009 Daniel Cohn-Bendit publiait une tribune dans Le Monde au titre étonnant : Faisons passer la politique du système propriétaire à celui du logiciel libre.

Il récidive aujourd’hui dans Libération en profitant du clin d’œil historique que lui offre la date du 22 mars, pour lancer un nouvel appel au lendemain des élections régionales : Changer la politique pour changer de politique.

Extraits :

Le mouvement politique que nous devons construire ne peut s’apparenter à un parti traditionnel. Les enjeux du 21e siècle appellent à une métamorphose, à un réagencement de la forme même du politique. La démocratie exige une organisation qui respecte la pluralité et la singularité de ses composantes. Une biodiversité sociale et culturelle, directement animée par la vitalité de ses expériences et de ses idées. Nous avons besoin d’un mode d’organisation politique qui pense et mène la transformation sociale, en phase avec la société de la connaissance.

J’imagine une organisation pollinisatrice, qui butine les idées, les transporte et féconde d’autres parties du corps social avec ces idées. En pratique, la politique actuelle a exproprié les citoyens en les dépossédant de la Cité, au nom du rationalisme technocratique ou de l’émotion populiste. Il est nécessaire de « repolitiser » la société civile en même temps que de « civiliser » la société politique et faire passer la politique du système propriétaire à celui du logiciel libre.

(…) Ni parti-machine, ni parti-entreprise, je préférerais que nous inventions ensemble une « Coopérative politique » – c’est à dire une structure capable de produire du sens et de transmettre du sens politique et des décisions stratégiques. J’y vois le moyen de garantir à chacun la propriété commune du mouvement et la mutualisation de ses bénéfices politiques, le moyen de redonner du sens à l’engagement et à la réflexion politique.

(…) Encore une fois, l’important est moins d’où nous venons, mais où nous voulons aller, ensemble. C’est l’esprit même du rassemblement qui a fait notre force, cette volonté de construire un bien commun alternatif.

Ajoutez à cela le fait que parmi les signataires du Pacte du logiciel libre de l’April, près de la moitié sont d’Europe Écologie, dont on notera l’existence des groupes Culture et logiciels libres et Accès aux Savoirs / Propriété Intellectuelle, et vous obtenez selon moi un mouvement politique loin devant tous les autres en France actuellement pour ce qui concerne le logiciel libre et sa culture.

Tellement loin qu’à mon humble avis il « tue dans l’œuf » l’émergence d’un Parti Pirate national. Et pour appuyer mes dires, je vous propose reproduit ci-dessous un article fort intéressant issu justement du site d’Europe Écologie.

Et je le reproduis d’autant plus facilement que l’ensemble du site est sous licence libre Creative Commons By-Sa !

Je précise que je ne suis pas d’Europe Écologie (ni d’un autre parti d’ailleurs) et que je ne demande qu’à être contredit dans les commentaires 😉

De la propriété intellectuelle vers l’accès aux savoirs

URL d’origine du document

Gaelle Krikorian – 5 novembre 2009 – Europe Écologie

Quel est le point commun entre un réseau de malades du sida thaïlandais, des militants pour la réduction des émissions polluantes suédois, des mobilisations d’internautes en France, des manifestations de fermiers indiens, d’associations de mal-voyants américains, de producteurs de coton kenyans, ou l’appel d’un philosophe argentin poursuivit en justice. Tous sont parties prenantes d’au moins un des conflits qui ont émergé depuis une dizaine d’années et mettent en question le système actuel de protection de la propriété intellectuelle.

La question de l’accès aux médicaments génériques dans les pays en développement a sans doute été l’une des revendications les plus visibles tant auprès du grand public que dans les sphères politiques. Elle a donné lieu à une forte mobilisation internationale. Mais en dépit d’avancées symboliques dans le cadre de l’Organisation Mondiale du Commerce (OMC), les malades des pays en développement restent globalement écartés de l’accès aux médicaments contre nombre de maladies, infectieuses (sida, hépatites, etc.) ou non-infectieuses (cancer, maladies cardio-vasculaire, etc.).

Parallèlement à ces inégalités d’accès, il est devenu de plus en plus évident que le bénéfice social escompté de l’application de la protection de la propriété intellectuelle –constituer une incitation et un moteur à la recherche médicale– était de moins en moins garanti. Dans le même temps, le cloisonnement de la connaissance par l’instauration de monopoles et la culture du secret, la restriction de ce qui appartient au domaine public ou relève d’un savoir commun, la limitation ou la disparition des exceptions qui permettent de faire prévaloir le droit des individus ou l’intérêt des sociétés, entravent la recherche et à l’innovation. Concrètement, les innovations réelles se font de plus en plus rares et de vastes domaines de recherche sont ignorés parce qu’ils n’ouvrent pas sur des opportunités financières jugées suffisantes. Ces échecs motivent débats et réflexions (par exemple au sein de l’OMS, de l’OMPI ou de différents Parlements) afin de permettre, grâce à divers mécanismes (la création de prix à l’innovation, de fonds internationaux, de traités internationaux pour la recherche, etc.), le financement d’une recherche adaptée aux besoins des différentes populations (du Nord et du Sud) sans compromettre l’accès de ses fruits au plus grand nombre.

En termes d’accès, ce qui vaut pour les médicaments s’applique à toutes sortes d’autres produits de la connaissance : logiciels, bases de données, musiques, films, livres (et notamment l’édition scolaire). L’accès à un libre flux d’idées ou d’informations est essentiel au développement de n’importe quel pays. Or, l’inégalité d’accès à l’éducation, aux connaissances et aux technologies est une réalité qui s’exacerbe avec l’accroissement des inégalités sociales dans le monde. Elle compromet la participation des populations à la production de savoirs nouveaux et donc exclut et entretient l’exclusion d’une partie importante de la population mondiale de la « société de l’information».

Dans le domaine du logiciel, la protection de la propriété intellectuelle qu’elle soit opérée par le biais d’outils juridiques ou de moyens techniques tend à interdire la reproduction, et par extension refreine la création en limitant les usages et les échanges. Alors que le logiciel n’entre en principe pas dans le champ du droit du brevet en Europe, l’Office européen accorde des brevets pour des logiciels. Ainsi, la même dynamique que dans la recherche médicale se met en place. Contrevenant aux principes de non exclusion et de non appropriation, qui caractérise les biens immatériels, les systèmes de protection en place favorisent les comportements opportunistes d’appropriation à des fins privées qui peuvent affecter la création, le développement et la diffusion d’un produit ou d’un service donné.

Ces réflexions émergent actuellement à propos de la lutte contre le changement climatique. À l’instar de la nécessité de développer des technologies moins polluantes ou non polluantes, le transfert de technologie est indispensable pour que les pays en développement puissent mettre en place des politiques industrielles, énergétiques et agricoles qui limitent la croissance de leurs émissions, puis la réduise. L’UNFCCC et le Protocole de Kyoto encouragent le transfert de technologie, comme avant eux les accords de l’OMC et de nombreux traités internationaux. Dans les faits pourtant, qu’il s’agisse de technologies non polluantes ou de technologies d’une toute autre nature, les transferts de technologies sont extrêmement limités entre pays industrialisés et pays en développement, et la propriété intellectuelle représente souvent un véritable obstacle. C’est pourquoi, dans le cadre des négociations pour le traité de Copenhague, les pays en développement revendiquent notamment l’application du droit à suspendre la propriété intellectuelle lorsque cela est nécessaire.

Le système actuel de propriété intellectuelle entraîne et entretient ainsi des discriminations fortes entre pays, entre classes d’individus, ou entre individus. Certaines populations, comme les aveugles et mal-voyants, sont en raison de handicaps particuliers plus exposées aux inégalités que crée le système de protection de la propriété intellectuelle. Dans le même temps, ces situations particulières soulèvent des problèmes ou dysfonctionnements qui concernent également d’autres catégories de populations.

Les discriminations produites par le système de propriété intellectuelle touchent d’autant plus de monde que le champs de ce qui est concerné par la propriété intellectuelle s’étend ––au vivant par exemple. En Inde, comme dans un certain nombre de pays en développement, des agriculteurs se sont mobilisés contre les droits privés sur les semences et le vivant en général et contre la biopiraterie qui permettent à une dizaine de firmes multinationales (comme Monsanto, Syngenta, Bayer and Dow Chemical) de devenir progressivement propriétaire de la biodiversité pourtant nécessaire à la sécurité alimentaire des populations des pays en développement.


Le terme de propriété intellectuelle a été créé et son utilisation s’est répandue à partir du milieu des années 1960. Il suggère une analogie avec la propriété physique qui a progressivement conduit le législateur à aborder brevets, marques et droits d’auteur comme s’il s’agissait d’objets physiques. Réussir à imposer ce terme a signé le succès de l’offensive stratégique menée par les détenteurs de droits – industries pharmaceutiques, industries du divertissement et de la culture. La construction même du terme est en soit une entreprise idéologique favorisant le renforcement des droits de certains ou de certains types de droits. Il s’agit tout à la fois d’élargir le champ de ce que l’on protège, en rognant de plus en plus sur le domaine public, d’allonger la durée des protections tout en inventant de nouvelles formes de monopoles (exclusivité des données, etc.).

Le mouvement lancé par les détenteurs de droits exclusifs depuis la fin des années 1970 n’a eu de cesse de complexifier un système qui se montre à la fois de plus en plus englobant et de plus en plus rigide. La stratégie menée conjointement par les pouvoirs publics et les détenteurs de droits est globalement, à l’image de la nouvelle loi Hadopi en France, de renforcer l’arsenal juridique tout en développant la répression des comportements. La répression du téléchargement est l’un des exemples les plus emblématiques de l’ampleur nouvelle qu’a pris cette tendance dans les pays riches. Ainsi en France un usager du peer-to-peer a récemment été condamné à 10 000 € d’amende. La répression s’exerce dans de nombreux pays sous de nombreuses formes : descentes policières contre les vendeurs de rues (présents de Manille à New York), confiscation d’ordinateur aux frontières, saisie de médicaments par les douanes, action en justice contre des professeurs trop zélés dans leur mission d’éducation et de démocratisation du savoir.

Ce système concourt à limiter l’accès à de nombreux produits dont des produits de santé vitaux. Il renforce les inégalités d’accès aux connaissances et aux savoirs, ce qui nuit au développement et à la cohésion sociale. Par les déséquilibres qu’il établit entre droits des détenteurs de brevets et droits des individus ou des sociétés, il est responsable du développement de pratiques anticoncurrentielles qui imposent des dépenses injustifiées aux individus comme aux sociétés. Alors qu’il est en théorie au service de la création, il renforce ou au minimum ignore les obstacles croissants que rencontrent les auteurs, artistes et inventeurs pour la création et l’innovation dérivée, tandis que les mécanismes supposés rémunérer les individus et communautés créatives, mais qui sont dans les faits inefficaces et injustes pour les créateurs comme pour les consommateurs, perdurent. En favorisant la concentration et le contrôle de la « propriété intellectuelle », il nuit au développement, à la diversité culturelle et au fonctionnement démocratique des institutions et des sociétés. Les mesures techniques destinées à forcer l’exécution des droits de propriété menacent les exceptions fondamentales sur les droits d’auteur qui bénéficient aux personnes atteintes de handicaps, aux bibliothèques, aux éducateurs, aux auteurs et consommateurs, tandis qu’elles mettent en danger la protection des données personnelles et les libertés. D’une façon générale, on peut s’interroger sur la légitimité de l’exclusivité lorsque celle-ci contrevient au droit à l’information, favorise le monopole privé sur le savoir et le patrimoine commun de l’humanité, niant ainsi l’utilité sociale du partage et le caractère relationnel de la création et limitant l’économie du savoir au bénéfice d’une partie limitée de la population mondiale.

De nouveaux modes de production et de nouveaux modèles industriels émergent avec les technologies digitales et l’Internet. Ceci affecte la création, la fabrication, la circulation et la valorisation des produits et services issus de la connaissance. Se pose la question de savoir comment ces évolutions s’opèrent, par quels principes elles sont guidées, si elles accroissent ou au contraire peuvent réduire les inégalités, quelle place elles font au non marchand, quels domaines elles lui confient, comment se redessinent les échanges au cœur même du système marchand. Pour l’heure, les nouvelles formes de production, de travail et de collaboration, plus propices à la création dans l’environnement digitale et avec l’Internet sont freinées par le modèle qui repose sur la protection toujours accrue des droits de propriété intellectuelle et d’une façon générale au modèle propriétaire qui est appliqué. Elles mettent en évidence le caractère absurde et obsolète du système en place, autant qu’elles se heurtent à son inflexibilité et ses tendances jusqu’au-boutistes.

Les conflits actuels sur la propriété intellectuelle et les mobilisations autour de « l’accès aux savoirs » qui ont émergé ces 10 dernières années attestent de l’intérêt d’une approche qui privilégie la notion de « l’accès » comme enjeu de revendications. Pratiquement, de nombreuses réflexions ont lieu sur le développement d’alternatives pratiques au modèle actuel qui soient à la fois moins excluant, plus juste et plus efficace – nouveaux modèles de financement, de répartition, de rémunération, de collaboration et de partage, etc. Ces mobilisations nous proposent, au travers du prisme de l’accès, de penser les problèmes différemment pour traduire les conflits sous des formes politiques mais aussi pour penser de solutions nouvelles.

La question de l’accès aux savoirs est une question centrale pour toute politique de transformation écologique et sociale. Elle est déterminante à l’émancipation des personnes. Elle est essentielle pour préserver la biodiversité et éviter les prédations commerciales. Elle est fondamentale à la richesse de l’innovation et aux transferts de technologies indispensables pour répondre aux crises et assurer le développement des sociétés.

Lectures connexes sur le Framablog




Rapport Fourgous : Le communiqué de l’April et les propositions de l’AFUL

Torres21 - CC by-saNous avons déjà par deux fois évoqué le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. D’abord en extrayant les passages qui touchent de près ou de loin le logiciel libre et sa culture, et ensuite en demandant à François Elie de nous en faire une lecture critique.

Nous vous proposons ci-dessous, et l’une après l’autre, les réactions de l’April et de l’AFUL que nous avons malicieusement choisi de réunir ici dans un même billet.

Dans son communiqué, l’April prend acte de certaines avancées tout en regrettant la timidité des mesures préconisées. L’Aful quant à elle se veut constructive en faisant état de douze propositions, non pas pour « réussir l’école numérique » mais, nuance, pour « réussir le numérique à l’école »[1].

April / Rapport Fourgous : une reconnaissance partielle des apports fondamentaux du libre à l’éducation

URL d’origine du document

Paris, le 4 mars 2010. Communiqué de presse.

L’April se félicite que certaines de ses positions soient reprises dans le rapport de la mission parlementaire de Jean-Michel Fourgous[2] sur la modernisation de l’école par le numérique mais regrette qu’après avoir montré que le logiciel libre est une approche privilégiée pour réussir l’école numérique, il ne propose aucune mesure concrète pour tirer parti de cette opportunité.

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique a été remis le 15 février 2010 au Ministre de l’Éducation nationale Luc Chatel.

L’April en tant qu’observateur attentif de l’évolution de l’usage et de l’enseignement de l’informatique dans le système éducatif[3] a contribué à cette mission[4] dans le cadre de la consultation préalable. Elle se félicite de la prise en compte, même partielle, de sa contribution mais regrette que le logiciel libre ne soit cité que marginalement et ne fasse l’objet d’aucune mesure concrète alors qu’il est un élément central des solutions possibles.

Le rapport précise que le libre permet, entre autres de lutter contre la fracture numérique mais aussi qu’il favorise l’apprentissage des fonctionnalités plus que des outils. Il est également précisé que « en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité »[5].

Nous retrouvons là les positions défendues par l’April. Selon Benoît Sibaud, vice-président : « Notre association est, en matière éducative, attachée à la formation d’utilisateurs autonomes, éclairés et responsables. Nous considérons que les logiciels libres constituent, de par la transparence technologique qui les définit et les valeurs de partage qui les fondent, l’un des leviers les plus précieux à la disposition de la communauté enseignante pour l’enseignement à et par l’informatique ».

Plus loin l’accent sur les « pratiques coopératives et collaboratives » des enseignants est mis. À nouveau le rapport préconise de « favoriser le développement de ressources libres »[6]. De nombreuses structures encadrant la mutualisation de ressources pédagogiques libres entre enseignants existent déjà. Citons Sésamath, EducOOo[7], Scideralle[8] ou encore Ofset[9]. Le rapport fait explicitement référence à l’April par la voix de Benoît Sibaud : « Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre ».

L’April regrette cependant que ces points n’aient pas été davantage pris en compte dans la liste des priorités définies par la mission et que le libre ne soit cité que marginalement. Il est préconisé de généraliser les manuels numériques sans se préoccuper de la façon dont les enseignants pourraient se les approprier. Pour faire sienne une ressource pédagogique, un enseignant doit pouvoir justement l’adapter à son public, à sa situation pédagogique et à ses pratiques. Les manuels numériques actuels ne le permettent pas, ils sont vendus dans des formats rarement modifiables voire l’interdisent sur le plan légal. Il est regrettable que le rapport n’incite pas à encourager de façon institutionnelle des regroupements d’enseignants tels Sésamath[10] qui ont justement déjà produit des manuels numériques libres de mathématiques reconnus pour leur qualité pédagogique[11]. À la place un fonds de développement à seule destination d’éditeurs privés semble préconisé.

Sur le plan de l’exception pédagogique, l’April regrette de ne voir aucune mesure claire destinée à mettre un terme à l’insécurité juridique qui fait partie du métier d’enseignant. Il est certes préconisé de créer (en urgence) cette exception dans le système juridique du droit d’auteur alors qu’il suffirait dans un premier temps de favoriser la mutualisation entre professionnels de l’éducation et le développement de ressources libres. Concernant le B2i, le rapport va dans le sens des conclusions de l’April[12] ?et de nombreux autres acteurs comme l’EPI et le groupe ITIC-ASTI[13] car : « le B2i ne prend pas en compte ni la capacité à pouvoir se former tout au long de la vie, ni les connaissances techniques de base nécessaires pour comprendre les outils numériques ». L’April ne peut que se réjouir de voir mentionné que « La mise en place d’une matière informatique est une nécessité dans une société où tout fonctionne via le numérique »[14].

Enfin concernant les tableaux numériques interactifs (TNI), « la France comptera 50 000 TNI en 2010 »[15] le rapport n’évoque pas les problèmes d’interopérabilité. Chaque fabriquant de tableau développe son propre format qui ne peut être utilisé qu’avec leurs propres logiciels. Ces formats sont propriétaires et fermés et empêchent donc toute mutualisation avec des professeurs utilisant d’autres marques. En cas de mutation dans un autre établissement, tout le travail réalisé par le professeur peut être tout simplement inutilisable si le fabricant n’est plus le même. Il conviendrait donc de définir un cahier des charges national afin d’élaborer un format commun et interopérable pour les ressources utilisant les TNI. Rappelons que sous l’impulsion du BECTA[16] britannique un format de fichier ouvert destiné aux applications de type TNI a été publié[17]. Ce format est endossé par le projet European Schoolnet dont est d’ailleurs membre le Ministère de l’Éducation Nationale. Plusieurs fabricants de TNI ayant accepté de prendre en charge ce format, il nous semble ainsi naturel que son intégration soit requise dans les appels d’offre à venir.

En vertu des points mentionnés ci-dessus, l’April appelle le gouvernement à enfin mettre en place une véritable politique publique d’utilisation des logiciels, ressources libres et formats ouverts dans l’éducation. C’est là une opportunité à saisir dans l’intérêt des élèves et de l’école numérique. Enfin, l’April rappelle la nécessité forte de mettre en place un enseignement de l’informatique en tant que tel dès le Collège.

AFUL / Douze propositions pour l’école à l’ère numérique

URL d’origine du document

Suite à la publication du rapport FOURGOUS « Réussir l’école numérique », l’AFUL, l’ADULLACT et SCIDERALLE font douze propositions pour « Réussir le numérique à l’école ».

Le rapport Fourgous, dense, riche et touffu, semble hésiter entre une école numérique fondée sur le collaboratif et la richesse de ressources partagées d’une part, et d’autre part une école numérique qui serait le marché tout trouvé d’une industrie du numérique en mal de clients.

« Il y aura deux manières de rater l’école numérique : ne pas réussir à intégrer le numérique dans les situations d’enseignement, réduire le système éducatif à n’être qu’un client pour des industries numériques. Nous devons craindre davantage ce second danger » François Élie.

Nous vous invitons donc à découvrir nos propositions et à en discuter sur la liste dédiée à l’usage des logiciels libres dans l’éducation du groupe de travail Éducation de l’AFUL.

Douze propositions pour « réussir le numérique à l’école » :

  1. Liberté – Les logiciels et les ressources numériques acquises, développées ou produites avec participation de fonds publics doivent être placées sous licence libre et disponibles dans un format ouvert afin de permettre leur libre partage : les utiliser, étudier, modifier, redistribuer librement.
  2. Égalité – Avant de viser des solutions dites innovantes, il faut privilégier l’équipement et la disponibilité des ressources pour le plus grand nombre, par la mutualisation et des mécanismes de péréquation.
  3. Fraternité – Le travail collaboratif entre les élèves, les professeurs, les associations partenaires de l’école et tous les acteurs de l’éducation, en particulier les collectivités, doit être encouragé et soutenu.
  4. Un observatoire permanent composé de spécialistes de la mesure est chargé d’évaluer en continu et avec précision les impacts de tel ou tel usage lié au numérique dans les domaines scolaire et para-scolaire.
  5. La mise en œuvre de dispositifs TICE efficaces ou innovants est prise en compte dans l’évolution de la carrière des enseignants.
  6. Les Inspections sont chargées dans toutes les matières d’organiser, de maintenir et de faire croître le recensement, la production collaborative et l’indexation de contenus libres, avec des enseignants volontaires rémunérés pour ce travail. Les éditeurs (privés ou non) peuvent évidemment utiliser ce fonds pour proposer des manuels scolaires. Le modèle de Sésamath peut être une piste à suivre.
  7. Les collectivités et l’État conjuguent leurs efforts pour mutualiser leurs ressources et faire produire et maintenir un patrimoine de logiciels libres d’usage administratif et pédagogique à destination des 70 000 écoles et établissements scolaires français, par souci d’efficience, d’interopérabilité et d’égalité républicaine.
  8. L’école numérique s’appuie pour le développement et la maintenance de ses infrastructures matérielles, logicielles et documentaires, ainsi que pour la formation continue et l’accompagnement des enseignants, sur un réseau structuré de Centres de Ressources Informatiques.
  9. Les possibilités offertes par les nouvelles technologies dans le domaine du travail asynchrone ou distant sont explorées pour faciliter la liaison école-famille et améliorer les liens entre l’école et les élèves ne pouvant s’y rendre.
  10. L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin.
  11. Afin de garantir l’égalité des chances, les collectivités et l’État mutualisent leurs efforts pour offrir un vaste support en ligne gratuit à l’échelle nationale, animé par des professeurs nommés dans la 31e académie : l’académie en ligne. Ces professeurs sont formés au tutorat en ligne.
  12. Les activités de production en ligne des élèves (écriture dans Wikipédia, site web, blog…) peuvent être intégrées dans un portfolio qui leur est proposé.

Ces douze propositions au format PDF.

Notes

[1] Crédit photo : Torres21 (Creative Commons By-Sa)

[2] Pour le consulter: http://www.reussirlecolenumerique.fr/. Voir aussi Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique (par A. Kauffmann), Rapport Fourgous – Notes de lecture de François Elie et Douze propositions pour l’école à l’ère numérique

[3] Voir notamment Jean Louis Gagnaire interpelle le ministère de l’éducation nationale à propos de la plateforme SIALLE, Audition de l’April à la mission e-educ, site du groupe de travail éducation de l’April

[4] Former les citoyens de demain : lettre de l’April à Jean-Michel Fourgous

[5] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 259

[6] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, Page 285

[7] EducOOo.org «  L’association EducOOo a pour vocation d’aider à la mutualisation de ressources éducatives libres autour de la suite bureautique OpenOffice.org. Elle encadre aussi le développement d’OOo4kids qui est une version d’OpenOffice.org spécialement adaptée pour les élèves de l’enseignement primaire voire début du secondaire »

[8] Scideralle, issue du projet AbulÉdu, Scideralle se fixe pour mission de soutenir et promouvoir des projets visant à fournir à tout public des logiciels et ressources libres pour l’éducation

[9] Ofset a été créée pour développer des logiciels libres éducatifs et des ressources afférentes pour le système GNU

[10] Sesamath.net « L’association Sésamath a pour vocation essentielle de mettre à disposition de tous des ressources pédagogiques et des outils professionnels utilisés pour l’enseignement des Mathématiques via Internet. »

[11] Les manuels Sésamath ont été préfacés par une Inspectrice Générale de l’Éducation Nationale de mathématiques

[12] Option « Informatique et sciences du numérique » au lycée : une première avancée avant un mouvement de fond ?

[13] http://www.epi.asso.fr/revue/docu/d0912a.htm

[14] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 189.

[15] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 72.

[16] Le BECTA est l’équivalent de la SDTICE en Grande-Bretagne : http://www.becta.org.uk/

[17] Le format "Interactive Witheboard Common File Format" (IWBCF) dont on peut d’ores et déjà télécharger les spécifications sur la page BECTA de SourceForge




Logiciel Libre : la Guerre Mondiale aura bien lieu

The U.S. Army - CC byUn évènement d’importance est passé totalement inaperçu la semaine dernière du côté des médias francophones (à l’exception notable de Numerama). Il faut dire qu’à priori cela ne nous concerne pas puisqu’il oppose un lobby américain à l’état indonésien.

Et pourtant, à l’heure de la mondialisation (de moins en moins heureuse), cet épisode est riche d’enseignements et annonce peut-être la fin de l’enfance et de l’innocence pour le logiciel libre.

« Ils » veulent la guerre économique et politique ? Alors ils l’auront ! Et tant qu’Internet demeurera neutre et ouvert, « nous » ne sommes en rien assurés de la perdre, quand bien même nous n’ayons pas la puissance financière de notre côté et la capacité à mobiliser un bataillon des meilleurs avocats à notre service[1].

En perdant un brin notre sang-froid, nous pourrions presque qualifier cela de « Choc des Civilisations 2.0 » !

Plantons le décor de ce qui ressemble au départ à une information trop grosse pour être vraie.

Compagnies aériennes, paradis fiscaux, organisations terroristes… nombreuses sont les listes noires, émanant d’organismes divers et variés (nationaux ou internationaux, publics ou privés). Ainsi en va-t-il du « Special 301 Report » qui provient du bureau s’occupant officiellement de la politique commerciale internationale des États-Unis (The Office of the United States Trade Representative ou USTR).

Ce rapport vise à examiner chaque année la situation de la protection et de l’application des droits de la « propriété intellectuelle » à l’échelle mondiale. Il classe ainsi les pays en trois catégories : « surveillance en priorité » (on y retrouve en 2009 par exemple la Chine, la Russie et, plus surprenant, le Canada), « surveillance inférieure » et les autres, les bons élèves (cf cette mappemonde Wikipédia).

C”est un instrument de la politique économique internationale des États-Unis, et gare à vous si vous êtes en haut de la pyramide. Parce que vous fabriquez de fausses chaussures Nike, parce que vous produisez des médicaments sans y avoir autorisation, parce que vous proposez, dans la rue ou sur vos serveurs, des versions « piratés » de tel film, musique ou logiciel, etc.

Que la contrefaçon, la copie illégale, le non respect des brevets… fassent du tort à une économie américaine qui repose beaucoup sur l’exploitation de sa « propriété intellectuelle » et constituent par là-même un grand manque à gagner, nul ne le conteste. Qu’adossés à l’USTR on trouve un certain nombre d’associations qui agissent comme des lobbys en poussant le gouvernement américain à faire pression sur les pays incriminés pour qu’ils prennent les mesures nécessaires afin d’améliorer la situation, c’est de bonne guerre, d’autant que l’on connait l’influence et la force de persuasion des États-Unis dans la géopolitique internationale.

Mais que, tenez-vous bien, la volonté d’un état à développer le logiciel libre dans son pays en fasse un ennemi des intérêts américains de la « propriété intellectuelle » propre à vouloir le faire figurer en bonne place dans le « Special 301 Report », c’est nouveau, c’est scandaleux, et c’est ô combien révélateur des craintes, pour ne pas dire de la panique, qu’il suscite désormais dans l’économie « traditionnelle » de la connaissance.

C’est pourtant ce que n’a pas hésité à suggérer la très sérieuse et puissante International Intellectual Property Alliance (ou IIPA), coalition d’associations représentants les plus grandes multinationales des secteurs de la culture, du divertissement et des nouvelles technologies. On y retrouve ainsi le RIAA pour l’industrie musicale (Universal, Warner…), le MPAA pour le cinéma (Walt Disney, Paramount…), l’IFTA pour la télévision, l’ESA pour le jeu vidéo (Electronic Arts, Epic Games…) sans oublier la BSA pour l’informatique (Apple, Microsoft…).

Donc ici l’Inde, la Brésil et surtout l’Indonésie sont pointés du doigt pour la simple et (très) bonne raison qu’ils souhaitent favoriser l’usage du logiciel libre au sein de leur administration ! Vous avez bien lu, mis à l’index non pas parce qu’on veut l’imposer (ce qui aurait pu alors se discuter) mais juste parce qu’on souhaite l’encourager !

Plus c’est gros mieux c’est susceptible de passer, comme dirait le dicton populaire. Mais quels sont alors les (pseudos) arguments avancés ? Vous le saurez en parcourant l’article ci-dessous, traduit du journal anglais The Guardian.

On veut clairement nous abuser en nous faisant croire qu’il y a la « propriété intellectuelle » d’un côté et le logiciel libre de l’autre (qui tel Attila détruirait toute valeur marchande sur son passage). C’est de la propagande économique mais ne nous y trompons pas, c’est également éminemment politique puisque derrière cette initiative se cache une certaine conception du libéralisme et du rôle des états, où vieille Europe et monde anglo-saxon ne sont d’ailleurs pas forcément toujours sur la même longueur d’onde.

Cet épisode est évidemment à rapprocher avec ce qui se passe en ce moment du côté de l’ACTA.

L’ironie de l’histoire (outre le fait que le logiciel libre soit « né » aux USA), c’est que le Framablog passe son temps à patiemment ajouter des pays à sa propre liste blanche des institutions légitimement intéressées par les logiciels, les contenus et les formats libres et ouverts : Suisse, Angleterre, Canada, Brésil, Équateur, Amérique latine… sans oublier les États-Unis d’Obama qui n’en sont plus à un paradoxe près.

La liste est blanche pour certains et noire pour d’autres. Un nouvel échiquier se dessine, et la partie peut alors commencer…

Vous utilisez l’open source ? Vous êtes un ennemi de la nation !

When using open source makes you an enemy of the state

Bobbie Johnson – 23 Février 2010 – The Guardian Blog Technology
(Traduction Framalang : Tinou et Goofy)

Le lobby du copyright aux États-Unis s’est longtemps battu contre les logiciels open source – c’est maintenant au tour de l’Indonésie d’être dans la ligne de mire pour avoir poussé à leur utilisation dans les institutions gouvernementales.

Nous ne sommes que mardi, et cette semaine s’est déjà révélée intéressante pour les droits numériques. Le gouvernement britannique a reformulé sa proposition controversée de riposte graduée, et le traité secret de lutte contre la contrefaçon, l’ACAC (NdT : ou ACTA en anglais), fait de nouveau les gros titres. Pendant ce temps, un juge américain est encore en train de délibérer dans l’affaire Google Books.

Et comme si cela ne suffisait pas, voilà une nouvelle pierre à ajouter à l’édifice branlant des dernières nouvelles, grâce à Andres Guadamuz, professeur de droit à l’université d’Édimbourg.

Suite à des recherches, Guadamuz a découvert qu’un lobby influent demande, en substance, au gouvernement des États-Unis de considérer l’open source comme l’équivalent de la piraterie — voire pire.

Pardon ?

Il apparaît que l’Alliance Internationale pour la Propriété Intellectuelle (NdT : International Intellectual Property Alliance ou IIPA en anglais), groupe qui allie des organisations comme la MPAA et la RIAA, a demandé au représentant américain au commerce d’envisager d’inclure des pays comme l’Indonésie, le Brésil et l’Inde dans sa « Liste de surveillance n°301 », parce qu’ils utilisent des logiciels libres.

Qu’est-ce que la « Liste de surveillance n°301 » ? C’est un rapport sur « le respect réel de la propriété intellectuelle » dans le monde – en réalité une liste de pays que le gouvernement des États-Unis considère comme des ennemis du capitalisme. Elle est souvent utilisée comme moyen de pression commerciale — souvent dans le domaine de l’industrie pharmaceutique et de la contrefaçon — pour essayer de forcer les gouvernements à changer d’attitude.

On pourrait avancer qu’il n’est pas surprenant de la part du représentant américain au commerce — supposé militer pour un capitalisme de l’économie de marché — de ne pas aimer pas les logiciels libres, mais la situation n’est pas aussi simple.

Je sais bien qu’on a tendance à rattacher l’open source aux idéaux socialistes, mais je pense aussi que c’est un exemple de l’économie de marché en action. Quand les entreprises ne peuvent pas jouer contre des concurrents écrasants, elles contournent le problème et trouvent d’autres moyens de réduire les coûts pour rester dans la course. La plupart des logiciels libres, qui n’appartiennent pas à des états, se contentent de pousser la logique de la réduction du coût jusqu’à son terme et se servent de la gratuité comme d’un bâton pour taper sur la concurrence (iriez-vous accuser Google, dont le produit phare est gratuit, d’être anti-capitaliste ?).

Ceci dit, dans les pays où le gouvernement a légiféré en faveur de l’adoption de logiciels libres et/ou open source, cette tactique ne manque pas de cohérence, puisqu’elle attaque des acteurs comme Microsoft. Mais ce n’est pas tout.

Là où ça devient intéressant, c’est que Guadamuz a découvert que les gouvernements n’ont même pas besoin de légiférer. Une simple recommandation suffit.

L’année dernière, par exemple, le gouvernement indonésien a envoyé une circulaire à tous ses ministères et aux entreprises nationales, les incitant à utiliser des logiciels libres. Selon l’IIPA, il « encourage les agences gouvernementales à utiliser des logiciels libres ou open source, avec l’objectif d’en avoir terminé le déploiement fin 2011. On aboutira ainsi, selon la circulaire, à un usage légitime de logiciels libres, ainsi qu’à une réduction générale des coûts en logiciel ».

Rien de grave là-dedans, non ? Après tout, le gouvernement britannique a déclaré qu’il mettrait le turbo sur l’usage de logiciel open source.

Mais l’IIPA suggère que l’Indonésie mérite sa place sur la liste n°301 parce qu’encourager (et non forcer) de telles initiatives « affaiblit l’industrie du logiciel » et « ne contribue pas au respect des droits relatifs à la propriété intellectuelle ».

Extraits de la recommandation :

« La politique du gouvernement indonésien (…) affaiblit l’industrie du logiciel et sabote sa compétitivité à long terme en créant une préférence artificielle pour des sociétés qui proposent des logiciels open source et des services dérivés, et va même jusqu’à refuser l’accès du marché gouvernemental à des entreprises reconnues.

Au lieu de promouvoir un système qui permettrait aux utilisateurs de bénéficier de la meilleure solution disponible sur le marché, indépendamment du modèle de développement, elle encourage un état d’esprit qui ne reconnaît pas à sa juste valeur la création intellectuelle.

Ainsi, elle échoue à faire respecter les droits liés à la propriété intellectuelle et limite également la capacité du gouvernement ou des clients du secteur public (comme par exemple les entreprises nationales) à choisir les meilleures solutions. »

Oublions que cet argument ne tient pas compte du grand nombre d’entreprises qui prospèrent autour du modèle du logiciel open source (RedHat, WordPress et Canonical, pour ne citer qu’eux). Au-delà de ça, voici ce qui me paraît stupéfiant : il suffit de recommander des produits open source — produits qui peuvent être facilement taillés sur mesure sans affecter les règles définies par la licence — pour être accusé de vouloir tout « saboter ».

En fait, la mise en œuvre du respect de la propriété intellectuelle est souvent plus stricte dans la communauté open source, et ceux qui enfreignent les licences ou oublient d’attribuer les crédits à qui de droit sont souvent cloués au pilori.

Si ce que vous lisez vous met hors de vous, vous avez raison. C’est abracadabrant. Mais l’IIPA et l’USTR n’en sont pas à leur coup d’essai : il y a quelques années, ils ont mis le Canada sur leur liste des pays à surveiller en priorité.

Notes

[1] Crédit photo : The U.S. Army (Creative Commons By)




Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique

One Laptop Per Child - CC byLa « culture libre » va-t-elle enfin être reconnue, soutenue et encouragée à l’école française ?

Si vous êtes un lecteur régulier du Framablog, vous n’ignorez pas que c’est une question qui nous taraude depuis plusieurs années (sachant que patience et longueur de temps font plus que force ni que rage).

Or on tient peut-être un début de réponse positive avec le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. Sous l’égide d’un autre politique issu du monde de l’industrie, le ministre Luc Chatel, ce rapport ambitieux a pour titre Réussir l’école numérique et il a été remis aujourd’hui même à François Fillon.

70 mesures réparties en 12 priorités dans un document de 333 pages, le moins que l’on puisse dire est qu’ils n’ont pas chômé. Enseignant, étudiant[1], parent d’élèves ou simple citoyen curieux de l’avenir du système éducatif dans la société actuelle de l’information et de la communication, je vous invite à le parcourir à votre tour car il y a beaucoup de choses intéressantes dans ce rapport, que l’on soit ou non d’accord avec les analyses, les constats et les pistes de propositions.

En attendant je me suis permis d’en extraire ci-dessous les quelques trop rares passages concernant plus ou moins directement la ligne éditoriale de ce blog. Parce quand bien même ce soit peut-être, ou sûrement, trop timide (est-ce volontaire ?), j’y vois quand même une avancée significative pour le « Libre à l’école » (expression valise que j’avais tenté de synthétiser dans un court article pour une brochure Sésamath).

Des passages dont ne parlent ni la dépêche AFP (et à sa suite tous les grands médias) ni le Café pédagogique (mais ça on sait pourquoi),

On notera que dans le cadre de la consultation préalable, l’April avait envoyé une lettre détaillée et argumentée à Jean-Michel Fourgous. Ceci participant certainement à expliquer cela.

Enfin n’oublions pas qu’un rapport parlementaire n’est qu’un document de travail qui n’augure en rien des décisions qui seront effectivement prises par le gouvernement. Sans compter, comme le souligne cette fois-ci le Café Pédagogique, qu’une « évolution de cette ampleur nécessite une école en paix, est-ce envisageable si l’austérité vient chaque année dégrader la situation scolaire ? »

Libres extraits du rapport Fourgous

URL d’origine du document

Page 29

Grâce aux wikis les contenus sont élaborés de façon collaborative. L’encyclopédie en ligne Wikipedia, les wikilivres (création de ressources pédagogiques libres) ou encore les wikicommons (banque de fichiers multimédias) traduisent la naissance de ce que Pierre Lévy appelle une « intelligence collective » où l’internaute passif, simple « récepteur », est devenu un « webacteur », un « élaborateur » de contenus.

Tiens, Wikipédia et quelques autres projets Wikimédia ont droit de cité. Un peu plus loin, page 141, il sera dit que 40% des « digital natives » consultent l’encyclopédie. Et surtout, le rapport ne craint pas de proposer des liens directs vers ses articles lorsqu’il s’agit d’expliciter certains termes (exemples : Machine to machine, Réalité augmentée, Modèle danois, Littératie, Échec scolaire, Ingénieur pédagogique ou encore Livre électronique). Une telle légitimité officielle est à ma connaissance une grande première dans le secteur éducatif. Serions-nous définitivement en route vers la réconciliation ?

Une note (un peu confuse) est collée aux ressources pédagogiques libres avec un lien Educnet :

Les contenus libres trouvent leurs origines dans le concept de copyleft (en opposition au monopole d’exploitation reconnu par le copyright et le droit d’auteur) né avec les premiers logiciels dit libres car leurs utilisations, copies, redistributions ou modifications étaient laissées au libre arbitre de leurs utilisateurs. L’accès au code source était libre (open source). Cette philosophie du partage et de la promotion du savoir et de sa diffusion s’est propagée ensuite à toutes les formes de créations numériques.

Page 234

Un paragraphe entier est consacré à des pratiques dont je n’arrive toujours pas à comprendre pourquoi on ne veut pas faire ou voir le lien avec la culture du logiciel libre.

Vers de nouvelles pratiques coopératives et collaboratives

« J’ai amélioré ma pratique enseignante parce que je l’ai enrichie de l’expérience de tous les autres »

Cette citation me parle.

Est ensuite fait mention des associations d’enseignants, en distinguant dans cet ordre mutualisation, coopération et collaboration (cf ces dessins).

Il n’est pas anodin de remarquer que l’association la plus avancée dans la collaboration, Sésamath pour ne pas la nommer, a depuis longtemps adopté les licences libres aussi bien pour ses logiciels que pour ses contenus. Il y a corrélation, mais le rapport ne le dira pas.

Le travail d’équipe est, de manière traditionnelle, peu pratiqué et non valorisé sur le plan professionnel. L’organisation des établissements et du service des enseignants ne le facilite d’ailleurs d’aucune manière. L’arrivée de l’Internet et des modèles de travail coopératif ou collaboratif bouleversent les habitudes.

En France, des associations toujours plus nombreuses (Sésamaths, WebLettres, Clionautes…) regroupent des enseignants qui mutualisent leurs supports pédagogiques. La mutualisation correspond à la mise en commun et à l’échange de documents personnels. Dans le travail coopératif chaque participant assume une tâche propre au sein d’un projet donné et dans le travail collaboratif, chaque tâche est assumée collectivement. Ainsi, si Clio-collège est un site de mutualisation, Mathenpoche un exemple de travail coopératif, les manuels Sésamaths sont un bon exemple de travail collaboratif.

(…) La mutualisation arrive officiellement dans les académies : dans celle de Versailles, un site, destiné à recueillir les ressources utilisées par les enseignants sur les tableaux numériques interactifs, a été créé. Les enseignants peuvent y partager les fichiers qu’ils réalisent. En attendant, l’interopérabilité de l’outil, les ressources sont réparties selon les marques de TNI.

C’est l’une des rares fois où l’interopérabilité est évoquée dans le rapport. Un gouvernement responsable n’est pas forcément obligé « d’attendre l’interopérabilité ». Il peut la suggérer fortement, voire l’inclure systématiquement dans ses cahiers des charges.

Les échanges et la communication permettent d’aboutir à une production collégiale finale riche et cohérente et les documents numériques deviennent accessibles et téléchargeables par l’ensemble de la communauté éducative.

(…) Le travail collaboratif prend le pas sur la coopération, comme en témoigne l’évolution depuis quelques mois des associations WebLettres et Clionautes vers ce mode de fonctionnement. Internet permet ainsi de faire évoluer la culture enseignante du « chacun pour soi » vers un travail en équipe.

Les associations Weblettres et Clionautes se dirigent donc vers la collaboration. Ma main à couper qu’elles rencontreront les outils et licences libres en chemin.

Page 267

Un passage important dont le titre est à la fois erroné (« libres de droit ») et peu téméraire (« quelques » avantages) :

Les ressources libres de droit offrent quelques avantages pédagogiques

Quant au corps du paragraphe il a le grand mérite d’exister (Jean-Pierre Archambault est cité dans la note de bas de page) :


Le logiciel libre (gratuit) est mis à disposition des utilisateurs qui peuvent à loisir le modifier ou l’adapter avec pour obligation de le mettre à leur tour à la disposition de tous. Cette technique du « don » permet de générer de la valeur, enrichissant le produit, des compétences et des idées de chacun. Le plus célèbre de tous les logiciels libres est sans conteste le système d’exploitation « Linux » et la suite « Open office » qui se placent en concurrents respectivement de Windows et du pack Office de Microsoft. On peut citer également « Gimp », pendant de Photoshop, le navigateur « Firefox »…

L’entrée du logiciel libre dans l’Éducation nationale s’est réalisée à la suite d’un accord cadre conclu en 1998 avec l’Aful (Association française des utilisateurs de Linux et des logiciels libres).

L’idée de partage et de gratuité a séduit le monde enseignant, mais changer d’environnement de travail nécessite du temps et de la formation.

Certes. Mais se borne-t-on à le constater ou bien agit-on en conséquence comme le Canton de Genève ?

Les avantages pour les élèves sont importants, notamment pour la lutte contre la fracture numérique : l’élève peut en effet télécharger le logiciel gratuitement à son domicile sans aucune difficulté ; en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité ; il permet d’entrer dans le programme informatique, de le comprendre voire de le modifier (pour les plus férus d’informatique) : les avantages pédagogiques sont donc plus nombreux.

Cela fait plaisir à lire.

Et pourtant un sentiment mitigé prédomine puisqu’une fois ceci exposé on n’en reparlera plus dans tout le rapport. C’est plus que dommage que dans les 70 mesures préconisées, le logiciel libre n’ait pas fait l’objet d’une mesure à part entière.

Page 274

L’offre libre a peu à peu pénétré le système éducatif : en effet, l’idée de partage et de gratuité (permettant à l’élève de télécharger le logiciel gratuitement à son domicile) a séduit le monde enseignant, de même que l’offre émanant des enseignants eux-mêmes : la collaboration dans le but d’élaborer des ressources adaptées à leurs attentes, remporte un franc succès auprès du monde éducatif. La vocation du métier d’enseignant sera donc sûrement d’évoluer vers plus d’élaborations de ressources, plus de créations, de passer d’un travail solitaire à un travail d’équipe.

Cela séduit le monde enseignant. Mais cela séduit-il le rapport ? Cela n’est pas très clair et ne séduira alors pas forcément le gouvernement.


Page 292

Un long extrait tout à fait pertinent :

Une liberté pédagogique freinée

L’autre problème majeur reste les ressources mises à disposition de l’enseignant afin de préparer son cours : dans l’idéal, la technologie le permettant, chacun s’accorde à penser que les enseignants du XXIe siècle devraient pouvoir trouver sur la toile, toutes les ressources numériques, toute la documentation, toute l’aide qu’ils seraient en droit d’utiliser dans le cadre de leur enseignement.

Pourtant, les droits d’auteur les en empêchent et certains documents qui leur semblent pertinents pour illustrer leurs cours ne leur sont pas accessibles, sauf à se mettre hors la loi.

Ce que font tous les jours des milliers d’enseignants.

En ce temps d’Hadopi, que l’on n’a de cesse de présenter comme une loi « favorisant la création », c’est tout de même intéressant de remarquer qu’ici c’est le rôle castrateur des droits d’auteur qui est mis en exergue. Sans compter que…

Des solutions commencent à apparaître et se révèlent être un appui sérieux pour le travail collaboratif. Les licences creative commons (organisation née en 2001) sont ainsi un début de réponse, de même qu’en sont les cours en ligne sous licences libres proposés par les universités. Creative Commons propose gratuitement des contrats flexibles de droit d’auteur pour diffusions des créations. Ces « autorisations » permettent aux titulaires de droits d’autoriser le public à effectuer certaines utilisations, tout en ayant la possibilité de réserver les exploitations commerciales, les œuvres dérivées ou le degré de liberté (au sens du logiciel libre). Ces contrats peuvent être utilisés pour tout type de création : texte, film, photo, musique, site web… Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre…

Merci de l’évoquer. Ouf, c’en est fini du temps où l’on criait dans le désert. Mais que ce fut long !

Il y a une note, un peu étrange, concernant les Creative Commons (et Benoît Sibaud, l’excellent mais désormais ex-président de l’April, est cité) :

Creative Commons : Liberté de reproduire, distribuer et communiquer cette création au public, selon les conditions by-nc-sa (paternité, pas d’utilisation commerciale, partage des conditions à l’identique).

Et arrive alors le serpent de mer de « l’exception pédagogique » :

Cependant, beaucoup de ressources n’étant pas sous le « logo » creative commons, les enseignants sont freinés dans leurs pratiques et leur pédagogie (impossibilité de reprendre une publicité ou une photo afin de l’exploiter, de la disséquer pour mieux la comprendre…). L’exception pédagogique, déjà présente dans différents pays s’impose, notamment si on veut éduquer les enfants aux médias numériques et à l’impact de l’image.

Ce n’est pas gagné. Si vous avez cinq minutes, allez jeter un coup d’œil au tout récent Bulletin officiel n° 5 du 4 février 2010 concernant la propriété intellectuelle (partie 1 et 2). Pourquoi faire simple quand on peut faire tellement compliqué que cela en devient totalement incompréhensible !

Toujours est-il que contrairement au logiciel, on a droit à deux mesures bienvenues (dont une « en urgence ») :

Mesure 14 : Créer en urgence, dans le système juridique du droit d’auteur, une exception pédagogique facilitatrice et durable.

Mesure 23 : Favoriser le développement de ressources « libres » et la mise à disposition de ressources non payantes.

Restons sur cette note optimiste pour clore nos morceaux choisis. La balle est désormais dans le camp du législateur.

Pour lire le rapport dans son intégralité

Notes

[1] Crédit photo : One Laptop Per Child (Creative Commons By)




Microsoft en Afrique : Un véritable système d’exploitation ?

OLPC - CC byDans un récent billet nous évoquions la stratégie planétaire de Microsoft dans le secteur éducatif en nous focalisant sur une école française prise consciemment ou non dans les mailles du filet.

Voici que le blog d’André Cotte apporte de l’eau à notre moulin, en signalant et hébergeant un document intéressant rédigé par Marc-Antoine Daneau, étudiant québécois en économie et politique.

Son article évoque en effet les comportements et agissements de la société dans cette région du monde[1]. Un altruisme de façade dont s’accommode souvent fort bien les hommes au pouvoir qui ont du mal à voir plus loin que le court terme. L’état des caisses de l’État faisant le reste…

Et ce n’est pas seulement le logiciel libre qui s’en trouve bloqué mais peut-être aussi le continent tout entier.

Vous trouverez dans le document d’origine une bibliographie non reproduite ici.

L’imposition d’une dépendance : les actions de Microsoft en Afrique

URL d’origine du document (pdf)

Marc-Antoine Daneau – 24 novembre 2009
GNU Free Documentation License

Avec la bulle internet de 1995 à 2000, les technologies de l’information sont entrées de plein fouet dans la culture des pays développés. D’un réseau militaire à un réseau de recherche universitaire, l’internet s’est imposé dans les années 90 telle une révolution informationnelle encore plus rapide que celle imposée par la télévision.

Tout maintenant se trouve et se fait en ligne. Le changement a été tellement rapide qu’on ne conçoit plus la vie sociale et économique sans ce formidable moyen de communication, pis encore, moins d’une génération est passée entre l’apparition des premiers hackers[2] de Berkeley et la normalisation de l’internet en occident.

Cependant et sans grande surprise, ce qui fut une révolution dans les pays développés fut l’établissement d’un retard technologique dans les pays qui le sont moins ou ne le sont tout simplement pas.

La fracture numérique

Le territoire le plus en retard au niveau des technologies de communication est bien évidemment l’Afrique. Dans ce continent où il n’y a rien, tout est à construire, tellement que dans le domaine de la technologie informatique, on y parle de fracture numérique[3]. À propos de l’informatique et d’internet précisément, l’Afrique est terriblement en retard[4][5]. Ce problème se conçoit de deux façons, pour les Africains, il importe de réduire cette fracture numérique pour profiter de la technologie existante; pour les pays développés, il convient de voir l’Afrique comme un marché à développer.

Plus précisément, ce texte porte sur les actions la firme américaine Microsoft en Afrique. Est-ce le fait que Microsoft veuille conquérir le marché africain est à l’avantage des Africains eux-mêmes ou s’agit-il de l’exploitation classique du nord envers le sud ? Ce texte tentera de démontrer qu’agissant ainsi, une firme très importante d’un pays riche tente d’exporter une vieille et désuète technologie dans des pays pauvres.

Logiciels libres versus logiciels propriétaires

Avant d’entrer dans le vif du sujet, il convient de présenter les deux modèles économiques existant actuellement en informatique.

Le premier modèle économique est celui qui domine actuellement le marché résidentiel et commercial, soit celui du logiciel propriétaire à code source fermé. Le code source, ce qui est écrit par les programmeurs, n’est pas disponible et gardé secret, ce qui permet aux fabricants de logiciels de vendre des exécutables, des logiciels d’installation autrement dit. La logique de cette mise en marché sous-tend une affirmation générale que l’acheteur doit avoir une confiance absolue envers le fabricant de logiciels. Ce dernier affirmera, à tort ou à raison, que son logiciel est le meilleur du marché, le plus sécuritaire, le plus efficace, le moins gourmand en ressource informatique, etc. La frontière entre la véracité de ces affirmations et la publicité est bien mince et en pratique souvent impossible à déterminer. Le plus gros fabricant de logiciels au monde est Microsoft, que ce soit par son système d’exploitation, le très populaire Windows ou par sa suite bureautique aussi très populaire, Office. Il est à noter que la structure de prix des produits Microsoft maximise leur marge de profits, en étant en situation de quasi-monopole, ils vendent une trop petite quantité trop cher en plus de faire de la discrimination par les prix.

Le modèle économique[6] opposé est celui du logiciel libre, à code source ouvert, ou Linux[7]. Il est reconnu que le logiciel libre est plus stable, plus rapide et plus sécuritaire que les logiciels propriétaires du type de ceux fournis par Microsoft, en plus d’être gratuit et modifiable. Ce que vendent les compagnies qui travaillent avec du logiciel libre, c’est le service. Ce qui différencie les deux modèles au niveau de leur conception est que quand le code source est confidentiel, il est produit par une petite équipe, quand il est ouvert, tout le monde peut l’améliorer ou y ajouter des fonctions, ce qui fait que la progression du logiciel libre est beaucoup plus rapide que celle du logiciel propriétaire.

Ce sont ces deux modèles économiques qui s’affrontent pour le marché africain, d’un côté une firme américaine devenue un monstre multinational qui voit dans le lent développement de l’Afrique une occasion à ne pas manquer pour placer les Africains en position de dépendance informatique[8] s’assurant ainsi un profit maximum à long terme, de l’autre un modèle axé sur l’indépendance informatique, gratuit et adaptable selon les divers besoins. Ce qui revient à la phrase célèbre de Conficius : « Quand un homme a faim, mieux vaut lui apprendre à pêcher que de lui donner un poisson ».

Un patrimoine de l’humanité fragile

Depuis 1998, l’UNESCO supportait les logiciels libres et en 2003 lui octroya ses titres de noblesse en les classant patrimoine mondial de l’humanité[9]. Néanmoins, le principal intéressé de ce progrès, Richard Stallman et la Free Software Foundation, mettait en garde contre la perte de liberté, du combat à mener pour l’indépendance logicielle dans une lettre adressée à l’Unesco :

But our freedom is not permanently assured. The world does not stand still, and we cannot count on having freedom five years from now, just because we have it today. Free software faces difficult challenges and dangers. It will take determined efforts to preserve our freedom, just as it took to obtain freedom in the first place[10].

Malheureusement, Stallman avait raison, mais en ayant surestimé le temps de réponse de l’industrie du logiciel propriétaire, la charge vint le 17 novembre 2004. En cette date, Microsoft devint un partenaire de l’Unesco, ce qui allait en direction opposée du constat émis par la Cnuced dans un rapport parut en 2003 qui conseillait : « aux pays en développement d’envisager d’adopter les logiciels libres en tant que moyen de combler le fossé numérique »[11].

Avec la signature de cet accord, « Microsoft va ainsi contribuer à la réduction de la fracture numérique » de quatre manières : recyclage de vieux ordinateurs personnels, formation d’enseignants en informatique dans les pays en voie de développement, ouverture d’un centre de ressources informatiques dans le Maghreb et la mise en place d’une « plate-forme pour le partage de contenus numériques ».

Avec cet accord, Microsoft s’engageait aussi à livrer des ordinateurs dans tous les pays d’Afrique, l’Unesco, toujours selon cet accord ferait en sorte que Microsoft en livre partout en Afrique même là où son intérêt économique serait diminué[12].

Il importe ici d’apporter une nuance essentielle, les enseignants qui seront formés par Microsoft le seront en fonction des produits de cette même firme, pas en fonction de l’informatique ou du fonctionnement d’un ordinateur en soit. Ainsi, quand ces enseignants feront leur boulot, ils enseigneront le fonctionnement des produits Microsoft, ils agiront comme formateurs bénévoles au profit de Microsoft et transmettront leur dépendance informatique à leurs élèves.

Cette même date, lors d’une conférence de presse à Paris, Koïchito Matsuura, directeur général de l’Unesco, affirma que « l’ONU avait reconnu le rôle du secteur privé pour lutter contre la fracture numérique »[13]. Loin de nous ici de douter des mauvaises intentions de l’ONU dans ce dossier, l’Unesco est tributaire des fonds qu’on daigne bien lui alouer, sans plus. Cependant, il est raisonnable de penser que les Africains qui voyaient dans le logiciel libre une façon de se défaire de la dépendance de ce continent sous-développé envers la monde industrisé y ont vu au pire une défaite dans ce combat de la part de leur allié que devrait être l’Unesco, au mieux une instrumentalisation de l’Unesco par Microsoft[14].

Le point de vue des activistes du logiciel libre

Cet accord ne tarda pas à faire réagir. Un peu plus d’une semaine après l’accord parait sur internet un article sur les réactions des activistes du logiciel libre à l’endroit de l’accord. Benoît Sibaud, président de l’April[15], affirmait que l’Unesco « sous-traite ses valeurs au secteur privée » et que « Microsoft détient là une bonne manière de s’infiltrer dans les pays en voie développement. Et ça ne lui coûte pas grand-chose, car il peut se rattraper sur la marge qu’il réalise sur le prix de ses licences dans les pays du Nord »[16]. L’article se termine sur l’affirmation que tant l’April que l’Unesco « s’accordent à dire que si les logiciels propriétaires peuvent aider au développement, ils ne contribuent certainement pas au développement durable ».

C’est bien là tout le problème, qu’un organisme de la trempe de l’Unesco soit pret à permettre un développement qu’il sait voué à l’échec à long terme puisque n’étant pas durable. Janvier 2005, une lettre d’opinion scandalisée est publiée par Benoît Sibaud, Frédéric Couchet[17] et Sergio Amadeu da Silveira[18] dans Libération. Ceux-ci affirment qu’« en faisant le choix du logiciel propriétaire, un État se limite à louer une technologie » au lieu de se l’approprier et de la développer. Ces 3 spécialistes et militants en faveur des logiciels libres mentionnent les spécificités linguistiques de l’Afrique et de ses multiples langues. À titre d’exemple, les auteurs de la lettre d’opinion mentionnent que le navigateur internet Mozilla Firefox a été traduit en luganda[19] « par une petite équipe de huit … utilisateurs motivés … sans financement et sans organisation formelle »[20].

En matière de sécurité informatique, les trois spécialistes cités ci-haut mentionnent que les États qui se fient à Microsoft vont même jusqu’à abdiquer une partie de leur souveraineté étant donné le caractère fermé du code de Microsoft. En effet, comme il est impossible de savoir ce qu’il contient, la sécurité et l’intégrité des données sont remises entre les mains de Microsoft à qui il faut faire confiance[21]. Il apparaît en effet inconcevable qu’un continent qui essaie de se sortir du sous-développement, et donc qui veut prendre la place qui lui revient sur les marchés, et donc dans le domaine de la recherche et du développement (R&D) puissent penser sérieusement pouvoir le faire avec des outils informatiques qui n’assurent en rien la confidentialité ou même l’intégrité de leurs données. Il est clair que d’un point de vue de la sécurité, les pays africains qui font ou feront confiance à Microsoft ouvre la porte à l’espionnage économique.

À ce sujet, la ville de Munich a parfaitement compris et mis en application ce principe, parut en 2008 sur papier, mais se préparant depuis 2001, elle a émis une “Declaration of Independence” informatique, “rather than lowering the IT costs, the main motive is the desire for stratregic independence from software suppliers”[22].

Toujours au niveau de la sécurité informatique, l’affirmation la plus surprennante arrive de la NSA : “Unfortunately, existing mainstream operating systems lack the critical security feature required for enforcing separation: mandatory access control”[23].

C’est dans cette optique qu’il est possible de conclure qu’un pays développé exporte ses vieilles technologies désuètes dans les pays en développement. Les éléments stratégiques de la sécurité nationale américaine sont protégés autant que possible par Linux, mais en même temps, une entreprise de ce même pays exporte dans des pays déjà en difficulté un produit, Microsoft Windows, qui officiellement selon le gouvernement américain n’est pas sécuritaire. Combiné à la publicité de Microsoft et d’un point de vue stratégique, il s’agit de leur vendre un produit qu’on affirme miraculeux, mais qui est dans les faits déficient et dangereux[24].

Ce qui revient à faire payer les Africains pour qu’ils obtiennent le droit à une position de faiblesse au niveau de l’espionnage économique, scientifique et politique.

Le point de vue de Microsoft

La réponse de Microsoft aux accusations d’impérialisme fut pour le moins douteuse, publiée sur le réputé site de nouvelles informatiques Zdnet.com. Le responsable de Microsoft Nigéria, Gerald Ilukwe, affirmait sans gène que le “cost is not important” pour les gouvernements africains, tout en reconnaissant que le salaire moyen d’une Africain résidant dans l’ouest du continent est de 160 dollars américains par année.

Tout comme Neil Holloway, président de Microsoft en Europe, M.Ilukwe maintient que le problème est la connaissance des technologies, et donc implicitement, que la propriété des outils de l’information est accessoire. Tel un missionnaire généreux baignant dans l’altruisme, M.Holloway affirmait “It’s not about the cost of software, it’s about how you take your expertise to people. We are sharing our expertise…”[25].

La campagne de marketing de Microsoft continua inexorablement, toujours avec le même message, Cheick Diarra, responsable des opérations de la firme en Afrique, affirma pour répondre à ses détracteurs que “I try to advise Microsoft, as an ambassador from Africa…”[26], donc, de la manière la plus sérieuse possible, le responsable des opérations africaines de Microsoft affirma être l’ambassadeur des Africains en matière de besoin informatique auprès de la firme qui le rémunère justement pour extraire de l’Afrique le peu de profit, à court terme, qu’il soit économiquement possible d’en tirer.

L’affirmation de M.Diarra dépasse largement le stade du sophisme par l’absence de logique circulaire de son affirmation. L’image que Microsoft veut avoir en Afrique est celle d’une multinationale qui agit pour le bien et le progrès de l’humanité, sans égards à sa marge de profit. Comme si l’entreprise avait une conscience morale, qui en plus d’exister, serait tournée vers l’humanitaire.

Un article du Wall Street Journal qui donne le ton

S’il y a lieu de douter des bonnes intentions de Microsoft, encore faut-il le prouver. Malheureusement, les faits sont récents, les soupçons généreux et cette firme n’ira pas tout bonnement avouer dans un communiqué qu’elle a le comportement colonial et qu’elle tente par la fourberie d’acquérir le marché[27] africain du logiciel.

Néanmoins, un article paru dans le prestigieux Wall Street Journal sous la plume de Steve Stecklow le 28 octobre 2008[28] nous en apprend beaucoup sur les méthodes et les agissements de Microsoft en Afrique.

Premièrement illustration la plus grossière, ils ont embauché des gens bien placés en Namibie. Ils ont engagé Sean Nicholson, auparavant “adviser to Namibia’s Ministry of Education, promoting open-source software” et toujours en ce même pays, Kerii Tjitendero “as a contractor to help in (the) process”. Cependant, M.Tjitendero est le fils de Mose Tjitendero, “formerly speaker of Namibia’s national assembly, who signed the government’s Pathfinder agreement with Microsoft”. Malgré une telle proximité qui serait bannie de facto dans les pays développés, Microsoft affirma que “Kerii had the professional background that made him a good fit for this role”.

Toujours du même article, Microsoft tenta au Nigéria d’acheter pour 400 000 dollars[29] le remplacement de Linux sur les ordinateurs portables des écoles par des produits Microsoft.

Au sujet du Pathfinder, le plan d’action de Microsoft en Afrique, l’article de Stecklow nous apprend que dans une école de Namibie en 2004, à Katima Mulilo, Eric Kouskalis, alors étudiant à Harvard, était enseignant pour l’organisation WorldTeach. Il affirma des ordinateurs fournis par Microsoft qu’ils “weren’t being used at all” bien qu’il “spent weeks fixing software and hardware problems”. Et il en rajoute, si plus d’un étudiant voulait accéder à l’encyclopédie de Microsoft, Encarta, “everything would freeze up”.

Donc, de cette expérience, deux constats peuvent être tirés, soit qu’en fournissant sa propre Encyclopédie aux Africains, Microsoft leur fourni la vision américaine de l’histoire mondiale et des connaissances en général, et aussi que les problèmes logiciels que les produits Microsoft font subir aux consommateurs occidentaux sont les mêmes éprouvés par les Africains, soit l’instabilité et la médiocrité naturelle et intrinsèque de leurs produits. Quant bien même Microsoft leur vendrait un “special $3 Windows package”[30][31], avoir des ordinateurs, mais être bloqué par les logiciels ne vaut pas 3 dollars.

Néanmoins, en juin 2005, Microsoft déclara que Pathfinder était “a success” pour par la suite promettre 4000 ordinateurs usagés à la Namibie, sur ce nombre, 1300 ont été livrés. L’école de Katima Mulilo en reçut 20, le directeur de l’école, Fias Geel, affirma au sujet des ordinateurs reçus que “all but four were broken”. Un autre directeur d’école de la région, Paul Damaseb, affirma qu’aucun de ses 565 étudiants ne pouvait utiliser les ordinateurs “because of a server crash”. Par la suite, Microsoft admit que l’expérience de PathFinder était un processus d’apprentissage “valuable”, ce qui n’empêcha pas le gouvernement de la Namibie de stopper l’action des professeurs de ses écoles qui installaient Linux pour promettre 200 ordinateurs et finalement n’en livrer que 55, “all containing Microsoft software, says a person familiar with the matter”.

PathFinder et Unlimited Potential

Depuis, avec le succès limité, aux yeux de Microsoft, de PathFinder, la firme a lancé un autre programme à la conquête du marché africain, Unlimited Potential. Bien que trop récent pour pouvoir le juger, notons cependant que les éléments avec lesquels Microsoft présente Unlimited Potential sont fondamentalement les mêmes qu’avec Pathfinder, soit à l’aide d’un vocabulaire positif portant sur les engagements Microsoft à l’égard de l’avancement des Africains ou encore des phrases creuses comme “training to its next generation of citizens”, pour être bien certains qu’ils ne connaissent de l’informatique que les produits Windows. La seule différence entre les deux programmes de mise en marché est que maintenant Microsoft légitimise son action avec l’appui reçu par l’Onu[32] et l’Unesco.

La firme clame en effet qu’elle veut “supports and accelerates Africa’s progress toward the Millennium Development Goals”[33]. Quand Microsoft affirme : “… we are working to enable sustained social and economic opportunity for everyone”[34], il serait plus juste de lire qu’ils travaillent pour le profit, comme n’importe quelle entreprise privée, la satisfaction des clients ou la fonctionnalité des produits n’a pas d’importance, pour autant que les clients paient.

Cela dit, face à la critique, Microsoft par l’intermédiaire de son responsable pour le continent africain, M.Diarra, tente de faire croire qu’il ne s’agit que d’un problème de communication, “… it’s sad that sometimes reality has a hard time catching up with perception … we are competing respectfully and openly; you can verify that everywhere”, il rajoute comme pour marteler le message à propos des actions de Microsoft en Afrique “we always try to empower those communities”[35].

Cela dit, en plus de ce qui est documenté, comme la corruption en Namibie, ce qui est douteux comme le fait qu’une entreprise affirme avoir à coeur le bien-être des plus exploités de la planète au cours des derniers siècles, comme si Microsoft n’agissait pas accord avec la continuité historique des rapports nord-sud, il y a ce qui est étrangement circonstanciel. Par exemple, en recoupant les informations vagues[36] disponibles sur le site de la Bill & Melinda Gates Foundation et les pays dans lesquels il y a moyen de savoir avec assurance que Microsoft travaille[37], on arrive à la conclusion qu’environ le deux tiers des pays où la fondation est active sont des pays où Microsoft l’est aussi.

Conclusion

En 2007, l’ampleur du désastre se mesurait, selon les affirmations officielles de Microsoft, par la conquête de “15 African countries: Angola, Burkina Faso, Gabon, Ghana, Kenya, Madagascar, Mozambique, Namibia, Nigeria, Rwanda, Senegal, Seychelles, Uganda, Botswana and South Africa, and to date has trained 200,000 teachers and reached 21 million students”[38]. C’est 21 millions de personnes, en plus des fonctionnaires des différentes administrations publiques africaines, que Microsoft a placées sous son contrôle. Il s’agit ici d’une forme lourde de dépendance au sentier, un sentier par ailleurs, sombre, sinueux et vaseux, où s’en sortir requière pour une société des coûts supérieurs à ce qu’aurait été l’investissement initial de l’éviter.

En faisant le choix des logiciels propriétaires de Microsoft au détriment des logiciels libres et gratuits GNU/Linux, les pays africains choisissent de payer pour un produit dont la qualité est plus que douteuse au niveau de l’efficacité informatique et carrément incertaine en ce qui a trait à la sécurité des informations gérées. De plus, ces pays n’auront pas le choix de payer pour les autres logiciels, comme des antivirus qui sont nécessaires avec Windows, ou payeront en temps, puisque Windows est impérativement plus lent que Linux, et ainsi de suite.

Bref, les logiciels propriétaires ne peuvent qu’être un mauvais choix pour toutes les administrations publiques et spécialement pour celles des pays en voie de développement, qui n’ont pas d’argent. Selon la formule rependue sur les blogues portant sur le sujet, « l’Afrique a déjà assez de problèmes comme ça, n’y ajoutez pas Microsoft” »[39]. Clairement, entre la dépendance que leur offre Microsoft et l’indépendance que leur offre Linux, les Africains et leurs gouvernements auraient tout avantage à choisir l’indépendance.

En conclusion, quand Microsoft parle de Windows comme d’un système d’exploitation, la firme a entièrement raison et est pour une fois honnête, car c’est tout ce que c’est : un système d’exploitation.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Le terme hacker a une connotation négative depuis le milieu des années 80. Le terme se référait plutôt à ce qu’il est convenu d’appeler un bidouilleur. L’industrie informatique en générale doit beaucoup à ses hackers, que l’on pense seulement aux fondateurs de Apple ou au célèbre Captain Crunch. Ce dernier, John Drapper de son vrai nom, découvrit qu’un jouet contenu dans une boite de céréales émettait exactement la même fréquence que celle utilisée par AT&T pour indiquer qu’une ligne de téléphone est disponible, ce qui lui permit de faire des appels sans payer. Il inventa par après la blue box, un générateur de fréquences avec laquelle il testa les limites du système téléphonique de AT&T. Résultat, les compagnies de téléphone durent revoir à la hausse la sécurité de leurs réseaux de télécommunications.

[3] La définition de Statitics Canada au sujet de la fracture numérique, parue dans l’introduction d’un document de recherche intitulé The Digital Divide in Canada, est particulièrement pertinente : “Commonly understood as the gap between ICT ‘haves’ and ‘have-nots’, it serves as an umbrella term for many issues, including infrastructure and access to ICTs, use and impediments to use, and the crucial role of ICT literacy and skills to function in an information society.” ICT réfère à “information and communications technologies”.

[4] Les statistiques de l’ONU sont à ce sujet très claires. Aucun calcul n’est nécessaire pour constater qu’il y avait plus d’ordinateurs par 100 habitants aux États-Unis ou au Canada il y a 20 ans qu’il y en a maintenant par 100 habitants dans les pays africains. Concernant le nombre d’habitants qui accèdent à internet, les données de l’ONU, toujours par 100 habitants, nous indiquent que le niveau d’accès à internet est actuellement en Afrique ce qu’il était il y a 15 ans aux États-Unis et au Canada. Voir Millennium Development Golas Indicators, Internet users per 100 population et Personal computers per 100 population.

[5] En septembre dernier, une compagnie sud-africaine, Durban IT a testé la vitesse du réseau de Telkom, le plus gros fournisseur d’accès internet en Afrique du Sud. Ils ont, au même moment, lancé un transfert de 4Gb sur le réseau ADSL de Telkom tout en relâchant un pigeon sur lequel était attaché une clé usb de 4Gb. “Winston the pigeon took two hours to carry the data 60 miles – in the same time the ADSL had sent 4% of the data”. Source : BBC, 10 septembre 2009.

[6] Le Rapport sur le commerce électronique et le développement de la Cnuced en 2003 nuance avec les propos suivants : « Les logiciels libres ne devraient pas différent. Ils sont un moyen différent d’élaborer, de préserver et de modifier les règles qui régissent les flux d’information. Ils bouleversent la conception que l’on a de l’écriture de logiciels ? des personnes habilitées à les modifier et sous quelles conditions ? ainsi que des libertés et des responsabilités y afférentes. Ils donnent aux peuples et aux nations non seulement la possibilité, mais aussi, de manière plus importante, le pouvoir de gérer eux-mêmes le développement des TIC. » p.21.

[7] Il est nécessaire ici de noter, sans entrer dans les détails, qu’il existe plusieurs types de licences concernant les logiciels libres. Autrement dit, il y a des schismes au sein de la communauté des logiciels libres concernant certaines nuances à propos des droits d’auteurs des logiciels libres. Loin de nous l’idée d’entrer dans ce débat, la définition des logiciels libres qui sera utilisée est celle qui est la moins restrictive possible, soit tout ce qui est disponible sans payer ou enfreindre les droits d’auteurs des fabricants de logiciels. À titre d’exemple seulement, il est impossible d’écouter un fichier mp3 ou d’écrire ce texte en Times New Roman, comme le requière le Département de science politique, sur Linux sans enfreindre des lois de propriétés intellectuelles. La définition orthodoxe du logiciel libre définit par Richard Stallman et la Free Software Foundation se lit comme suit : « L’expression « Logiciel libre » fait référence à la liberté pour les utilisateurs d’exécuter, de copier, de distribuer, d’étudier, de modifier et d’améliorer le logiciel ». La définition complète est disponible à http://www.gnu.org/philosophy/free-sw.fr.html.

[8] Le phénomène de l’enfermement propriétaire est bien connu et pas seulement dans le domaine informatique. Dans ce domaine précis, l’UNESCO définie le mécanisme du Vendor Lock-In comme étant le fait que “While the software industry will continue to innovate, some product categories are reaching maturity and users should not be driven to pay for new features and product versions that have minimal impact on their needs”.

[9] Cette année là, le logiciel libre est devenu pour l’UNESCO une partie du patrimoine mondial : “Moreover, free software gives independence, from governments, from companies, from political groups, etc. And better, an economical independence: it isn’t plagued by compulsory profit. In fact, Free software is already the heritage of mankind, in the common sense”.

[10] Richard Stallman, 2003. UNESCO and Free Software. Disponible dans les archives des communications de l’UNESCO.

[11] Conférence des Nations Unies sur le Commerce et le Développement (CNUCED), 2003. Rapport sur le commerce électronique et le développement. p.21.

[12] Citations et information depuis un article de Marc Cherki, parut dans Le Figaro le 17 novembre 2004, Microsoft devient partenaire de l’Unesco.

[13] Citation depuis un article de Capucine Cousin, parut dans Les Echos le 17 novembre 2004, L’Unesco compte sur le privé pour former les enseignants aux nouvelles technologies.

[14] À ce sujet, on peut prendre pour exemple le fait que les documents statistiques de l’ONU soient disponibles en 3 formats Microsoft Office Excel, XML et CVS. Les deux derniers sont des formats textes standards, mais qui ne peuvent être lus sans quelques contorsions ou connaissances informatiques précises. Le format Excel quant à lui est propriétaire, c’est-à-dire qu’il faut avoir acheté un programme pour le lire les informations qu’il contient. L’ONU ne fournit malheureusement rien en format OpenOffice, qui aurait le mérite de pouvoir être lu correctement, facilement et sans devoir payer pour le logiciel. Il n’y a bien sûr pas de lien direct entre cette observation et les liens qui unissent Microsoft et l’Unesco depuis 2004, cependant, ça permet de constater l’incompréhension de la question des logicielles de la part de l’ONU.

[15] April, acronyme de l’Association pour la Promotion et la Recherche en Informatique Libre.

[16] Selon un article d’Yves Drothier, dans le Journal du Net, 26 novembre 2004.

[17] Fondateur de l’April et président de la Fondation des logiciels libres (Free Software Foundation, branche française) de 2004 à 2007.

[18] Président de l’Institut national de technologie et de l’information du Brésil.

[19] Langue parlée par 10 millions de personnes en Ouganda.

[20] Sérgio Amadeu da Silveira, Benoît Sibaud et Frédéric Couchet. 5 janvier 2005, La Libération. Bill Gates à la conquête du sud : Le partenariat entre Microsoft et l’Unesco risque d’assujetir les pays en développement.

[21] Les auteurs mentionnent sur ce point qu’en 2000, un rapport de la Délégation des affaires stratégiques du ministère français des Armées mentionnait, prudemment et sans accusé directement, la collusion entre la National Security Agency (NSA) et Microsoft. Aussi en 2004, un « rapport parlementaire sur l’intelligence stratégique … soulignait les mêmes dangers attachés au logiciel propriétaire en matière de dépendance informationnelle ».

[22] Declaration of Independence: The LiMux Project in Munich. Ville de Munich, 2008.

[23] Citation complète : “End systems must be able to enforce the separation of information based on confidentiality and integrity requirements to provide system security. Operating system securitymechanisms are the foundation for ensuring such separation. Unfortunately, existing mainstream operating systems lack the critical security feature required for enforcing separation: mandatory access control. As a consequence, application security mechanisms are vulnerable to tampering and bypass, and malicious or flawed applications can easily cause failures in system security”. Depuis le site de la National Security Agency, http://www.nsa.gov/research/selinux/.

[24] Il est de notoriété publique que des agents de la NSA travaillent chez Microsoft, eux affirment que c’est pour renforcer la sécurité des produits de Microsoft, il y a naturellement lieu d’en douter. L’affaire éclata en septembre 1999, quand une mystérieuse clé de cryptage nommé _NSAKEY fut découverte dans Windows NT4, puis dans Windows 95, 98 et 2000. On peut lire sur le site de CNN “Microsoft operating systems have a backdoor entrance for the National Security Agency, a cryptography expert said … but the software giant denied the report and other experts differed on it”. Il n’y a donc rien de certain en ce sens, mais Microsoft a par la suite été incapable d’expliquer de manière convaincante ce qu’était cette _NSAKEY.

[25] Ingrid Marson, 18 octobre 2005, Microsoft: Africa doesn’t need free software.

[26] Nancy Gohring, 25 septembre 2008, PC World, Microsoft’s Africa Chairman Tackles Access Problems.

[27] À titre indicatif, rappelons que Microsoft a été condamnée par l’Union européenne en février 2008 à payer 899 millions d’euros, qui « s’ajoutent à une première amende de 497 millions d’euros donnée à Microsoft en mars 2004 pour « abus de position dominante » ». Selon un article parut dans Branchez-Vous!, le site qui s’occupe des nouvelles technologiques pour Le Devoir. Si Microsoft agit de telle manière dans un marché lourdement réglementé, il est possible d’imaginer ce qu’il fait sur un continent comme l’Afrique où les États sont faibles.

[28] Microsoft Battles Low-Cost Rival for Africa, 28 octobre 2008, The Wall Street Journal.

[29] Extrait de l’article : “In Nigeria, Microsoft proposed paying $400,000 last year under a joint-marketing agreement to a government contractor it was trying to persuade to replace Linux with Windows on thousands of school laptops. The contractor’s former chief executive describes the proposal as an incentive to make the switch – an interpretation Microsoft denies.”

[30] Toujours du même article de Stecklow : “Some of Africa’s poorest countries also have discovered that they can’t meet the terms of a special $3 Windows package for "underserved" students around the world, announced last year by Microsoft Chairman Bill Gates.”

[31] Pour 3$, les étudiants africains obtiennent les logiciels suivants Microsoft Learning Essential 2.0, Microsoft Math 3.0, Microsoft Office, Windows Live Mail, qui est en fait Hotmail et Windows XP Starter Edition. Cette version de Windows est conçue pour les ordinateurs peu puissants et limite plus que ne le fait la version normale de Windows XP ce que les utilisateurs peuvent faire avec leurs ordinateurs. Autrement dit, c’est le meilleur moyen d’handicaper un étudiant, surtout que le terme “Starter” signifie implicitement que ce n’est qu’un début, qu’une fois formés avec les produits Microsoft et en fonction de ceux-ci, ils devront payer pour obtenir la version normale des systèmes d’exploitation de Microsoft. Il est à noter que des distributions Linux spécialisées dans l’éducation existent, par exemple EduLinux conçue entièrement au Québec, à l’Université de Sherbrooke. Plus populaire, il y a Edubuntu, qui est disponible dans de multiples langues. Edubuntu est devenue la norme dans tous les ordinateurs des écoles primaires et secondaires de la République de Macédoine, cette distribution Linux serait définitivement meilleure pour les étudiants africains que Windows XP Starter Edition.

[32] United Nations Press Release  : United Nations hosts launch of Microsoft Programmes. Extrait  : “Amir Dossal, Executive Director of the United Nations Office for Partnerships, and Akhtar Badshah, Senior Director of Community Affairs, Microsoft Corp., welcomed participants. Mr. Dossal underscored that public-private partnerships were the key to the achievement of the Millennium Development Goals.”

[33] Microsoft, Realizing Unlimited Potential in Africa, 2009.

[34] Microsoft, Microsoft Unlimited Potential Enables Social and Economic Opportunity, 2009.

[35] Alka Marwaha, BBC News, The hi-tech battle for Africa, 2009.

[36] La plupart des liens sur la carte de l’Afrique ne fonctionnent pas, de plus les liens sont parfois situés sur des frontières. http://www.gatesfoundation.org/regions/Pages/default.aspx?4#/?action=region&id=africa

[37] Angola, Burkina Faso, Gabon, Ghana, Égypte, Kenya, Madagascar, Mozambique, Namibie, Nigeria, Rwanda, Sénégal, Seychelles, Ouganda, Botswana et Afrique du Sud.

[38] Microsoft, Unlimited Potential Engagement in Africa, 2007.

[39] J’ignore de qui est cette citation, elle se retrouve en anglais avec quelques variantes sur plusieurs blogues et forums de discussion. Il s’agit cependant de ma traduction.




Il était une fois un livre sur et avec Richard Stallman

Biographie de Stallman - Couverture Eyrolles - 3D HarrypopofLe livre Richard Stallman et la révolution du logiciel libre – Une biographie autorisée, qui est sorti le 21 janvier aux éditions Eyrolles, possède trois auteurs.

Il y a bien entendu Sam Williams, auteur de la version d’origine en anglais. Mais si nous n’étions qu’en face de sa simple traduction, il demeurerait alors le seul auteur de l’ouvrage. Or deux autres noms apparaissent : Richard Stallman lui-même et Christophe Masutti de Framasoft.

Pourquoi cette originalité et pourquoi méritent-ils tous deux de venir s’associer à Sam Williams ? Vous le saurez en parcourant l’histoire peu commune de ce livre, telle qu’elle a été vécue par Christophe.

Il nous propose une très jolie formule pour expliquer les intentions et les apports de Stallman :
il a souhaité « hacker » le livre.

Avec le même état d’esprit, ou plutôt la même éthique, que lorsqu’il se trouvait, plusieurs dizaines d’années auparavant, jeune programmeur parmi les siens au département de recherche en intelligence artificielle du MIT.

Il était une fois un livre sur et avec Richard Stallman

Christophe Masutti – janvier 2010 – GNU Free Documentation License

Christophe MasuttiTout a commencé en mars 2007, lorsque Alexis Kauffmann a posté un message sur le forum du réseau Framasoft, invitant les volontaires à participer à la traduction du livre de Sam Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, publié en 2002 chez O’Reilly sous la licence libre GNU Free Documentation License.

Framasoft a une certaine habitude des traductions et s’est même constitué avec le temps une équipe entièrement dédiée à cela, le groupe Framalang. Il se trouve qu’à cette époque Framalang ne chômait pas et nous ne souhaitions pas leur rajouter une charge de travail supplémentaire avec un livre de quelque 300 pages !

Nous avons donc fait le choix de proposer directement le projet dans un wiki public, et pas n’importe lequel d’entre eux : Wikisource, la bibliothèque libre du réseau Wikimedia. Lors d’une conférence tenue aux Rencontres mondiales du logiciel libre 2009 de Nantes, Alexis donne plus de détails sur le mode opératoire : quelqu’un avait déjà traduit la préface et le premier chapitre du livre sur un site personnel, ce qui nous a servi de base pour créer la structure de l’ensemble du projet sur Wikisource. L’objectif était bien entendu d’arriver à nos fins mais il s’agissait également d’une expérience, celle d’une ambitieuse traduction collaborative et spontanée ouverte à tous, exactement comme on crée, modifie et améliore les articles de Wikipédia.

Un an plus tard, le bilan était contrasté. Nous avions bénéficié de l’exposition de Wikisource et de nombreuses personnes étaient venues participer. Mais quantitativement il restait encore beaucoup à faire et qualitativement ce qui avait été fait manquait singulièrement de cohérence et d’harmonie (ne serait-ce que pour se mettre d’accord sur la traduction de tel ou tel terme important et récurrent). Et puis nous butions sur des questions aussi élémentaires que la décision de « clore » un chapitre traduit, ce qui sur un wiki aussi fréquenté ne va pas de soi.

Ne nous en déplaise, il fallait mettre un peu de « cathédrale dans le bazar », c’est-à-dire un peu de verticalité dans l’horizontalité du projet. Alexis a alors pris la décision de relancer le projet sur le blog de Framasoft, en invitant les bonnes volontés à se regrouper sur une liste de discussion dédiée et créée pour l’occasion. Pour ma part, je pris l’initiative d’animer cette liste qui compta rapidement une bonne dizaine d’inscrits (dans le livre vous trouverez en préambule les remerciements à cette liste nominative de participants).

Notre première décision consista à créer ailleurs un deuxième wiki, mais cette fois-ci loin des regards du réseau Wikimedia. Il ne s’agissait pas de jouer les cachottiers, mais nous en étions arrivés à la conclusion qu’il n’était plus possible de continuer à travailler sur Wikisource, dans la mesure où à tout moment une personne externe à la liste pouvait s’en venir tout « bouleverser » (c’est, j’en conviens fort bien, ce qui fait tout le charme de Wikipédia, mais à cette période d’un projet si spécifique nous souhaitions avant toute chose être efficaces et coordonnés dans notre travail).

Nous nous trouvions cependant face à un dilemme : d’un côté la traduction d’origine sur Wikisource restait bien entendu ouverte et continuait sa vie de texte wiki (bien que fort peu active, puisque la liste avait capté une bonne part de l’énergie disponible) et de l’autre côté, le travail sur notre nouveau wiki prenait forme et la traduction avançait plutôt bien. Une fois terminée, notre intention était de reverser la traduction de Free as in Freedom dans Wikisource, quitte à « écraser » les contributions effectuées dans l’intervalle (ces contributions peuvent néanmoins être réhabilitées grâce à l’historique des modifications). Aujourd’hui, on peut donc trouver sur Wikisource cette traduction française de Free as in Freedom publiée par Sam Williams en 2002. Modulo le fait que quelqu’un est peut-être venu en déplacer un mot il y a une heure 😉

Notre traduction avançait donc plutôt bien jusqu’à obtenir une forme convenable à la relecture en novembre 2008, avec en prime la décision définitive d’en faire un volume de plus de la collection de livres libres Framabook.

Une petite parenthèse est ici nécessaire. En effet, nous travaillions depuis peu en étroite collaboration avec l’équipe de La Poule ou l’Oeuf, qui est une chaîne éditoriale en ligne pour la production de livres, pensés comme unités d’une collection, permettant un rendu final de type TeX, PDF, ePub ou HTML. Ce livre était aussi pour nous l’occasion d’implémenter dans le système non seulement l’ouvrage mais aussi la maquette générale de notre collection Framabook. Nous sommes très heureux du résultat car non seulement la Poule ou l’Oeuf a servi pour la mise en page du livre publié chez Eyrolles, mais ce sont désormais tous les framabooks qui vont bénéficier de la puissance de cet outil et des compétences de l’équipe de la Poule ou l’Oeuf.

Parenthèse fermée. Un mois plus tard, en décembre 2008, j’écrivis à Sam Williams pour lui demander une préface. Il accepta, tout en me précisant qu’il aurait bien aimé que Richard Stallman eût participé aux éventuelles modifications de l’ouvrage en anglais mais que finalement cela ne s’était pas produit. À ce moment-là, je ne compris guère l’allusion qui trouva son explication quelques jours plus tard.

Nous réfléchissions également aux illustrations possibles de l’ouvrage. Il y avait une belle photo de Richard Stallman dans le livre d’origine chez O’Reilly, tirée du site web personnel de Richard. Je contacte donc ce dernier, non seulement pour lui demander l’autorisation d’utiliser sa photo, mais aussi pour l’informer que nous comptions publier la traduction en français (une traduction en italien avait été publiée en 2003).

C’est là que tout a basculé (positivement).

Il faut savoir que le livre Free as in Freedom n’a jamais obtenu l’appui formel de Richard Stallman. Pire : Richard aurait déjà affirmé qu’il était hors de question de venir lui demander un autographe sur le livre. On peut légitimement se demander pourquoi… Certes le travail de Sam Williams est d’abord un travail de journaliste, et il dresse un portrait sans concession de la personnalité de Richard Stallman : introverti, controversé, irascible et intransigeant. Tous ceux qui se sont rendus au moins une fois à l’une de ses conférences et qui sont au courant de ses activités, ont une bonne idée de ce que je veux dire.

Mais ce n’est pas sur ce point que Richard Stallman était en désaccord avec l’ouvrage : il y avait des erreurs manifestes voire des interprétations faussées dans les faits concrets relatés dans l’ouvrage. En somme, un travail mené un peu trop vite et sans assez de recul. Par ailleurs, un programmeur de l’envergure de Richard Stallman met un point d’honneur à vouloir reformuler avec exactitude les approximations, même lorsqu’elles ont été commises volontairement dans le but de rendre l’ouvrage plus accessible. Il n’en demeure pas moins que sous le prétexte de l’accessibilité, certaines approximations transformaient carrément le propos ou les évènements. La manière dont Richard a agit sur le texte est relatée dans sa préface et lorsque le propos relève notamment de l’interprétation personnelle de Sam Williams, les ajouts de Richard sont clairement identifiés dans le livre par des encarts et des notes de bas de page. Les lecteurs pourront donc se faire une bonne idée des transformations ainsi opérées, quitte à aller voir et comparer avec l’original de Sam Williams.

Je prends un exemple : lorsque Sam Williams relate la tension entre Eric S. Raymond et Richard Stallman, on comprend que Raymond accuse Richard d’être la principale cause du manque de réactivité du projet Hurd (le projet de noyau du système GNU), et que cette accusation est fondée (on se doute néanmoins que Raymond n’a pas bien digéré la fin de non recevoir pour les modifications de l’éditeur Emacs qu’il voulait imposer). Pour Williams, et aussi pour Raymond, c’est le « micro-management » à la Stallman, c’est à dire sans concession, qui a freiné Hurd, avec pour conséquence la popularisation du noyau Linux, qui obéit, lui, à un schéma de développement beaucoup plus ouvert. Il serait pourtant simpliste de se contenter de cette interprétation. Richard l’explique autrement, tant en montrant que Hurd n’est pas une mince affaire qu’en montrant aussi que le noyau Linux n’est pas la panacée du point de vue technique comme du point de vue éthique (le plus important à ses yeux).

Bref, suite à mon courriel, Richard me répondit qu’il désirait apporter quelques précisions sur l’épisode LMI et Symbolics, deux entreprises qui débauchèrent le gros de l’équipe de hackers du MIT au début des années 1980. Cet épisode était très important, mais il ne touchait en gros qu’une dizaine de paragraphes dans l’ouvrage. Lorsque j’en fis référence à l’équipe de notre liste de discussion, tout le monde approuva l’idée.

Pourtant, au fil des échanges, Richard me confia qu’il n’avait jamais lu le livre de Sam Williams, et qu’en lisant les chapitres en anglais que je lui envoyais (repris depuis le site personnel de Sam Williams), il ressentait fortement le besoin de le réécrire.

Et tout l’art du hacker se révéla.

Alors que je lui suggérais d’écrire lui-même son autobiographie (d’un certain côté, j’anticipais sur mes craintes : la retraduction de l’ensemble à partir de toutes ces nouvelles modifications !), il se contenta de me renvoyer des chapitres réécris, sur lesquels je faisais un « diff » (une commande Unix permettant d’afficher les différences entre deux fichiers) pour pouvoir implémenter ces modifications dans la traduction française.

Après tout, qu’est-ce qu’un hacker ? Le lecteur en trouvera une bonne définition historique en annexe de l’ouvrage. L’essentiel est de comprendre que « hacker » signifie surtout améliorer, et qu’un bon hacker qui se respecte ne supporte pas l’imperfection. En toute logique, Richard ressentait tout simplement l’envie irrésistible de « hacker » le livre de Sam Williams. Qui d’autre sinon lui ?

J’énonce tout ceci avec le recul que me permet la parution de l’ouvrage. Dans les faits, je recevais plusieurs courriels par semaine contenant les modifications de Richard. Je les implémentais après les avoir lues, demandé des précisions, et argumenté lorsqu’elles étaient discutables. Bref, un travail soutenu qui nous amena Richard et moi jusqu’au début de l’été 2009.

Un mois auparavant, Alexis avait rencontré Muriel Shan Sei Fan, directrice de la collection Accès Libre aux éditions Eyrolles. Et entre la poire et le fromage, il évoqua « l’aventure » de cette traduction qu’il continuait à suivre attentivement. Muriel trouva le projet tant est si bien intéressant qu’elle nous proposa de le publier chez eux.

Nous acceptâmes, mais ce serait vous mentir que d’affirmer que ce fut une décision facile et unanime dans l’équipe. En effet, nous avons, et nous avons encore, nos habitudes chez InLibroVeritas, l’éditeur si particulier et attachant de tous les autres framabooks, avec qui nous travaillons main dans la main depuis des années pour défendre et faire la promotion du logiciel libre et sa culture.

Plusieurs arguments ont cependant pesé dans la balance. Tout d’abord nous n’avions plus affaire cette fois à un livre sur un logiciel libre particulier (Thunderbird, OpenOffice.org, LaTeX, Ubuntu…). Nous étions face à un livre mutant, une traduction devenue « biographie autorisée » car modifiée et enrichie pour l’occasion par son sujet même. Et pas n’importe quel sujet : la plus illustre des personnalités de la jeune histoire du logiciel libre. Cela méritait assurément de rechercher la plus grande exposition possible. Outre sa capacité de diffusion et distribution, Eyrolles nous offrait aussi son expertise et expérience. Le livre avait été traduit et une première fois relu, mais nous étions néanmoins conscients de sa perfectibilité de par les conditions mêmes de sa réalisation mentionnées plus haut (sachant de plus qu’à ce moment précis de l’histoire Richard n’en avait toujours pas fini avec ses propres modifications). Eyrolles a ainsi retravaillé le texte et mis à disposition du projet plusieurs personnes non seulement pour effectuer de nouvelles relectures mais parfois même pour retraduire certains passages. J’ajoute que nous appréciions la collection pionnière Accès Libre qui abrite en son sein de nombreux ouvrages de qualité sur le logiciel libre. Et enfin dernier argument et non des moindres : sous notre impulsion, Eyrolles allait pour la première fois publier d’emblée un livre sous licence libre, avec tous les avantages et inconvénients que cela suppose.

Nous nous rencontrâmes in the real life, Muriel, Richard, Alexis et moi, au cours d’un déjeuner en marge des Rencontres mondiales du logiciel libre de Nantes en juillet 2009. Nous discutâmes des modalités de publication et surtout, justement, de la question de la licence. L’ouvrage d’origine étant sous licence GNU Free Documentation License (à cause d’un Stallman insistant, Sam Williams s’en explique à la fin de son livre), sa traduction ne pouvait que l’être également. Or publier sous licence libre n’était pas dans les habitudes d’Eyrolles et cela ne rentrait pas forcement dans les « cases » de ses contrats types (rien que le fait d’interdire la classique interdiction de photocopier était une nouveauté). De plus nous connaissons les positions sans concession de Stallman dès que l’on touche à ces questions de licence. Mais nous avons néanmoins réussi sans trop de mal à nous mettre d’accord, et il faut rendre ici hommage aux éditions Eyrolles d’avoir su s’adapter et innover.

La dernière ligne droite fut en tout cas aussi passionnante que stressante, avec ses nombreux va-et-vient entre Richard (apportant ses dernières modifications), Eyrolles (éditant à la volée l’ensemble de l’ouvrage), La Poule (obligée à mettre en forme un texte sans cesse en mouvement) et moi (dispersé un peu partout). Toujours est-il que vers la fin décembre 2009, ouf, nous étions prêts et le projet bouclé. Nous méritions tous ce beau cadeau de Noël que nous nous offrions là 😉

De leur côté, Richard Stallman et John Sullivan vont très prochainement publier en anglais le livre dans sa nouvelle version, aux éditions internes à la Free Software Foundation, ajoutant ainsi une dimension supplémentaire au projet. Non seulement nous touchons les lecteurs francophones, mais le monde anglophone pourra aussi se délecter de ce « hack biographique ». Grâce à la licence libre (et aux efforts de quelques uns), le livre, parti des États-Unis, revient à la maison après un détour par la France qui l’aura transformé !

Pour moi, ce livre n’est pas seulement une biographie, même s’il en a l’apparence et la saveur. Il s’agit d’une histoire, celle du mouvement pour le logiciel libre, qui a influencé profondément l’histoire générale de l’informatique depuis la fin des années 1960. On considère généralement cette histoire à travers celle de l’industrie logicielle ou des composants d’ordinateurs. Mais il manque souvent une approche en termes de pratiques d’ingénierie et de circulation de l’information. Le logiciel libre constitue en cela une belle illustration de l’ingénierie logicielle, qui avance non seulement par projet, mais aussi parce qu’elle est fondamentalement un débat permanent sur la disponibilité et le partage de l’information. Lorsque le partage d’idées est impossible (notamment à cause des brevets) et lorsque les développeurs et les utilisateurs sont restreints dans leurs libertés, alors c’est la société toute entière qui pâti de la pénurie de code et de libertés.

Tous les métiers ont leur déontologie. Les informaticiens ont une éthique et ceux qui la distillent sont les hackers. Par delà ses actes et ses programmes, l’un des principaux mérites de Richard Stallman est d’avoir réussi à concentrer et matérialiser cette éthique dans une simple licence (la fameuse GNU General Public License), qui va non seulement fonder, défendre et diffuser le logiciel libre mais qui constitue aujourd’hui une référence et une source d’inspiration pour d’autres mouvements émancipateurs. En fait, les programmes ont toujours été libres, et c’est un non-sens éthique qui les a rendu privateurs à un moment donné. L’histoire de l’informatique est heureusement loin d’être terminée.

Celle de ce livre touche par contre à sa fin, puisqu’il sera officiellement publié le 21 janvier prochain sous le titre Richard Stallman et la révolution du logiciel libre – Une biographie autorisée. Je remercie chaleureusement tous ceux que cette aventure a mis sur notre chemin. Toutes ces rencontres qui font aussi le sel d’un tel projet. À Framasoft, nous sommes fiers d’avoir pu le mener à son terme. Et malgré le labeur qui n’a pas manqué, ce fut un réel plaisir. Plaisir que nous espérons désormais partager avec le lecteur…

Cette histoire touche donc à sa fin, disais-je, mais, licence libre oblige, rien ne dit qu’il ne subisse pas à l’avenir d’autres métamorphoses. Ne serait-ce que parce que Richard est heureusement toujours parmi nous et qu’il lui reste encore certainement de belles pages à écrire dans le livre de sa vie.




Ne pas entrer à reculons dans la société et l’économie numériques

Tibchris - CC by« Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques. »

Telle est la conclusion de Gratuité et prix de l’immatériel, le nouvel article de Jean-Pierre Archambault que nous vous proposons aujourd’hui. Il n’apporte fondamentalement rien de plus que ce que tout lecteur du Framablog connaissait déjà. Mais l’agencement des faits, la pertinence des exemples et l’enchaînement des arguments en font une excellente synthèse en direction du grand public. Á lire et à faire lire donc[1].

Je ne résiste d’ailleurs pas à vous recopier d’emblée cette petite fiction que l’on trouvera dans le paragraphe en faveur de la licence globale, histoire de vous mettre l’eau à la bouche : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »

Gratuité et prix de l’immatériel

URL d’origine du document

Jean-Pierre Archambault – CNDP et CRDP de Paris – Chargé de mission Veille technologique et coordonnateur du Pôle de compétences logiciels libres du SCÉREN – Médialog n°72 – Décembre 2009

Internet bouleverse les modalités de mise à disposition des biens culturels et de connaissance. Dans l’économie numérique, le coût de production d’une unité supplémentaire d’un bien (musique, film, logiciel…) étant, pour ainsi dire, nul, que doit-on payer ?
La réflexion sur les logiciels libres, biens communs mis à la disposition de tous, peut contribuer à éclairer la question des relations complexes entre gratuité, juste prix et légitime rémunération des auteurs.

Le thème de la gratuité est omniprésent dans nombre de débats de l’économie et de la société numériques, qu’il s’agisse de morceaux de musique, de films téléchargés, ou de logiciels qui, on le sait, se rangent en deux grandes catégories : libres et propriétaires. Les débats s’éclairent les uns les autres, car ils portent sur des produits immatériels dont les logiques de mise à disposition ont beaucoup de points communs.

Concernant les logiciels, « libre » ne signifie pas gratuit. La méprise peut venir de la double signification de free en anglais : libre, gratuit. À moins que son origine ne réside dans le fait qu’en pratique il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Il peut s’agir également d’une forme d’hommage à la « vertu » des logiciels libres, et des standards ouverts. En effet, à l’inverse des standards propriétaires qui permettent de verrouiller un marché, ceux-ci jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Ils s’opposent aux situations de rentes et de quasi monopole. De diverses façons, les logiciels libres contribuent à la baisse des coûts pour les utilisateurs. Par exemple, l’offre gratuite, faite en 2008 par Microsoft, sur sa suite bureautique en direction des enseignants, mais pas de leurs élèves, est une conséquence directe de la place du libre en général, d’OpenOffice.org en particulier, dans le paysage informatique. Et, c’est bien connu, les logiciels libres sont significativement moins chers que leurs homologues propriétaires.

Gratuit car payé

Il peut arriver que la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, le problème étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Et l’on sait que dans l’économie des biens immatériels, contrairement à l’économie des biens matériels, les coûts fixes sont importants tandis que les coûts marginaux (coûts de production et diffusion d’un exemplaire supplémentaire) sont peu élevés. Dupliquer un cédérom de plus ou fabriquer un deuxième avion, ce n’est pas la même chose. Télécharger un fichier ne coûte rien (sauf l’accès au réseau).

Mais, même quand un logiciel n’est pas gratuit, il le devient lorsqu’il a été payé ! Enfin, quand il est sous licence libre. Qu’est-ce à dire ? Prenons le cas d’un client qui commande la réalisation d’un logiciel à une société et la lui paye intégralement, dans une relation de sous-traitance. Un travail a été fait et il est rémunéré. Si, en plus, le client a conservé ses droits de propriété sur le logiciel et décide de le mettre à disposition des autres sous une licence libre, le dit logiciel est alors librement et gratuitement accessible pour tout un chacun. Exit les licences par poste de travail. Bien commun, un logiciel libre est à la disposition de tous. À charge de revanche, mais c’est l’intérêt bien compris des uns et des autres de procéder ainsi, même s’il est vrai qu’il n’est pas toujours évident d’enclencher pareil cycle vertueux… Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Il en va pour l’informatique comme pour les autres sciences. Les mathématiques sont libres depuis vingt-cinq siècles. Le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations est bien lointain ! Les mathématiques sont donc libres, ce qui n’empêche pas enseignants, chercheurs et ingénieurs d’en vivre.

Argent public et mutualisation

Le libre a commencé ses déploiements dans les logiciels d’infrastructure (réseaux, systèmes d’exploitation). Dans l’Éducation nationale, la quasi totalité des logiciels d’infrastructure des systèmes d’information de l’administration centrale et des rectorats sont libres. Il n’en va pas (encore…) de même pour les logiciels métiers (notamment les logiciels pédagogiques), mais cette situation prévaut en général, que ce soit dans les entreprises, les administrations, les collectivités locales ou dans des filières d’activité économique donnée.

Dans L’économie du logiciel libre[2], François Elie, président de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales), nous dit que l’argent public ne doit servir à payer qu’une fois ! Comment ne pas être d’accord avec pareille assertion ? En effet, si des collectivités territoriales ont un besoin commun, il n’y a aucune raison pour qu’elles fassent la même commande au même éditeur, chacune de son côté dans une démarche solitaire, et payent ce qui a déjà été payé par les autres. François Elie propose la mutualisation par la demande.

L’Éducation nationale est certes une « grande maison » riche de sa diversité, il n’empêche qu’il existe des besoins fondamentalement communs d’un établissement scolaire à l’autre, par exemple en matière d’ENT (espaces numériques de travail). Pourquoi des collectivités territoriales partiraient-elles en ordre (inutilement trop) dispersé ? Alors, qu’ensemble, elles peuvent acheter du développement partagé ou produire elles-mêmes. Et, dans tous les cas, piloter et maîtriser les évolutions. Ce qui suppose d’avoir en interne la compétence pour faire, ou pour comprendre et « surveiller » ce que l’on fait faire, aux plans technique et juridique. Dans le système éducatif, les enseignants ont la compétence métier, en la circonstance la compétence pédagogique, sur laquelle fonder une mutualisation de la demande, la production par les intéressés eux-mêmes se faisant dans des partenariats avec des éditeurs publics (le réseau SCÉREN) et privés. L’association Sésamath en est l’illustration majeure mais elle n’est pas seule : il y a aussi AbulEdu, Ofset, les CRDP…[3].

L’argent public ne doit servir qu’une fois, ce qui signifie une forme de gratuité selon des modalités diverses. C’est possible notamment dans l’équation « argent public + mutualisation = logiciels libres ». Le libre a fait la preuve de son efficacité et de ses qualités comme réponse à la question de la production de ce bien immatériel particulier qu’est le logiciel. Rien d’étonnant à cela. La production des logiciels restant une production de connaissances, contrairement à d’autres domaines industriels, elle relève du paradigme de la recherche scientifique. L’approche du logiciel libre, à la fois mode de réalisation et modalité de propriété intellectuelle, est transférable pour une part à d’autres biens, comme les ressources pédagogiques. Le logiciel libre est également « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance.

Gratuité et rémunération

Revenons sur les coûts fixes et marginaux dans l’économie à l’ère du numérique. L’économie de l’information s’est longtemps limitée à une économie de ses moyens de diffusion, c’est-à-dire à une économie des médias. Elle ne peut désormais plus se confondre avec l’économie du support puisque les biens informationnels ne sont plus liés rigidement à un support donné. L’essentiel des dépenses était constitué par les coûts de production, de reproduction matérielle et de distribution dans les divers circuits de vente. Aujourd’hui, les techniques de traitement de l’information, la numérisation et la mise en réseau des ordinateurs permettent de réduire les coûts de duplication et de diffusion jusqu’à les rendre à peu près nuls. Dans ces conditions, la valeur économique de l’information ne peut plus se construire à partir de l’économie des vecteurs physiques servant à sa distribution. De nouvelles sources de valeur sont en train d’apparaître. Le modèle économique de mise en valeur de l’information déplace son centre de gravité des vecteurs physiques vers des services annexes ou joints dont elle induit la consommation ou qui permettent sa consommation dans de bonnes conditions (services d’adaptation d’un logiciel au contexte d’une entreprise, de facilitation de l’accès à des ressources numérisées, commerce induit sur des produits dérivés, etc.).

Le copyright, qui défend principalement l’éditeur contre des confrères indélicats, aussi bien que le droit d’auteur, qui défend principalement l’auteur contre son éditeur, ont ceci en commun qu’ils créent des droits de propriété sur un bien abstrait, l’information[4]. Tant que cette information est rigidement liée à un vecteur physique, c’est-à-dire tant que les coûts de reproduction sont suffisamment élevés pour ne pas être accessibles aux particuliers, ces droits de propriété peuvent être imposés aisément. Mais le monde bouge…

Les débats sur la loi Création et Internet dite « loi Hadopi » ont tourné autour de la gratuité et de la rémunération des auteurs (et des éditeurs !). Face aux difficultés de recouvrement du droit d’auteur dans l’économie numérique, certains pensent manifestement que la solution réside dans le retour au modèle classique de l’information rigidement liée à son support physique, ce que certaines techniques de marquage pourraient permettre, annulant ainsi les bienfaits économiques de la numérisation et de la mise en réseau. Mais le rapide abandon des DRM (Digital Rights Management ou Gestion des Droits Numériques en français) qui se sont révélés inapplicables (après le vote en 2006 de la transposition en France de la directive européenne DADVSI[5] ) aurait tendance à démontrer le caractère illusoire de ce genre d’approche. Beaucoup pensent qu’un sort identique arrivera aux dispositions contenues dans la « loi Hadopi », que ces façons (anciennes) de poser les problèmes (nouveaux) mènent à une impasse. Pour, entre autres, les mêmes raisons de non faisabilité : le droit se doit d’être applicable. On sait, par ailleurs, que le Conseil constitutionnel a, dans un premier temps censuré le volet sanction de la « loi Hadopi », considérant que le droit de se connecter à Internet relève de la liberté de communication et d’expression et que ce droit implique la liberté d’accès à Internet (seule une juridiction peut être habilitée à le suspendre). Il a estimé que le texte conduisait à instituer une présomption de culpabilité.

Dans le cas d’un transfert de fichier, nous avons déjà signalé que le coût marginal est nul. Que paye-t-on ? Une part des coûts fixes. Mais il arrive un moment où la réalisation du premier exemplaire est (bien) amortie. D’où ces situations de rentes dans lesquelles on paye un fichier téléchargé comme s’il était gravé sur un support physique qu’il aurait fallu fabriquer et acheminer. De plus, l’économie générale des productions (les best sellers et les autres titres) d’un éditeur évolue avec Internet. Dans son ouvrage La longue traîne, Chris Anderson[6] théorise le principe de la longue traîne dans lequel la loi des 20/80 (20% des produits font 80% du chiffre d’affaires) disparaît avec Internet qui, en réduisant les coûts de fabrication et de distribution, permet à tous les produits qui ne sont pas des best-sellers (qui constituent des longues traînes) de rapporter parfois jusqu’à 98% du chiffre d’affaires.

Une licence globale

Il y a donc des questions de fond. Quel est le prix des biens culturels dématérialisés ? Quels doivent être leurs modes de commercialisation ? Alain Bazot, président de l’UFC-Que choisir, les pose[7]. Rappelant qu’un support physique a un coût et qu’il est « rival »[8], que l’on peut multiplier les fichiers numériques d’une oeuvre pour un coût égal à zéro, il en tire la conclusion que « la dématérialisation, parce qu’elle permet un partage sans coût de la culture, parce qu’elle constitue un accès à l’information et à l’art pour tous, remet fondamentalement en cause les modèles économiques existants. Dès lors, il apparaît essentiel de proposer de nouvelles formes de rémunération pour allier les avantages d’Internet à une juste rétribution des artistes/créateurs ». Et comme « dans une économie de coûts fixes, distribuer un ou 10 000 MP3 ne fait pas varier le coût de production », il est plus pertinent « de faire payer l’accès et non pas la quantité. Ce mode de commercialisation, apparu avec la commercialisation de l’accès à internet (le forfait illimité), est le modèle consacré par l’économie numérique ».

Et, pour illustrer le propos, Alain Bazot s’appuie sur une fiction fort pertinente de Nicolas Curien : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »[9]

On retrouve donc la « licence globale », financée par tous les internautes ou sur la base du volontariat, mais également financée par les fournisseurs d’accès qui ont intérêt à avoir des contenus gratuits pour le développement de leurs services. En effet, comme le dit Olivier Bomsel[10], la gratuité est aussi un outil au service des entreprises, pour conquérir le plus rapidement possible une masse critique d’utilisateurs, les innovations numériques voyant leur utilité croître avec le nombre d’usagers, de par les effets de réseau.

Des créateurs ont déjà fait le choix du partage volontaire de leurs oeuvres numériques hors marché. Philippe Aigrain envisage une approche partielle (expérimentale dans un premier temps ?) dans laquelle les ayants droit qui « refuseraient l’inclusion de leurs oeuvres dans un dispositif de partage hors marché garderaient le droit d’en effectuer une gestion exclusive, y compris par des mesures techniques de protection ou par des dispositifs de marquage des oeuvres protégés contre le contournement ». Mais, « ils devraient cependant renoncer à imposer des dispositifs destinés à leurs modèles commerciaux dans l’ensemble de l’infrastructure des réseaux, appareils ou procédures et sanctions. »[11]

Enfin, s’il existe des modèles économiques diversifiés de l’immatériel, il ne faut pas oublier certains fondamentaux. C’est le reproche que Florent Latrive fait à Chris Anderson, « archétype du Californien hype », en référence à son livre paru récemment Free : « Dans son monde, les modèles économiques ne sont l’affaire que des seules entreprises. C’est un monde qui n’existe pas. Chris Anderson zappe largement le rôle de l’État et de la mutualisation fiscale dans sa démonstration. C’est pourtant fondamental : cela fait bien longtemps que l’importance sociale de certains biens, matériels ou immatériels, justifie l’impôt ou la redevance comme source de financement principale ou partielle. La santé gratuite en France n’implique pas le bénévolat des infirmières et des médecins. La gratuité de Radio France ne fait pas de ses journalistes des crève-la-faim »[12]. Effectivement, la santé et l’éducation représentent des coûts importants (des investissements en fait). La question posée n’est donc pas celle de leur gratuité mais celle de l’organisation de l’accès gratuit pour tous aux soins et à l’éducation. La réponse s’appelle sécurité sociale et école gratuite de la République financée par l’impôt.

Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques.

Notes

[1] Crédit photo : Tibchris (Creative Commons By-Sa)

[2] François Elie, L’économie du logiciel libre, Eyrolles 2009.

[3] Voir J-P. Archambault, « Favoriser l’essor du libre à l’École » , Médialog n°66 et J-P Archambault, « Un spectre hante le monde de l’édition », Médialog n°63.

[4] Concernant la rémunération des auteurs, rappelons qu’elle ne représente en moyenne que 10% du prix d’un produit.

[5] Droits d’auteur et droits voisins dans la société de l’information

[6] Chris Anderson, La longue traîne, 2ème édition, Pearson 2009.

[7] Alain Bazot, « La licence globale : il est temps d’entrer dans l’ère numérique ! », billet posté sur le blog Pour le cinéma – La plateforme des artistes en lutte contre la loi Hadopi

[8] Un bien rival (ou bien privé pur) est un bien pour lequel une unité consommée par un agent réduit d’autant la quantité disponible pour les autres agents.

[9] Nicolas Curien, « Droits d’auteur et Internet : Pourquoi la licence globale n’est pas le diable ? », Janvier 2006.

[10] Olivier Bomsel, Gratuit ! Du développement de l’économie numérique, Folio actuel, 2007.

[11] Philippe Aigrain Internet & création, InLibroVeritas, 2008.

[12] Le modèle économique est un choix éditorial




Le logiciel libre et le mythe de la méritocratie

Banoootah - CC byEn janvier 2008, Bruce Byfield écrivait, dans un article que nous avions traduit ici-même (Ce qui caractérise les utilisateurs de logiciels libres) : « La communauté du Libre peut se targuer d’être une méritocratie où le statut est le résultat d’accomplissements et de contributions ».

Deux ans plus tard, le même nous propose de sonder plus avant la véracité d’une telle assertion, qui ne va finalement peut-être pas de soi et relève parfois plus du mythe savamment auto-entretenu.

Et de poser en guise de conclusion quelques pertinentes questions qui si elles trouvaient réponse participeraient effectivement à combler l’écart constaté entre la théorie et la pratique.

Nos propres discours n’en auraient alors que plus de consistance et de maturité[1].

Les projets open source et le mythe de la méritocratie

Open Source Projects and the Meritocracy Myth

Bruce Byfield – 2 décembre 2009 – Datamation
(Traduction Framalang : Olivier et Cheval boiteux)

« Ce n’est pas une démocratie, c’est une méritocratie. »

On trouve cette déclaration sur la page de gouvernance d’Ubuntu, mais les notes de version de Fedora présentent quelque chose de similaire, tout comme la page Why Debian for developers et partout où l’essence des projets libres et open source (NdT : FOSS) est débattue.

La méritocratie est un mythe, une de ces histoires que la communauté des logiciels libres et open source aime se conter. Par mythe je n’entends pas mensonge, mais cette méritocratie est une histoire que les développeurs se racontent à eux-mêmes pour les aider à se forger une identité commune.

En d’autres termes, l’idée que les logiciels libres et open source sont une méritocratie est aussi vraie que de dire que les États-Unis sont une terre d’opportunité, ou que les scientifiques sont objectifs. Pour les membres de la communauté des logiciels libres et open source cette idée est primordiale dans leur perception du système et leur perception d’eux-même, car ils ont foi en cette idée que le travail est récompensé par la reconnaissance de leurs pairs et l’attribution de plus de responsabilités

Afin de perdurer, il faut que le mythe renferme une part de vérité, et ainsi personne ne le remet en question. Des exceptions peuvent survenir, mais elles seront justifiées, voire niées.

Cependant, si les mythes de la communauté ne sont pas des mensonges, ils ne révèlent pas toute la vérité non plus. Ils sont souvent des versions simplifiées de situations bien plus complexes.

La méritocratie dans les logiciels libres et open source n’échappe, à mon avis, pas à ce constat. Selon le contexte, si vous contribuez dans un bon projet et faites les choses biens, l’aspect méritocratique des logiciels libres et open source s’ouvrira à vous, c’est souvent le cas.

Mais de là à dire que les communautés ne fonctionnent qu’au mérite, il y a un pas que je ne franchirai pas. Le mérite n’est qu’un facteur à prendre, parmi tant d’autres, le mérite seul ne vous accordera ni reconnaissance, ni responsabilités. Bien d’autres considérations, souvent ignorées, entrent en jeu.

Hypothèses contestables

En invoquant l’argument du mérite on tourne rapidement en rond, c’est l’un des problèmes d’une méritocratie. Une hiérarchie est déjà établie, oui, mais comment ? Au mérite. S’ils n’avaient pas de mérite, ils n’auraient pas leur place.

Pas besoin de chercher bien loin pour voir que seul le mérite ne compte pas dans la hiérarchie des logiciels libres et open source. Les fondateurs du projet, en particulier, ont tendance à conserver leur influence, peu importe l’importance de leurs dernières contributions… si tant est qu’ils contribuent toujours au développement.

Par exemple, lorsque Ian Murdock fonda Progeny Linux Systems (entreprise pour laquelle j’ai travaillé) en 2000, il n’avait pas participé au projet Debian depuis quelques années. Et malgré cela, lorsque l’entreprise s’intéressa à Debian, son statut n’avait pas bougé. Tout portait à croire qu’il n’allait pas s’impliquer personnellement dans le projet et pourtant, s’il n’avait pas refusé la proposition, on lui aurait malgré tout attribué le titre de Debian Maintainer sans passer par le processus habituel.

Plus récemment, Mark Shuttleworth est devenu dictateur bienveillant à vie pour Ubuntu et Canonical, non pas à cause de ses contributions aux logiciels libres, mais parce qu’il disposait de l’énergie et de l’argent pour se propulser à ce rang. Sa position au sein d’Ubuntu ou de Canonical n’est pas remise en cause, mais toujours est-il qu’elle ne doit rien au mérite (au sens où l’entend la communauté), mais plutôt à son influence.

Et les leaders ne sont pas les seuls à gagner de l’influence pour des raisons autres que leur mérite. Dans les projets où certains contributeurs sont rémunérés et d’autres bénévoles, les contributeurs rémunérés ont presque toujours plus d’influence que les bénévoles. Dans certains cas, comme sur le projet OpenOffice.org, les contributeurs salariés peuvent presque entièrement éclipser les bénévoles.

D’autres projets, comme Fedora, repartissent l’influence plus équitablement, mais les contributeurs payés occupent souvent des postes à responsabilité. Par exemple, des dix membres du comité d’administration de Fedora, sept sont des salariés de Red Hat. Idem pour openSUSE où trois des cinq membres du comité sont des employés de Novell, le principal sponsor du projet, et un autre est consultant spécialisé dans les produits Novell. Et la situation est similaire dans bon nombre d’autres projets.

Alors oui, vous allez me dire que les membres payés ont plus de temps à accorder à ces responsabilités. C’est juste, mais ce n’est pas le sujet. Le fait est que les membres payés occupent statistiquement plus de postes à responsabilité que les bénévoles. Et c’est toute le postulat de départ qui est remis en cause, on constate alors que votre statut dans le projet n’est pas directement déterminé par votre mérite.

D’autres moyens de se faire remarquer

La méritocratie semble être le système parfait en théorie. Mais le fait est que la théorie est rarement mise en pratique. Avant de le reconnaître, encore faut-il déjà définir ce qu’est le mérite, la communauté des logiciels libres et open source ne fait pas exception.

Bâtie sur le code, la communauté des logiciels libres et open source valorise principalement la capacité à coder, bien que les plus gros projets soient beaucoup plus variés : tests, rédaction de la documentation, traduction, graphisme et support technique. De nombreux projets, comme Fedora et Drupal, évoluent et tentent de gommer cet a priori, mais cela demeure vrai pour la plupart des projets. Ainsi, les noms connus dans les projets ou les personnes qui font des présentations lors des conférences sont majoritairement des développeurs.

Cet a priori est cependant justifié. Après tout, sans le code, le projet de logiciel libre ou open source n’existerait pas. Et pourtant, le succès du projet dépend autant des autres contributions que du code lui-même.

Et comme le fait remarquer Kirrily Robert, blogueur chez Skud, même si certaines contributions sont moins estimées que d’autres, ça n’est pas une raison de les occulter complètement.

Par exemple, la personne la mieux placée pour écrire la documentation pourrait bien être le chef du projet, mais peut-être alors a-t-il mieux à faire que de rédiger la documentation. Il vaut peut-être mieux qu’une autre personne, même moins douée, rédige la documentation. Dans ce cas, celui qui écrit la documentation devrait être remercié, non seulement pour son travail, mais aussi parce qu’il libère l’emploi du temps du chef du projet. Et pourtant ceci est rarement reconnu dans les projets de logiciels libres ou open source.

L’idée que le mérite soit remarqué, reconnu et recompensé est rassurante dans notre culture industrielle moderne. J’aurai même tendance à penser que c’est encore plus rassurant dans le cercle des logiciels libres et open source, dont de nombreux membres admettent être introvertis, voire même se diagnostiquent eux-mêmes comme étant victime du syndrome d’Asperger.

Mais le mérite est-il toujours reconnu dans les logiciels libres et open source ? Voici ce que Noirin Shirley écrit à propos des obstacles à franchir par les femmes pour participer à cet univers :

Souvent, les valeurs reconnues dans une méritocratie deviennent rapidement le couple mérite/confiance en soi et obstination, dans le meilleur des cas. « Le travail bien fait ne vous apporte pas d’influence. Non, pour gagner de l’influence il faut faire du bon travail et bien s’en vanter, ou au minimum le rappeler à tout le monde régulièrement. » Les femmes échouent à cette étape là.

Shirley suggère ici qu’il faut non seulement être bon et régulier, mais il faut aussi savoir se rendre visible sur les forums, chats et listes de discussion, ainsi qu’aux conférences. Puisque les femmes sont apparemment conditionnées culturellement pour ne pas se mettre en avant, elles sont nombreuses à ne pas être à leur avantage dans un projet de logiciel libre ou open source (idem pour les hommes manquant de confiance en eux). Si elles ne peuvent ou ne souhaitent pas s’auto-promouvoir un minimum, leurs idées peuvent passer inaperçues, être sous-estimées ou carrément écartées.

À l’inverse, selon la même logique, certains gagnent en autorité plus parce qu’ils sont sociables ou opiniâtres que pour ce qu’ils réalisent concrètement (j’ai quelques exemples en tête, mais je ne veux pas faire d’attaque personnelle).

Tout comme la démagogie peut pervertir la démocratie, l’auto-promotion peut pervertir la méritocratie. Si un projet n’y prend pas garde, il se retrouvera bien vite à accepter des contributions, non pas sur la base de leur qualité, mais à cause de la visibilité et de l’insistance de celui qui les propose.

L’attraction sociale et comment s’y soustraire

Dans Le mythe de la méritocratie, Stephen J. McNamee et Robert K. Miller, Jr. avancent que la méritocratie aux États-Unis est influencée par ce qu’ils nomment l’attraction sociale. Ce sont des facteurs comme l’origine sociale ou l’éducation qui peuvent modifier positivement ou négativement la perception qu’ont les autres de nos contributions.

D’après moi, l’attraction sociale touche aussi la communauté des logiciels libres et open source, pas simplement parce qu’elle fait partie de notre société industrielle moderne, mais pour des facteurs qui lui sont propres. Reconnaître son existence n’est pas forcément facile, mais ça n’est pas pour autant une remise en cause de la méritocratie dans les logiciels libres et open source. L’importance du travail réalisé par les contributeurs n’en est pas non plus amoindrie.

Au contraire, reconnaître l’existence de l’attraction sociale peut être un premier pas pour améliorer la méritocratie dans le monde des logiciels libres et open source.

Kirrily Robert émet une idée intéressante. À l’instar des auditions anonymes où les musiciennes sont plus facilement choisies lorsque le sexe de la personne qui postule n’est pas connu, Robert propose que les soumissions soient également anonymes afin que leur évaluation ne soit pas biaisée. Si l’augmentation des contributions féminines lui tient à cœur, ces soumissions anonymes pourraient aussi garantir que seul le mérite entre en ligne de compte pour chaque contribution.

Mais ce n’est là qu’une proposition. Si vous voulez que la communauté des logiciels libres et open source devienne véritablement méritocratique, alors elle doit avoir le courage se poser quelques bonnes questions.

Pour commencer, par quel autre moyen peut-on réduire l’importance de l’auto-promotion ? Comment peut-on s’assurer que les employés et les bénévoles soient réellement au même niveau ? Peut-on redéfinir le mérite pour qu’il ne reflète pas uniquement ce qui est lié au code, mais au succès global du projet ?

Répondre à ces questions n’affaiblira pas le principe du mérite. Au contraire, ce principe de base de la communauté devrait en ressortir renforcé, et mieux utilisé. Et c’est, sans aucun doute, ce que souhaite tout supporter des logiciels libres et open source.

Notes

[1] Crédit photo : Banoootah (Creative Commons By)