1

Parution du livre «  Libres Savoirs : les biens communs de la connaissance »

Libres Savoirs - C&F EditionsS’il fallait rechercher une unité, une cohérence, voire une politique, à la ligne éditoriale du Framablog, on pourrait bien les trouver du côté de la notion de « biens communs ». C’est pourquoi la parution récente du livre « Libres Savoirs, les biens communs de la connaissance » nous semble un évènement important.

Coordonné par l’association Vecam, ce livre offre un panorama des biens communs de l’immatériel, depuis les usages numériques jusqu’aux savoirs et connaissances scientifiques ou traditionnelles. Cette approche par les communs permet d’interroger les modèles politiques et les activités des mouvements sociaux. Réunissant trente auteurs, venus de tous les continents, il constitue une référence sur la théorie des biens communs, embrassant tout le spectre de ces nouveaux communs de l’immatériel. Et soulevant des questions nouvelles pour le 21ème siècle.

Nous en avons reproduit ci-dessous le texte introductif qui annonce bien la couleur et la suite de l’ouvrage. On trouvera toute l’information sur ce livre sur le site de C&F éditions.

Remarque : Nous sommes fiers d’avoir participé, indirectement et modestement, au projet. En effet le livre contient le fort intéressant article Les biens communs ou le nouvel espoir politique du XXIe siècle ? traduit par nos soins (Framalang) à même ce blog.

Les biens communs, une utopie pragmatique

URL d’origine du document

Valérie Peugeot – mai 2011 – Libres Savoirs, les biens communs de la connaissance
Licence Creative Commons By-Nc

information, savoir et culture sont chaque jour un peu plus le cœur battant de nos sociétés. Éléments premiers d’une part croissante de notre activité économique, ils contribuent à façonner nos manières de faire société. Nos apprentissages et nos modes cognitifs, notre engagement dans le travail rémunéré tout comme notre autonomie par rapport à ses institutions, nos relations aux autres, nos pudeurs et nos exhibitions, notre espace-temps, nos attentions et inattentions, l’accord de notre confiance et la construction de nos choix, nos déplacements, notre connaissance de soi, nos rapports aux objets, notre distance ou notre attachement à l’égard de la res publica… autant de champs bousculés, voire transformés par cette ébullition créative que l’on appelle société de la connaissance.

Si l’on admet que la connaissance et son vecteur, l’information, sont à l’ère informationnelle ce que l’énergie, les matières premières et la force de travail furent aux sociétés agricole et industrielle, alors les conditions de leur circulation, appropriation et partage deviennent cruciales. La période dans laquelle a émergé la société de l’information – années 1980-2000 – a coïncidé avec une époque de radicalité de la pensée économique libérale dans les pays occidentaux. Simple coïncidence ou facteur déterminant ? Sans rentrer dans ce débat, on observe aujourd’hui que les régimes juridiques qui régissent les conditions de propriété et de redistribution des ressources informationnelles et des connaissances sont totalement imprégnés de cette philosophie. Les logiques de marché y règnent en maître, et les régulations nationales et internationales poussent inlassablement dans le même sens, celui du renforcement des droits de propriété sur l’immatériel, au détriment de tout autre modèle plus équitable. La durée du droit d’auteur est périodiquement rallongée ; les brevets couvrent maintenant des domaines auparavant exempts de toutes formes de propriété, comme le vivant, les découvertes ou les mathématiques ; le domaine public devient un espace de déshérence et non de valorisation des œuvres de l’esprit; les exceptions aux droits de propriété prévues pour les enjeux de santé publique sont contournés par des traités bilatéraux ; des dispositifs techniques viennent verrouiller la circulation des créations ; les savoirs collectifs ancestraux sont confisqués par des acteurs privés… Dans un même temps, les conditions du renouvellement de ces ressources cognitives – l’enseignement, la formation devenue indispensable tout au long de la vie – sont renvoyées à des acteurs publics dont les moyens et l’autonomie ne cessent de baisser.

La connaissance ne peut être assimilée à du pétrole ou de l’acier. L’accaparement du savoir nourrit bien entendu un système inégalitaire, tout comme celui des terres ou des matières premières ; lorsque des entreprises de l’industrie informationnelles dégagent des bénéfices nets de plus de 15 % et nourrissent une finance internationale débridée, cela se fait bien entendu au détriment des populations exclues de cette redistribution. Mais la concentration des biens informationnels et cognitifs et les limites à leur circulation ont d’autres effets tout aussi fondamentaux : ils contribuent à long terme à un assèchement de la créativité et de la diversité culturelle en concentrant les investissements dans les mains de quelques acteurs homogènes ; ils dépouillent des populations de leurs savoirs historiques et ce faisant privent des communautés de leurs propres ressources, notamment en matière agricole ; ils privent des malades de l’accès aux soins au nom de la rentabilisation de l’invention… Culture, santé, survie alimentaire tout autant que justice sociale sont donc en jeu.

Face à cette logique, d’autres manières de penser la mise à disposition de la connaissance, l’accès au savoir et la rémunération des créateurs ont vu le jour. Dans le monde paysan, dans celui de la défense des malades, dans l’univers du logiciel, de la recherche scientifique ou de la création artistique, chez les peuples autochtones, dans le design numérique…, les communautés se sont multipliées pour affirmer et expérimenter la possibilité de placer des savoirs en régime de biens communs. Ces biens communs sont pensés tout à la fois comme un statut alternatif à la privatisation du savoir et comme un mode de gouvernance par une communauté dédiée. Accès aux savoirs, biens communs de la connaissance, deux facettes d’une même question, la première mettant l’accent sur l’obstacle à lever, la seconde sur les réponses apportées.

Éparses dans un premier temps, ces initiatives émanant de communautés spécifiques ont commencé depuis une demi-décennie à se décloisonner, à s’articuler. Ce livre, en rassemblant des auteurs relevant de ces différentes communautés, voudrait marquer ce temps très particulier où des acteurs souvent marginaux, en résistance, se rassemblent et prennent conscience qu’ils participent d’un même horizon de sens et construisent des alternatives à part entière.

Si ce temps est aujourd’hui possible, nous le devons à une série de facteurs.

En premier lieu, les communautés de biens communs du numérique qui ont vu le jour entre le début des années 80 et les années 2000 (depuis le logiciel libre jusqu’aux Creative Commons et aux revues scientifiques ouvertes en passant par les archives en accès libre…) ont montré leur robustesse et leur pertinence, gagnant toujours plus d’utilisateurs et/ou de contributeurs. Toutes n’occupent pas une place essentielle dans leur secteur (la recherche, la culture, l’éducation…). Mais leur appropriation et leur pertinence a minima questionnent les modèles économiques existants, à l’image des journaux scientifiques marchands qui se voient contraints, du fait de l’existence des revues en accès libre, de proposer un modèle de diffusion ouvert à côté du modèle traditionnel. Les actions de ces communautés interpellent les institutions les plus arc-boutées sur le renforcement des droits de propriété intellectuelle, et diffusent une culture de l’alternative dans la société, à l’image des mouvements de partage et de création construisant une « free culture ».

Autre virage essentiel, nous assistons ces dernières années à un rapprochement théorique entre les communautés de biens communs liées à des ressources naturelles et celles dédiées à des connaissances numérisables. Nous le devons notamment à la double impulsion d’Elinor Ostrom et de Charlotte Hess, marquée par la publication en 2007 de leur livre fondateur Understanding knowledge as a commons. Même si des différences substantielles existent entre ressources naturelles et connaissances, notamment leurs propriétés économiques, cette confrontation/collaboration théorique est absolument essentielle, ne serait-ce que parce qu’elle permet de réinscrire les communs de l’immatériel dans une histoire qui leur donne un surcroît de légitimité.

Enfin, l’apparition de nouvelles communautés autour du « open hardware » jette de façon très concrète un pont entre matériel et immatériel: en concevant et fabricant des objets mécaniques ou électroniques dont les modèles de conception sont rendus publics et réutilisables, de telle manière que n’importe qui peut décider de les fabriquer, les distribuer et les utiliser, ces acteurs de la production coopérative (P2P production) s’inspirent du logiciel libre pour en appliquer les règles au monde du tangible.

Articulation des mouvements engagés dans la défense de l’accès au savoir, décloisonnement intellectuel et opérationnel des biens communs de la connaissance et de ressources naturelles, montée en puissance des démarches et des produits ou services qui relèvent de cette dynamique : ces convergences donnent toute leur actualité et leur pertinence aux perspectives ouvertes par les communs.

Le dépassement du dualisme réducteur État/marché qui structure la pensée politique depuis plus d’un siècle et demi constitue l’une de ces perspectives et non la moindre. Alors que partis politiques, syndicats, mouvements militants se situent historiquement sur une ligne partant du tout État pour aboutir au tout marché en passant par tous les métissages possibles, les communs nous enseignent qu’il existe, non pas une troisième voie, mais une autre manière de penser et de faire en politique comme en économie ; une approche qui ne se situe ni contre le marché ni contre l’État mais à côté et s’articule avec ces deux pôles parfois de façon très poreuse. Lorsque l’État du Kérala en Inde édicte une législation pour accompagner les communautés (médecine ayurvédique, plantes médicinales villageoises) dans la protection de leurs savoirs traditionnels, gérés historiquement sous forme de communs, il évite de les placer dans un domaine public, où chacun, et donc prioritairement les mieux dotés, pourrait puiser sans retombées envers les communautés dépositaires. Il y a là articulation positive entre les communs et l’État. Lorsqu’un site web comme Flickr, propriété de Yahoo! laisse le choix à ses utilisateurs de placer leurs photos en droit d’auteur classique ou en contrat Creative Commons et ouvre un espace dédié aux œuvres du domaine public, nous sommes là aussi dans une coopération positive, cette fois-ci entre marché et communs. Cette mise en lumière d’une complémentarité remplaçant la concurrence entre les trois formes de régulation que sont le marché, l’État et les communs s’explique aussi par le pragmatisme de ces derniers. Les défenseurs des communs ne cherchent pas à construire une narration globale mais répondent à des besoins très concrets, souvent très locaux quand il s’agit de communs matériels, auxquels des communautés doivent faire face : assurer l’entretien d’une forêt, transmettre un savoir médicinal, trouver une ressource éducative librement accessible adaptée à un enseignement, créer des objets qui puissent être conçus et produits localement, renouveler la biodiversité cultivée par l’échange des semences… C’est souvent pour résoudre des objectifs personnels que des développeurs créent des logiciels libres, et c’est parce qu’ils souhaitent accéder aisément aux publications des autres que des chercheurs placent leurs résultats en accès libre. C’est l’agglutination progressive de ces expériences de gouvernance « en communs » qui fait promesse et non une idéologie in abstracto dont nul ne sait ni comment ni quand elle adviendra, ni ne peut deviner à l’avance les effets secondaires, dont on sait qu’ils peuvent être catastrophiques.

Ce processus d’agglutination est d’ailleurs l’un des enjeux majeurs auxquels doivent faire face les communs : comment les différentes expériences peuvent-elles se féconder au-delà d’une reconnaissance mutuelle ? Là encore, la dialectique entre les communs matériels et ceux de la connaissance constitue une expérience sociale enrichissante. Mais d’autres questions doivent être affrontées. Celle du passage à l’échelle n’est pas la moindre. Les communautés gérant des biens communs de ressources naturelles sont pour l’essentiel ancrées à l’échelle locale. Les communs sont-ils en capacité d’apporter des réponses à des enjeux planétaires comme la question climatique ? Ou de gérer des biens globaux comme les océans ou le spectre électromagnétique ?

La réaction du marché à la diffusion des biens communs, notamment numériques, peut également considérablement changer la donne. Car si les communs ne se construisent pas contre le marché, ce dernier peut néanmoins les percevoir comme une menace. Cette réaction défensive est particulièrement outrancière dans le champ des œuvres culturelles, où on a cherché à disqualifier les communs et les logiques de partage en les assimilant à du vol. Heureusement, dans d’autres secteurs industriels, la réaction n’est pas toujours aussi radicale, certains acteurs du marché ayant bien compris que le renouvellement de l’innovation passe par des modèles plus ouverts que ceux de la R&D traditionnelle. Ainsi voit-on se multiplier des projets de « recherche ouverte » rassemblant des acteurs hétérogènes – entreprises, collectivités locales, ONG… – et imaginant d’autres conditions de circulation des fruits de l’innovation.

Autre complexité pour les acteurs des communs, celle de l’appropriation de la démarche par des acteurs civiques et sociaux issus de la société pré-informationnelle. La philosophie des communs essaime relativement facilement dans le monde du numérique, en raison des qualités intrinsèques de l’immatériel. Les biens numériques sont dotés de propriétés qui précédemment n’appartenaient qu’aux biens publics : non excluabilité et non rivalité, reproduction illimitée pour un coût marginal proche de zéro. Cette situation ouvre par nature une brèche dans la pensée économique et politique et invite au renouvellement des théories. Plaquer des modèles historiques sur l’immatériel ne fonctionne tout bonnement pas. En revanche, pour les syndicats, les mouvements paysans ou les ONG qui œuvrent dans des secteurs économiques traditionnels, les alternatives proposées par les communs sont moins évidentes. Surtout dans la période que nous vivons, quand cohabitent une grille de lecture des rapports de production et des rapports sociaux venant de l’époque à prédominance industrielle, et l’analyse de la nouvelle situation du travail immatériel et de sa place dans l’économie en général. Cette nouvelle étape dans le décloisonnement est désormais essentielle.

Aujourd’hui les acteurs impliqués dans les différentes communautés de biens communs n’ont pas de prétention à être « le » mouvement mais à poursuivre des chemins originaux tout en intensifiant les échanges théoriques et pragmatiques tirés de leurs expériences, de leurs succès comme de leurs échecs, avec un cercle toujours plus large.

C’est à cette dynamique que cet ouvrage entend, modestement, contribuer. Ce sont les mouvements existant autour du partage de la connaissance, de son renouvellement collectif, évitant l’accaparement par quelques monopoles de l’ère informationnelle qui sont aujourd’hui porteurs de ce nouveau questionnement. En essayant de suivre les expériences de construction des communs menées dans les deux dernières décennies, dans leur diversité, comme dans leurs nombreuses similarités, nous voulons offrir au lecteur un éventail aussi large que possible des utopies pragmatiques et des mouvements concrets qui existent autour des communs de la connaissance. En espérant ainsi contribuer au nécessaire renouvellement de la pensée transformatrice dont le monde a tant besoin.




Nouveau Framabook : Un monde sans copyright… et sans monopole

Framabook - Un monde sans copyrightOn fait souvent, et à juste titre, le procès du droit d’auteur à l’ère de l’avènement du numérique. Une manière de résoudre le problème est alors de l’assouplir, en garantissant certains droits ou certaines libertés aux utilisateurs. Et cela donne par exemple la licence GNU/GPL pour les logiciels libres et les licences Creative Commons pour les œuvres culturelles.

Oui, mais allons encore plus loin et imaginons qu’il n’y ait plus du tout de droits d’auteur !

Tel est le sujet (et le débat) de notre dernier framabook « Un monde sans copyright… et sans monopole » Vous le trouverez en pdf et source sur notre site dédié, en lecture en ligne grâce à la Poule ou l’Œuf, et disponible à l’achat sur notre boutique EnVenteLibre.org au prix de 10 €.

Le droit d’auteur est-il un système archaïque ?

Dans cet ouvrage audacieux et polémique, les néerlandais Joost Smiers (professeur de science politique à l’École Supérieure des Arts d’Utrecht) et Marieke van Schijndel (directrice du Musée Catharijne Couvent à Utrecht) répondent par l’affirmative et élaborent un dossier à charge contre le droit d’auteur et les mécanismes économiques qui en découlent.

En formulant l’hypothèse qu’un monde sans copyright (le droit d’auteur et autre droit de propriété intellectuelle) est possible, les auteurs explorent méthodiquement les secteurs où le protectionnisme et les conglomérats culturels créent une distorsion du marché au détriment des artistes, de la création et de la diversité culturelle. Imaginez un terrain de jeu équitable où les artistes pourraient vivre de leur art et où la créativité et les connaissances pourraient intégrer (à nouveau ?) le domaine public pour être partagées… librement.

Nous en avons reproduit la préface et nos commentaires ci-dessous.

Le livre est sous licence Creative Commons Zero 1.0, également traduite pas nos soins, et se retrouve être particulièrement adaptée à la thèse de l’ouvrage.

Préface

Joost Smiers et Marieke van Schijndel – Amsterdam / Utrecht, janvier 2011

Si les systèmes de droits d’auteur et de copyright n’existaient pas, faudrait-il aujourd’hui les inventer ? Probablement pas : ils sont difficiles à maintenir, ont une tendance protectionniste et privilégient essentiellement les grandes stars. Ils suscitent des investissements massifs dans des productions qui dominent le paysage culturel, et, finalement, sont contraires à la démocratie.

Pourquoi cela ? Le droit de propriété intellectuelle nous interdit de modifier la création proposée par l’artiste – c’est-à-dire d’entamer un certain dialogue avec l’œuvre –, et nous condamne au statut de consommateur passif face à l’avalanche des expressions culturelles. Le droit d’auteur est un système archaïque.

Il est difficile de remettre en question la situation actuelle des marchés culturels, complètement dominés par de – trop – grandes entreprises. Certes, il s’agit d’un héritage du néolibéralisme, mais le prix que nous avons encore récemment payé pour les maux causés par cette idéologie confirme, à l’évidence, que nous devons la dépasser.

Nous devons nous sentir libres de nous demander s’il est juste que seuls quelques propriétaires de moyens de production, de distribution et de réception des expressions culturelles influencent et contrôlent substantiellement ce que nous voyons, entendons et lisons. Pour ce qui nous concerne, cela est inacceptable et contraire à l’idée démocratique de la multiplication des sources de créativité cinématographique, musicale, visuelle et théâtrale… en opposition avec les germes de notre imagination, ainsi qu’avec nos rêves, nos plaisirs, nos moments de tristesse, nos désirs érotiques, et tous les débats qui concernent notre vie. Nous devrions pouvoir choisir librement entre toutes les sources et expressions culturelles différentes.

L’objectif de notre ouvrage est d’aller vers un monde sans copyright …. et sans monopole, de construire des marchés culturels plus justes pour la plupart des artistes, et de donner un plus large choix aux citoyens en faveur de notre communication culturelle.

Quelques commentaires

Christophe Masutti, coordinateur de la collection Framabook – Benjamin Jean, administrateur de Framasoft et président de la SARD

Au travers des Framabooks et de multiples autres projets, Framasoft ne promeut pas seulement le logiciel libre, mais œuvre plus généralement pour l’avancement de la culture libre. Un mouvement qui étend les principes fondateurs du logiciel libre à tous les aspects de la création et de la culture, un partage organisé favorisé par le monde numérique dans lequel nous évoluons aujourd’hui.

À notre niveau, nous nous inscrivons ainsi dans une réflexion nouvelle sur les rapports entre la création et l’économie, suivant en cela le chemin ouvert par d’illustres penseurs avant nous. Le juriste Lawrence Lessig, par exemple, laissera sans nul doute une empreinte dans l’histoire pour avoir théorisé et généralisé la nouvelle conception du droit d’auteur amorcé par l’informaticien Richard Stallman[1], et joué un rôle déterminant dans le succès du « mouvement Creative Commons »[2]. En France, nous pouvons citer de même Philippe Aigrain et son regard éclairé sur la liberté des échanges, une liberté sublimée par Internet et qui conditionne la créativité, ou encore Antoine Moreau, artiste, chercheur et initiateur du mouvement Copyleft Attitude, qui avait compris en précurseur l’intérêt d’étendre le copyleft à toutes les sphères de la création. Plus récemment, de nombreux auteurs et artistes ont proposé de réelles alternatives (réfléchies et réalistes) au monde de la privation – considérée contraire à la créativité – dont l’HADOPI en France représente un archétype frappant[3].

Dans ce registre, la collection Framabook s’enrichit présentement d’un essai pour le moins audacieux et polémique. Le livre de Joost Smiers et Marieke van Schijndel s’inscrit en effet dans cette tradition des essais engagés, qui n’hésitent pas à remettre en cause les paradigmes les plus ancrés, pour nous exposer les méfaits du droit d’auteur et des mécanismes économiques qui en découlent. Dans le même temps, nos deux auteurs s’inscrivent dans une autre tradition, cette fois beaucoup plus ancienne, initiée par le philosophe Thomas More et sa description de l’île-république d’Utopia, porte ouverte à la modernité européenne, invitation à l’action et au changement social. Ainsi, non satisfait de remettre en question, ils proposent un réel système de substitution qui illustre et rend tangible leur proposition – bien loin de l’acception péjorative et anticréatrice qu’a le mot utopie aujourd’hui, serait-ce un signe des temps ?

À les écouter, cependant, Smiers et van Schijndel ne proposent pas exactement une utopie, mais un remède concret aux maux des artistes – précarité et instrumentalisation sont les qualificatifs qu’ils utilisent bien souvent – et de leur public – qui, tel un consommateur, ne dispose que d’un choix d’artistes limité et n’a pas son mot à dire. Ils s’arment ainsi d’audace et imaginent une rupture pleinement assumée avec le modèle actuel afin de faire table rase (abolition des lois relatives au droit d’auteur, mais aussi suppression des « conglomérats culturels » qui pervertissent le système par leur présence) et laisser la place à une nouvelle économie culturelle. Néanmoins, à la radicalité de la suppression (autoritaire) du copyright et des monopoles répond une analyse fine et détaillée des bases sur lesquelles une économie de la création égalitaire et rétributive pourrait se construire de manière durable.

Qu’elles convainquent ou non, ces réflexions méritent indubitablement d’être largement partagées. Le caractère incitatif du droit d’auteur (et autre droit de propriété intellectuelle) se voit mis à mal dans notre société où l’auteur ne peut vivre de son art tandis que celui qui exploite ses droits en tire un monopole grâce auquel il domine le marché. La doctrine juridique elle-même est réservée quant à l’évolution actuelle des différents droits de propriété intellectuelle et, même si elle reste généralement protectrice des auteurs et de leur propriété (bien qu’il soit précisé que cette dernière ne doive pas nécessairement être aussi absolue que celle du Code civil), elle devient très critique à l’encontre des exploitants, de leurs monopoles et lobbing[4]… précisant, s’il le fallait, qu’ « à tout vouloir protéger, on passe d’une logique de l’innovation à une logique de la rente »[5].

Nous sommes donc dans une période assez propice à la réflexion, voire à la contestation, et ce n’est pas une surprise si de nouveaux modèles incitatifs sont proposés afin de remplacer ou rééquilibrer le système actuel – telle la SARD[6] qui a pour objet de favoriser le libre accès à la culture, grâce à un système de financement par le don (modèle économique très en vogue sur Internet[7]).

Enfin, la question de la licence de cet ouvrage illustre parfaitement le décalage entre le droit positif et le système imaginé par les auteurs. Selon ces derniers, les licences libres et open source sont davantage focalisées sur les œuvres à partager que sur la réalité économique et sociale à laquelle se confrontent les artistes. Elles participeraient ainsi à la constitution d’une classe souvent dévalorisée et parfois démunie. Néanmoins, publier cet ouvrage sans mention de licence aurait eu pour conséquence d’empêcher sa diffusion, ce qui nous a conduit à proposer l’utilisation de la licence CC-Zero[8] – un beau clin d’œil puisque cette licence reconnaît les droits avant d’organiser leur abandon…

Pour toutes les raisons évoquées ci-dessus, Imagine there is no copyright… fut choisi pour une traduction collective lors des Rencontres Mondiales du Logiciel Libre tenues à Bordeaux en juillet 2010. Initié par l’équipe Framalang, ce « Traducthon » fut un essai réussi. Même si le résultat ne pouvait évidemment pas être publié tel quel sans quelques mesures éditoriales, on peut souligner la force avec laquelle il démontra qu’un projet collaboratif, sur une période très courte d’une semaine intensive, permet de produire un résultat de premier ordre en conjuguant les compétences et les motivations. Forts de cette nouvelle expérience, ne doutons pas que les prochains « Traducthons » contribueront eux aussi au partage des connaissances en produisant de nouveaux Framabooks.

Nous tenons à remercier ici Joost Smiers et Marieke van Schijndel pour leur disponibilité et leur écoute, ainsi que toute l’équipe Framalang, les relecteurs de l’équipe Framabook, la Poule ou l’Œuf et In Libro Veritas, toutes les personnes ayant contribué à ce projet et sans qui le partage ne serait qu’un vain mot.

-> La suite sur Framabook…

Notes

[1] Stallman, Williams et Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, 2010.

[2] Lessig, The Future of Ideas. The Fate of the Commons in a Connected World, 2002.

[3] À ce sujet, voir notamment : Nestel, Pasquini and collectif d’auteurs, La Bataille Hadopi, 2009.

[4] Gaudrat, Les modèles d’exploitation du droit d’auteur, 2009.

[5] Vivant, L’irrésistible ascension des propriétés intellectuelles ?, 1998, p. 441.

[6] La Société d’Acceptation et Répartition des Dons, fondée en 2009 (sard-info.org).

[7] Ce modèle se généralise avec des initiatives comme Yooook, Flattr, Ullule, Kachingle ou « J’aime l’info » (ce dernier étant dédié à la presse en ligne).

[8] Elle aussi traduite pour les besoins du livre (voir un article du Framablog à ce propos).




Nouveau Framabook : La BD Geektionnerd Rencontre du troisième type

GKND - Simon Gee Giraudot - CouvertureQue se passe-t-il lorsque l’on a une vie d’étudiant geek bien tranquille et que tout d’un coup une… fille débarque dans le club info ?

Une fille pas comme les autres, et pas seulement parce qu’elle est absente de Facebook « pour ne pas confier sa vie privée à des entreprises sans scrupules ».

Vous le saurez en achetant et/ou parcourant notre nouveau framabook « GKND tome 1 : Rencontre du troisième type », deuxième BD après les Geekscottes de Nojhan,

Vous y retrouverez un style et un humour familier puisque son auteur n’est autre que Simon « Gee » Giraudot, qui sévit depuis un certain déjà sur le Framablog tous les vendredis. Mais cette fois-ci c’est une histoire complète qu’il nous propose. Une histoire qui nous a tant et si bien plue qu’on a décidé qu’il méritait ô combien de venir s’ajouter à notre petite collection (qui avec le temps commence à ressembler à quelque chose soit dit en passant).

L’auteur précise : « J’ai commencé une histoire qui débutait par une journée type du personnage du Geek, sans trop savoir ce que j’allais en faire. Finalement, après avoir développé une intrigue, je me suis dit que cela pouvait faire une BD longue sympa, en gardant à l’esprit la formule un dessin = un gag (ou plus). Ainsi, la forme est assez spéciale, il n’y a que 3 cases par pages (ce qui est très peu par rapport à une BD classique) avec beaucoup de texte, et notamment un texte narratif qui suit les pensées du Geek à la première personne. »

Nous espérons que vous prendrez autant de plaisir que nous à sa lecture…

Une chouette idée de cadeau aussi, quel que soit le degré de geekitude de son destinataire. Le livre est disponible sur notre boutique EnVenteLibre au prix de 12 euros.

-> Découvrir Geektionnerd T.1 : Rencontre du troisième type sur le site Framabook.

GKND - Simon Gee Giraudot - Extrait

PS1 : Nous avons bien de la chance puisqu’il ne s’agit que d’un tome 1, le tome 2 est déjà là et fera lui aussi l’objet d’une publication.

PS2 : Simon sera présent aux RMLL de Strasbourg pour une séance de dédicaces sur le stand Framasoft.




6 questions à Karl Fogel, auteur de Produire du logiciel libre

Karl FogelÀ l’occasion de la sortie du framabook Produire du logiciel libre (dont notre secret espoir est qu’il suscite des vocations chez les jeunes et les moins jeunes), nous avons posé quelques questions à son auteur Karl Fogel.

Est-ce que la situation a évolué depuis la première version du livre, en particulier avec les nouvelles forges comme GitHub (qui repose entre autres la question du fork) ? Est-ce un problème d’héberger des logiciels libres sur des plateformes propriétaires ? Est-ce que l’informatique devrait être enseignée en tant que telle aujourd’hui à l’école ?

Autant de questions auxquelles il apporte de très intéressantes réponses.

Entretien avec Karl Fogel

L’interview en version originale anglaise sur le blog de Karl (intéressants commentaires inside)

(Traduction Framalang : Don Rico pour les questions et Olivier Rosseler pour les réponses)

La version française de POSS vient tout juste d’être publié et votre livre a été traduit, ou est en cours de traduction, dans d’autres langues. Que pensez-vous de ces adaptations de votre œuvre, rendues possibles par le choix de le placer sous licence libre ?

Je suis absolument ravi. Je n’y vois vraiment aucun inconvénient. Les traductions permettent une diffusion plus large du livre, et c’est exactement ce que je souhaite.

Je suis extrêmement reconnaissant envers les traducteurs.

Si vous deviez écrire une deuxième version de POSS aujourd’hui, qu’est-ce que vous changeriez ou ajouteriez ? Et d’ailleurs, est-ce qu’une deuxième version est prévue ?

Et bien, en fait, j’y apporte toujours des petites modifications, à mesure que les pratiques de l’open source évoluent. La version en ligne change constamment. On pourra peut-être la nommer officiellement « Version 2.0 » à un moment donné, mais au fond, c’est vraiment un processus continu.

Par exemple, il y a cinq ou six ans, presque tous les projets avaient leur propre infrastructure de développement. Chacun avait son serveur, son système de contrôle de versions, son système de suivi de bogues, un responsable de la liste de diffusion, un wiki peut-être, c’étaient les outils de développement.

Mais depuis, on a assisté à des regroupements. De nos jours, seuls les très gros et les très petits projets possèdent leur propre infrastructure. La majorité des projets choisissent des sites pré-conçus, comme GitHub, Google Code Hosting, SourceForce, Launchpad, etc. La plupart des développeurs open source se sont familiarisés avec ces environnements.

Et par conséquent, j’ai mis à jour la partie du livre traitant des infrastructures d’hébergement, pour enrichir la section « Les sites Web » et parler des sites comme ceux mentionnés ci-dessus, plutôt que de ré-inventer la roue à chaque projet. Les gens se rendent bien compte qu’administrer son propre hébergement requiert énormément de ressources, malgré les avantages que l’on peut en tirer, et que donc, externaliser cette tache est devenu presque une obligation si on veut avoir un peu de temps pour effectivement travailler sur le projet.

J’ai également mis le livre a jour pour parler des nouvelles versions des licences open source (comme la GNU General Public License 3, qui est sortie après que le livre ait été publié), et j’ai également revu mes recommandations vis à vis de certains logiciels, car les temps changent. Par exemple, Git est de bien meilleure qualité aujourd’hui qu’à l’époque où j’ai rédigé la toute première édition.

La manière de produire des logiciels libres n’a pas tellement changée en cinq ans. Mais de nouvelles forges sont apparues, sur un modèle un peu différent de SourceForge. Je pense à Google Code mais surtout à GitHub. GitHub serait un peu le « Facebook des forges open source », avec ses fonctions de réseau social, son édition à même le navigateur… Son slogan est « Fork me on GitHub ». La notion de fork semble ne plus être tout à fait la même qu’avant. Que pensez-vous de tout cela ?

En fait, je pense que la notion de fork n’a pas changé. La terminologie, peut-être, mais pas le concept.

Si je me penche sur les dynamiques des rouages des projets open source, je ne vois pas de differences fondamentales selon que le projet utilise une forge ou l’autre. GitHub propose un produit fantastique, mais ils ont aussi un marketing fantastique. Ils encouragent les projets à inviter leurs utilisateurs à « créer une fork sur GitHub », c’est à dire « créer une copie pour jouer un peu avec ».

Et même si en un sens la copie d’un projet hébergé sur Git peut techniquement s’appeler un « fork », en pratique ça n’en est pas un. Le concept de fork est avant tout politique, pas technique.

À l’origine, initier un fork signifiait élever la voix pour dire : « nous pensons que le projet ne prend pas la bonne direction, nous avons pris la décision d’en faire une copie pour le poursuivre dans la bonne direction, que tout ceux qui partagent ce point de vue se joignent à nous ». Et les deux projets se retrouvaient alors publiquement en concurrence, à l’attention des développeurs et des utilisateurs, parfois aussi pour des questions d’argent. Parfois l’un des deux l’emporte, parfois ils fusionnent pour ne former à nouveau qu’un seul projet. Mais quelle qu’en soit l’issue, c’est avant tout un processus politique : susciter des adhésions pour continuer ensemble le projet.

Cette dynamique est toujours d’actualité, elle se poursuit tous les jours. Qu’on parle de « fork » pour designer quelque chose de différent, pourquoi pas, mais ça ne change pas la réalité, on utilise juste un terme différent pour décrire la réalité.

GitHub a commencé à parler de « fork » pour dire « créer une copie à bidouiller ». Maintenant, c’est vrai qu’avec ce genre de copie il est facile de s’éloigner du projet originel pour re-fusionner plus tard, c’est l’une des caractéristiques de Git et de tous les systèmes de contrôle de version décentralisé. Et c’est vrai que s’éloigner pour re-fusionner est plus compliqué avec les systèmes de contrôle de version centralisé comme Subversion et CVS. Mais tous ces « forks » créés sur Git ne sont pas des forks au sens premier du terme. En général, lorsqu’un développeur se fait une copie sur Git et la modifie, c’est en espérant que ses changements seront fusionnés dans la copie « maîtresse ». Et quand je dis « maîtresse », ce n’est pas au sens technique, mais bien au sens politique : la copie maîtresse est celle que la plupart des utilisateurs suivent.

Je trouve que ces fonctionnalités de Git et de GitHub sont géniales, et j’aime bien les utiliser, mais il n’y a rien de révolutionnaire ici. Il y a peut-être une évolution de la terminologie, mais la vraie dynamique des projets open source ne varie pas : les développeurs fournissent de gros efforts pour que leurs modifications soient intégrées a la distribution principale, car ils ne veulent pas s’embarrasser avec une copie privée qu’ils auraient a entretenir. Git réduit la pénibilité liée à la maintenance de modifications indépendantes, mais pas encore suffisamment pour que cet effort soit négligeable. Les développeurs intelligents forment des communautés et tentent de conserver un code de base unifié, car c’est la meilleure chose à faire. Ça n’est pas près de changer.

En juin 2010, Benjamin Mako Hill remarque dans son article Free Software Needs Free Tools (traduit ici sur le Framablog) qu’héberger un projet libre sur une plateforme propriétaire pose problème. À votre avis, quelle est l’importance de ce problème ?

Et bien, je connais Mako Hill, je l’apprécie et j’éprouve beaucoup de respect pour lui. Mais je dois dire que je ne partage pas son avis sur ce point, et ce, pour plusieurs raisons.

D’abord, il faut être réaliste. On ne peut pas être un développeur logiciel sans outils propriétaires de nos jours. Réduire arbitrairement la notion de « plateforme » n’est qu’un artifice pour croire qu’on travaille dans un milieu entièrement libre. Par exemple, je peux héberger mon projet chez Launchpad, qui est un logiciel libre, mais est-ce que je peux vraiment écrire du code sans utiliser le moteur de recherche de Google, qui n’est pas libre ? Bien sur que non. Tous les bons programmeurs utilisent en continu Google, ou un autre moteur de recherche propriétaire. Il faut inclure ces recherches Google dans la « plateforme », impossible de se voiler la face.

Mais on peut pousser la réflexion plus loin :

Qu’attendez-vous de l’hébergeur de votre projet, quelles sont les libertés importantes ? Vous utilisez une plateforme et vous demandez aux autres de l’utiliser aussi pour collaborer avec vous, donc, idéalement, la plateforme devrait être libre.

Ainsi, si vous souhaitez y apporter des modifications, vous pouvez : si quelqu’un veut créer un fork de votre projet (au sens ancien, politique, du terme), ils peuvent reproduire l’infrastructure d’hébergement ailleurs, où ils la contrôleront, si nécessaire. Alors, en théorie tout cela est très bien et très joli, mais honnêtement, même si le code source de Google Code, par exemple, était libre, vous ne pourriez pas reproduire Google Code Hosting. Il vous manquerait encore le personnel, le service, les data center de Google… toute l’infrastructure qui n’a rien à voir avec le code source. Ça n’est pas réalistiquement faisable.

Vous pouvez forker le projet, mais en général vous ne pouvez pas reproduire son hébergement, cela demande trop de ressources. Et puisque ça n’est pas votre propre service, vous ne pouvez pas l’adapter a votre convenance ; ce sont les gens qui font tourner les serveurs matériels qui décident de quels ajustements sont acceptables ou pas. Donc dans la pratique, vous ne disposez pas de ces libertés.

(Certains services d’hébergement tentent d’octroyer autant de libertés que possible a leurs utilisateurs. Par exemple, le code de Launchpad est open source, et ils intègrent les correctifs de leurs membres. Mais l’entreprise qui héberge Launchpad doit quand même approuver chaque modification puisque ce sont eux qui font tourner les serveurs. Je crois que SourceForge veut tenter la même expérience, si l’on en croit l’annonce faite récemment à propos d’Allura.)

Alors, en fonction de tout cela, quelles sont les libertés possibles ?

Il vous reste la liberté de faire entrer et sortir vos données. En d’autres termes, le noeud du problème se situe au niveau de la possibilité qu’on les interface de programmations (API pour Application Programming Interfaces) de déplacer les données d’un service à l’autre, de manière fiable et automatique. Si je peux écrire un programme qui peut récupérer toutes les données de mon projet depuis une forge pour les transférer à une autre, c’est une liberté utile. Je ne suis pas pieds et poings liés. Ça n’est pas la seule liberté qui compte, on est même loin d’une liberté idéale. Mais c’est une liberté utile dont on dispose dans un monde où utiliser ses propres serveurs est devenu inabordable.

Ce n’est pas que cette conclusion m’enchante. Mais les choses sont ainsi. La période de « chasseur/cueilleur » dans l’open source est terminée, nous sommes entrés dans l’ère agricole et urbaine. Vous ne pouvez plus creuser vos propres sillons d’irrigation ou votre propre système d’évacuation des eaux usées. C’est trop compliqué. Mais, au moins, si vous n’êtes pas satisfait du service rendu par un hébergeur, vous pouvez déménager chez un autre plus efficace grâce a la portabilité des données.

Donc ça m’importe assez peu de savoir que la plateforme GitHub est propriétaire, par exemple. Evidemment, ça serait mieux si elle était entièrement open source, mais le fait qu’elle ne le soit pas n’est pas vraiment un énorme problème. Le premier critère auquel je fais attention lorsque j’évalue un service d’hébergement est la richesse de leurs APIs. Est-ce que je peux récupérer toutes mes données si besoin ? Si leurs APIs sont riches, c’est bon signe, ils feront leur travail pour maintenir un service de qualité, car c’est le critère qui leur permettra de conserver leurs utilisateurs.

En France, les élevés de collège et de lycée ne suivent pas de cours d’informatique. Pensez-vous que l’informatique devrait être une matière a part entière, et pas seulement un outil pour les autres matières ?

Evidemment. La compréhension des données et du calcul formel est très importante désormais. C’est une forme d’alphabétisme. Sans aller jusqu’à maîtriser la programmation, il faut savoir comment les données fonctionnent. Cela fait écho à une discussion récente où je me suis rendu compte du gouffre qui peut exister.

J’étais chez le docteur, pour faire quelques tests. L’un d’eux consistait à filmer les battements de mon cœur grâce aux ultra-sons et toute la séquence était enregistrée. C’était incroyable a voir ! Et donc, une fois terminé, je demande à l’accueil si je pouvais avoir les données. Pour être précis, j’ai demandé : « Est-ce que je pourrai avoir les données de l’echocardiogramme ? » L’assistante m’a répondu qu’ils pouvaient m’imprimer des images basse-résolution. J’ai alors répondu : « Merci, mais ce sont les données que je veux ». Elle m’a répondu que c’est bien ce qu’elle me proposait. Pour elle, le mot « données » n’avait pas la même signification précise que pour ceux qui ont appris ce que sont les données. Ma question impliquait évidemment que je voulais toutes les données qu’ils avaient enregistres. C’est bien ce que signifie « Toutes les données », non ? Il ne devrait pas y avoir de perte d’information : c’est une copie bit par bit. Mais cela ne lui parlait pas. Pour elle, les données, c’est « quelque chose qui ressemble a ce que j’ai demandé ». Je parlais d’information, d’informatique, elle me parlait de perception.

Je suis bien conscient que mon point de vue est radical, mais je trouve que c’est une forme d’illettrisme de nos jours. Vous devez savoir faire la différence entre les vraies informations et les fausses informations et vous devez comprendre l’énorme différence d’application qui existe entre les deux. Si je me rends chez un autre médecin, vous imaginez bien la différence que ça fait si je lui présente la vidéo complète sur clé USB par rapport à des copies basse résolution d’images fixes. L’une est utile, l’autre ne sert strictement à rien.

Les entreprises qui comprennent le mieux la valeur des données, de données nous concernant, ont de plus en plus de moyens d’utiliser ces données à leur avantage, mais pas nécessairement dans le vôtre. Les cours d’informatique sont une forme de défense contre ceci, une réponse immunitaire à un monde dans lequel la possession et la manipulation des données se transforme de plus en plus en pouvoir. Vous êtes mieux à même de comprendre comment les données peuvent être utilisées si vous les avez déjà manipulées vous-même.

Donc oui, je suis pour les cours d’informatique… mais pas seulement comme moyen de défense :-). C’est aussi une formidable occasion pour les écoles de réaliser quelque chose de collaboratif. L’enseignement se focalise trop souvent sur des apprentissages « individuels ». D’ailleurs, la coopération à l’école est souvent prohibée et on appelle cela de la triche. Or en cours d’informatique, la chose la plus naturelle est d’initier des projets open source ou de participer à des projets open source.

Bien sûr, tous les étudiants ne seront pas forcément doués ou hyper motivés pour cela, mais c’est la même choses dans toutes les autres matières. Je pense donc que les cours d’informatique sont une bonne opportunité d’exposer les élèves aux plaisirs du développement collaboratif. Ces cours devraient avoir un impact incroyable sur certains élèves, comme, par exemple, les cours de musique.

Une toute dernière question : quel conseil donneriez-vous au programmeur en herbe qui souhaite découvrir la communauté des logiciels libres et open source ? Essayez de répondre en une phrase, pas avec un livre entier 🙂

Trouvez un projet ouvert que vous appréciez (et, idéalement, que vous utilisez) et commencez à y participer ; vous ne le regretterez pas !




Nouveau Framabook : AlternC Comme si vous y étiez

AlternC Comme si vous y étiez - FramabookOuvrons ce billet par une citation clin d”œil de Jean-Marc Manach qui résume bien le nouveau livre libre framabook que nous sommes fiers de vous présenter aujourd’hui : « Offrez un nom de domaine à un homme et vous le nourrirez pour un jour. Apprenez-lui à l’administrer et vous le nourrirez pour toute la vie. »

C’est en effet ce que propose depuis longtemps déjà le projet libre et associatif AlternC, dont la démarche mais surtout l’existence bien réelle constituent un formidable rempart aux attaques actuelles contre les fondamentaux du Net.

AlternC c’est avant tout une suite logicielle permettant de gérer un ou plusieurs serveurs d’hébergement de site web, email, listes de discussions et autres services Internet.

Que vous soyez simple blogueur, hébergeur associatif ou industriel, professionel du web en agence, ou toute autre structure juridique aux facettes multiples (mairies, grande entreprise, fédération …), AlternC vous permet de gérer facilement les comptes d’hébergement de plusieurs entités, à travers une interface web simple, intuitive et multilingue. Les spécialistes du réseau et administrateurs système profitent aussi d’AlternC pour simplifier et industrialiser leurs processus de gestion d’infrastructure, et pouvoir ainsi confier à leur client la gestion des éléments simples de leur hébergement.

Mais AlternC c’est également se plonger dans l’histoire du Web francophone en général et du Web francophone libre en particulier, puisque le projet est directement issu du mythique service altern.org de Valentin Lacambre.

AlternC c’est enfin un projet politique, une informatique résolument tournée vers les logiciels libres, une volonté d’aider chacun à devenir son propre hébergeur, s’il le souhaite, dans le respect d’Internet et de ce qui fut son fondement toujours menacé : la liberté.

Rédigé, aussi bien à l’occasion des dix ans du projet que de la sortie imminente de la version 1.0 d’AlternC, par ces deux pionniers du libre que sont les hyperactifs Chantal Bernard-Putz et Benjamin Sonntag, cet ouvrage (illustré en couleur de 234 pages) propose un guide pas à pas du logiciel, de la gestion des comptes à l’installation (côté client) et l’administration de la plateforme (côté serveur).

Il a été entièrement réalisé sous LibreOffice. Il est édité par InLibroVeritas sous licence Creative Commons By-Sa. Les auteurs ont gracieusement décidé de céder l’intégralité de leurs droits d’auteur à La Quadrature du Net.

Le guide est encadré par deux articles de Laurent Chemla et Sébastien Canevet. C’est ce dernier que nous avons choisi de reproduire ci-dessous.

Les auteurs vous donnent rendez-vous le 28 mars prochain à 19h à La Cantine (Paris) pour une présentation du livre qui coïncidera avec la sortie de la version 1.0 d’AlternC ! C’est aussi à ce moment-là que symboliquement les sources du livre seront libérées.

-> Découvrir, télécharger et/ou acheter AlternC Comme si vous y étiez sur le site Framabook.

La neutralité du Net ne s’use que si on ne s’en sert pas !

Sébastien Canevet – décembre 2010

L’un des principes fondateurs d’internet conduit à traiter également toute information qui circule sur le réseau, indépendamment de sa source, de sa destination ou de son contenu. C’est la « neutralité du net ».

Lors de la création d’internet, la rusticité des outils alors mis en oeuvre ne permettait pas ce genre de discrimination. Aujourd’hui, le perfectionnement des équipements techniques rend possible une gestion discriminatoire du trafic. Cette idée malvenue ne manque pourtant pas de partisans. Les arguments pour la combattre sont plutôt nombreux, de la démocratie à la promotion de l’innovation et passant l’économie du développement des infrastructures.

Loin des débats théoriques sur ces principes fondamentaux, certains acteurs de l’internet ont choisi de participer à ce débat d’une autre façon, en rendant rapidement et facilement accessible la mise en place d’un hébergeur indépendant. Tel est le projet AlternC.

Alors que l’hébergement d’un site web était hors de portée des acteurs autres que les opérateurs institutionnels, publics ou privés, la mise à disposition de la suite logicielle AlternC permet depuis dix ans de gérer aisément un hébergeur mutualisé, assurant ainsi une indépendance technique à ceux qui souhaitent consacrer un minium de temps et quelques moyens (limités) à cette tâche.

Projet libre, il était logique qu’AlternC fut également un logiciel libre. A l’aube du projet, seuls les informaticiens (ou presque) comprenaient les enjeux de ce choix. C’est donc en connaissance de cause que les promoteurs du projet choisirent un logiciel libre (l’altern de Valentin Lacambre) plutôt que son homologue propriétaire, pour le faire évoluer.

C’est ainsi que, prouvant le mouvement en marchant, et mettant en oeuvre la neutralité du net bien avant que la problématique n’héberge au sein du public averti[1], AlternC permet la mise en oeuvre de l’hébergement de sites internet librement, et ceci aux quatre sens du mot libre lorsqu’il est accolé à nom logiciel.

  • Première des quatre libertés, l‘« exécution du programme », ou plus largement l’utilisation d’AlternC est libre, en ce sens que vous pouvez utiliser ces logiciels pour n’importe quel usage, commercial ou pas, et ceci sans aucune limitation d’aucune sorte. Il est d’ailleurs important pour les logiciels libres en général que leur utilisation dans la sphère commerciale et industrielle soit la plus large possible, ce ci afin d’éviter qu’ils ne soient isolés dans un milieu étroit….
  • La liberté d’étude est la seconde liberté. Alors que leurs homologues « propriétaires » sont enfermés dans un carcan juridique étroit et compliqué[2], l’étude d’AlternC n’est soumise à aucune contrainte. C’est ainsi que l’on peut librement étudier le fonctionnement de ces logiciels, quel que soit l’objectif de cette étude. La libre disposition du code source facilite cette étude.
  • La distribution de copie des logiciels AlternC est elle aussi possible librement, quelles que soient les conditions (gratuité ou pas…) de cette distribution. Une activité économique est ainsi parfaitement imaginable.
  • Enfin, il est possible (et même souhaitable) qu’AlternC soit l’objet d’améliorations. Cette suite logicielle est une oeuvre « in progress », en ce sens que, au sein de la communauté AlternC ou en dehors, toute personne ayant la compétence et la volonté de modifier ces programmes, peut le faire sans contrainte.

J’aime à répéter que ce que l’on ne trouve pas sur internet n’existe pas, tant le réseau est aujourd’hui d’une richesse inouïe.

Bien au delà des seuls usages commerciaux, dans lesquels l’utilisateur n’est envisagé que comme un consommateur, qui n’utiliserait le réseau que pour dépenser son argent, se contentant pour le reste de demeurer tranquillement sous perfusion télévisuelle, l’usager d’AlternC est un véritable acteur du réseau. C’est pour cela que cet ouvrage a été écrit.

-> Découvrir, télécharger et/ou acheter AlternC Comme si vous y étiez sur le site Framabook.

Notes

[1] L’article fondateur de Tim Wu, « Network Neutrality, Broadband Discrimination » date de 2003, mais la prise de conscience collective de l’importance de cette neutralité est bien plus tardive.

[2] En effet, l’étude et la décompilation d’un logiciel non libre n’est possible que dans une mesure très limitée, à seule fin d’assurer l’interopérabilité, et encore à condition que les informations nécessaires ne soient pas déjà rendues publiques.




Combien de grands écrivains bloqués à la frontière par le droit d’auteur ?

Shandi-Lee Cox - CC byPourquoi certains livres ne sont-ils pas traduits alors que tout porte à croire qu’ils le méritent ?

A contrario pourquoi d’autres livres connaissent de nombreuses traductions malgré le caractère très confidentiel de leur sujet et donc de leur audience potentielle ?

Pour les uns comme pour les autres à cause du droit d’auteur.

Un droit d’auteur qui selon le cas (et le choix) peut décourager ou encourager, nous dit ici Karl Fogel, qui est bien placé pour en parler car ses deux livres, le premier sous licence GNU General Public License et le second sous licence Creative Commons By, ont connu spontanément de nombreuses traductions[1].

Et nous aussi à Framasoft, nous sommes bien placés pour en parler, car lorsque nous décidons d’entamer un long projet de traduction via notre groupe de travail Framalang, la condition sine qua non est que la licence de l’ouvrage original nous y autorise explicitement. Un long projet comme notre dernier framabook Produire du logiciel libre de… Karl Fogel justement !

Le conte des deux auteurs : pourquoi l’un est traduit et l’autre pas

A Tale of Two Authors: Why Translations Happen, or Don’t.

Karl Fogel – 21 février 2011 – QuestionCopyright.org
(Traduction Framalang : Brandelune, Goofy et Penguin)

Pourquoi certains livres ne sont-ils pas traduits ?

Vous penserez peut-être qu’il est difficile de trouver des traducteurs disposés, ou que les compétences nécessaires sont rares, mais je vous propose deux études qui fournissent une autre explication.

La raison principale d’un texte non traduit vient tout simplement du fait qu’on nous interdit de le traduire. Lorsque les restrictions dues aux droits d’auteur ne les entravent pas, les traductions fleurissent.

Si vous êtes sceptique, lisez plutôt la suite. Voici l’histoire de deux auteurs, l’un dont les livres peuvent être traduits librement par n’importe qui, l’autre qu’on ne peut pas traduire. Nous allons même tricher un peu en disant que celui dont les livres sont ouverts à la traduction est un auteur mineur (un de ceux dont les œuvres, pour être parfaitement honnête, ne vont pas changer la face du monde). Tandis que certains des ouvrages de l’autre sont considérés comme des chefs-d’œuvre dans leur langue d’origine, au point que l’on peut trouver des citations d’éminents universitaires mentionnant l’absence de traduction comme « un des plus grands scandales de notre époque ».

Le premier auteur, c’est moi. J’ai écrit deux livres, tous deux sous licence libre, aucun n’a la moindre importance historique même si j’en suis fier et ai été content de les écrire. Le premier, publié en 1999, était un manuel semi-technique expliquant comment utiliser certains logiciels de collaboration. Bien que son public soit limité et que j’aie mis en ligne une version dans un format un peu lourd, des traductions bénévoles ont très vite été proposées, et l’une d’elles au moins (en allemand) a été achevée. D’autres traductions ont peut-être abouti, je ne sais pas (le livre étant déjà ancien et les traductions m’étant incompréhensibles, je n’ai pas fait l’effort d’en savoir plus).

Remarquez que je ne parle ici que de traductions faites par des bénévoles, celles qu’ils entreprennent juste parce qu’ils en ont envie, sans demander au préalable de permission à quiconque (il y avait aussi une traduction en chinois achevée et dont j’ai une version papier publiée, mais je ne la considère pas dans ma démonstration car elle est passée par les canaux de publication contrôlés par l’éditeur).

Mon livre suivant, publié à l’origine en 2005, ne visait également qu’un lectorat potentiel limité : il traite de la gestion de projets collaboratifs open source — il n’était pas exactement destiné à devenir un best-seller. Mais avec le soutien de mon aimable éditeur, O’Reilly Media, je l’ai mis en ligne sous une licence libre, cette fois sous un format plus agréable, et des projets de traductions bénévoles sont aussitôt apparus. Plusieurs ont maintenant porté fruit : le titre existe en japonais, en galicien, en allemand, en néerlandais et en français. La traduction espagnole est presque terminée, et d’autres encore sont en cours dont je vous épargne la liste.

(Ah oui, au fait, plusieurs de ces traductions sont disponibles en format papier de qualité commerciale, j’en ai chez moi des exemplaires. L’activité lucrative est parfaitement compatible avec les modèles de distribution non restrictifs, comme nous l’avons déjà souligné à plusieurs reprises)

Alors… tout ça pour un livre traitant de collaboration au sein des projets open source ? Vraiment ? Que peut-on en déduire ?

Eh bien, voyons un contre-exemple.

Hans Günther Adler (« HG Adler » de son nom de plume) est un auteur mort en 1988 dont l’œuvre est désormais largement reconnu comme majeure dans la littérature allemande sur l’Holocauste. Très peu de ses œuvres ont été traduites en anglais, sauf tout récemment le roman Panorama, publié en Angleterre et dont la critique a longuement parlé.

Deux de ces critiques nous permettent de bien comprendre pourquoi ici, sur QuestionCopyright.org, nous considérons que notre mission essentielle est de recadrer le débat public sur le droit d’auteur. Les deux critiques littéraires — manifestement intelligents, manifestement d’accord sur l’importance d’Adler, et écrivant tous deux pour les plus influentes revues littéraires de langue anglaise — commentent l’absence scandaleuse de traductions d’Adler en anglais tout en se recroquevillant dans une attitude passive quand il s’agit d’expliciter les raisons de cette absence.

D’abord, Judith Shulevitz dans le New York Times :

De temps en temps, un livre vous fait prendre brutalement conscience de la somme d’efforts et de chance qui ont été nécessaires pour le faire arriver entre vos mains. « Panorama » est le premier roman écrit par H. G. Adler, un intellectuel juif et germanophone vivant à Prague qui a survécu à un camp de travail en Bohème, Theresienstadt, Auschwitz, ainsi qu’à un autre camp de travail forcé particulièrement horrible car souterrain, appelé Langenstein près de Buchenwald. Adler écrit la première ébauche en moins de deux semaines, en 1948 il arrive enfin en Angleterre mais ne trouve personne pour publier son livre avant 1968. 20 ans et deux manuscrits plus tard le livre est enfin publié en anglais aujourd’hui, pour la première fois.

Il est difficile de concevoir la raison pour laquelle nous avons dû attendre si longtemps. Il en résulte que Adler est un presque parfait inconnu dans le monde anglophone. Seuls trois de ses livres ont été traduits : un travail historique intitulé « Jews in Germany », un roman appelé « The Journey » et, maintenant, « Panorama ». Le fait que les lecteurs anglais et américains aient eu un accès aussi limité à l’œuvre et à la pensée d’Adler pendant si longtemps est, comme l’écrit ce spécialiste éminent de la litérature allemande moderne qu’est Peter Demetz, « l’un des grands scandales de notre époque ».

Ensuite, voici ce qu’écrit Ruth Franklin dans le New Yorker :

Hermann Broch a écrit que le livre Theresienstadt 1941–1945 deviendrait un classique sur la question, et que la méthode d’Adler « clinique et précise, non seulement saisit les détails essentiels mais parvient à montrer en plus l’étendue de l’horreur des camps d’une manière particulièrement pénétrante ». (Le livre a été publié en Allemagne en 1955 et il est devenu très vite un ouvrage de référence pour les études allemandes sur l’Holocauste mais n’a jamais été traduit en anglais.)

Soit, Shulevitz et Franklin écrivaient des critiques du travail même d’Adler, pas des analyses sur les raisons pour lesquelles ces ouvrages avaient été si peu traduits en anglais. Il est pourtant frappant qu’ils aient choisi tous deux de commenter le manque de traduction, plus ou moins longuement, et pourtant ils n’offrent aucune hypothèse sur les raisons de cette absence. Ils décrivent simplement la situation et expriment leurs regrets, comme s’ils parlaient simplement du mauvais temps ; il n’y aucune indignation ni frustration sur le fait que l’absence de traduction est tout simplement due au fait qu’elles ont été interdites avant même qu’on puisse les commencer.

Je ne vais même pas utiliser « probablement » ou « sans doute » dans cette déclaration. À ce point, il faut considérer qu’il s’agit de faits établis. Si mes livres – mes petits ouvrages qui ne visent qu’une population limitée dans le monde du développement logiciel – sont traduits depuis l’anglais dans d’autres langues au lectorat plus faible, il est tout simplement impossible que les livres bien plus importants de H.G. Adler, sur des sujets beaucoup plus importants, n’aient pas été traduits de l’allemand vers l’anglais, si même une seule personne (ou, plus important encore, un seul groupe) qui aurait eu l’ambition de les traduire avait été libre de le faire.

Il existe un grand nombre de personnes qui parlent couramment à la fois l’anglais et l’allemand ; les études sur l’Holocauste intéressent de très nombreux locuteurs de ces deux langues et il existe des sources de financement, tant gouvernementales que provenant d’organismes à but non lucratif, qui auraient volontiers soutenu ce travail (certaines traductions de mon deuxième livre ont reçu ce genre de financement, il serait incompréhensible que ces financements puissent exister pour cela et pas pour les traductions du travail de Adler).

Le fait que l’absence de traductions d’Adler, ou d’autres œuvres importants, ne soit pas directement compris comme étant dû aux restrictions issues du droit d’auteur souligne la dramatique faiblesse du débat public autour du droit d’auteur. A l’heure actuelle, les traducteurs ne peuvent pas traduire s’ils ne sont pas assurés en premier lieu d’en avoir le droit, et puisque la position par défaut du droit d’auteur est que vous n’avez pas le droit de traduire à moins que quelqu’un ne vous en donne explicitement le droit, la plupart des traducteurs potentiels abandonnent sans avoir même essayé. Ou, plus probablement, ils ne pensent même pas à essayer, car ils ont été habitués à cette culture basée sur la permission. La simple recherche de la personne à qui demander la permission est un processus suffisamment décourageant, sans même compter le temps passé dans les incertaines négociations qui s’ensuivent lorsque vous avez trouvé la bonne personne.

Il n’est pas étonnant que de nombreux ouvrages de valeur restent sans traduction, étant donné les obstacles. Mais il est étonnant que nous continuions à nous voiler la face sur les raisons de cette situation, alors même lorsqu’elles nous crèvent les yeux.

Notes

[1] Crédit photo : Shandi-Lee Cox (Creative Commons By)




Et si Internet et le Libre réalisaient la société sans école d’Ivan Illitch ?

Une société sans école - Ivan Illich - Couverture PointsJe suis en train de lire Une société sans école du prêtre catholique et iconoclaste Ivan Illich.

Rédigé en 1971, c’est un ouvrage que je conseille à tous ceux qui s’intéressent de près ou de loin à la question éducative (autant dire à tout le monde).

Si j’avais lu ce livre au jour de sa sortie, je me serais certainement dit que j’étais en face d’un bel utopiste, aussi brillant soit-il.

En le découvrant quarante ans plus tard, à l’ère d’Internet et de tous ses possibles, je crois plutôt avoir à faire à un grand visionnaire.

Voici ce qu’en dit la quatrième de couverture de mon édition de poche collection Points Essais : « L’école obligatoire, la scolarité prolongée, la course aux diplômes, autant de faux progrès qui consistent à produire des élèves dociles, prêts à consommer des programmes tout fait préparés par les autorités et à obéir aux institutions. À cela il faut substituer des échanges entre égaux et une véritable éducation qui prépare à la vie dans la vie, qui donne le goût d’inventer et d’expérimenter. »

Il convient de déscolariser la société pour libérer l’apprentissage de cette structure unique, standardisée et rigide qui sépare artificiellement les individus ainsi que le temps où l’on travaille et celui où l’on consomme du loisir.

Et page 128, il y a cette citation que je trouve absolument remarquable et qui a motivé la rédaction de ce court billet :

« Un véritable système éducatif devrait se proposer trois objectifs. À tous ceux qui veulent apprendre, il faut donner accès aux ressources existantes, et ce à n’importe quelle époque de leur existence. Il faut ensuite que ceux qui désirent partager leurs connaissances puissent rencontrer toute autre personne qui souhaite les acquérir. Enfin, il s’agit de permettre aux porteurs d’idées nouvelles, à ceux qui veulent affronter l’opinion publique, de se faire entendre. »

À mettre en parallèle avec ce que cherchent à réaliser Le Libre et son allié Internet aujourd’hui…




Tout ça pour ça ? Création Libre dans un Internet Libre de Roberto Di Cosmo

Shiv Shankar Menon Palat - CC by« Le moment est venu de siffler la fin de la recréation: ne vous laissez plus culpabiliser par le discours ambiant qui veut vous faire porter des habits de pirates, alors que vous êtes le public sans qui les artistes ne seraient rien; lisez ce qui suit, téléchargez le Manifesto, emparez-vous de ses idées, partagez-les avec vos amis, vos députés, vos artistes préférés; parlez-en avec vos associations, vos employés, vos employeurs; demandez que la Licence Globale soit rémise à l’ordre du jour, et que l’industrie culturelle arrête une fois pour toutes de s’attaquer à nos libertés de citoyens de l’ère numérique. »

Cette pugnace introduction est signée Roberto Di Cosmo qui vient de mettre en ligne un document d’une cinquantaine de pages au titre prometteur : Manifesto pour une Création Artistique Libre dans un Internet Libre.

Nous en avons recopié ci-dessous le préambule et il va sans dire que nous vous invitons à le lire et à le diffuser, car la question mérite toujours et plus que jamais d’être débattue[1].

Pour rappel Roberto Di Cosmo est chercheur informaticien, membre de l’AFUL et auteur de plusieurs ourages dont Le hold-up planétaire ré-édité chez InLibroVeritas.

Mise à jour : Attention, nous sommes allés un peu vite en besogne, l’auteur nous signale qu’il ne s’agit que d’un version préliminaire publiée pour commentaires, ne pas copier ailleurs pour l’instant.

Tout ça pour ça

URL d’origine du document

Roberto Di Cosmo – 25 janvier 2011
Extrait de Manifesto pour une Création Artistique Libre dans un Internet Libre
Licence Creative Commons By-Nc-Nd

Depuis les vacances de Noël, on ne compte plus les articles dans la presse, écrite et en ligne, qui parlent du téléchargement non autorisé de musique et de la crise du marché du disque. En les lisant, on a comme une sensation de déjà vu : cela fait quand même des années qu’on assiste à la même mise en scène médiatique autour du Marché International du Disque et de l’Edition Musicale qui se tient à Cannes tous les mois de janvier. Cela se termine toujours, sans surprise, sur la même conclusion : il faut sévir contre les méchants internautes adeptes du téléchargement illégal pour revitaliser la création française.

Il faut dire que, pour sévir, ils ont un peu tout essayé.

D’abord les procès individuels au cas par cas, approche vite abandonnée parce-que chère, peu généralisable, et soumise à l’appréciation du juge, pas toujours prêt à faire l’impasse sur notre droit à la copie privée.

Ensuite les DRM (Digital Rights Management), instruments de protections numériques contre la copie, qui ont fait l’objet d’une farouche bataille juridique en 2005, gagnée avec la loi DADVSI par l’industrie du disque, qui les a pourtant abandonnés tout de suite après, face aux déconvenues qu’ils causaient aux consommateurs qui n’arrivaient plus à transférer leur musique entre deux baladeurs différents.

Enfin, depuis peu, voici la riposte graduée et l’HADOPI, la Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet, une entité créée par la loi dite Création et Internet, et dont l’effet le plus visible pour l’instant est le reversement des centaines de milliers de courriers électroniques dans les boites à lettres d’internautes accusés, à tort ou à raison, d’avoir permis que des téléchargements illégaux s’opèrent à travers leur connexion Internet.

L’idée géniale de ce dernier jouet d’une industrie d’intermédiaires qui a toujours du mal à se mettre à Internet, c’est de couper massivement les abonnements Internet qui ont été identifiés comme ayant servi à télécharger de la musique sans autorisation. Pour être efficace, ce dispositif doit couper beaucoup, mais alors, vraiment beaucoup d’abonnements, donc, pas question de passer devant des juges : on émet des avertissements en masse, puis des lettres recommandées, toujours en masse, puis on passe nos connexions aux ciseaux.

Bien évidemment, toujours au nom de l’efficacité, on ne se soucie pas trop de vérifier le bien fondé des accusations de téléchargement illégal, qui sont produites automatiquements et peuvent être erronées, ni d’identifier qui a été à l’origine du téléchargement, qui pourraît être aussi le fait d’un des multiples virus qui infestent la plupart des ordinateurs de nos concitoyens, ou une tierce personne qui s’est branché sur le reseau Wifi de l’abonné.

Cette violation des droits élémentaires des citoyens à l’ère d’Internet, perpetrée dans un pays qui pour beaucoup était le symbole des « droits de l’homme », nous a valu le triste honneur d’être mis dans les même panier que les régimes totalitaires, dans un bel article de Tim Berners Lee, paru sur Scientific American en Novembre 2010[2].

L’argument juridique utilisé pour justifier cet horreur est fort amusant : formellement on ne punit pas l’abonné pour avoir téléchargé, mais pour « défaut de sécurisation de son accès Internet » ; on en est presque à la double peine : l’abonné moyen qui lutte déjà avec les services après vente des fournisseurs d’accès, qui passe pas mal de temps à faire tourner des antivirus chers dans l’espoir de se débarasser de tous les intrus qui se logent dans son ordinateur, et qui n’a aucune idée de ce que ça peut vouloir dire « sécuriser son réseau », va maintenant être puni s’il est victime d’un piratage informatique.

Cette situation hubuesque a déjà créé un joli marché pour des pseudosolutions pour se protéger de l’Hadopi : les internautes vont depenser plusieurs euros par mois soit pour des logiciels qui réduisent les fonctionnalités de leurs ordinateurs dans l’espoir d’empêcher le téléchargement, comme le « logiciel de sécurisation » proposé par Orange à deux euros par mois en Juin 2010, qui ne garantit en rien contre Hadopi, soit en s’abonnant à de sites centralisés de partage de fichiers qui fleurissent sur la toile, et contre lesquels Hadopi est inopérant. Tout cet argent qui sortira des poches des internautes n’apportera le moindre centime ni aux artistes ni à l’industrie culturelle, qui est en train de rééditer ici, mais en pire, l’idiotie des DRM: compliquer la vie du public, en lui faisant perdre de l’argent et du temps, alors qu’une fraction de cet argent perdu, recoltée sous forme de licence globale, suffirait à redonner le sourire à bien d’artistes, sans besoin de s’attaquer à cet accès Internet qui est devenu un besoin fondamental de tous les citoyens.

On parle de dizaines de milliers d’avertissements par jour, qui pour espérer être efficaces, vont devoir produire au moins des milliers de coupures d’Internet par jour, en semant la pagaille dans un grand nombre de foyers qui ont déjà pas mal d’autres problèmes à régler aujourd’hui ; en désorganisant nos fournisseurs d’accès Internet, qui vont perdre du temps d’abord à couper les accès, puis à répondre aux appels des clients furieux au service après-vente ; et en mettant un frein à l’économie Internet qui grandit à une vitesse spectaculaire et dépasse aujourd’hui en France les 25 milliards d’euros.

Tout ça pour espérer redonner du souffle à un marché de gros de la musique qui pèse, selon les chiffres du SNEP présentées à Cannes il y a quelques jours, 554,4 millions d’euros, et qui a commercialisé en 2010 moins de 1000 albums.

Tout ça, on nous explique, pour défendre la création artistique et protéger les artistes, compositeurs et autres créateurs… Ces artistes, compositeurs et créateurs ne touchent pourtant qu’une toute petite fraction de ces 554,4millions d’euros, et gagneraient beaucoup plus si, plutôt que les obliger à recueillir les miettes d’un système dépassé, on nous permettait de les rémunérer directement, ce qu’Internet rend possible, comme nous allons expliquer dans la suite.

Tout ça pour ça ?

Lire la suite en téléchargeant le Manifesto en ligne.

Notes

[1] Crédit photo : Shiv Shankar Menon Palat (Creative Commons By)

[2] Il écrit : « Les gouvernements totalitaires ne sont pas les seuls à violer les droits d’accès au réseau de leurs citoyens. En France, une loi de 2009, nommée Hadopi, a permis à une nouvelle l’agence du même nom de déconnecter un foyer d’Internet pendant un an si quelqu’un dans le foyer a été désigné par une société (privée représentant des ayant droit) comme ayant copié illégalement de la musique ou de la vidéo. »