Pourquoi le gouvernement du Québec ne s’ouvre pas davantage aux logiciels libres ?

Telle est en résumé la question posée le 26 avril dernier par Marie Malavoy, députée de Taillon pour le Parti Québécois, lors d’un échange public à la Commission des finances du Québec.

Cet échange est exemplaire et révélateur.

Exemplaire parce qu’il interpelle un gouvernement sur sa timidité vis-à-vis du logiciel libre. Et révélateur parce que les réponses données demeurent prudentes pour ne pas dire confuses voire embarrassées.

Mais ce passage est également à situer dans le contexte particulièrement tendu d’un procès local dénonçant la décision d’accorder sans appel d’offres un contrat public de 722 848 $ à Microsoft Canada pour une migration à Windows Vista. Nous l’avions évoqué dans un précédent billet.

Pour en savoir plus nous vous invitons à vous rendre sur le site de l’association FACIL dont nous profitons de l’occasion pour témoigner de notre soutien.

PS : Il est fait allusion, en fin d’intervention, à un remboursement de frais exorbitant demandé à FACIL dans le cadre d’une autre procédure (mais dont la coïncidence est plus que troublante). Nous savons désormais que l’association n’aura pas à payer cette somme indigente qui menaçait son existence même.

—> La vidéo au format webm

Transcription

URL d’origine du document (extrait)

Mme Malavoy : Merci, M. le Président et bonjour. Moi, j’aimerais aborder, Mme la ministre, une question très précise. Je… J’entends la ministre parler des appels d’offres, j’entends la ministre parler d’une concurrence qui existerait malgré tout. Je l’entends, bien entendu, parler de l’impérieuse nécessité de réduire les coûts de tous nos systèmes d’exploitation. Mais il y a une chose dont elle ne parle pas, absolument pas, c’est d’ouvrir ces appels d’offres aux logiciels libres.

Et j’aimerais aborder cette question-là, cet après-midi. J’aimerais l’aborder d’abord parce que dans beaucoup de pays du monde, on a pris le virage des logiciels libres. On leur a permis de, non seulement, faire des soumissions, mais on leur a permis aussi de gagner un certain nombre de systèmes d’exploitation, et il s’agit de logiciels qui sont plus souples, plus efficaces, qui permettent de faire des choses qu’aucun logiciel propriétaire ne permet de…

Mme Malavoy : …mais on leur a permis aussi de gagner un certain nombre de systèmes d’exploitation, et il s’agit de logiciels qui sont plus souples, plus efficaces, qui permettent de faire des choses qu’aucun logiciel propriétaire ne permet de faire, ils sont mois coûteux pour les contribuables, et, à l’heure où on cherche désespérément de l’argent, j’aimerais comprendre pourquoi le gouvernement du Québec ne fait pas un virage important pour s’ouvrir aux logiciels libres.

Le Président (M. Bernier) : Merci, Mme la députée. Mme la ministre.

Mme Gagnon-Tremblay : Alors, M. le Président, comme mon expertise n’est pas tellement poussée dans la matière, et j’aimerais que la députée ait véritablement la bonne réponse, si vous le permettez, je demanderais au secrétaire associé, M. Parenteau, si vous le souhaitez, de répondre à la députée pour lui donner la meilleure réponse possible.

Le Président (M. Bernier) : Est-ce qu’il y a consentement du côté de l’opposition officielle? Consentement. Allez-y, M. Parenteau, on vous écoute. La parole est à vous.

M. Parenteau (Alain) : Alors, bonjour aux membres de la commission. Écoutez, sur le plan de l’application ou de l’existence des logiciels libres, il y a déjà à des… c’est peut-être pas à une immense envergure, j’en conviens, mais le logiciel libre, au gouvernement du Québec, ça existe: le CSPQ, le MDEIE, le ministère des Services gouvernementaux, le MDEIE, c’est le ministère du Développement économique, là, bon, ont déjà pris en charge des logiciels libres au sein de l’organisation pour des applications peut-être un peu plus locales, mais ça existe.

L’autre défi auquel on est confrontés, puis il faut bien l’admettre, pour des grosses infrastructures, par exemple, si on parle des logiciels propriétaires, on parle des Microsoft et compagnie, quand arrive le temps de faire des changements au niveau des processus informatiques, il y a un… il faut prendre en considération les dimensions du coût d’impact que ça peut avoir que de transformer l’ensemble des… ce n’est pas juste une question de logiciel, il y a toute la mutation et les coûts d’impact que ça va avoir pour faire cette mutation-là.

Le défi auquel on est confrontés actuellement, et sur lequel on travaille, je ne vous dis pas qu’on ne travaille pas, au contraire, on travaille très fort pour essayer de déterminer comment on peut mettre en concurrence justement des entreprises qui favorisent les logiciels libres et les logiciels propriétaires. Je vous dis juste qu’au moment où on se parle sur le plan de la mécanique contractuelle, rien ne s’oppose dans la réglementation à ce qu’on y aille, mais il y a des limitations technologiques auxquelles on est confrontés, dont notamment le fait que, dans certains cas, le besoin est de mettre à niveau certains logiciels existants. Et le gain d’aller en logiciel libre dans un contexte comme celui-là doit être évalué au cas par cas, ce n’est pas nécessairement la meilleure solution, la panacée.

Partir à zéro, puis dire qu’on va y aller… mettons qu’on part qu’une nouvelle entreprise, une nouvelle organisation, puis on repart en logiciel libre, il n’y en a pas de problème. Le problème se pose lorsque tu as déjà une infrastructure de bien établie, par exemple, je ne sais pas, moi, Microsoft de niveau Vista, puis qu’on veut upgrader, par exemple, un certain niveau de logiciel, la question de l’opportunité doit être considérée, et ça, dans ce niveau-là, il y a des coûts d’impact comme je le mentionnais tantôt.

Ce que vous voyez actuellement dans certains ministères qui décident d’aller en appel… en gré à gré, c’est justement à cause de cette difficulté à pouvoir amener la mise à niveau et de mettre en concurrence potentiellement des logiciels libres, puis dire: On fait fi de tout ce qui existe, puis on rentre du logiciel libre. Il faut voir un peu du cas par cas puis comment on peut l’amener. Mais je vous dis: Sérieusement, on travaille là-dessus. Le Président (M. Bernier): Merci, M. Parenteau. Mme la députée de Taillon.

Mme Malavoy : J’apprécie beaucoup les commentaires de M. Parenteau, mais il y a aussi une dimension politique à ma question. Et, à cette dimension-là, j’aimerais aussi que la ministre me réponde. Le problème des logiciels propriétaires, c’est qu’à chaque fois que vus voulez les mettre au niveau, vous devez tout racheter. Ça on n’a pas besoin d’être spécialiste pour comprendre ça. Vous êtes pris avec une suite Office, Microsoft Office, vous voulez la mettre à niveau, vous ne pouvez pas l’ajuster à vos besoins, vous devez la mettre de côté, en racheter une autre. Ce sont des coûts astronomiques.

L’avantage du logiciel libre, c’est qu’il a justement dans sa nature même la possibilité d’une évolution permanente en fonction de expertises qu’on a chez nous, mais en fonction des expertises qu’il y a dans le monde entier. Et je pense qu’il ne s’agit pas à ce moment-ci de regarder: Est-ce que l’on peut, cas par cas, à petite dimension, les introduire timidement? Je pense qu’il s’agit de voir si le gouvernement du Québec pourrait, comme par exemple, les 27 pays de l’OCDE, faire un virage et exprimer une volonté politique. Il y a des millions de dollars en cause dans cette aventure, et je pense qu’il est temps que le Québec prenne le tournant.

Le Président (M. Bernier) : Merci, Mme la députée. Mme la ministre.

Mme Gagnon-Tremblay : Bien, écoutez, M. le Président, c’est qu’on n’est pas en défaveur, là, d’avoir des coûts ou d’essayer d’avoir des coûts moins élevés, au contraire, on est en faveur de ça. Mais, en même temps, il faut dire que c’est des logiciels propriétaires qu’on appelle. Alors, est-ce que, demain matin, on met tout à la porte et on recommence…

Mme Gagnon-Tremblay : …des faveurs, là, de… d’avoir des coûts ou d’essayer d’avoir des coûts moins élevés. Au contraire, on est en faveur de ça. Mais en même temps, c’est… il faut dire que ça, c’est des logiciels propriétaires, qu’on appelle, alors, est-ce que demain matin on met tout à la porte et on recommence à zéro? Alors, c’est ça, là, je pense qu’il faut le faire graduellement, mais tu ne peux pas d’une journée à l’autre arriver puis dire: Bien, voici… Ça, c’est comme je vous dis, c’est des logiciels qui sont déjà la propriété. Alors donc, on ne peut pas demain matin tout balancer puis revenir. Alors, il faut le faire correctement, mais il faut le faire aussi, je dirais, régulièrement, mais ça ne peut pas… on ne peut pas tout balancer demain matin. Alors donc, nous, est-ce qu’on est en faveur? Oui, on est en faveur de… d’avoir… de… on est en faveur d’aller chercher des sommes, des… c’est-à-dire des réductions de coûts, mais il faut le faire correctement. On ne peut demain matin faire table rase et puis dire: Bien, voici, on met de côté tout ce que nous possédons actuellement et on recommence à zéro avec ce genre… ce libre… ces logiciels libres. Mais on n’est pas en défaveur, mais encore faut-il faire correctement.

Le Président (M. Bernier) : Merci. Mme la députée de Taillon.

Mme Malavoy : Bien, j’aimerais en profiter, M. le Président, pour dénoncer une situation qui me semble un peu aberrante. Je comprends donc qu’il y a, mettons, une timide volonté politique pour s’ouvrir petit à petit au logiciel libre, en même temps il y a un groupe qui s’appelle le FACIL, qui plaide sa cause depuis des années et le gouvernement du Québec actuellement le poursuit pour 107 000 $. J’essaie de comprendre comment on peut, d’un côté, croire que le logiciel libre est une voie d’avenir éventuellement, et, d’un autre côté, mettre dans la misère, parce que c’est ça qui va se passer, un groupe qui se porte à la défense de ce type d’exploitation qui est assez révolutionnaire, mais qui n’est pas unique au Québec, qui a fait ses preuves déjà dans bien des pays du monde. Et vous me permettrez de donner un seul exemple qui devrait nous toucher. L’Assemblée nationale française, après un projet pilote, est passée entièrement au logiciel libre. Alors, je me demande pourquoi au Québec on devrait être en retard par rapport à d’autres pays de la planète qui ont compris que c’est un virage essentiel.

Le Président (M. Bernier) : Merci. Mme la ministre.

Mme Gagnon-Tremblay : Bien, M. le Président, c’est qu’on… comme je le mentionnais tout à l’heure, on ne l’exclut pas, il faut le faire, je dirais, graduellement. Mais en même temps, bon, la députée de Taillon a fait mention d’une compagnie qui est actuellement devant la cour face au gouvernement, alors vous comprendrez que je vais m’abstenir de… d’élaborer sur ce sujet.




Les biens communs ou le nouvel espoir politique du XXIe siècle ?

Peasap - CC byIl y a plus de dix ans, Philippe Quéau (qu’on ne lit pas assez) s’exprimait ainsi lors d’une conférence organisée par le Club de Rome (qui a eu raison avant l’heure ?) ayant pour titre Du Bien Commun Mondial à l’âge de l’Information :

« L’intérêt public est beaucoup plus difficile à définir que l’intérêt privé. C’est un concept plus abstrait. Il intéresse tout le monde, et donc personne en particulier. Plus les problèmes sont abstraits et globaux, plus ils sont difficiles à traiter et à assimiler par le public. Les groupes de pression sectoriels ont en revanche une très claire notion de leurs intérêts et de la manière de les soutenir (…) La gestion des biens communs de l’humanité (comme l’eau, l’espace, le génome humain, le patrimoine génétique des plantes et des animaux mais aussi le patrimoine culturel public, les informations dites du domaine public, les idées, les faits bruts) doit désormais être traitée comme un sujet politique essentiel, touchant à la chose publique mondiale. Par exemple le chantier de la propriété intellectuelle devrait être traité, non pas seulement d’un point de vue juridique ou commercial, mais d’un point de vue éthique et politique. »

Le bien commun ou plutôt les biens communs (attention danger sémantique) seront à n’en pas douter non seulement l’un des mots clés de ce nouveau siècle, mais aussi, si nous le voulons bien, l’un des éléments moteurs et fédérateurs des politiques progressistes de demain[1].

C’est pourquoi le Framablog les interroge de temps en temps, comme ici avec cette ébauche de traduction française d’une première version d’un texte en anglais rédigé par une allemande !

On ne s’étonnera pas de voir la culture du logiciel libre une nouvelle fois citée en exemple à suivre et éventuellement à reproduire dans d’autres champs de l’activité humaine.

Les biens communs, un paradigme commun pour les mouvements sociaux et plus encore

The commons as a common paradigm for social movements and beyond

Silke Helfrich – 28 janvier 2010 – CommonsBlog
(Traduction Framalang : Olivier Rosseler et Tinou)

Version 1.0 – Licence Creative Commons By-Sa

Forum social mondial – 10 ans après – Éléments d’un nouvel ordre du jour

On ne peut considérer le système des biens communs comme une alternative pour le 21e siècle que s’ils représent effectivement un dénominateur commun entre différents mouvements sociaux et écoles de pensées. À mon avis, il est non seulement possible de les appliquer, mais c’est surtout un bon choix stratégique. Voici pourquoi en quinze points :

1. Les biens communs sont omniprésents. Ils déterminent notre qualité de vie de bien des manières. Ils sont présents (quoique souvent invisibles) dans les sphères sociales, naturelles, culturelles et numériques. Pensez aux outils d’apprentissage (la lecture et l’écriture), toutes ces choses qui nous servent à nous déplacer (la terre, l’air et la mer), celles qui nous servent à communiquer (le langage, la musique, les codes), toutes ces choses qu’on utilise pour nous nourrir ou nous soigner (la terre, l’eau, les médicaments) ou encore celles si cruciales à notre reproduction (les gênes, la vie sociale).

Les biens communs sont notre relation à toutes ces choses, comment nous les partageons, comment nous les utilisons. Les biens communs sont la représentation vivante de nos relations sociales, en permanence. On devrait plutôt utiliser une action (mettre en commun) plutôt qu’un nom (bien communs). Les biens communs sont une catégorie à part de production et d’usage du savoir et des biens matériels, où la valeur de l’usage est privilégiée par rapport à la valeur marchande. Mettre en commun est une pratique qui nous permet de prendre nos vies en main et de protéger, de développer ce qui nous est commun plutôt que d’assister à son enfermement et sa privatisation.

Les droits des bénéficiaire des biens communs sont indépendants des conventions formelles et du droit positif. Nous en disposons sans avoir à demander la permission et nous les partageons. Les biens communs offrent une liberté autre que celle du marché. La bonne nouvelle, c’est qu’en nous concentrant sur les biens communs, nous sortons les choses de la sphère marchande pour les mettre dans la sphère commune, nous mettons l’accent sur comment les sortir de l’autorité et de la responsabilité détenue par une bureaucratie fédérale pour aller vers une gestion des biens communs par leurs utilisateurs et la myriade de possibilités qu’elle offre, et enfin nous nous concentrons sur de nombreux problèmes et de nombreuses ressources, comme 75% de la biomasse mondiale, qui n’ont pas encore été transformés en marchandise. Voilà qui est encourageant.

2. Les biens communs établissent des ponts entre les secteurs et les communautés, ils offrent un cadre pour la convergence et la consolidation des mouvements. Les problèmes auxquels nous faisons face sont devenus trop compliqués. Pour en réduire la complexité, nous avons fragmenté ce qui ne devrait être qu’un. Dans le débat politique public, il y a une division entre différents domaines de connaissance et d’autorité. Il y a ceux qui débattent de sujet liés aux ressources naturelles (les écolos) et ceux qui débattent de problèmes culturels et numériques (les technophiles).

Il en résulte des communautés (sur-)spécialisées pour chacun des centaines de problèmes auxquels nous sommes confrontés et de nombreux chainons manquant. Au nom de la diversité des biens communs, cette fragmentation se poursuivra jusqu’à un certain point, mais elle contribue également à l’atrophie de notre capacité commune à suivre l’actualité économique, politique et technologique ainsi que les changements qui se produisent. Notre capacité à réagir à ces changements et à faire remonter soigneusement des propositions alternatives et cohérentes s’en retrouve diminuée.

Les biens communs peuvent unifier des mouvements sociaux disparates, même si leur dynamique est profondément différente, les biens communs nous permettent en effet de nous concentrer sur ce qui nous unis, sur tout ce que les communeurs ont en commun, pas sur ce qui les sépare. L’eau est une ressource finie, pas le savoir. L’atmosphère est partout, un parc ne l’est pas. Les idées se développent lorsque nous les partageons, ce n’est pas le cas de la terre. Mais ce sont là des ressources communes à tous ! Par conséquent, personne ne devrait pouvoir se prévaloir de la propriété de l’une de ces ressources. Elles sont toutes liées à une communauté.

Chacune de ces ressources est mieux gérée si les règles et les normes s’imposent d’elles-mêmes ou si elles sont légitimées par les personnes qui en dépendent directement.

3. Les biens communs amènent le débat de la propriété au-delà du clivage (parfois stérile) public/privé. Les appels en faveur de la propriété publique ne disparaissent pas pour autant, mais peut-on juger que les états nations ont été des fiduciaires des biens communs consciencieux ? Non. Protègent-ils le savoir traditionnel, les forêts, l’eau et la biodiversité ? Pas partout.

Tout ne s’arrête pas au clivage public/privé. On peut s’approprier une ressource commune partagée pendant une courte durée (pour reproduire nos moyens de subsistance), mais on ne peut pas faire tout ce qu’on veut avec. Il est primordial de garder à l’esprit que le concept de possession pour usage est différent de la propriété exclusive conventionnelle.

Contrairement à propriété, possession n’est pas synonyme d’aliénation. Et abus, commodification, maximisation des profits et externalisation des coûts au détriment des biens communs vont de pair avec la propriété. L‘externalisation des coûts est un processus courant actuellement mais il ne bénéficie à personne au bout du compte, pas même aux plus aisés que l’on incite à se réfugier dans des communautés fermées et protégées.

4. La perspective des biens communs n’est pas une lubie numérique. Elle n’est pas binaire, pas faite de 0 et de 1 ni de soit … soit. Elle ne se jauge pas non plus à l’aune de quelques succès. Nous cherchons des solutions qui dépassent les clivages idéologiques, qui dépassent les politiques chiffrées pour déterminer les réussites. Ce n’est pas juste le privé contre le public, la gauche contre la droite, la coopération contre la concurrence, la « main invisible du marché » contre les projets gouvernementaux, les pro-technologies contre les anti-technologies.

Les biens communs se tournent vers le troisième élément, celui qui est toujours oublié. Notre compréhension des ressources que nous possédons en commun en ressort approfondie, tout comme celle des principes universels (et fonctionnels) des peuples qui protègent leurs ressources communes partagées. Dans le domaine des bien communs, nous privilégions l’apprentissage de la coopération plutôt que la concurrence. Les biens communs favorisent l’autogestion et les technologies ouvertes, développées et contrôlées en commun, plutôt que les technologies propriétaires qui tendent à concentrer le pouvoir dans les mains des élites et qui leur donne le pouvoir de nous contrôler.

5. Parler des biens communs, c’est se concentrer sur la diversité. Pour reprendre les mots de l’ex-gouverneur Olívio Dutra (Rio Grande do Sul) lors du Forum Social Mondial, 10 ans après : « cela permet l’unité au travers de la pluralité et de la diversité ». La doctrine par défaut est « un monde qui contient une myriade de mondes ».

De toute évidence, l’une des forces de cette approche réside dans l’idée qu’il n’existe pas de solution simpliste, pas de schéma institutionnel, pas de miracle taille unique, uniquement des principes universels tels que la réciprocité, la coopération, la transparence et le respect de la diversité d’autrui. Chaque communauté doit déterminer les règles appropriées à l’accès, à l’usage et au contrôle d’un système de ressources partagées bâti sur ces principes.

La tâche est complexe, à l’image de la relation entre la nature et la société, particulièrement lorsqu’il s’agit de biens communs partagés à l’échelle mondiale. La communauté englobe alors l’humanité toute entière, ce qui renvoie à l’impérieuse nécessité d’un nouveau multilatéralisme au centre duquel se trouvent les biens communs.

6. Se concentrer sur les biens communs apporte une nouvelle perspective à trois grands C : Coopération, Commandement et Compétition. (NdT : On a conservé les 3 C mais on pourrait traduire Command par Pouvoir ou Gouvernance) Sans compétition, il n’y a pas de coopération, et vice versa. Mais dans une société centrée sur les biens communs, la coopération est plus valorisée que la compétition.

Le slogan est : « Battez-vous pour la place de numéro un des coopérateurs plutôt que des compétiteurs ». Les règles précises régeantant la coopération dans un système des biens communs change d’un cas à l’autre. Aucun autorité supérieure ne peut les dicter. La théorie et la pratique des biens communs nous apprennent que de part le monde, de nombreux systèmes d’administration des biens communs s’auto-régulent, c’est-à-dire qu’ils créent leurs propres systèmes de contrôle. Ou ils s’auto-régulent et se coordonnent à différents niveaux institutionnels.

Pour ce qui est du commandement, voici un conseil de la lauréat du Prix Nobel, Elinor Ostrom : « Mieux vaut inciter la coopération à travers des arrangements institutionnels adaptés aux écosystèmes locaux plutôt que d’essayer de tout diriger à distance ». De plus, les autorités supérieures, les gouvernements, les lois, les organisations internationales, peuvent jouer un rôle décisif dans la reconnaissance des biens communs. Mais pour y parvenir, les biens communs devraient déjà occuper une plus grande place dans leur vision politique.

7. Les biens communs ne dissocient pas la dimension écologique de la dimension sociale, au contraire d’une vision verte inspirée du New Deal. Il serait judicieux, dans une certaine mesure, de rendre plus visible la "valeur économique" des ressources naturelles et il est sans doute nécessaire d’inclure les coûts écologiques de la production dans l’ensemble du processus manufacturier.

Mais ça ne suffit pas. Ce genre de solution ne règle pas la dimension sociale du problème, elle tend au contraire à creuser un fossé, faisant des solutions un problème d’accès à l’argent. Ceux qui y ont accès peuvent se permettent de payer le surcout écologique, ceux qui ne l’ont pas se retrouvent laissés pour compte. Les biens communs, au contraire, apportent une réponse au problème écologique et au problème social.

Une solution au cœur de laquelle se trouvent les biens communs ne laisse personne pour compte.

8. Le concept des biens communs fait siennes plusieurs visions du monde : on y retrouve la pensée socialise (la possession commune), la pensée anarchiste (l’approche auto-organisée), la pensée conservatrice (pour qui la protection de la création est importante) et évidemment les pensées communautaristes et cosmopolites (la richesse dans la diversité) et même la pensée libérale (affaiblissement du rôle de l’État, respect des intérêts et motivations individuelles à rejoindre une communauté ou un projet).

Mais de toute évidence, toutes ces idées ne peuvent s’unir derrière un programme politique construit autour des biens communs. C’est là leur force, et c’est pourquoi les partis politiques se méprennent à leur égard ou tentent de coopter les biens communs. Si nous nous attachons à livrer un discours cohérent (voir 9), ils n’y parviendront pas.

9. L’aune à laquelle sera mesuré l’adhésion des idées politiques au paradigme des biens communs est triple et bien définie : (a) usage durable et respectueux des ressources (sociales, naturelles et culturelles, y compris numériques), ce qui signifie : pas de sur-exploitation ni de sous-exploitation des ressources communes partagées.

Partage équitables des ressources communes partagées et participation à toutes les décisions prises au sujet de l’accès, de l’usage et du contrôle de ces ressources et (c) le développement libre de la créativité et de l’individualité des gens sans sacrifier l’intérêt collectif.

10. Les biens communs ne sont pas uni-centriques mais poly-centriques. Leurs structures de gouvernance sont elles aussi décentralisées et variées. En d’autres termes : les biens communs sont poly-centriques par nature, ce qui est la condition nécessaire à une approche profondément démocratique, aussi bien politiquement (principes de décentralisation, de subsidiarité et de souveraineté des communeurs et de législations des communeurs) et économiquement (le mode de productions des biens communs réduit notre dépendance à l’argent et au marché).

11. Les biens communs renforcent un trait essentiel de la nature humaine et du comportement humain. Nous ne sommes pas seulement, loin s’en faut, l’homo œconomicus comme on nous le fait croire. Nous sommes bien plus que des créatures égoïstes qui ne se soucient que de leur propre intérêt. Nous ressentons ce besoin de nous intégrer dans un tissu social et nous nous y plaisons.

« Les biens communs sont le tissu de la vie », d’après Vandana Shiva. Nous aimons participer, nous impliquer et partager. Les biens communs renforcent le potentiel créatif des gens et l’idée d’inter-relationalité, en deux mots : « J’ai besoin des autres et les autres de moi ». Ils honorent notre liberté de participer et de partager.

Ça n’est pas la même liberté que celle sur laquelle repose le marché. Nos contributions nous donne accès à plus de choses. Mais nota bene" : ça ne se résume pas à "accès gratuit à tout".

12. Les biens communs proposent des outils d’analyse issus de catégories différentes de ceux du capitalism, notre « décolonisation de l’esprit » en est donc facilitée (Grybowski). Les communeurs rédéfinissent ce qu’est l’efficacité. Ils visent la coopération efficace, comment la favoriser et la mettre à la porté des gens.

Ils souhaitent privilégier la propriété exclusive à court terme comme moyen de subsistance plutôt que la propriété à durée indéfinie. Ils honorent les moyens de protection traditionnels des biens communs ainsi que les systèmes traditionnels de connaissance. Pour faire court : les biens communs éclairent sous un jour nouveau de nombreuses pratiques politiques et légales.

La différence est grande entre une vision communales et une vision commerciale de notre environnement. La différence est grande si l’eau est perçue comme un bien commun, c’est à dire liée aux besoins de la communauté, ou pas. Ou considérez les graines ; si vous voyez la diversité des graines comme un bien commun, vous récoltez ce dont vous avez besoin et votre indépendance alimentaire est assurée.

Si la société reconnaissait que les variétés de graines régionales font partie des biens communs, l’État appuierez de toutes ses ressources les plantations biologiques indépendantes et les petites exploitations pour qu’elles puissent poursuivre leur développement traditionnel des céréales plutôt que de gaspiller l’argent du contribuable en finançant des manipulations génétiques et l’ingénierie agro-alimentaire.

13. Le secteur des biens communs est pluriel et rassemble de nombreux protagonistes. Ces dernières années, l’intérêt porté internationalement au paradigme des biens communs s’est largement accru.

Les communeurs et les organismes se sont constitués des alliances transnationales (Creative Commons, Wikipedia, les mouvements des Logiciels Libres et de la Culture Libre, les plateformes de partage, les organismes de lutte contre l’exploitation minière, les alliances promouvant une approche de Bem-Viver, le mouvement mondial pour une agriculture durable, le Water Commons, les jardins communautaires, la communication et les projets d’informations citoyens et bien d’autres encore).

C’est en fait une explosion spontanée d’initiatives communes. Depuis que le Prix Nobel d’Économie a été attribué à Elinor Ostrom (octobre 2009), de nombreuses universités redécouvrent l’intérêt académique des biens communs.

14. Les biens communs comme mode de production alternatif. Les problèmes auxquels nous sommes confrontés ne sont pas liés à la disponibilité des ressources.

Ils émanent du mode de production actuel. Heureusement, dans certains domaines, nous assistons à une évolution du mode de production, d’un système capitaliste (basé sur la propriété, la demande, la valeur marchande, l’exploitation des ressources et du travail, dépendant de la croissance et tiré par les profits) il est en passe de venir commun (basé sur la possession, la contribution, le partage, l’intérêt personnel et l’initiative, où le PIB est un indicateur négligeable et dont la finalité est la belle vie, le bem viver).

De nombreux projets de Production Collective Commune rencontrent le succès. C’est particulièrement le cas pour la production de savoir (Wikipédia, les logiciels libres, le design ouvert). Mais un débat palpitant se déroule actuellement pour trouver les moyens d’appliquer les mêmes principes de production collective commune à la production de ce nous mangeons, de ce que nous portons et de nos moyens de locomotion, et jusqu’où nous pouvons aller.

J’ai la conviction que c’est possible. Premièrement parce que le savoir se taille la part du lion de tout type de production. Tous les biens ne sont que des produits en devenir. Pas de production automobile ou de production agricole sans concept et sans design (d’où la part du lion de sa valeur marchande).

Et deuxièmement, les secteurs des communs qui n’ont pas encore été commodifiés et où les valeurs et les règles des communs sont bien ancrées sont nombreux et variés (économie de l’entraide, économie de la solidarité). Ces secteurs sont la preuve que chaque jour, une grande partie de ce qui nous est nécessaire est produit en dehors du marché économique.

15. Le discours des communs prône le changement culturel. Ce n’est pas simplement une approche technologique ou institutionnelle. Il incite plutôt au développement de nouvelles idées et de nouvelles actions personnelles et politiques.

Pourquoi maintenant ? Car le moment est opportun pour les biens communs.

1. Nous sommes à une période charnière, dans biens des contextes, les biens communs sont re-découverts. Le marché et l’État (seul) ont échoué à protéger les ressources communes et à satisfaire les besoins des gens. Les idéaux de l’économie de marché sont assiégés de toutes parts.

Ses mécanismes d’analyses économiques, de politiques publiques, sa vision du monde perdent leur valeur explicative, et surtout leur soutien populaire. Les gens réalisent de plus en plus que ça n’est pas à l’économie de marché que nous devons la biodiversité, la diversité culturelle et les réseaux sociaux !

2. Les nouvelles technologies ouvrent la voie à de nouvelles formes de coopération et de production décentralisée qui étaient, jusqu’alors, l’apanage des technologies de l’âge industriel. Il nous est même désormais possible de ré-affecter la production d’énergie et d’électricité aux biens communs sociaux (centrales électriques solaires citoyennes, centrales électriques résidentielles).

Nous avons la possibilité de décider quelles nouvelles ou quelles informations sont utiles à la communauté et nous pouvons les reproduire nous-mêmes grâce à la plus grande machine à copier jamais inventée : Internet. La production connait une véritable révolution, une révolution qui redéfinira les règles. Les monopoles sont menacés.

3. Les changements actuels offrent à tout un chacun une influence élargie. Une vision moderne des biens communs ne se tourne pas vers le passé.

Il faut voir plus loin qu’une simple relocalisation, notre perspective est une coopération locale, décentralisée et horizontale au travers de réseaux distribués afin que les gens puissent, ensemble, se re-approprier la création de choses, qui seront ensuite disponibles pour eux et pour tout le monde, s’ils le souhaitent. Le but étant d’alimenter les biens communs et la production commune autant que possible pour affaiblir notre dépendance à l’économie de marché.

Mais ça ne sera possible, si le nouveau mode de production est capable de résoudre les problèmes même les plus complexes, que si les productions collégiales dépassent ce que les entreprises, même les plus importantes, sont capables de mettre en place du point de vue logistique, financier et conceptuel.

Et c’est tout à fait possible ! Regardez Wikipédia ou la voiture open source. Peut-être serions nous même capable de développer des véhicules individuels 100% recyclables, qui ne consomment qu’un litre/100km si les entreprises n’avaient pas capturé les technologies et contrôlé le marché.

Dans un monde où la production commune est généralisée, les notions de centre et de périphérie disparaissent.

4. L’usage collectif et l’accès libre ou équitables aux biens communs bénéficie maintenant de nouvelles protections légales : la General Public License (GPL), les licences de partage à l’identique, des modèles de propriétés spécifiques aux ressources naturelles qui se prémunissent de la spéculation et de la sur-exploitation, des fonds d’actionnariat à ressource commune unique, les systèmes d’aqueduc au Mexique ou de récupération d’eau en Inde ou encore le droit de tout un chacun (Allesmansrätten) en vigueur dans les pays du nord de l’Europe.

Ce sont des outils puissants dont nous devons nous inspirer et qu’il vaut développer. Dans ce domaine, il faudra faire preuve de créativité pour coucher nos idées en termes juridiques, des idées qui doivent respecter la grande variété de règles formelles et informelles en vigueur dans le monde pour protéger les biens communs.

5. Sans oublier, finalement, que si votre curiosité vous pousse à vous intéresser aux biens communs, vous découvrez de nouvelles choses étonnantes. Vous êtes liés à des centaines de communautés dynamiques. Vous entrapercevez une sagesse que vous ne soupçonniez pas, vous apprenez à encourager des projets et vous multipliez vos réseaux. C’est très motivant.

Connaissiez-vous l’existence du projet OpenCola ? Saviez-vous que le plus grand lac de Nouvelle Zélande, le lac Taupo, est rempli de truites ? Dans la région très touristique de Taupo, les ressources sont sous pression, mais la population de truite est toujours dynamique dans le lac car les néo-zélandais suivent un règle simple : pêchez juste ce qui vous est nécessaire pour manger (il vous faut un permis de pêche délivré par les autorités locales), n’en tirez pas profit.

Et donc, aucun restaurant de la région ne propose de truite au menu. Souvenez-vous : les biens communs ne sont pas à vendre. Et que savez-vous de la biologie libre et de la médecine participatoire ? Avez-vous entendu parler de ces innombrables banques de graines, essentiellement dans les pays du sud, et du trésor inestimable qu’elles protègent pour nous ? Et savez vous les progrès qu’a réalisé le mouvement international de promotion de l’accès libre aux ressources scolaires, ce mouvement qui vise à garantir l’accès libre à ce qui a été financé publiquement, la production du savoir ?

Avez-vous entendu parler des jardins interculturels et communautaires ou du régime des biens communs privilégiés par les pêcheurs de homards du Maine (USA) pour éviter la sur-exploitation des homards ? Et que pensez-vous des communs de crise, ces groupes où des centaines de volontaires mobilisent leurs savoirs-faire pour collecter des informations grâce aux technologies modernes pour venir en aide aux victimes de catastrophes naturelles, comme après le tremblement de terre à Haïti ?

Les biens communs insufflent une nouvelle vigueur aux débats politiques. Les jeunes citoyens deviennent attentifs lorsqu’on leur parle de production pair-à-pair, car c’est ce qu’ils font. Les écolos deviennent attentifs quand on leur parle du principe des copylefts et de la reproduction virale des logiciels et du contenu.

Ils comprennent que « toutes ces licences compliquées » défendent notre liberté d’accéder au savoir et aux techniques culturelles. C’est exactement ce pour quoi ils se battent dans leur domaine.

Les technophiles sont enthousiaste de pouvoir mettre leurs incroyables capacités à contribution pour gérer des systèmes complexes de ressources naturelles. En d’autres termes, les biens communs élargissent les horizons, ils apportent un vent nouveau de pensée collective, une pensée dynamique, non-dogmatique mise en œuvre de façon innovante.

Les communs sont un nouveau concept, puissant, autonome et auto-suffisant pour constamment redonner à la vie toute sa dignité. Ils sont l’élément indispensable pour construire un mouvement divers et irrésistible à partir d’une pensée politiquement et conceptuellement cohérente.

Porto Alegre – Janvier 2010

Mise à jour du 10 mars : Une nouvelle version 2.0 sera bientôt publiée. Merci à tous pour vos précieux commentaires.

Notes

[1] Crédit photo : Peasap (Creative Commons By)




La vidéo qui donnait envie de connaître et comprendre le logiciel libre

Collègues, amis, membres de la famille… il n’est pas toujours facile de faire partager son intérêt, voire même son éventuelle passion, pour le logiciel libre et sa culture à un public qui nous est proche mais qui ne s’intéresse pas à « l’informatique ».

Or, pour l’avoir faite suivre à de nombreuses reprises, j’ai constaté qu’une vidéo particulière possédait, si ce n’est des vertus miracles, tout du moins l’inédite capacité d’interpeller un large auditoire qui, rendu curieux, se retourne alors vers vous pour vous poser moult questions.

L’élan a changé de sens. Ce n’est plus vous qui venez faire votre petit topo à des gens qui ne vous ont souvent rien demandé. Ce sont eux qui, la puce à l’oreille après la projection, souhaitent spontanément que vous leur apportiez quelques précisions. Pédagogiquement parlant ce mouvement inversé a bien plus de chances de porter ses fruits.

Quelle est donc cette vidéo qui murmure le Libre (et non « l’open source ») à l’oreille du profane ? Il s’agit de la chronique d’Emmanuelle Talon sur « notre » biographie de Richard Stallman, proposée le 22 janvier 2010 dans le cadre de La Matinale de Canal+ (reproduite et transcrite ci-dessous).

Nous en avions déjà parlé sur le Framablog. Mais le nez dans le guidon de la sortie du livre, nous avions surtout fièrement souligné qu’un grand média évoquait le projet, sans prendre véritablement conscience des qualités intrinsèques de la vidéo. Avec le recul, on s’aperçoit en fait que le livre est ici secondaire. C’est un pretexte pour parler de Richard Stallman et par extension pour parler du Libre.

En quoi cette ressource apporte-elle de l’eau à notre moulin de la sensibilisation en captant favorablement le temps de cerveau disponible de celui qui l’a sous les yeux ?

Il y a d’abord le facteur « vu à la télé ». Internautes assidus que nous sommes, c’est quelque chose que nous avons appris à désacraliser. Mais pour bon nombre de nos compatriotes (dont les quelques 40% encore non connectés) le passage par le petit écran continue de faire son petit effet.

Il y a la durée. L’attention est maintenue par cette chronique qui ne dépasse pas les cinq minutes.

C’est beaucoup plus subjectif – et me vaudra quelques virulents commentaires – mais je crois que l’attention est également maintenue par le facteur « dialogue entre deux femmes avenantes », les femmes appréciant que ce soit des femmes et les hommes qu’elles soient avenantes (sic).

Il y a la posture prise par la journaliste. D’ordinaire c’est l’objectivité et la neutralité qui priment. Or ici, au diable la mise à distance, débordée par son enthousiasme communicatif, elle semble prendre fait et cause pour le sujet traité.

Au delà de la forme, il y a aussi et surtout le fond, c’est-à-dire tout ce qui est évoqué dans ce très court laps de temps : définition du logiciel libre qui s’oppose au logiciel privateur, code source, contre-exemple Microsoft, alternatives OpenOffice.org et Firefox, libre ne veut pas dire gratuit, Hadopi… et même Sarkozy !

Mais, d’expérience, ce qui fait surtout mouche ce sont les formules originales permettant de sortir du cadre et d’élargir le débat. Elle sont vos précieuses alliées parce qu’elles intriguent et appellent à des compléments d’information :

  • « Il ne s’agit pas vraiment d’informatique, il s’agit en fait de philosophie. Richard Stallman c’est vraiment un grand philosophe, c’est un vrai penseur. »
  • « Pourquoi au fond il s’est lancé dans cette aventure ? Il s’est lancé dans cette aventure tout simplement pour améliorer le monde, pour encourager le partage et la fraternité. »
  • « C’est une forme de nouveau socialisme, de socialisme logiciel. Et à l’heure où l’on pleure sur la fin des grandes ideologies, on peut se réjouir de voir qu’il y a encore des gens qui essayent de changer le monde. »
  • « En fait la compétition, elle se fait vraiment dans nos têtes. »
  • « Stallman c’est un peu le Luke Skywalker de l’informatique, il faut qu’on se libère des machines et c’est ce jour-là que le Libre pourra gagner. »

Cette vidéo n’est pas parfaite (et prend même quelques libertés avec le droit d’auteur). Mais ces propos étonnent et surprennent. Ils modifient chez l’autre non seulement la perception du logiciel libre mais également la perception de celui qui s’intéresse au logiciel libre (vous en l’occurrence). Ne dites pas à ma mère que je participe à changer le monde, elle croit que je fais bien sagement de l’informatique dans ma chambre !

À vous ensuite d’enchaîner avec brio et éloquence. Mais la stimulation est là, votre interlocuteur veut en savoir davantage et, ça tombe plutôt bien, vous êtes à ses côtés et tout disposé à satisfaire cette soudaine soif de connaissance.

Merci Emmanuelle !

—> La vidéo au format webm

Transcript

Maïtena Biraben : Le logiciel libre, c’est l’une des très grandes révolutions du siècle passé et aujourd’hui on en sait un peu plus sur le créateur du logiciel libre.

Emmanuelle Talon : Oui, Richard Stallman il a aujourd’hui 56 ans, il n’est pas très connu du grand public mais c’est un dieu vivant pour les informaticiens, parce que c’est un des pères du logiciel libre, le père du logiciel libre.

Alors pourquoi on en parle aujourd’hui ? Parce qu’il y a sa biographie qui vient de paraître en français aux éditions Eyrolles « Richard Stallman et la révolution du logiciel libre ». Alors au début des années 80…

Maïtena Biraben : C’est un bouquin de geek ?

Emmanuelle Talon : Non, justement pas. C’est ça qui est bien, parce que ça n’est pas un bouquin de geek, et même si on ne s’y connaît pas trop, on peut vraiment vraiment comprendre, j’insiste.

Et donc Stallman, au début des années 80 a créé la Fondation pour le Logiciel Libre. Il est à l’origine du projet GNU.

Et juste un petit rappel : qu’est-ce qu’un logiciel libre ? Quand même, voilà c’est important. C’est un logiciel que n’importe qui peut utiliser, copier ou même modifier, pour l’améliorer en quelque sorte, en accédant au code source.

Et le logiciel libre, ça s’oppose à ce que Stallman appelle les logiciels privateurs. Ce sont des logiciels qui nous privent de notre liberté. On ne peut pas modifier le code source, c’est pour cela que Windows est la propriété de Microsoft. Si Windows ne vous convient pas, vous ne pouvez pas l’améliorer. Tandis que l’on peut améliorer par exemple la suite bureautique OpenOffice ou le navigateur Firefox.

Maïtena Biraben : Si on y arrive !

Emmanuelle Talon : Si on arrive, bien sûr, mais vous avez cette liberté.

On l’impression que c’est un peu complexe mais en fait pas tellement parce que cette histoire de logiciel libre… Il ne s’agit pas vraiment d’informatique, il s’agit en fait de philosophie. Richard Stallman c’est vraiment un grand philosophe, c’est un vrai penseur. Et avec cette histoire de logiciel libre… Pourquoi au fond il s’est lancé dans cette aventure ? Il s’est lancé dans cette aventure tout simplement pour améliorer le monde, pour encourager le partage et la fraternité.

Donc c’est une forme de nouveau socialisme, de socialisme logiciel. Et à l’heure où l’on pleure sur la fin des grandes ideologies, on peut se réjouir de voir qu’il y a encore des gens qui essayent de changer le monde. Et aujourd’hui ces gens-là ce sont des informaticiens, et c’est Richard Stallman. C’est pour ça que c’est important de le connaître.

Maïtena Biraben : On a vu son playmobil…

Emmanuelle Talon : Oui on a vu son playmobil, mais en fait c’est un personnage assez amusant, qui a beauocup d’humour, qui a une bonne tête…

Maïtena Biraben : Est-ce que le logiciel libre a des chances de gagner face au logiciel non libre, donc commercialisé, que l’on ne peut plus toucher ?

Emmanuelle Talon : Alors, le logiciel libre il progresse beaucoup en France. Il y a quelques années la Gendarmerie nationale est passée… elle a adopté un logicie libre. Mais, si vous voulez, la compétition elle ne se fait pas vraiment sur cette question-là, sur cette question technique, parce qu’un logiciel libre, on peut considérer que ça vaut au niveau technique un logiciel privateur. En fait la compétition, elle se fait vraiment dans nos têtes.

Le Libre il pourra gagner le jour où, d’après Stallman, on aura, nous, envie de nous libérer et puis de ne pas être soumis à la machine. Parce qu’il explique que quand on utilise un logiciel comme Windows, on ne peut pas le modifier si on n’y va pas, et donc on est esclave de la machine. Stallman c’est un peu le Luke Skywalker de l’informatique, il faut qu’on se libère des machines et c’est ce jour-là que le Libre pourra gagner.

Maïtena Biraben : Est-ce que libre ça veut dire gratuit Emmanuelle ?

Emmanuelle Talon : Alors non, libre ne veut pas forcément dire gratuit. Il y a des logiciels libres qui ne sont pas gratuits, donc il faut faire attention à cette confusion. C’est vrai que quand on est juste un utilisateur, on peut estimer que la gratuité c’est le principal avantage, mais libre ne veut pas dire gratuit.

Maïtena Biraben : Si on ramène cette idée de logiciel libre à la France, la prochaine bataille c’est Hadopi.

Emmanuelle Talon : C’est Hadopi et Stallman est mobilisé sur cette question. Il estime que c’est une loi tyrannique. Il dit que Nicolas Sarkozy est un ennemi de la démocratie et des Droits de l’Homme. Et pour lui empêcher le téléchargement de musique pour sauver l’industrie du disque, c’est tout simplement comme empêcher les gens de faire la cuisine pour sauver les emplois dans la restauration !

Voilà, juste pour finir, le livre, vous pouvez l’acheter, il coûte 22 euros et c’est bien d’avoir un livre papier. Mais vous allez voir la cohérence de la démarche, en fait le livre est en téléchargement, gratuit, sur le site www.framasoft.net. Vous pouvez modifer le texte du livre, et si vous voulez le traduire, et bien vous pouvez tout à fait le traduire librement dans la langue que vous souhaitez, en ourdou par exemple, je pense que ça n’est pas encore fait.

PS : Pour l’anecdote lorsque avons signalé la vidéo à Richard Stallman, il nous a répondu texto : « C’est très bon (malgré des petites erreurs), mais c’est quoi un playmobil ? ».




Quand Socrate nous aide à mieux comprendre le logiciel libre

HBarrison - CC by-sa« Si vous éprouvez quelques difficultés à saisir l’essence du logiciel libre, je vous invite à parcourir ce dialogue entre Socrate et Antiphon dans Les Mémorables de Xénophon. »[1]

Telle est la suggestion d’un blogueur grec, reprise par un blogueur anglophone, qui a déterré ce court et pertinent passage nous rappelant que les préoccupations d’aujourd’hui ne sont pas sans similarités avec celles de 370 av. J.-C. !

Les Mémorables de Xénophon

URL d’origine du document

Chapitre VI – Extrait

Une autre fois, Antiphon, s’entretenant avec Socrate, lui dit : « Je ne doute pas, Socrate, que tu ne sois juste, mais savant, tu ne l’es pas du tout, et il me paraît que tu t’en rends compte toi-même, car tu ne tires aucun argent de tes leçons. Cependant ton manteau, ta maison ou tout autre objet que tu possèdes et que tu crois valoir quelque argent, tu ne les donnerais gratuitement à personne, tu ne les vendrais même pas au-dessous de leur valeur.

Il est donc évident que, si tu croyais que ton enseignement vaille quelque chose, tu n’en exigerais pas moins d’argent qu’il ne vaut. Tu es donc un homme juste, puisque tu ne trompes pas par cupidité, mais un savant, non pas, puisque tu ne sais rien qui ait de la valeur. »

A cela Socrate répondit : « C’est une opinion reçue chez nous, Antiphon, qu’on peut faire de la beauté et de la science un emploi honteux aussi bien qu’un emploi honorable. Quand un homme vend sa beauté pour de l’argent à qui veut l’acheter, on l’appelle prostitué; mais si quelqu’un prend pour un ami un homme en qui il a reconnu un amoureux vertueux, nous l’appelons un sage. Il en est de même à l’égard de la science : ceux qui la vendent pour de l’argent à qui veut la payer sont appelés sophistes, comme ceux qui vendent leur beauté, prostitués; mais si un homme, ayant reconnu dans un autre un heureux naturel, s’en fait un ami en lui enseignant ce qu’il sait de bon, nous pensons qu’il se comporte comme il convient à un honnête citoyen.

C’est ce que je fais moi-même, Antiphon. D’autres se réjouissent de posséder un beau cheval, un chien, un oiseau; moi, je me réjouis, et bien davantage, d’avoir des amis vertueux, et, si je sais quelque chose de bien, je le leur enseigne, et je les présente à d’autres, que je crois capables de les aider à progresser dans la vertu. Je déroule et parcours en compagnie de mes amis les livres où les anciens sages ont déposé leurs trésors. Si nous y voyons quelque chose de bien, nous le recueillons, et nous regardons comme un grand profit de nous être utiles les uns aux autres. »

Notes

[1] Crédit photo : HBarrison (Creative Commons By-Sa)




La liberté contre les traces dans le nuage – Une interview d’Eben Moglen

SheevaPlugIl y a un peu plus d’une semaine Tristan Nitot évoquait sur son blog une « magnifique interview » du juriste Eben Moglen par le journaliste Glyn Moody (que nous connaissons bien sûr le Framablog, preuve en est qu’ils ont l’honneur de tags dédiés : Moglen et Moody).

C’est la traduction de l’intégralité de cette interview que nous vous proposons ci-dessous.

Pourquoi Nitot était-il si enthousiaste ? Parce qu’il est légitime de s’inquiéter chaque jour davantage du devenir de nos données personnelles captées par des Facebook et des Google. Mais la critique récurrente sans possibilités d’alternatives pousse au découragement.

Or, poursuit-il, cette interview propose « une ébauche de solution technique qui pourrait bien signer la fin du Minitel 2.0 ». Eben Moglen y explique « comment des petits ordinateurs comme le Sheevaplug (cf photo ci-contre) ou le Linutop 2 pourraient bien changer la donne en permettant la construction d’un réseau social distribué (ou a-centré) dont chacun pourrait contrôler un bout et surtout contrôler son niveau de participation ».

Et Tristan de conclure de manière cinglante : « l’identité en ligne, la liste de nos relations, les archives de nos messages échangés sont bien trop précieuses pour être confiées à quelconque organisation privée, quelle qu’elle soit ».

La décennie « Microsoft » qui s’achève nous aura vu essayer, avec plus ou moins de succès, d’empêcher le contrôle de nos ordinateurs personnels, en y substituant du logiciel propriétaire par du logiciel libre.

La décennie « Google » qui s’annonce risque fort d’être celle des tentatives pour empêcher le contrôle d’Internet, en ne laissant plus nos données personnelles sur des serveurs privés mais sur nos propres serveurs personnels.

Remarque : à propos d’Eben Moglen, nous vous rappelons l’existence d’une conférence que nous considérons parmi les plus importantes jamais présentées par la communauté du Libre.

Une interview d’Eben Moglen – La liberté contre les données dans le nuage

Interview: Eben Moglen – Freedom vs. The Cloud Log

Eben Moglen interviewé par Glyn Moody – 17 mars 2010 – The H
(Traduction Framalang : Goofy, Simon Descarpentries et Barbidule)

Le logiciel libre a gagné : presque tous les poids lourds du Web les plus en vue comme Google, Facebook et Twitter, fonctionnent grâce à lui. Mais celui-ci risque aussi de perdre la partie, car ces mêmes services représentent aujourd’hui une sérieuse menace pour notre liberté, en raison de l’énorme masse d’informations qu’ils détiennent sur nous, et de la surveillance approfondie que cela implique.

Eben Moglen est sûrement mieux placé que quiconque pour savoir quels sont les enjeux. Il a été le principal conseiller juridique de la Free Software Foundation pendant 13 ans, et il a contribué à plusieurs versions préparatoires de la licence GNU GPL. Tout en étant professeur de droit à l’école de droit de Columbia, il a été le directeur fondateur du Software Freedom Law Center (Centre Juridique du Logiciel Libre). Le voici aujourd’hui avec un projet ambitieux pour nous préserver des entreprises de services en ligne qui, bien que séduisantes, menacent nos libertés. Il a expliqué ce problème à Glyn Moody, et comment nous pouvons y remédier.

Glyn Moody : Quelle est donc cette menace à laquelle vous faites face ?

Eben Moglen : Nous sommes face à une sorte de dilemme social qui vient d’une dérive dans la conception de fond. Nous avions un Internet conçu autour de la notion de parité – des machines sans relation hiérarchique entre elles, et sans garanties quant à leur architectures internes et leur comportements, mises en communication par une série de règles qui permettaient à des réseaux hétérogènes d’être interconnectés sur le principe admis de l’égalité de tous.

Sur le Web, les problèmes de société engendrés par le modèle client-serveur viennent de ce que les serveurs conservent dans leur journaux de connexion (logs) les traces de toute activité humaine sur le Web, et que ces journaux peuvent être centralisés sur des serveurs sous contrôle hiérarchisé. Ces traces deviennent le pouvoir. À l’exception des moteurs de recherche, que personne ne sait encore décentraliser efficacement, quasiment aucun autre service ne repose vraiment sur un modèle hiérarchisé. Ils reposent en fait sur le Web – c’est-à-dire le modèle de pair-à-pair non hiérarchisé créé par Tim Berners-Lee, et qui est aujourd’hui la structure de données dominante dans notre monde.

Les services sont centralisés dans un but commercial. Le pouvoir des traces est monnayable, parce qu’elles fournissent un moyen de surveillance qui est intéressant autant pour le commerce que pour le contrôle social exercé par les gouvernements. Si bien que le Web, avec des services fournis suivant une architecture de base client-serveur, devient un outil de surveillance autant qu’un prestataire de services supplémentaires. Et la surveillance devient le service masqué, caché au cœur de tous les services gratuits.

Le nuage est le nom vernaculaire que nous donnons à une amélioration importante du Web côté serveur – le serveur, décentralisé. Au lieu d’être une petite boîte d’acier, c’est un périphérique digital qui peut être en train de fonctionner n’importe où. Ce qui signifie que dans tous les cas, les serveurs cessent d’être soumis à un contrôle légal significatif. Ils n’opèrent plus d’une manière politiquement orientée, car ils ne sont plus en métal, sujets aux orientations localisées des lois. Dans un monde de prestation de services virtuels, le serveur qui assure le service, et donc le journal qui provient du service de surveillance induit, peut être transporté sur n’importe quel domaine à n’importe quel moment, et débarrassé de toute obligation légale presque aussi librement.

C’est la pire des conséquences.

GM : Est-ce qu’un autre facteur déclenchant de ce phénomène n’a pas été la monétisation d’Internet, qui a transféré le pouvoir à une entreprise fournissant des services aux consommateurs ?

EM : C’est tout à fait exact. Le capitalisme a aussi son plan d’architecte, qu’il rechigne à abandonner. En fait, ce que le réseau impose surtout au capitalisme, c’est de l’obliger à reconsidérer son architecture par un processus social que nous baptisons bien maladroitement dés-intermédiation. Ce qui correspond vraiment à la description d’un réseau qui contraint le capitalisme à changer son mode de fonctionnement. Mais les résistances à ce mouvement sont nombreuses, et ce qui nous intéresse tous énormément, je suppose, quand nous voyons l’ascension de Google vers une position prééminente, c’est la façon dont Google se comporte ou non (les deux à la fois d’ailleurs) à la manière de Microsoft dans sa phase de croissance. Ce sont ces sortes de tentations qui s’imposent à vous lorsque vous croissez au point de devenir le plus grand organisme d’un écosystème.

GM : Pensez-vous que le logiciel libre a réagi un peu lentement face au problème que vous soulevez ?

EM : Oui, je crois que c’est vrai. Je pense que c’est difficile conceptuellement, et dans une large mesure cette difficulté vient de ce que nous vivons un changement de génération. À la suite d’une conférence que j’ai donnée récemment, une jeune femme s’est approchée et m’a dit : « j’ai 23 ans, et aucun de mes amis ne s’inquiète de la protection de sa vie privée ». Eh bien voilà un autre paramètre important, n’est-ce pas ? – parce que nous faisons des logiciels aujourd’hui en utilisant toute l’énergie et les neurones de gens qui ont grandi dans un monde qui a déjà été touché par tout cela. Richard et moi pouvons avoir l’air un peu vieux jeu.

GM : Et donc quelle est la solution que vous proposez ?

EM : Si nous avions une classification des services qui soit véritablement défendable intellectuellement, nous nous rendrions compte qu’un grand nombre d’entre eux qui sont aujourd’hui hautement centralisés, et qui représentent une part importante de la surveillance contenue dans la société vers laquelle nous nous dirigeons, sont en fait des services qui n’exigent pas une centralisation pour être technologiquement viables. En réalité ils proposent juste le Web dans un nouvel emballage.

Les applications de réseaux sociaux en sont l’exemple le plus flagrant. Elles s’appuient, dans leurs métaphores élémentaires de fonctionnement, sur une relation bilatérale appelée amitié, et sur ses conséquences multilatérales. Et elles sont complètement façonnées autour de structures du Web déjà existantes. Facebook c’est un hébergement Web gratuit avec des gadgets en php et des APIs, et un espionnage permanent – pas vraiment une offre imbattable.

Voici donc ce que je propose : si nous pouvions désagréger les journaux de connexion, tout en procurant aux gens les mêmes fonctionnalités, nous atteindrions une situation Pareto-supérieure. Tout le monde – sauf M. Zuckerberg peut-être – s’en porterait mieux, et personne n’en serait victime. Et nous pouvons le faire en utilisant ce qui existe déjà.

Le meilleur matériel est la SheevaPlug, un serveur ultra-léger, à base de processeur ARM (basse consommation), à brancher sur une prise murale. Un appareil qui peut être vendu à tous, une fois pour toutes et pour un prix modique ; les gens le ramènent à la maison, le branchent sur une prise électrique, puis sur une prise réseau, et c’est parti. Il s’installe, se configure via votre navigateur Web, ou n’importe quelle machine disponible au logis, et puis il va chercher toutes les données de vos réseaux sociaux en ligne, et peut fermer vos comptes. Il fait de lui-même une sauvegarde chiffrée vers les prises de vos amis, si bien que chacun est sécurisé de façon optimale, disposant d’une version protégée de ses données chez ses amis.

Et il se met à faire toutes les opérations que nous estimons nécessaires avec une application de réseau social. Il lit les flux, il s’occupe du mur sur lequel écrivent vos amis – il rend toutes les fonctionnalités compatibles avec ce dont vous avez l’habitude.

Mais le journal de connexion est chez vous, et dans la société à laquelle j’appartiens au moins, nous avons encore quelques vestiges de règles qui encadrent l’accès au domicile privé : si des gens veulent accéder au journal de connexion ils doivent avoir une commission rogatoire. En fait, dans chaque société, le domicile privé de quelqu’un est presque aussi sacré qu’il peut l’être.

Et donc, ce que je propose basiquement, c’est que nous construisions un environnement de réseau social reposant sur les logiciels libres dont nous disposons, qui sont d’ailleurs déjà les logiciels utilisés dans la partie serveur des réseaux sociaux; et que nous nous équipions d’un appareil qui inclura une distribution libre dont chacun pourra faire tout ce qu’il veut, et du matériel bon marché qui conquerra le monde entier que nous l’utilisions pour ça ou non, parce qu’il a un aspect et des fonctions tout à fait séduisantes pour son prix.

Nous prenons ces deux éléments, nous les associons, et nous offrons aussi un certain nombre d’autres choses qui sont bonnes pour le monde entier. Par exemple, pouvoir relier automatiquement chaque petit réseau personnel par VPN depuis mon portable où que je sois, ce qui me procurera des proxies chiffrés avec lesquels mes recherches sur le Web ne pourront pas être espionnées. Cela signifie que nous aurons des masses d’ordinateurs disponibles pour ceux qui vivent en Chine ou dans d’autres endroits du monde qui subissent de mauvaises pratiques. Ainsi nous pourrons augmenter massivement l’accès à la navigation libre pour tous les autres dans le monde. Si nous voulons offrir aux gens la possibilité de profiter d’une navigation anonymisée par un routage en oignon, c’est avec ce dispositif que nous le ferons, de telle sorte qu’il y ait une possibilité crédible d’avoir de bonnes performances dans le domaine.

Bien entendu, nous fournirons également aux gens un service de courriels chiffrés – permettant de ne pas mettre leur courrier sur une machine de Google, mais dans leur propre maison, où il sera chiffré, sauvegardé chez tous les amis et ainsi de suite. D’ailleurs à très long terme nous pourrons commencer à ramener les courriels vers une situation où, sans être un moyen de communication privée, ils cesseront d’être des cartes postales quotidiennes aux services secrets.

Nous voudrions donc aussi frapper un grand coup pour faire avancer de façon significative les libertés fondamentales numériques, ce qui ne se fera pas sans un minimum de technicité.

GM : Comment allez-vous organiser et financer un tel projet, et qui va s’en occuper ?

EM : Avons-nous besoin d’argent ? Bien sûr, mais de petites sommes. Avons-nous besoin d’organisation ? Bien sûr, mais il est possible de s’auto-organiser. Vais-je aborder ce sujet au DEF CON cet été, à l’Université de Columbia ? Oui. Est-ce que M. Shuttleworth pourrait le faire s’il le voulait ? Oui encore. Ça ne va pas se faire d’un coup de baguette magique, ça se fera de la manière habituelle : quelqu’un va commencer à triturer une Debian ou une Ubuntu ou une autre distribution, et va écrire du code pour configurer tout ça, y mettre un peu de colle et deux doigts de Python pour que ça tienne ensemble. D’un point de vue quasi capitaliste, je ne pense pas que ce soit un produit invendable. En fait, c’est un produit phare, et nous devrions en tout et pour tout y consacrer juste un peu de temps pour la bonne cause jusqu’à ce que soit au point.

GM : Comment allez-vous surmonter les problèmes de masse critique qui font qu’on a du mal à convaincre les gens d’adopter un nouveau service ?

EM : C’est pour cela que la volonté constante de fournir des services de réseaux sociaux interopérables est fondamentale.

Pour le moment, j’ai l’impression que pendant que nous avancerons sur ce projet, il restera obscur un bon moment. Les gens découvriront ensuite qu’on leur propose la portabilité de leur réseau social. Les entreprises qui gèrent les réseaux sociaux laissent en friche les possibilités de leurs propres réseaux parce que tout le monde veut passer devant M. Zuckerberg avant qu’il fasse son introduction en bourse. Et c’est ainsi qu’ils nous rendront service, parce qu’ils rendront de plus en plus facile de réaliser ce que notre boîte devra faire, c’est-à-dire se connecter pour vous, rapatrier toutes vos données personnelles, conserver votre réseau d’amis, et offrir tout ce que les services existants devraient faire.

C’est comme cela en partie que nous inciterons les gens à l’utiliser et que nous approcherons la masse critique. D’abord, c’est cool. Ensuite, il y a des gens qui ne veulent pas qu’on espionne leur vie privée. Et puis il y a ceux qui veulent faire quelque chose à propos de la grande e-muraille de Chine, et qui ne savent pas comment faire. En d’autres termes, je pense qu’il trouvera sa place dans un marché de niches, comme beaucoup d’autres produits.

GM : Alors que le marché des mobiles est en train de décoller dans les pays émergents, est-ce qu’il ne vaudrait pas mieux demander aux téléphones portables de fournir ces services ?

EM : Sur le long terme, il existe deux endroits où vous pouvez raisonnablement penser stocker votre identité numérique : l’un est l’endroit où vous vivez, l’autre est dans votre poche. Et un service qui ne serait pas disponible pour ces deux endroits à la fois n’est probablement pas un dispositif adapté.

A la question « pourquoi ne pas mettre notre serveur d’identité sur notre téléphone mobile ? », ce que je voudrais répondre c’est que nos mobiles sont très vulnérables. Dans la plupart des pays du monde, vous interpellez un type dans la rue, vous le mettez en état d’arrestation pour un motif quelconque, vous le conduisez au poste, vous copiez les données de son téléphone portable, vous lui rendez l’appareil, et vous l’avez eu.

Quand nous aurons pleinement domestiqué cette technologie pour appareils nomades, alors nous pourrons commencer à faire l’inverse de ce que font les opérateurs de réseaux. Leur activité sur la planète consiste à dévorer de d’Internet, et à excréter du réseau propriétaire. Ils devront faire l’inverse si la technologie de la téléphonie devient libre. Nous pourrons dévorer les réseaux propriétaires et essaimer l’Internet public. Et si nous y parvenons, la lutte d’influence va devenir bien plus intéressante.




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Inauguration du CF2L – Allocution du président de l’Université Paris Diderot

Le 5 février 2010 était inauguré à l’Université Paris Diderot le premier Centre de Formation Logiciels Libres (ou CF2L) dans le cadre de l’Université numérique Paris Île-de-France (UNPIdF).

Nous en avions annoncé ici-même la création et participé à diffuser le programme.

Cet évènement témoigne de l’intérêt croissant de l’université en général et de celles d’Île-de-France en particulier pour le logiciel libre. J’en veux pour preuve supplémentaire la présence de deux présidents et un vice-président d’université lors de cette inauguration.

Partie prenante de la formation, Framasoft était représenté par Pierre-Yves Gosset et moi-même. D’ordinaire les traditionnels discours officiels ont quelque chose de lisse et de convenu. Or nous avons été très agréablement surpris par l’acuité et la justesse des propos tenus ce soir-là. C’est aussi à cela que l’on mesure le chemin parcouru.

Mention spéciale à Vincent Berger, président de l’Université Paris Diderot et hôte de la manifestation, dont l’intervention m’a tant et si bien marquée que je n’ai pu m’empêcher de l’aborder pour lui demander l’aimable autorisation de la reproduire sur le Framablog.

Qu’il en soit ici chaleureusement remercié. Pour son accord, mais aussi et surtout pour être à la tête d’une université qui fait la part belle à un logiciel libre malicieusement associé ici à un oxymore.

CF2L - Inauguration - Jean-Baptiste Yunes

De gauche à droite sur le photographie ci-dessus[1] :

  • Michel Moreau-Belliard – Chef de projet de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Vincent Berger – Président de l’Université Paris Diderot
  • Jean-Claude Colliard – Président de l’Université Paris 1 Panthéon-Sorbonne et de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Arnaud Ducruix – Vice-Président de l’Université Paris Descartes, représentant Axel Kahn, Président de l’Université Paris Descartes

Intervention Président Berger

Inauguration du Centre de Formation aux Logiciels Libres
Vendredi 5 février 2010
Salle des thèses, Université Paris Diderot

Mesdames et Messieurs,
Chers collègues,

Nous le savons tous et vous le savez mieux que quiconque, la société de l’information qui est la nôtre est une société de la circulation : circulation des savoirs, circulation des données, circulation des signes. Qui a accès aux moyens de cette communication peut espérer prendre part à cette société de l’information et en être un acteur.

On sait combien l’économie du partage des savoirs est aujourd’hui un enjeu complexe. On sait aussi combien le large accès aux moyens de l’information est un enjeu politique au sens le plus large et le plus noble du terme. L’accès à ces moyens d’information conditionne la réalité de l’exercice démocratique dans un monde aux cultures et aux pratiques toujours plus intégrées et globalisées.

Dans ce contexte, on sait quel est le rôle charnière de l’université. Sa mission hier comme aujourd’hui est de garantir l’accès du plus grand nombre à des savoirs et à des compétences complexes. Son rôle dans l’économie de la connaissance et de l’information lui enjoint de jouer un rôle ambitieux et volontaire dans la promotion et la diffusion d’une culture du partage.

En cela, la pratique universitaire — qu’elle soit pédagogique ou scientifique, qu’elle se déploie dans une salle de TD ou un laboratoire — participe du même esprit que celle du logiciel libre. La dynamique collégiale, l’énergie collective qui ont rendu le développement du logiciel libre possible relève de la même éthique du partage que celle de la recherche et de l’enseignement.

Les outils numériques ouverts ont connu un essor tel qu’aujourd’hui ils répondent à la quasi intégralité de nos besoins en technologie informatique. Accompagner leur développement, former les utilisateurs et les développeurs à leur utilisation et à leur développement, est désormais aussi la tâche de l’université. Le Centre de Formation aux Logiciels Libres (CF2L) répond à cet impératif.

Dans sa conception et sa gestation, ce Centre est aussi exemplaire d’une autre forme de dynamique collaborative que nous défendons aussi : celle qui doit permettre à des universités de dépasser leur logique propre pour faire advenir des synergies porteuse d’avenir, porteuse de nouveau. C’est le cas de l’Université Numérique Paris Ile de France, pilotée par l’université Paris 1 – Panthéon Sorbonne, dont l’une des actions est d’offrir en mutualisation des formations à destination des personnels, quels qu’ils soient, appartenant aux universités franciliennes. C’est aussi le cas du RTC (Regional Training Center), aujourd’hui hébergé par l’Université Paris Descartes, une initiative de l’Université numérique et d’Apple pour former les personnels des universités de la région parisienne aux usages du numérique. En 2011 devrait ouvrir aussi un centre de formation aux outils Microsoft.

Le Centre de Formation que nous inaugurons aujourd’hui s’inscrit dans ce même esprit. Il témoigne de l’investissement ancien de notre établissement dans l’usage et la défense du logiciel libre. L’UFR d’informatique a eu, dès le début des années 80, une action très volontariste dans l’usage et la promotion du numérique ouvert, avec la pratique d’Unix par exemple. L’Université a, dès les années 90 promu l’usage systématique de systèmes d’exploitation libres au sein du Service Commun de Ressources Informatiques Pédagogiques et Technologiques (le SCRIPT), dirigé aujourd’hui par Olivier Cardoso. De nombreux enseignements s’appuient sur des logiciels libres.

J’ouvre ici une parenthèse, j’aime beaucoup l’expression « logiciel libre » qui a le charme des oxymores, comme « la force tranquille . Je me rappelle que lorsque j’étais étudiant en Maths spé, on employait une technique d’intégration qui répondait au nom épatant de « méthode de la variation de la constante ». Le programme d’une révolution, en somme.

Le « logiciel libre » ressemble à la variation de la constante, parce que justement, le logiciel est une succession d’actions élémentaires qui sont censées s’enchaîner « logiquement », c’est-à-dire tout le contraire de la liberté. Je me rappelle aussi de mon sujet de philosophie au baccalauréat, qui s’intitulait « l’acte libre existe-il ? ». Je ne soupçonnais pas un instant que cette courte question deviendrait, bien au delà du petit tracas d’une dissertation de trois heures, le questionnement de toute une vie. Récemment, dans le cadre des discussions sur l’attribution des primes à l’université, nous avons été amenés à discuter de l’excellence, du mérite. Nous nous sommes vite rendu compte que la complexité de la discussion résidait dans le fait que nous touchions ici foncièrement à la question de la liberté. Si quelqu’un réussit davantage dans ses recherches simplement parce qu’il est plus intelligent, parce que le logiciel de ses gènes l’a programmé à être doué de capacités hors normes, peut-on parler de mérite ? Si c’est au contraire son éducation qui l’a programmé à faire preuve des qualités nécessaires pour atteindre l’excellence, où est le mérite ? Le mérite n’est-il pas lié intimement à la possibilité d’un acte libre ? La vie dans son ensemble est-elle un enchaînement logiciel d’actions complexes mais logiques, où laisse-t-elle place à la libre construction de son destin ? Cette expression, le « logiciel libre », m’évoque donc cet éternel sujet de philosophie.

Mais revenons à notre inauguration. Le Centre de Formation implanté à Paris Diderot constitue la suite logique de cet investissement de longue date dans l’économie du logiciel libre. Développé en partenariat avec Paris Descartes, il est aussi un exemple concret des partenariats lancés entre nos deux établissements afin de renforcer notre action commune dans le paysage universitaire francilien et national.

On le sait la liberté a de nombreux visages. L’économie ouverte du logiciel libre est de celle qui permettront demain, comme aujourd’hui, un plus libre partage des compétences informatiques. Nous ne pouvons que nous féliciter de la création de ce centre et remercier tous les collègues qui ont travaillé à sa mise en place, dont Jean-Baptiste Yunès et Thierry Stoehr qui ont été la cheville ouvrière du projet et qui défendent avec une énergie inlassable le développement des TICE et du logiciel libre dans notre établissement.

L’action citoyenne de notre établissement passe aussi par le soutien à cette action et je souhaite réaffirmer que, parmi les nombreux chantiers qui sont les nôtres, le développement de ces technologies engage notre avenir pédagogique. Il engage aussi notre mission de diffusion des savoirs. De cette diffusion nous sommes aussi comptables avec vous.

Je vous remercie.

Notes

[1] Crédit photo : Université Paris Diderot




Médecine 2.0 – Une conférence accessible et passionnante de Dominique Dupagne

Sur ce blog nous nous méfions du qualificatif « 2.0 » trop souvent récupéré et vidé de son sens par le marketing. Sauf à faire comme Benjamin Bayart et ne pas hésiter à comparer l’évolution d’Internet à un ironique et menaçant « Minitel 2.0 ».

Cela reste néanmoins parlant, voire pertinent, lorsqu’il s’agit d’envisager l’hypothèse d’un changement majeur, un saut quantique, dans une discipline donnée, en particulier lorsque les nouvelles technologies participent à cette (r)évolution.

La discipline dont il est question dans ce billet nous concerne tous puisqu’il s’agit de la médecine. Et d’après Dominique Dupagne, médecin généraliste et créateur du site Atoute.org, elle est peut-être en train de connaître une mutation importante qualifiée donc ici de « médecine 2.0 », par opposition à une « médecine 1.9 » :

Les communautés de patients et la fluidité de l’information changent le visage de la médecine. La Médecine 2.0 traduit l’idée d’une évolution majeure de la relation entre le médecin, le malade et la maladie. Comme en informatique, le changement d’unité traduit une nette évolution par rapport aux versions précédentes (1.1, 1.2… 1.9, 1.9.1 etc.). La médecine 2.0 représente donc une forme de révolution. Elle reprend le concept de Web 2.0 dont elle utilise les valeurs et les outils.

En voici quelques points forts issus de cet article (ou résumés dans cette courte vidéo YouTube) :

  • Les patients créent de la connaissance
  • Les patients découvrent ou inventent de nouvelles maladies
  • Le savoir des soignants s’étend lui aussi
  • La qualité et la disponibilité de l’information augmentent
  • La mesure de la qualité en médecine fera intervenir des critères inhabituels mais enfin pertinents

Pour en savoir plus, nous avons reproduit ci-dessous la conférence de Dominique Dupagne à l’Ecole de Hautes Etudes en Sciences Sociales, présentée le 19 février dernier lors d’un séminaire du centre Edgar Morin (sous licence Creative Commons By).

Dans cette intervention non dénuée d’humour, il sera question de Google, « d’hôpital magnétique » et « d’empowerment ». Mais il sera surtout question d’une médecine bousculée positivement par les nouvelles technologies et des patients bien décidés en se les appropriant à ne plus demeurer passifs.

La médecine 2.0 reprendrait donc « le concept de Web 2.0 dont elle utilise les valeurs et les outils ». Vous vous apercevrez peut-être comme moi au passage qu’elle reprend parfois également, consciemment ou non, les valeurs et les outils du logiciel libre.

Parce qu’entre les communautés de patients dont on redonne parole, action et expertise collective et les communautés d’utilisateurs de logiciels libres, il y a souvent de fortes similitudes…

—> La vidéo au format webm

PS : Grâce à notre ami JosephK d’ITheora, nous testons actuellement sur le Framablog la lecture directe au format Ogg pour les navigateurs compatibles HTML 5. Merci de nous faire part de tout retour positif ou négatif dans les commentaires.