Produire du logiciel libre, le livre culte enfin en français chez Framabook !

Produire du logiciel libre - Framabook - CouvertureFramasoft est fier et heureux d’annoncer officiellement la sortie d’un nouveau volume à sa collection de livres libres Framabook. Il s’agit de la traduction d’un livre considéré comme une référence chez les développeurs anglophones : Producing Open Source Software, de Karl Fogel.

C’est une évidence, maintes fois constatées : il ne suffit pas de coller une licence libre au code source de son application pour en faire un logiciel libre à succès. Nombreux sont les paramètres à prendre en compte pour se donner les moyens de véritablement réussir votre projet. Cela ne coule pas de source, si j’ose dire, et c’est pourquoi un tel ouvrage peut rendre de grands services.

Ayant payé de sa personne, Karl Fogel n’hésite pas à affirmer lui-même que 95% des projets échouent. Et de rédiger alors ce livre pour contribuer à faire en sortie que le pourcentage restant remonte !

Dans la foulée du framabook sur Unix et sur le langage C, nous faisons un effort didactique tout particulier pour accompagner tous ceux qui souhaiteraient se lancer dans la création de logiciels libres ou rejoindre un projet existant. Nous pensons à ceux qui ne maîtrisent pas forcément d’emblée l’anglais.

Nous pensons également aux jeunes débutants. Parce que, comme cela a déjà été souligné, l’informatique est l’une des grandes absentes de l’enseignement secondaire français. Alors, fille ou garçon, l’étudiant motivé se retrouve bien souvent livré à lui-même et c’est à lui de se débrouiller pour extraire le bon grain de l’ivraie du Grand Internet. Nous espérons lui être utile en lui apportant notamment ici gain de temps et efficacité.

Voici comment le livre est présenté dans le communiqué de presse joint à ce billet :

« Teinté d’humour et de réflexions subtiles, ce livre prodigue de précieux conseils à ceux qui souhaitent commencer ou poursuivre un projet de développement en logiciel libre. Pour cela, Karl Fogel propose une description claire et détaillée des bonnes pratiques de développement. Il initie non seulement le lecteur à la méthode de travail collaboratif mais démontre aussi l’importance des relations humaines dans la réussite d’un projet, comme l’art d’équilibrer actions individuelles et intérêt commun. Identifiés à travers sa longue expérience en gestion de projet open source, différents aspects sont abordés : structurer l’ensemble de la communauté de développeurs, maintenir un système de gestion de versions, gérer les rapports de bugs et leurs corrections, bien communiquer à l’intérieur comme à l’extérieur du projet, choisir une licence adaptée au logiciel… »

Grâce à son expérience du développement open source, Karl Fogel nous livre ici bien davantage qu’une simple marche à suivre pour qu’un projet voit le jour et ait une chance d’aboutir. Il s’agit en effet de détailler les éléments stratégiques les plus importants comme la bonne pratique du courrier électronique et le choix du gestionnaire de versions, mais aussi la manière de rendre cohérents et harmonieux les rapports humains tout en ménageant les susceptibilités… En somme, dans le développement Open Source peut-être plus qu’ailleurs, et parce qu’il s’agit de trouver un bon équilibre entre coopération et collaboration, les qualités humaines sont aussi décisives que les compétences techniques. »

La traduction de cet ouvrage a obéi aux mêmes principes que ceux exposés par Karl Fogel. Elle fut le résultat de la convergence entre les travaux initiés par Bertrand Florat et Étienne Savard et ceux de Framasoft coordonnés par Christophe Masutti. Comme d’habitude, ce livre a été finalisé dans La Poule ou l’Œuf et peut se commander en version papier chez InLibroVeritas pour la modique somme de 15 euros.

Comme d’habitude aussi ce livre est sous licence libre (Creative Commons By) et est intégralement consultable en ligne ou téléchargeable dans sa version numérique sur le site Framabook. Parce qu’ici comme ailleurs, et peut-être même plus qu’ailleurs, il nous apparaît fondamental de pouvoir en assurer sa plus large diffusion et participer ainsi à susciter des vocations.

Nous comptons sur vous pour signaler l’information 😉

Framasoft ne serait rien sans les développeurs de logiciels libres. Ce projet est en quelque sorte une manière pour nous de les remercier.




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




Ils sont devenus fous ou la simple mais affligeante histoire d’un étudiant allemand

Nate Bolt - CC by-saUn étudiant allemand cherche à consulter un article référencé sur Internet. Et le cauchemar commence…

On lui indique qu’il ne peut le faire que dans une bibliothèque (publique) ayant acquis les droits sur l’article en question[1].

Il se rend à cette bibliothèque mais il doit attendre car un autre lecteur est dessus et les droits stipulent qu’on ne peut lire l’article simultanément !

Un peu de patience, la place se libère et il peut enfin parcourir son article. Et là, nouvelle stupeur, impossible de sauvegarder, rechercher, ni même copier/coller tout ou partie de l’article !

C’est une histoire démente. C’est une histoire fictive qui se rapproche chaque jour un peu plus de la réalité. Je me demande même si elle n’existe pas déjà quelque part.

Bienvenue au XXIe siècle…

Ce (faux) témoignage est issu de l’excellent livre « Biens Communs – La Prospérité par le Partage » que nous avons évoqué dans un billet précédent. Il fait tristement écho à l’article Pour libérer les sciences de Christophe Masutti. On pourra également lire avec effroi la nouvelle prémonitoire de Richard Stallman rédigée en 1997 : « Le droit de lire ».

Comment ce qui n’est pas rare le devient – Dissertation d’un étudiant sur le droit d’auteur moderne

URL d’origine du document

Extrait du rapport de Silke Helfrich, Rainer Kuhlen, Wolfgang Sachs, Christian Siefkes
Publié en décembre 2009 par la Fondation Heinrich Böll
Traduit par Jeremy Marham et Olivier Petitjean (Ritimo.org)
Sous licence Creative Commons By-Sa

Devant rédiger un devoir sur les biens communs, j’ai effectué une recherche sur Internet, laquelle fut fructueuse. J’ai pu télécharger facilement plusieurs textes et en inclure certains passages appropriés dans mon brouillon. Jusqu’à ce que mon attention soit attirée par un texte intéressant, qui était payant, c’est-à-dire qu’il ne pouvait être lu que dans une bibliothèque qui en aurait acquis les droits.

« Aucun problème, me suis-je dit, la bibliothèque universitaire est reliée au net, et son catalogue est accessible en ligne. » Et, de fait, l’article dont j’avais trouvé la référence était indiqué comme « disponible sous format électronique ». Pourtant, lorsque je tentai de le télécharger, un message d’erreur s’afficha: « Cet article n’est consultable que dans l’espace de la bibliothèque. » Je restai sans voix. Pourquoi donc ?

Je pris donc le bus jusqu’à la bibliothèque nationale – un trajet d’une petite heure – et m’orientai jusqu’aux places réservées à la consultation d’Internet. Là encore, je trouvai dans le catalogue en ligne la référence de l’article recherché.

Mais un nouveau message s’afficha à l’écran: « Le recueil recherché est actuellement consulté par un autre utilisateur. La bibliothèque n’a fait l’acquisition que d’un seul recueil et ne peut, selon le principe d’accessoriété au fonds, permettre un accès simultané qu’à autant d’articles qu’elle détient de droits sur l’édition achetée. Nous ne voyons pas dans votre cas une exception à cette règle. » À nouveau, je restai sans voix.

Je n’ai pas compris le terme «accessoriété au fonds», mais j’ai compris ce qu’il signifiait : je devais attendre !

Mais pourquoi donc ? N’avais-je pourtant pas appris récemment dans un séminaire que les ressources électroniques peuvent faire l’objet d’une utilisation non rivale ? Mon utilisation ne porte pas atteinte à celle des autres. J’ai brusquement pris conscience de ce que signifiait le fait de rendre rares et exclusives des choses comme la lecture d’un texte, qui ne devraient pas l’être selon cette théorie.

Bon, un café ne me ferait pas de mal…et, après le café, la voie était enfin libre ! Comme de toute façon l’article était plutôt long, je décidai de le sauvegarder sur ma clé USB afin de pouvoir le relire plus attentivement. «Save as». Une troisième fois, je restai sans voix. Cette fois, le message m’apprit que le texte ne pouvait pas être sauvegardé.

Contraint par la force des choses, je commençai à lire le texte. Puis je décidai de rechercher les passages comprenant les termes « commons » et « bien commun », qui m’intéressaient plus particulièrement. Résultat : « Aucun passage trouvé ». Étrange, c’est pourtant le sujet de l’article ! Je testai avec un mot courant de tous les jours : « Aucun passage trouvé ». La fonction de recherche en plein texte ne fonctionnait pas.

À bout de nerfs, je décidai de ne copier qu’une seule phrase importante, que je souhaitais citer, dans le presse-papiers et de la coller ensuite sur ma clé. Encore une fois, un message d’erreur apparut, où je trouvai finalement l’indication décisive: « Il s’agit d’un PDF protégé par un système de gestion des droits numériques ou digital rights management (DRM). Tous les droits appartiennent à la maison d’édition. Vous ne pouvez lire l’article qu’à l’écran. Vous avez le droit de prendre des notes. »

Je ne m’attendais pas à une telle mesure technique de protection dans une bibliothèque publique. Pour moi, cela signifiait soit que je devais passer les deux heures suivantes devant l’écran pour prendre des notes, comme c’était l’usage à l’époque de Gutenberg, soit que je quittais la salle de lecture en décidant que l’article en question n’avait pas assez importance. Je rejetai d’emblée la troisième possibilité consistant à acheter l’article en ligne à l’éditeur pour 30 euros, d’autant que je n’aurais reçu, même dans ce cas, qu’une licence pour mon usage personnel sur mon propre ordinateur.

Ah oui, et le message d’erreur ajoutait que le système de DRM était « dans mon propre intérêt »…

J’ai renoncé à l’article, mais je voulais tout de même au moins savoir la raison de tout ceci. J’avais toujours associé les questions de droits d’auteur et de copyright aux débats sur l’utilisation de la musique, des vidéos, des jeux ou de la littérature de divertissement. Mais la recherche, l’enseignement, les études ? Je me rappelai alors l’article 5 de la Loi fondamentale allemande :

(1) Chacun a le droit d’exprimer et de diffuser librement son opinion par la parole, par l’écrit et par l’image, et de s’informer sans entraves aux sources qui sont accessibles à tous…

(3) L’art et la science, la recherche et l’enseignement sont libres…

Une bibliothèque publique, ayant fait l’acquisition contre paiement des ouvrages qui y sont disponibles, est accessible à tous, mais je n’y ai pas bénéficié d’un accès libre. Et aurais-je mal compris également le passage concernant la liberté de la science ?

J’appris par la suite, en évoquant cette expérience avec mon professeur, que les droits énumérés dans la Loi fondamentale et ceux qui sont explicitement formulés dans une loi avec des restrictions éventuelles sont deux choses totalement différentes. Mon cas tombait sous la juridiction du droit des auteurs, lequel protège avant tout l’auteur, ou celui qui aurait acquis les droits de celui-ci dans le but de publier et exploiter ses ouvrages.

Certes, il existe bien sûr, afin de garantir l’intérêt public, certaines limites aux droits des auteurs ou des exploitants, qui pourraient permettre l’utilisation pleine et entière de documents électroniques dans les bibliothèques sans avoir à en demander la permission aux ayant droits. Mais seulement lorsque le législateur en dispose ainsi !

Et pourquoi n’est-ce pas le cas en l’occurrence ? Mon professeur me renvoya au paragraphe 52b de la loi sur les droits d’auteur, qui réglemente la « consultation d’ouvrages au moyen de postes de lecture électroniques dans les bibliothèques … » J’y trouvai toutes les dispositions législatives qui m’avaient empêché de travailler à la bibliothèque comme je suis habitué à le faire avec Internet. À vrai dire, je ne comprends pas. Pourquoi nos parlementaires adoptent-ils une loi qui rend l’accès à l’information et au savoir pour les étudiants et les professeurs plus difficile qu’au temps de Gutenberg ? D’autant plus que ce savoir est généralement produit grâce à des financements publics. Il me semble que cela mériterait un recours pour inconstitutionnalité.

En tout cas, j’ai trouvé le sujet de mon devoir :

Ce qui est dans le domaine public ou ce qui est financé par les deniers publics doit rester accessible à tous.

Notes

[1] Crédit photo : Nate Bolt (Creative Commons By-Sa)




À lire et à faire lire : Biens Communs – La Prospérité par le Partage

Ed Yourdon - CC by-saEn avril dernier nous mettions en ligne un remarquable article de Silke Helfrich « Les biens communs ou le nouvel espoir politique du XXIe siècle ? ». Cette fois-ci nous avons le plaisir de relayer l’annonce de la traduction française d’un rapport d’une cinquantaine de pages sur ces fameux Biens communs, où l’on retrouve Silke Helfrich parmi les nombreux auteurs de cet ouvrage collectif. Il a pour titre « Biens Communs – La Prospérité par le Partage » et il est naturellement placé sous licence libre Creative Commons By-Sa.

Nous avons déjà eu l’occasion de dire que nous pensions que « les Biens communs seront à n’en pas douter non seulement l’un des mots clés de ces temps nouveaux qui s’offrent à nous, mais aussi, si nous le voulons bien, l’un des éléments moteurs et fédérateurs des politiques progressistes de demain ». Ce rapport est une pièce important à verser au dossier, tellement importante que d’aucuns pourraient presque y voir une sorte de manifeste pour les générations à venir[1].

Il n’est pas toujours aisé de définir avec précision ce que sont les Biens communs, d’ailleurs ceci fait l’objet d’un chapitre dédié en guise de préambule. Mais à chaque fois que l’on tente d’en dresser une liste, les logiciels en font partie, à la condition d’être libres. On ne s’étonnera donc pas qu’ils soient souvent cités ici.

Il est également dit que « les biens communs ont besoin d’hommes et de femmes qui soient prêts à les défendre et qui s’en sentent responsables ». Aussi modeste soit notre contribution, nous en sommes 😉

Vous trouverez le rapport en version PDF en suivant ce lien. Et pour vous donner plus encore envie de le lire (ce qui implique le dur sacrifice de devoir laisser au repos son compte Twitter pendant une petite heure), nous en avons reproduit ci-dessous la quatrième de couverture, l’introduction et la conclusion.

Remarque : Le document est agrémenté de citations comme, par exemple, celle-ci de Benni Bärmann que je soumets à votre sagacité : « Les biens communs plairont aux conservateurs par leur dimension de préservation et de communauté, aux libéraux par la mise à distance de l’État et l’absence d’incompatibilité avec le marché, aux anarchistes par la mise en avant de l’auto-organisation, et aux socialistes et communistes par l’idée de propriété commune sous contrôle collectif. »

Biens Communs – La Prospérité par le Partage (extraits)

URL d’origine du document (dans son intégralité)

Un rapport de Silke Helfrich, Rainer Kuhlen, Wolfgang Sachs, Christian Siefkes
Publié en décembre 2009 par la Fondation Heinrich Böll
Traduit par Jeremy Marham et Olivier Petitjean (Ritimo.org)
Sous licence Creative Commons By-Sa

Quatrième de couverture

Ce sont de grands inconnus, et pourtant nous vivons tous grâce à eux. Ils sont au fondement même de notre vie collective. Ce sont les biens communs. L’air, l’eau, les savoirs, les logiciels et les espaces sociaux. Et bien d’autres choses qui rendent possible la vie quotidienne et le bon fonctionnement de l’économie.

De nombreux biens communs sont cependant menacés – ils sont ôtés à la collectivité, commercialisés, détruits de manière irréversible. Au lieu de cela, ils devraient être cultivés et développés.

Nous avons besoin d’une nouvelle conscience de l’importance de ces « choses qui nous sont communes ». Sans eux, il n’y a en effet pas de bien-être et pas de prospérité possibles. Les biens communs ont besoin d’hommes et de femmes qui soient prêts à les défendre et qui s’en sentent responsables.

De nombreux problèmes de notre époque pourraient être résolus si nous dirigions l’énergie et la créativité dont nous disposons vers ce qui fonde notre richesse, ce qui fonctionne, et ce qui aide les hommes et les femmes à développer leur potentiel.

Ce rapport vise précisément à mettre ces choses, ainsi que les principes d’une «production par les pairs basée sur les biens communs», au centre de l’attention publique.

Objet de ce rapport

Ce que l’on appelait traditionnellement res communes – les choses qui nous appartiennent en commun – a été sinon oublié, du moins supplanté par les res privatae organisées par le marché, ainsi que par les res publicae mises à disposition par l’État. Elles sont dès lors traitées comme des res nullius, c’est-à-dire des « choses de personne ».

L’air et l’eau sont de parfaits exemples de biens communs qui, malgré leur importance, partagent bien souvent le triste sort des « choses de personne », de ces choses dont personne ne s’occupe. Les conséquences catastrophiques pour nous tous d’un tel état de fait se manifestent aujourd’hui de toute part.

Les « biens communs » – res communes, ou encore « commons » en anglais – ne sont pas des biens « sans maître ». Ils ne peuvent pas et ne doivent pas être utilisés à n’importe quelle fin, et encore moins détruits. Chacun de nous peut légitimement faire état de droits sur eux. Les biens communs sont les choses qui nous nourrissent, qui nous permettent de communiquer ainsi que de nous déplacer, qui nous inspirent et qui nous attachent à certains lieux– et dont, de manière tout aussi significative, nous avons besoin pour déverser nos gaz d’échappement et nos eaux usées.

La conception classique de la propriété, comprise en premier lieu comme droit de l’individu, acquiert une nouvelle dimension si l’on prend conscience de l’existence d’un droit collectif sur les biens communs.

  • Quelles sont les conséquences d’une redéfinition des terres comme biens communs ?
  • Qu’advient-il de l’espace public lorsqu’il n’est plus possible de le privatiser à volonté par la publicité, les décibels, les voitures ou les parkings ?
  • À quoi ressemblerait une société où l’utilisation libre des biens relatifs à laconnaissance et la culture serait devenue la règle, et leur utilisation commerciale l’exception ?
  • Quelles sont les règles et les institutions qui encouragent un rapport riche de sens aux biens communs ?

Ces questions ne sont débattues ni sur le plan théorique ni sur le plan de leurs conséquences politiques, sociales ou économiques.

Nous avons voulu dans ce rapport étudier le potentiel des biens communs lorsqu’ils sont utilisés de manière appropriée et durable. Nous y examinons les facteurs qui menacent leur existence. Nous y montrons quelles sont les règles qui ont fait leurs preuves dans certaines situations, et quelles sont celles qui doivent être entièrement repensées. Dans les pages qui suivent, nous partageons avec vous nos réflexions et nos expériences.

Les biens communs ne sont pas tous similaires, pas plus que les habillages institutionnels nécessaires pour transformer des ressources existantes en biens communs sécurisés. La remise du prix Nobel d’économie 2009 à la théoricienne des biens communs Elinor Ostrom a attiré l’attention du monde entier sur les questions discutées ici. L’approche théorique du juriste Yochai Benkler, avec le motif d’une « production par les pairs basée sur les communs » (commons-based peer production) qu’il met en avant, est elle aussi stimulante.

Il faut renforcer les biens communs, au-delà et de manière complémentaire au marché et à l’État. Chacun est appelé à assumer ses responsabilités en tant que copossesseur des « choses qui nous sont communes », afin d’en tirer davantage de liberté et de communauté. Les biens communs ont besoin d’hommes et de femmes, non seulement de marchés, d’aides gouvernementales ou de régulation étatique. La richesse qui se dispense à travers les biens communs doit être partagée de manière nouvelle et équitable dans toutes les sphères de notre vie.

Pour conclure : une vision

Nous avons besoin de changement, et nous connaissons la direction à emprunter. De nombreuses personnes sont déjà en chemin.

Ce rapport démontre que l’idée des biens communs peut faire nconverger différents mouvements. Voilà leur point fort.

Elle permet de rassembler en une stratégie commune la diversité des expériences pratiques et des projets, sans pour autant renoncer à la diversité des perspectives et des idéologies.

  1. Nous pouvons directement vouer notre énergie, nos institutions et nos talents aux biens communs et à ce qui constitue leur essence: la diversité de la vie.
  2. Nous pouvons nous demander systématiquement, à propos de tout projet, de toute idée ou de toute activité économique, s’il apporte plus aux communautés, à la société et à l’environnement qu’il ne leur retire.
  3. Nous pouvons reconnaître et soutenir matériellement en priorité les activités qui génèrent, entretiennent ou multiplient des biens à la libre disposition de tous.
  4. Nous pouvons faire en sorte que la participation collective et équitable aux dons de notre Terre ainsi qu’aux réalisations collectives du passé et du présent soit institutionnalisée et devienne la norme.
  5. Nous pouvons recourir à des processus décisionnels, des moyens de communication et des technologies transparents, participatifs et libres, ainsi que les améliorer.
  6. Nous pouvons inverser la tendance actuelle: en nous fixant des limites et en utilisant de manière durable les ressources naturelles, mais en étant prodigues en matière de circulation des idées. A insi nous bénéficierons au mieux des deux.
  7. Nous pouvons trouver des moyens intelligents de promouvoir la progression de tous, au lieu de nous concentrer exclusivement sur l’avancement individuel.

Lire le rapport « Biens Communs – La Prospérité par le Partage » dans son intégralité …

Notes

[1] Crédit photo : Ed Yourdon (Creative Commons By-Sa)




Un excellent reportage de la TSR sur le devenir des dons à Wikipédia

La Télévision suisse romande (TSR) a mis en ligne, à l’occasion des 10 ans de Wikipédia, un excellent reportage au titre bien choisi : « Pour la bonne cause Wikipédia ».

En quelques trois minutes on y explique fort bien l’utilité de soutenir financièrement le projet ainsi que le rôle joué par les associations locales, en l’occurrence Wikimedia CH.

Et puis cela fait aussi du bien de voir qu’il ne s’agit pas uniquement de personnes derrière leur ordinateur, avec cette jolie petite histoire de photographes de hockey.

—> La vidéo au format webm

URL d’origine du document

PS : J’ai retrouvé la page en question illustrant l’équipe de hockey de Bâle. Quant au l’ancien maire de Genève, il y a sa page Wikipédia, quand bien même celle-ci ne serait encore qu’une ébauche 😉




Pourquoi plus de dix ans de retard pour l’informatique à l’école ?

QThomas Bower - CC by-saAuriez-vous deviné que l’article que nous vous proposons aujourd’hui date de 1998 ? Oui car il est question de francs et non d’euros, mais sinon force est de constater qu’il est toujours d’actualité.

On pourrait même ajouter qu’il est malheureusement toujours d’actualité car les arguments avancés restent pertinents alors que, douze ans plus tard, les solutions envisagées n’ont toujours pas été prises. Et il est alors légitime de se demander pourquoi, et qui a et a eu intérêt à ce qu’il soit urgent de ne rien faire.

J’ai donc voulu profiter du fait que le Framablog est relativement bien intégré dans la sphère des blogs et autres réseaux sociaux pour le sortir de sa naphtaline et vous le faire partager. Nous devons cet article à Bernard Lang, directeur de recherche à l’Inria et membre fondateur de l’AFUL.

Le sujet de la place de l’informatique à l’école est un sujet qui semble a priori un peu à la marge des logiciels libres. Il n’en est rien pourtant. Et c’est pourquoi nous publions régulièrement des articles sur ce thème, en soutenant le travail, enfin proche d’aboutir, de Jean-Pierre Archambault et d’autres, au sein notamment de l’EPI et de l’ASTI :

C’est aussi pourquoi notre collection de livres libres Framabook accueille des titres comme Le C en 20 heurs ou Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander.

Il ne s’agit pas de faire de tout citoyen un programmeur chevronné. Mais logiciels (libres ou pas), données (personnelles ou pas), réseaux, Cloud Computing, Internet (filtrage, neutralité), Hadopi, Acta, Loppsi, Facebook, Microsoft, Apple, Google, Wikileaks, Anonymous… comment comprendre et appréhender au mieux ce nouveau monde si l’on n’a pas un minimum de culture informatique ?

Parce que dans le cas contraire, on se met alors tranquillement à accepter, pour ne pas dire applaudir, l’entrée des iPad dans nos écoles, ce qui devrait d’ailleurs être le sujet de mon prochain billet[1].

L’Informatique : Science, Techniques et Outils

URL d’origine du document

Bernard Lang (INRIA) – décembre 1998

(Présenté à LexiPraxi 98, journée de réflexion sur le theme «Former des citoyens pour maîtriser la société de l’information», organisée le 9 décembre 1998 à la Maison de l’Europe (Paris) par l’AILF. L’auteur remercie Pierre Weis pour sa relecture et ses nombreux commentaires.)

« Le développement extrêmement rapide des technologies de l’information et de la communication ouvre un formidable potentiel de croissance et de création d’emplois, mêlant des enjeux industriels, économiques et sociaux considérables. Ces technologies constituent le premier secteur économique des prochaines années… » (Bernard Larrouturou – L’INRIA dans dix ans – 1997)

Devant une telle analyse, devant l’importance de l’enjeu, l’on imagine aisément que l’une des premières choses à faire est de développer les sciences de l’information dans l’enseignement, afin de préparer les élèves aux défis du prochain siècle. C’est effectivement ce qui se passe, et l’on voit les USA dépenser des sommes de l’ordre de 100 milliards de francs par an pour l’informatisation des écoles. Sans être du même ordre, les efforts consentis par la France dans ce domaine sont également considérables. Et pourtant, selon un article de Todd Oppenheimer, The Computer Delusion, paru dans la revue Atlantic Monthly en Juillet 1997, l’introduction de l’informatique dans les établissements scolaires est loin de donner les résultats que l’on pourrait attendre de tels investissements, et l’on peut légitimement se demander si des investissements moindres, mais autrement employés, ne donneraient pas de meilleurs résultats.

Où est l’erreur ?

L’une des premières remarques que l’on peut faire est que les plus ardents promoteurs de l’informatique à l’école sont les constructeurs de machines, et surtout les éditeurs de logiciels. Il s’agit donc de promotion corporatiste et commerciale, d’habituer les familles et les futurs consommateurs à ces produits, de capturer des marchés, bien plus que d’améliorer le système éducatif. À cet égard l’Union Européenne n’est pas en reste. Si l’on analyse une document comme le Rapport de la Task force Logiciels éducatifs et Multimédia de la Commission Européenne, on constate que la Commission est bien plus préoccupée de développer des marchés lucratifs que d’améliorer le système éducatif. Devant cet assaut mercantile, beaucoup de voix s’élèvent contre l’introduction excessive, trop vite planifiée et mal analysée de l’informatique à l’école, en se demandant si l’utilité pédagogique en est réelle, si l’on n’est pas en train d’appauvrir le système éducatif, que ce soit par le choix d’innovations faussement pédagogiques, ou simplement par une mauvaise évaluation des priorités d’investissement.

Nullement compétent en matière de théorie pédagogique, je me garderai bien de trancher dans un sens ou un autre. Force est cependant de constater qu’il est clair que les nouveaux outils informatiques ont déjà montré qu’ils pouvaient, au moins dans certaines circonstances, apporter un plus pédagogique. Mais de là à faire un investissement massif, sur des ressources chères, sans analyse sérieuse des différentes alternatives, sans expérimentation sur le long terme, simplement sous la pression des marchés et des média, est-ce bien raisonnable ?

Mais là n’est pas l’essentiel de notre propos. Car nous avons parlé de pédagogie, alors que les enjeux du prochain siècle sont d’abord, nous le disions, dans la maîtrise des nouvelles technologies, et au moins autant dans la maîtrise d’une transformation radicale de notre environnement due à l’utilisation massive des ressources informationnelles, en particulier grâce à l’Internet. Mais cet aspect des choses est curieusement très largement ignoré dans l’évolution de nos programmes éducatifs. L’attention se focalise trop sur l’informatique comme support de la pédagogie, au sens le plus traditionnel du terme (même si les techniques sont très nouvelles dans certains cas), et l’on ignore assez systématiquement l’informatique en tant que discipline d’enseignement, l’informatique comme sujet d’étude.

A cette distinction évidemment essentielle, il convient d’ajouter une troisième catégorie, l’informatique comme outil dans l’enseignement. Je pense en particulier à l’intrusion d’outils, d’intermédiaires informatiques, dans certaines disciplines. Sans vouloir m’étendre sur ce sujet, qui relève également de la pédagogie, on peut se demander si la trop grande présence de médiations informatiques, par exemple dans la conduite d’expériences de physique, n’introduit pas une trop grande distanciation par rapport à l’objet étudié. L’élève ne risque-t-il pas de prendre l’habitude de faire plus confiance à ce que lui dit l’ordinateur qu’à ses sens, son esprit critique, ses facultés d’analyse. Combien d’élèves sont déjà totalement dépendants de leur calculette, et incapable d’un calcul mental simple sur des ordres de grandeur sans vérifier immédiatement sur l’écran magique. On retrouve ce problème dans l’enseignement de l’informatique elle-même, quand l’apprentissage passif des outils se fait dans l’ignorance de toute compréhension des mécanismes, même les plus simples, qu’ils mettent en jeu.

Si les enjeux réels sont dans la maîtrise des sciences de l’information, ce sont ces sciences, et en particulier l’informatique, qu’il faut enseigner en tant que discipline scientifique.

Mais comme beaucoup d’autres disciplines, l’informatique a de multiples facettes, science théorique et expérimentale objet de recherches d’une grande diversité, technologie donnant lieu à une activité industrielle considérable, et ensemble d’outils des plus en plus intégrés à notre vie quotidienne, familiale ou professionnelle. Probablement en raison de la jeunesse de cette discipline, et précisément à cause de son manque actuel d’intégration dans le cursus scolaire, la distinction entre ces aspects complémentaires, mais indissociables, n’est pas faite dans les esprits. Beaucoup en sont encore à confondre les aspects fondamentaux et pérennes avec leur expression actuelle dans des outils destinés à évoluer rapidement. Comme mes collègues et moi-même l’écrivions dans Le Monde, les disciplines plus anciennes distinguent sans problème ces trois composantes, et nul ne confond la thermodynamique, la technologie des moteurs à explosion et le mode d’emploi d’un véhicule automobile. Cette confusion, encore présente dans le cas de l’informatique, est en outre renforcée par le fait que chacun pouvant s’essayer assez facilement à certains de ses aspects originaux, comme la programmation sur des problèmes simples, on a l’illusion que c’est une discipline facile à maîtriser et sans réelle profondeur. Mais en fait cela revient à se prétendre spécialiste du génie civil et de la résistance des matériaux parce que l’on sait établir un pont en jetant une planche sur un ruisseau.

Pour en revenir à l’enseignement des outils fondés sur l’informatique, et non des outils de l’informatique, il est malheureusement fréquent de voir appeler cours d’informatique un enseignement qui se fonde uniquement sur l’apprentissage de la mise en marche d’un ordinateur, et sur l’utilisation de quelques outils de bureautique. Mais c’est là un cours de bureautique, et non d’informatique, aussi bien que d’apprendre à conduire et à remplir le réservoir de sa voiture ne saurait constituer un cours de thermodynamique, ni même de technologie automobile. C’est utile, certes, dans la vie courante, mais ce n’est aucunement formateur pour l’esprit des élèves. De plus, la technologie informatique étant en évolution rapide, la pérennité de cet enseignement est très aléatoire, d’autant plus que le manque de variété des outils utilisés prive les élèves de toute espèce de recul par rapport à ces outils.

Mais le problème est à mon sens beaucoup plus grave en ce qui concerne l’enseignement de la technologie informatique, que ce soit à l’école ou à l’université. Cette technologie est complexe, en évolution permanente, et très largement contrôlée par l’industrie informatique et notamment les grands éditeurs. Or l’on constate que trop souvent, cet enseignement consiste plus à apprendre à se servir des réalisations technologiques de ces éditeurs qu’à en comprendre les principes, à savoir les critiquer, à savoir les comparer avec d’autres approches, commerciales ou non. Sous le pretexte fallacieux de préparer les étudiant à la vie active, en fait aux besoins les plus immédiats de leurs futurs employeurs, on fait passer pour formations universitaires ce qui n’est que formations kleenex, destinées à devenir obsolètes aussi vite que les produits (souvent déjà obsolètes par rapport à l’état de l’art) sur lesquels elles se fondent. Manquant de profondeur, ces formations ne sauraient être durables, et c’est ainsi que le système éducatif prépare de futur chomeurs et la pénurie de professionnels compétents pour notre industrie. Une bonne façon de garantir la qualité et la pérennité d’un enseignement – et de former l’esprit critique des élèves – c’est de toujours l’asseoir sur une assez large variété d’exemples, que l’on peut comparer et opposer pour en extraire les aspects les plus essentiels, en évitant de se cantonner à l’apprentissage d’un seul type de solutions techniques.

Une première étape en ce sens consisterait à se départir du totalitarisme actuel, en matière de systèmes d’exploitation, de réseaux et de solutions bureautiques notamment, et à faire pénétrer une plus grande diversité de logiciels dans le système éducatif. Il est vrai que la gestion de la diversité a un coût, mais le bénéfice pédagogique le justifie. En outre, il ne faut pas oublier que l’enseignement public a un devoir de laïcité, d’indépendance, et qu’il est donc impératif qu’il évite de se faire le champion d’une marque, d’un produit ou d’une école de pensée. Enfin, il ne faut pas oublier non plus que la diversité est aussi un facteur de progrès et de stabilité « écologique » qui sont essentiels pour le développement d’un secteur technologique. Introduire cette diversité à l’école, quoi que puissent en dire des entreprises qui vivent par nécessité avec un horizon à six mois, c’est aussi garantir un meilleur équilibre futur de notre économie.

Si l’informatique est enseignée comme science fondamentale à l’université, au moins dans les enseignements les plus avancés, cet aspect n’est ni abordé ni même évoqué au niveau de l’enseignement général. Cela ne peut que renforcer une attitude de passivité vis à vis de ce qui apparaît alors comme une technologie ancillaire, ne méritant pas que l’on s’attarde sur son influence croissante, sur le pouvoir qu’elle s’octroie dans toutes nos activitées. Ainsi une meilleure compréhension du rôle fondamental des mécanismes de représentation et d’échange des données nous rendraient certainement plus sensibles à cette forme de dépendance qui s’établit insidieusement dans notre société quand tous nos modes de gestion et de communication de l’information sont peu à peu entièrement contrôlés par des entreprises privées, dont les seuls objectifs sont de nature mercantile.

Outre que l’informatique a ses propres problèmes, sa propre façon de les traiter, ses propres résultats fondamentaux, elle est intéressante du point de vue de l’enseignement général parce que c’est une science carrefour. Il y a bien sûr des aspects classiquement scientifiques dans l’informatique, mais en plus, par les concepts qu’elle met en oeuvre, elle se rapproche d’autres disciplines littéraires. Par exemple, en informatique, les notions de langage, de syntaxe et de sémantique sont très importantes. Dans l’enseignement actuel, ces concepts relèvent du français ou de la philo… et voilà que l’on peut les illustrer de façon plus concrète – peut-être imparfaite car trop formalisée et mécanique, mais ce défaut-même est source de considérations enrichissantes – par des exemples opérationnels, presques tangibles. À côté de cela, on y rencontre des problèmes de logique, des questions strictement mathématiques, des problématiques apparentées à la physique la plus théorique… On peut donc y trouver matière à discuter de nombreux concepts qui sont aussi pertinents dans d’autres domaines, et donc à éventuellement réduire la dichotomie qui est souvent perçue entre les sciences et les humanités. C’est une situation assez extraordinaire, un champ d’ouverture intellectuelle, dont il est vraiment dommage de ne pas profiter.

Tout n’est cependant pas négatif dans l’informatisation de notre enseignement. Le fort accent mis sur le développement de la connectivité avec l’Internet, bien que souvent décrié, est une avancée essentielle, et cela pour au moins deux raisons majeures.

La première de ces raisons est tout simplement que les élèves d’aujourd’hui seront appelé à vivre dans un monde où la maîtrise de l’information omniprésente sera un élement majeur de la vie sociale. À bien des égards, celui qui ne saura pas gérer cet espace de données, de connaissances et de communication sera dans une situation de dépendance analogue à ceux qui, aujourd’hui, ne savent pas lire, ne savent pas trouver leur chemin sur une carte ou remplir un formulaire. « Apprendre l’Internet », c’est apprendre à vivre dans la société de demain.

La deuxième raison est sans doute encore plus fondamentale pour l’éducation citoyenne. Même sans l’informatique, notre monde a atteint une complexité extrème où les citoyens ont de moins en moins leur mot à dire, où même les pouvoirs politiques sont de plus en plus impuissants devant la complexification des structures économiques et sociales et surtout la mondialisation généralisée. Pour ne prendre qu’un exemple, majeur, les entreprises ont acquis une existence autonome, fortes de leur puissance économique et de leurs dispersion géographique, dans un système où les êtres humains, clients, employés, dirigeants ou actionnaires, ne sont plus que des pions sans aucun pouvoir indépendant. Elles en sont au point où elles disputent leur pouvoir aux nations, aux représentant élus de la population. Face à une situation où la place même de l’homme sur cette planète est radicalement remise en cause, il est nécessaire de trouver de nouvelles structures, de nouveaux modes d’échange, de communication et d’organisation qui permettent au citoyen de retrouver la place qui lui revient dans une société devenue mondiale. Et cela est possible, grâce à l’Internet, à condition d’apprendre à en maîtriser les ressources, à comprendre, voire à tolérer – ce qui n’est pas toujours facile – les points de vues d’autres cultures maintenant à notre porte, à communiquer, à partager et à coopérer avec les autres citoyens du monde. Ce discours, qui peut paraître à certains idéaliste, utopique, voire irréaliste ou fantaisiste, correspond pourtant à une réalité vécue par un nombre tous les jours croissant d’individus. L’action d’un individu sur l’Internet peut faire sentir ses effets dans le monde entier, si tant est qu’elle est pertinente. Et quand une fraction, même minuscule, des centaines de millions d’individus qui accèdent l’Internet décide de coopérer, cela fait une masse énorme susceptible de renverser des montagnes, de mettre en difficulté ou de faire concurrence aux entreprises les plus puissantes, de tenir en échec les tentatives hégémoniques les plus soigneusement préparées, comme cela s’est produit encore récemment pour l’AMI, l’Accord Multilatéral sur l’Investissement préparé en catimini par l’OCDE.

« Apprendre l’Internet », c’est apprendre la citoyenneté de demain.

Notes

[1] Crédit photo : QThomas Bower (Creative Commons By-Sa)




L’accueil, le Sud et la défense d’Internet : des défis majeurs à venir pour Wikipédia

Enokson - CC byL’extraordinaire encyclopédie libre Wikipédia a 10 ans et c’est naturellement l’occasion de faire des bilans.

Nous avons préféré ici nous projeter dans l’avenir en compagnie de Sue Gardner, à la tête de la Wikimedia Foundation depuis 2007 (dont Jimbo Wales en personne nous dit que le recrutement fut certainement « l’une des meilleures décisions que nous ayons jamais prise au cours de cette première décennie »).

L’accueil[1] et la diversification de nouveaux éditeurs, l’ouverture au monde et tout particulièrement vers « le Sud » et son utilisation croissante des terminaux mobiles, mais aussi l’inquiétude (ô combien partagée) de l’émergence de lois potentiellement liberticides pour Internet et de ce que pourrait faire ensemble les Wikipédiens pour le défendre, sont quelques uns des thèmes abordés ici.

Rendre Wikipédia plus accueillant : un véritable défi

The battle to make Wikipedia more welcoming

Olivia Solon – 10 janvier 2011 – Wired.co.uk
(Traduction Framalang : Olivier Rosseler, Martin et Goofy)

L’un des défis majeurs pour Wikipedia est d’étendre sa base de collaborateurs. Ce ne sont pas les volontaires qui manquent, le problème vient plutôt de l’accueil pas très chaleureux qui est réservé aux novices. Sue Gardner, directrice exécutive de la fondation Wikimédia, annonce des mesures pour y remédier, dans une interview donnée à Wired.co.uk.

Le profil du contributeur de Wikipédia moyen, pour sa version anglaise est le suivant : homme (88%), jeune (pas encore tout à fait trentenaire), féru de technique, disposant d’une bonne éducation et qui habite dans l’hémisphère nord. Pour cette raison, les centres d’intérêt de l’encyclopédie tournent plus autour de l’informatique, de l’astronomie ou de la culture populaire qu’autour de l’agriculture, de l’art au moyen-âge ou de la linguistique, par exemple.

Afin de corriger ce déséquilibre, et pour élargir sa base de contributeurs et la rendre plus représentative de la population mondiale, Wikipédia est sur le point de lancer une campagne d’accompagnement des novices pour leurs 100 premières éditions. Cela implique de se pencher sur l’ergonomie du site, mais il s’agit surtout de s’assurer que les contributeurs chevronnés se montrent plus accueillants pour les nouveaux éditeurs.

Sue Gardner, directrice générale (NdT : Executive Director) de la fondation Wikimedia, se confie à Wired.co.uk : « Les Wikipédiens ne se montrent pas toujours très compréhensifs avec les nouveaux arrivants qui ne maîtrisent pas encore tout à fait l’outil et les règles. On parle beaucoup de « septembre sans fin » (NdT : endless September) – un terme inventé par Dave Fisher pour décrire le débarquement annuel d’étudiants qui se créaient leur premier adresse mail aux débuts d’Internet – et lorsque je suis entrée chez Wikimédia, l’idée de recruter de nouveaux contributeurs rencontrait énormément de résistance. »

« Les contributeurs de Wikipédia veulent que l’encyclopédie soit de très bonne qualité, et ils ne voient donc pas forcément d’un bon œil l’arrivée de personnes qui n’en connaissent pas les valeurs et les processus de publication. Il n’y avait pas une bonne perception de ce que pouvaient apporter de nouveaux éditeurs. »

Les contributeurs mystérieux

Après deux ans de discussions internes, les choses sont en train de changer. Une évolution majeure a été réalisée quand des contributeurs expérimentés ont mené une expérience en se faisant passer pour des contributeurs anonymes pour voir comment leurs modifications étaient reçues. Ils ont pu constater qu’elles avaient été annulées ou supprimées même si leurs contributions étaient d’aussi bonne qualité que celles faites en leur nom. On ne prenait même, en général, pas la peine de leur expliquer pourquoi elles étaient effacées.


Gardner ajoute : « je pense que maintenant nous comprenons le problème, mais il nous reste à évaluer notre gestion des 100 premières contributions, qui sont si cruciales. ».

Ils projettent de modifier l’interface, pour la rendre plus accueillante, avec plus de messages encourageants. Contrairement à d’autres sites où le contenu est généré par les utilisateurs, Wikipédia a toujours évité de contacter ses utilisateurs par e-mail. Mais envoyer des messages comme « Untel a apporté des modifications à l’article que vous avez rédigé » ou « Vous avez édité cet article, peut-être voudriez-vous également éditer celui-ci » renforcerait peut-être l’adhésion au site des nouveaux utilisateurs.

Mais au-delà des modifications de l’interface, la communauté tente d’inciter ses contributeurs actifs à être plus accueillants. Le but est de les encourager à adopter le même comportement avec les anciens qu’avec les novices.

« On ne peut pas vous assurer de ne pas rencontrer de méchanceté sur Wikipédia, mais il nous faut encourager les discussions constructives, » nous dit Gardner.

L’un des plus gros défis de Wikimédia est d’encourager les contributions du « Sud » (au sens économique). Fruit d’une année de discussions collaboratives, la stratégie établie est de mettre l’accent sur les pays moins développés économiquement.

Actuellement, la version anglaise de Wikipédia compte le plus grand nombre d’articles (plus de 3 500 000), viennent ensuite la version allemande, puis la version française, avec plus d’un million d’articles chacune. On dénombre quasiment 300 versions de Wikipédia dans d’autres langues, qui affichent entre un et 750 000 articles. Il y a environ 67 000 articles en Hindi, 55 000 en Urdu et 21 000 en Swahili, par exemple.

2011 verra l’ouverture du premier bureau hors des États-Unis, en Inde. Ce sera la première initiative de « plusieurs tentatives d’incursion dans des parties du monde où les contributeurs et les utilisateurs potentiels sont nombreux, mais ces possibilités sont encore bridées » d’après Gardner. L’amérique latine et les pays arabophones sont les prochains sur la liste.

Wikipédia souhaite recruter de nouveaux éditeurs, mieux faire connaître ses besoins, faciliter techniquement l’édition et accélérer le site. L’idée est d’éviter que Wikipédia ne soit une encyclopédie rédigée par des gens uniquement dans les pays riches.

Pour corriger ce déséquilibre géographique, il faudra travailler sur l’énorme barrière que représente l’interface pour mobiles. Dans les pays en voie de développement, la majorité des personnes accède au Web grâce à leur mobile. Même si Wikipédia est optimisée pour être lue sur un téléphone portable, contribuer à l’encyclopédie à partir d’un mobile reste très difficile. Il y a bien une éditrice de la version indonésienne de Wikipédia qui y parvient grâce à un clavier externe connecté à son téléphone, mais « ça à l’air extrêmement laborieux », d’après Gardner.

Elle s’interroge : « La question préalable demeure : est-il possible de créer une interface d’édition ergonomique sur téléphone portable ? »

Une autre menace se fait de plus en plus sentir : l’instabilité des lois. Actuellement, aux États-Unis, Wikipédia est protégée des poursuites si un contributeur met en ligne quelque chose de diffamatoire par le Communications Decency Act. Sans ce régime de responsabilité favorable, il serait presque impossible pour Wikipédia de maintenir son modèle d’encyclopédie rédigée par les utilisateurs.

Gardner dit : « Nous devons sans cesse nous faire entendre pour définir ce qu’Internet doit être à nos yeux. Dans les premières années, le pouvoir législatif s’est contenté d’observer son développement, mais maintenant il veut de plus en plus avoir son mot à dire. »

Elle se dit inquiète des interventions de plus en plus fréquentes des gouvernements qui censurent le Web à l’échelle nationale, comme l’Australie qui a mis en place une liste noire des sites interdits à ses concitoyens ou encore comme le Royaume-Uni, en la personne de Ed Vaizey, qui demande aux fournisseurs d’accès de se montrer plus stricts sur le pornographie pour combattre l’exposition trop précoce des enfants au sexe (NdT : Elle aurait également pu citer la France avec sa loi LOPPSI 2 !).

« Au début, on pensait qu’Internet ne connaîtrait pas de frontières. Mais on se rend de plus en plus compte que d’un pays à l’autre, la manière de l’utiliser diffère fortement. J’aimerais vraiment que les Wikipédiens aient voix au chapitre sur ce point ». Elle cite l’expérience d’eBay Main Street Initiative, le volet « local » du site d’e-commerce qui informe les vendeurs des projets législatifs qui pourraient les concerner, comme modèle à imiter. Ils encouragent ainsi les vendeurs sur eBay à faire pression sur le gouvernement lorsque leurs intérêts sont menacés. Ils les incitent à écrire des lettres, à envoyer des e-mails ou encore à appeler leurs élus lors des débats importants.

« J’aimerais que les Wikipédiens s’engagent de cette manière afin d’influencer le développement d’Internet. » ajoute-t-elle.

À quoi donc ressemblera Wikipédia dans 10 ans ? « J’aimerais qu’elle soit plus complète, qu’elle soit plus dense. La version anglaise est vraiment impressionnante, mais la variété de son contenu réflète malheureusement la catégorie sociale prédominante des éditeurs. J’aimerais au contraire que, pour toutes les langues, le contenu bénéficie des connaissances et du savoir de toute la population. »

Notes

[1] Crédit photo : Enokson (Creative Commons By)




Wikipédia fête ses 10 ans !

C’est fou ça, demain 15 janvier 2011 « le plus beau projet du XXIe siècle » fête ses dix ans d’existence ! C’est si loin et si proche en même temps…

Wikipédia ne manque jamais de reconnaître ce qu’il doit au logiciel libre. Aujourd’hui la réciproque est tout aussi vraie.

Quant à nous, nous avons modestement mis à contribution nos traducteurs de Framalang pour sous-titrer ci-dessous l’annonce de son fondateur Jimbo Wales.

Bon anniversaire et grand merci, et plutôt dix fois qu’une !

—> La vidéo au format ogv
—> Le fichier de sous-titres

Transcript du sous-titrage

URL d’origine du document

Bonjour. Je m’appelle Jimmy Wales, je suis le fondateur de Wikipédia, et aujourd’hui, nous célébrons le dixième anniversaire de Wikipédia.

Difficile d’imaginer que cela fait déjà dix ans que j’ai lancé ce projet.

Je me rappelle le premier jour : j’ai cliqué sur « Modifier » et écrit « Bonjour le monde », et c’était le début de Wikipédia et de tout ce qui a suivi.

Désormais, nous avons des millions d’articles dans des centaines de langues. Environ 400 millions de personnes visitent le site chaque mois et c’est quelque chose de tout simplement stupéfiant. Si vous songez à l’impact sur notre culture, c’est renversant… et c’est entièrement grâce à vous.

Je veux remercier tous ceux qui ont aidé. Je veux remercier ceux qui ont édité Wikipédia, contribuant à cette formidable base de connaissances. Je veux remercier tous ceux qui consultent Wikipédia, qui se soucient des idées et de la connaissance.

Nous l’avons créée pour ça. Pour que vous l’utilisiez.

J’ai une petite requête à adresser à chacun de vous. Même si nous avons des millions d’articles, même si nous existons dans des centaines de langues, il reste beaucoup de travail à accomplir. C’est pourquoi j’aimerais que ceux qui n’y ont jamais contribué essayent. Cliquez sur « Modifier ». Vous voyez des erreurs ? Corrigez-les. Rien ne nous fait plus plaisir.

Et donc… Bon anniversaire Wikipédia.

Wikipédia : 10 années de partage de la somme de nos connaissances.