Geektionnerd : MegaUpload ou le dommage collatéral de la loi Hadopi

Le site d’hébergement de fichiers en ligne Megaupload (et son pendant en streaming Megavideo) est dans l’œil du cyclone actuellement.

Une planche directement inspirée de cet article du Numerama : Merci Hadopi : MegaUpload en plein boom en France depuis Hadopi 2.

Un tel succès qu’il semblerait qu’Orange tente de le brider artificiellement mettant ainsi à mal la neutralité du Net.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Internet favorise l’anglicisation, la robotisation et la globalisation du monde ?

Pink Sherbet Photography - CC byUne courte traduction à la sauce « Café Philo » qui n’est là que pour engager un petit débat avec vous dans les commentaires si vous le jugez opportun.

Anglicisation, machinisation et mondialisation sont ici trois arguments qui font dire à l’auteur qu’Internet est loin d’être neutre et nous oblige implicitement ou explicitement à adopter certaines valeurs, avec toutes les conséquences que cela implique[1].

Peut-être ne serez-vous pas d’accord ? Peut-être estimerez-vous que l’on enfonce des portes ouvertes ? Peut-être ajouterez-vous d’autres éléments à la liste ?

Les commentaires vous attendent, même si il est vrai que le débat s’est lui aussi déplacé, des forums et des blogs vers les Facebook et Twitter (et en se déplaçant il a changé de nature également).

Un billet à rapprocher par exemple des articles suivant du Framablog : Code is Law – Traduction française du célèbre article de Lawrence Lessig, Internet et Google vont-ils finir par nous abrutir ?, Quand Internet croit faire de la politique ou encore notre Tag sur Bernard Stiegler.

Utiliser Internet nous force-t-il à adhérer automatiquement à certaines valeurs ?

Does the use of the internet automatically force us to accept certain values?

Michel Bauwens – 19 janvier 2011 – P2P Foundation
(Traduction Framalang : Martin et Goofy)


Ci-dessous une intervention de Roberto Verzola, extraite de la liste de diffusion « p2p-foundation » :

« Je suis assez d’accord avec Doug Engelbart, l’inventeur de la souris, quand il dit que nous façonnons nos outils, et que nos outils nous façonnent à leur tour. Il parle d’une co-évolution de l’homme et de ses outils. Nous devrions peut-être appeler cela « un déterminisme réciproque ». Quand il dit « nous façonne », je suppose que le « nous » désigne aussi les relations sociales.

E.F. Schumacher (Small is Beautiful) va plus loin encore et je suis aussi entièrement d’accord avec lui. Il écrit (dans Work) que dès lors que nous adoptons une technologie (conçue par quelqu’un d’autre probablement), nous absorbons l’idéologie (une manière de voir les choses, un système de valeurs) qui va avec. Schumacher pensait que beaucoup de technologies venaient imprégnées d’idéologies, et que ceux qui pensaient pourvoir en importer une en refoulant l’idéologie qui va avec se trompent. Cette vision met sûrement plus l’accent sur le « déterminisme technologique » que celle de Engelbart, mais je pense tout de même que E.F. Schumacher a raison, du moins pour certaines technologies.

En fait, j’ai analysé Internet avec la perspective de Schumacher, et j’y ai trouvé quelques états d’esprit et systèmes de valeurs que ses utilisateurs sont obligés d’absorber, souvent sans en prendre conscience (pour avoir la liste entière suivre ce lien). Il me suffira d’en mentionner trois :

1. L’usage généralisé de l’anglais dans les technologies liées à Internet, jusqu’aux micro-codes des microprocesseurs, nous force à apprendre l’anglais. Et si vous apprenez la langue anglo-saxonne, vous allez sûrement acquérir certains goûts anglo-saxons. Apprendre la langue, c’est choisir la culture.

2. L’esprit de robotisation : remplacer les hommes par des machines. Cela prend du sens dans un pays riche en capital (même si ça se discute), mais beaucoup moins dans un pays où le travail prévaut. Quand nous remplaçons la force musculaire par celle des machines, nous sommes en moins bonne santé. Mais que va-t-il se passer si l’on substitue des machines au travail mental ?

3. Le parti pris implicite (en fait, une subvention) en faveur des acteurs globaux, et pour la mondialisation. C’est flagrant si l’on considère la struture des coûts sur Internet : un prix indépendant des distances. Un fichier de 1 Mo envoyé à un collègue utilisant le même fournisseur d’accès à Internet coûte le même prix qu’un fichier de taille équivalente envoyé à l’autre bout du globe. Pourtant le deuxième utilise bien plus de ressources réseau (serveurs, routeurs, bande passante, etc.) que le premier. Ainsi les utilisateurs locaux paient plus par unité de consommation de ressources que les utilisateurs globaux, ce qui est une subvention déguisée à la mondialisation intégrée à Internet tel qu’il est aujourd’hui.

Devons-nous pour autant rejeter cette technologie ? La réponse de Schumacher dans les années 1970 était une technologie intermédiaire/appropriée. Aujourd’hui, Schumacher reste pertinent, seul le vocabulaire a peut-être changé. J’ajouterais que nous devons aussi être impliqués dans la re-conception de la technologie. C’est pourquoi parler d’un Internet alternatif sur cette liste m’intéresse beaucoup.

Je ne voudrais pas m’attacher à priori à une conception figée, que ce soit celle des « choses » qui déterminent les relations sociales, ou celle des relations sociales qui déterminent les « choses ». Je voudrais explorer ces perspectives au cas par cas, et utiliser toute suggestion nouvelle et utile qui pourrait se présenter, qu’elle puisse venir de l’une ou de l’autre (ou des deux). »

Notes

[1] Crédit photo : Pink Sherbet Photography (Creative Commons By)




Microsoft et l’Open Source ensemble aux Antipodes

Robbie Grubbs - CC by-saS’il n’y a que les imbéciles qui ne changent pas d’avis, alors j’ai l’honneur de vous faire savoir que Microsoft n’en fait plus partie.

Un communiqué de presse de Microsoft Nouvelle-Zélande, datant de novembre dernier, est passé totalement inaperçu alors qu’il est pourtant tout simplement énorme pour des p’tits gars comme moi qui versent dans le Libre depuis une bonne dizaine d’années et dans l’éducation depuis encore plus longtemps.

Qu’il soit devenu « naturel » pour Microsoft de proposer un plugin à Word afin d’aider le monde de l’éducation à mieux travailler sur les wikis sous Mediawiki (à commencer par Wikipédia), cela passe encore. Qu’on y mentionne et soutienne alors explicitement les Ressources Éducatives Libres sous licence Creative Commons By, cela commence à surprendre. Mais qu’il soit devenu tout aussi « naturel » pour Microsoft de placer ce plugin sous licence libre pour mieux « le partager avec la communauté », c’est tout de même une sacrée (r)évolution.

Quand on pense que, jadis, le logiciel libre était qualifié de « cancer communiste » par les mêmes qui semblent aujourd’hui découvrir ses vertus, on mesure le chemin parcouru !

Certes, ça n’est qu’une extension et non une application toute entière, Word libre ce n’est pas pour tout de suite ! Il convient également de voir concrètement la qualité du convertisseur (ce que je n’ai pu faire faute d’avoir MS Office sur mon ordi), mais la déclaration (d’intention ?) ci-dessous vaut de toutes les façons son pesant de cacahuètes[1].

Certes aussi, il est question du programme Partners in Learning (PIL) dans le communiqué. Et nous avons souvent eu l’occasion de dire dans ces colonnes tout le bien que nous pensions de ce projet Microsoft fort ambigu (lire par exemple L’école Châteaudun d’Amiens ou le pion français de la stratégie planétaire Microsoft, Les industriels lorgnent le futur grand plan numérique de Luc Chatel – Mediapart ou encore En réponse au Café Pédagogique).

Il n’en demeure pas moins que les temps changent (quand même un peu), et Microsoft aussi, semble-t-il, vis-à-vis du logiciel libre et de sa culture.

Et vous vis-à-vis de Microsoft ?

Microsoft travaille avec les enseignants et l’open source pour prendre en charge un wiki libre de partage du savoir

Microsoft works with educators and open source to support free knowledge sharing wiki

Microsoft Nouvelle-Zélande – 17 novembre 2010 – Communiqué de presse
(Traduction Framalang : Goofy et Martin)

Une nouvelle extension open source pour Microsoft Word permet d’utiliser le format de fichier MediaWiki pour que les utilisateurs puissent mettre en ligne directement leurs documents sur des wikis.

Microsoft, travaillant en collaboration avec la Fondation OER (Open Education Resource) de l’Institut polytechnique d’Otago (Nouvelle-Zélande) et du Ministère de l’éducation, a mis au point une nouvelle extension open source pour Microsoft Word qui permet d’enregistrer des documents dans un format compatible avec les wikis sous MediaWiki, celui-là même qu’utilise la populaire encyclopédie en ligne Wikipédia.

La nouvelle extension aidera les enseignants à collaborer à la construction de nouvelles ressources éducatives ouvertes. Le directeur de la Fondation Otago, Dr Wayne Mackintosh, déclare : « grâce à la prise en charge du style MediaWiki dans Microsoft Office, les professeurs pourront partager vite et facilement leur matériel pédagogique sur des plateformes en ligne telles que Wikipédia et WikiEducator. Cela signifie que les institutions éducatives adoptant la démarche de l’OER pour fournir des ressources et des manuels libres pourront abaisser considérablement la barrière du coût à engager pour fournir aux étudiants les outils et les informations dont ils ont besoin pour apprendre ».

MediaWiki a reçu un soutien sans failles du Ministère de l’éducation qui partage les objectifs de la Fondation EOR dans ce domaine.

« Nous sommes ravis de la nouveauté que constitue une extension open source dans la boîte à outils de Microsoft Office. Elle permettra aux enseignants et étudiants de Nouvelle-Zélande de s’investir plus facilement dans le partage des ressources éducatives et les débats pédagogiques, dans l’esprit du wiki » déclare Leanne Gibson, directrice des systèmes d’information.

L’institut polytechnique d’Otago héberge les bureaux de la Fondation, qui est une organisation indépendante à but non lucratif visant à assurer la prise en main, le développement et le soutien d’un réseau international d’enseignants et institutions éducatives, à travers l’Open Education. WikiEducator est la vitrine de la Fondation EOR, qui s’efforce de rendre libres d’accès les matériels pédagogiques pour les étudiants du monde entier, particulièrement dans les pays en voie de développement pour lesquels les systèmes d’éducation classiques s’avèrent souvent hors de prix.

Microsoft a financé le développement d’une nouvelle fonctionnalité du logiciel Word pour permettre à tous les enseignants du monde de produire et partager des ressources pédagogiques à un coût modeste en utilisant des outils basés sur le wiki.

Le directeur de la plateforme stratégique de Microsoft pour la Nouvelle-Zélande, Andrew Gordon, déclare que l’entreprise s’implique dans la collaboration avec la communauté open source pour développer du matériel éducatif qui bénéficiera autant aux étudiants qu’aux enseignants.

« Microsoft a un lien étroit avec le monde éducatif via nos initiatives Citizenship (citoyenneté) en cours, telles que le concours Imagine, la plus grande compétition du monde étudiant dans le domaine technologique, si bien que MediaWiki était une solution tout à fait naturelle pour nous, comme pouvait l’être la publication du code source sous une licence open source et le fait de permettre son partage avec la communauté. Compte tenu de l’utilisation intensive de Word dans tous les établissements d’éducation à travers le monde, nous chez Microsoft, sommes ravis et fiers de pouvoir apporter notre pierre à l’édifice en rendant accessibles à chacun, quelle que soit sa situation, des ressources pédagogiques de bonne qualité. »

Le convertisseur MediaWiki est si simple qu’il peut être installé rapidement et facilement par des utilisateurs non expérimentés. De plus, son code a été publié sous une licence open source, ce qui signifie que l’application peut être ré-utilisée librement comme base pour d’autres extensions communes avec MediaWiki. Il est également une référence pour quiconque aurait besoin de publier des informations à partir de Microsoft Office. Le convertisseur MediaWiki fonctionnera avec toutes les versions de la suite Office depuis 2007 jusqu’à la version récente de 2010.

Peter Harrison, le vice-président de la New Zealand Open Source Society ne tarit pas d’éloges sur cette initiative : « Internet offre à l’humanité une occasion unique de mettre à profit les technologies de la communication pour éduquer la population du monde entier. À travers les technologies collaboratives telles que le wiki tout le monde pourra travailler de concert pour créer des ressources communes de qualité, ouvertes à tous. En permettant aux utilisateurs d’exporter leurs contenus de Word vers MediaWiki, Microsoft encourage la mise à disposition d’une gamme bien plus large de ressources éducatives en ligne. »

L’Institut polytechnique d’Otago est l’un des pionniers de l’Open Education, et c’est le premier établissement d’enseignement supérieur à avoir signé la déclaration du Cap sur l’Open Education. C’est également la première institution d’enseignement supérieur au monde à approuver et mettre en œuvre une politique de la propriété intellectuelle qui utilise la licence Creative Commons Attribution par défaut (NdT : cf cet article du Framablog Privilégier la licence Creative Commons Paternité CC-BY dans l’éducation), et qui s’investit dans l’éducation au point de l’inclure dans son programme.

Ce projet est complémentaire de l’initiative PIL (Partners in Learning) que Microsoft soutient depuis dix ans à hauteur de 500 millions de dollars : il s’agit d’aider les enseignants et directeurs d’écoles à utiliser les nouvelles technologies pour apprendre et enseigner plus efficacement. Pour davantage d’informations, voir http://www.microsoft.com/education/pil.

Notes

[1] Crédit photo : Robbie Grubbs (Creative Commons By-Sa)




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




Ils sont devenus fous ou la simple mais affligeante histoire d’un étudiant allemand

Nate Bolt - CC by-saUn étudiant allemand cherche à consulter un article référencé sur Internet. Et le cauchemar commence…

On lui indique qu’il ne peut le faire que dans une bibliothèque (publique) ayant acquis les droits sur l’article en question[1].

Il se rend à cette bibliothèque mais il doit attendre car un autre lecteur est dessus et les droits stipulent qu’on ne peut lire l’article simultanément !

Un peu de patience, la place se libère et il peut enfin parcourir son article. Et là, nouvelle stupeur, impossible de sauvegarder, rechercher, ni même copier/coller tout ou partie de l’article !

C’est une histoire démente. C’est une histoire fictive qui se rapproche chaque jour un peu plus de la réalité. Je me demande même si elle n’existe pas déjà quelque part.

Bienvenue au XXIe siècle…

Ce (faux) témoignage est issu de l’excellent livre « Biens Communs – La Prospérité par le Partage » que nous avons évoqué dans un billet précédent. Il fait tristement écho à l’article Pour libérer les sciences de Christophe Masutti. On pourra également lire avec effroi la nouvelle prémonitoire de Richard Stallman rédigée en 1997 : « Le droit de lire ».

Comment ce qui n’est pas rare le devient – Dissertation d’un étudiant sur le droit d’auteur moderne

URL d’origine du document

Extrait du rapport de Silke Helfrich, Rainer Kuhlen, Wolfgang Sachs, Christian Siefkes
Publié en décembre 2009 par la Fondation Heinrich Böll
Traduit par Jeremy Marham et Olivier Petitjean (Ritimo.org)
Sous licence Creative Commons By-Sa

Devant rédiger un devoir sur les biens communs, j’ai effectué une recherche sur Internet, laquelle fut fructueuse. J’ai pu télécharger facilement plusieurs textes et en inclure certains passages appropriés dans mon brouillon. Jusqu’à ce que mon attention soit attirée par un texte intéressant, qui était payant, c’est-à-dire qu’il ne pouvait être lu que dans une bibliothèque qui en aurait acquis les droits.

« Aucun problème, me suis-je dit, la bibliothèque universitaire est reliée au net, et son catalogue est accessible en ligne. » Et, de fait, l’article dont j’avais trouvé la référence était indiqué comme « disponible sous format électronique ». Pourtant, lorsque je tentai de le télécharger, un message d’erreur s’afficha: « Cet article n’est consultable que dans l’espace de la bibliothèque. » Je restai sans voix. Pourquoi donc ?

Je pris donc le bus jusqu’à la bibliothèque nationale – un trajet d’une petite heure – et m’orientai jusqu’aux places réservées à la consultation d’Internet. Là encore, je trouvai dans le catalogue en ligne la référence de l’article recherché.

Mais un nouveau message s’afficha à l’écran: « Le recueil recherché est actuellement consulté par un autre utilisateur. La bibliothèque n’a fait l’acquisition que d’un seul recueil et ne peut, selon le principe d’accessoriété au fonds, permettre un accès simultané qu’à autant d’articles qu’elle détient de droits sur l’édition achetée. Nous ne voyons pas dans votre cas une exception à cette règle. » À nouveau, je restai sans voix.

Je n’ai pas compris le terme «accessoriété au fonds», mais j’ai compris ce qu’il signifiait : je devais attendre !

Mais pourquoi donc ? N’avais-je pourtant pas appris récemment dans un séminaire que les ressources électroniques peuvent faire l’objet d’une utilisation non rivale ? Mon utilisation ne porte pas atteinte à celle des autres. J’ai brusquement pris conscience de ce que signifiait le fait de rendre rares et exclusives des choses comme la lecture d’un texte, qui ne devraient pas l’être selon cette théorie.

Bon, un café ne me ferait pas de mal…et, après le café, la voie était enfin libre ! Comme de toute façon l’article était plutôt long, je décidai de le sauvegarder sur ma clé USB afin de pouvoir le relire plus attentivement. «Save as». Une troisième fois, je restai sans voix. Cette fois, le message m’apprit que le texte ne pouvait pas être sauvegardé.

Contraint par la force des choses, je commençai à lire le texte. Puis je décidai de rechercher les passages comprenant les termes « commons » et « bien commun », qui m’intéressaient plus particulièrement. Résultat : « Aucun passage trouvé ». Étrange, c’est pourtant le sujet de l’article ! Je testai avec un mot courant de tous les jours : « Aucun passage trouvé ». La fonction de recherche en plein texte ne fonctionnait pas.

À bout de nerfs, je décidai de ne copier qu’une seule phrase importante, que je souhaitais citer, dans le presse-papiers et de la coller ensuite sur ma clé. Encore une fois, un message d’erreur apparut, où je trouvai finalement l’indication décisive: « Il s’agit d’un PDF protégé par un système de gestion des droits numériques ou digital rights management (DRM). Tous les droits appartiennent à la maison d’édition. Vous ne pouvez lire l’article qu’à l’écran. Vous avez le droit de prendre des notes. »

Je ne m’attendais pas à une telle mesure technique de protection dans une bibliothèque publique. Pour moi, cela signifiait soit que je devais passer les deux heures suivantes devant l’écran pour prendre des notes, comme c’était l’usage à l’époque de Gutenberg, soit que je quittais la salle de lecture en décidant que l’article en question n’avait pas assez importance. Je rejetai d’emblée la troisième possibilité consistant à acheter l’article en ligne à l’éditeur pour 30 euros, d’autant que je n’aurais reçu, même dans ce cas, qu’une licence pour mon usage personnel sur mon propre ordinateur.

Ah oui, et le message d’erreur ajoutait que le système de DRM était « dans mon propre intérêt »…

J’ai renoncé à l’article, mais je voulais tout de même au moins savoir la raison de tout ceci. J’avais toujours associé les questions de droits d’auteur et de copyright aux débats sur l’utilisation de la musique, des vidéos, des jeux ou de la littérature de divertissement. Mais la recherche, l’enseignement, les études ? Je me rappelai alors l’article 5 de la Loi fondamentale allemande :

(1) Chacun a le droit d’exprimer et de diffuser librement son opinion par la parole, par l’écrit et par l’image, et de s’informer sans entraves aux sources qui sont accessibles à tous…

(3) L’art et la science, la recherche et l’enseignement sont libres…

Une bibliothèque publique, ayant fait l’acquisition contre paiement des ouvrages qui y sont disponibles, est accessible à tous, mais je n’y ai pas bénéficié d’un accès libre. Et aurais-je mal compris également le passage concernant la liberté de la science ?

J’appris par la suite, en évoquant cette expérience avec mon professeur, que les droits énumérés dans la Loi fondamentale et ceux qui sont explicitement formulés dans une loi avec des restrictions éventuelles sont deux choses totalement différentes. Mon cas tombait sous la juridiction du droit des auteurs, lequel protège avant tout l’auteur, ou celui qui aurait acquis les droits de celui-ci dans le but de publier et exploiter ses ouvrages.

Certes, il existe bien sûr, afin de garantir l’intérêt public, certaines limites aux droits des auteurs ou des exploitants, qui pourraient permettre l’utilisation pleine et entière de documents électroniques dans les bibliothèques sans avoir à en demander la permission aux ayant droits. Mais seulement lorsque le législateur en dispose ainsi !

Et pourquoi n’est-ce pas le cas en l’occurrence ? Mon professeur me renvoya au paragraphe 52b de la loi sur les droits d’auteur, qui réglemente la « consultation d’ouvrages au moyen de postes de lecture électroniques dans les bibliothèques … » J’y trouvai toutes les dispositions législatives qui m’avaient empêché de travailler à la bibliothèque comme je suis habitué à le faire avec Internet. À vrai dire, je ne comprends pas. Pourquoi nos parlementaires adoptent-ils une loi qui rend l’accès à l’information et au savoir pour les étudiants et les professeurs plus difficile qu’au temps de Gutenberg ? D’autant plus que ce savoir est généralement produit grâce à des financements publics. Il me semble que cela mériterait un recours pour inconstitutionnalité.

En tout cas, j’ai trouvé le sujet de mon devoir :

Ce qui est dans le domaine public ou ce qui est financé par les deniers publics doit rester accessible à tous.

Notes

[1] Crédit photo : Nate Bolt (Creative Commons By-Sa)




Wikipedia a 10 ans : Un petit bilan en compagnie de Wired et de Sue Gardner

Lane Hartwell - Wikimedia Commons - CC by-saUn nouvel élément à ajouter à notre série d’articles sur Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Ici nous poursuivons avec Sue Gardner, la remarquable Executive Director de la Wikimedia Foundation, en procédant un peu à l’envers puisqu’après les perspectives vient le temps du bilan. On y évoque bien sûr la fiabilité mais aussi les récentes avancées, qui sont autant de projets, dans les milieux culturels et éducatifs.

Il est dit dans l’article que pour beaucoup de monde, Wikipedia concrétise à la perfection les premières promesses de l’Internet en proposant une « incarnation de ce que le Web peut offrir de mieux »[1]. Nous en faisons partie 😉

On y trouve également un passage qui devrait particulièrement intéresser les lecteurs du Framablog. Il s’agit d’une critique d’un ancien rédacteur en chef de l’encyclopédie Britannica. Vous me direz qu’il n’est pas forcément objectif mais l’argument avancé mérite à mon avis d’être commenté voire débattu :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Une décennie pour Wikipédia, le projet collaboratif emblématique

A decade of Wikipedia, the poster child for collaboration

Olivia Solon – 10 janvier 2011 -Wired UK
(Traduction Framalang : Goofy, Slystone, Marianne et Penguin)

À l’heure où Wikipédia fête son dixième anniversaire, Wired.co.uk s’entretient avec Sue Gardner, directrice de la Wikimedia Foundation, à propos du rôle de l’encyclopédie collaborative sur le Web et son plan de domination mondiale.

Wikipédia, beaucoup le considèrent encore comme un petit secret honteux. Un site que l’on consulte discrètement dès qu’une conversation au bureau dérive vers un domaine où l’on n’est pas spécialement à notre aise. Lorsqu’on y fait référence explicitement, c’est souvent en ajoutant bien vite qu’on connaît bien ses insuffisances. Nous avons tous l’habitude des sous-entendus sarcastiques qui accompagnent la phrase rituelle : « Si c’est dans Wikipédia, c’est que ça doit être vrai ». Mais ces sous-entendus ironiques se dissipent peu à peu à mesure que le système s’améliore et que consulter le site devient moins honteux et moins un secret chaque jour.

Exactement 10 ans après son lancement et 17 millions d’articles plus tard, la figure emblématique des projets collaboratifs fait désormais partie de la vie quotidienne du monde développé, avec de sérieuses percées en cours dans le reste du monde.

La personne chargée de mener à bien le développement de Wikipédia, c’est Sue Gardner, directrice de la Wikimédia Foundation. Ex-journaliste combative et directrice de CBC.ca, Mme Gardner a été recrutée en 2007 dans le but de développer une stratégie claire pour l’organisation à but non lucratif. Son principal défi était de s’assurer que la gigantesque communauté disparate de contributeurs du monde entier était bien en phase avec l’objectif commun. Selon le fondateur de Wikipédia Jimmy Wales, engager Mme Gardner a été « une des meilleures décisions que nous ayons prises ».

Les chiffres en témoignent : depuis l’embauche de cette brillante canadienne, les revenus ont en effet plus que triplé, et l’audience du site a augmenté de 85 %. Après une lecture approfondie des sources de revenus de la fondation et deux ans d’expériences diverses, elle s’est rendue compte que la meilleure stratégie consistait à cibler les dons privés d’un faible montant.

« Dans un monde à but non lucratif, on poursuit normalement deux objectifs bien distincts, la prise en charge des frais de service, et la production de revenus. Ces deux composantes sont généralement en déséquilibre. La plus grosse surprise en ce qui me concerne fut de découvrir que l’on pouvait harmoniser l’ensemble de manière à ce que les dons proviennent des mêmes personnes que celles à qui nous fournissons un service. »


En tant que cinquième site le plus visité dans le monde, son hébergement sur serveur a un coût conséquent. L’organisation à but non lucratif lance chaque année une opération de levée de fonds afin d’assurer le fonctionnement du site pour l’année suivante. La dernière campagne vient juste de se terminer, elle s’est soldée par la récolte de 16 millions de dollars donnés par 500 000 personnes.

Pour beaucoup de monde, Wikipedia concrétise à la perfection la vision des premières promesses de l’internet. Gardner s’aventure même à dire que c’est « l’incarnation de ce que le Web peut faire de mieux. »

« C’est la promesse que les gens vont travailler ensemble, c’est l’illustration de gens travaillant ensemble en confiance, c’est la démocratisation de l’information et de la liberté d’accès à l’information, malgré les nombreux et récurrents dangers qui la menacent. »

Joseph Reagle, auteur du livre The Good Faith Collaboration (NdT : La collaboration de bonne foi), et ancien étudiant à Harvard ajoute : « par défaut, l’interaction en ligne est faite pour ceux qui refusent de voir le pire chez les autres, même chez les nazis comme l’indique la loi de Godwin. Wikipedia au contraire, promeut et est dépendant de personnes collaborant ensemble en toute bonne foi. »

Quelles en sont les points faibles ? Gardner ne fait pas preuve de réserve : « c’est un travail qui progresse sans arrêt, on aura donc toujours besoin de faire mieux. Tous les aspects doivent être améliorés. »

Tandis que Wikipedia se concentre sur l’amélioration et l’expansion, le site est sous un feu constant de critiques de personnes qui l’accusent de ne pas être objectif, de ne pas être fiable, et de préférer, au cours du processus d’édition, le consensus plutôt que le mérite et les qualifications.

Robert McHenry, auteur et ancien rédacteur en chef de l’encyclopédie Britannica, résume ce qu’il décrit comme l’erreur fatale du modèle Wikipedia :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Il n’a certainement pas tort, il y a beaucoup d’exemples d’informations fausses, parfois diffamatoires, qui sont par exemple écrites sur des profils biographiques. Ainsi en 2005, John Seigenthaler Sr, assistant du ministre de la justice Robert Kennedy au début des années 60, journaliste reconnu et plus tard éditeur créateur de USA Today, fut la cible de vandalisme sur Wikipedia. Une fausse biographie de Wikipedia l’accusa d’être un suspect du meurtre de Kennedy. Et la notice resta en l’étant pendant 132 jours. Ceci illustre le biais systémique qui fait que les événements contemporains attirent bien plus l’attention (et le manque d’objectivité lié à l’absence de sources et de recul) que les événements plus anciens, et la culture pop bénéficie à ce titre d’une couverture disproportionnée.

Cela ne veut pas dire que les encyclopédies traditionnelles sont dépourvues d’erreurs. Il y a eu une série d’études comparant la fiabilité de Wikipedia avec d’autres encyclopédies (telle que l’enquête réalisée par Nature en 2006 comparant Wikipedia et Britannica), qui ont montré que la fiabilité de Wikipedia est en hausse. L’étude de Nature précitée révèle que les articles scientifiques de Wikipedia s’approchent du niveau d’exactitude de l’encyclopédie Britannica, et avait un taux équivalent « d’erreurs sérieuses ».

Gardner le concède : « En 2001, Wikipedia n’était pas une source d’information riche et complète, c’était très partiel. Mais chaque année et chaque jour, Wikipedia s’améliore. »

Elle décrit un changement d’attidude et de comportement dans le monde académique et les communautés culturelles. L’initiative GLAM (Galleries, Libraries, Archives, Museums) rapproche les utilisateurs de Wikipedia des membres des instituts culturels, y compris le British Museum, dans le but d’une part d’améliorer le contenu culturel de Wikipedia et d’autre part d’offrir aux institutions un espace pour exposer leurs collections.

Un événement à Londres en novembre dernier a réuni les représentants de quelques grands organismes culturels, afin de voir ensemble comment ils pouvaient contribuer davantage à Wikipedia (NdT : Un évènement similaire a également eu lieu en France).

Gardner dit : « c’était vraiment encourageant de voir les gardiens de la culture et du savoir considérer Wikipedia de plus en plus sérieusement. Cela ne serait pas arrivé cinq ans aupravant. »

Parallèlement s’est ouvert un programme de sensibilisation destiné au monde académique dans le but de contribuer à améliorer le contenu. Le Wikipedia Ambassador Program qui a débuté en 2010 implique et accompagne les enseignants qui veulent participer à Wikipedia à travers leurs cours. L’idée est d’agrandir la communauté des éditeurs tout en aidant les enseignants à avoir une utilisation plus aisée de Wikipedia.

Quand on lui demande si Wikipedia pourrait un jour être considéré comme une source crédible dans le monde académique, Gardner dit : « nous ne recommandons pas que les gens utilisent Wikipedia pour faire des citations dans leur travail, de même que nous ne recommandons pas qu’ils utilisent l’encyclopédie Britannica. Le but d’une encyclopédie est d’être un point de départ pour faire de la recherche. Vous pouvez apprendre les bases, et approfondir la lecture de l’article en regardant les références pour trouver et y suivre les sources originales. »

L’argument de la fiabilité, selon Gardner, passe à côté de la « véritable histoire » : l’accès à l’information a augmenté selon une courbe exponentielle. « Pour le lecteur d’information, le monde est radicalement meilleur qu’il ne l’était il y a 10 ans ou 20 ans. »

Quiconque âgé de plus de 20 ans se souvient du temps où, pour trouver des informations sur un obscur politicien, un artiste underground ou la dernière action militaire d’un pays en particulier, il fallait consulter une encyclopédie en 30 volumes, aller à la bibliothèque ou espérer qu’un adulte autour de vous ait la réponse.

Ayant épuisé ces possibilités, on s’était habitué au fait qu’on ne saurait probablement jamais. Ou en tout cas pas avant la sortie de la prochaine édition de l’encyclopédie et, même dans ce cas, sans la certitude que la question y serait traitée.

Aujourd’hui, tout le monde peut avoir un accés instantané et gratuit à la connaisance collective de centaines de milliers de personnes, mise à jour quotidiennement, et même, la plupart du temps, presque en temps réel. Dans ce contexte, le débat sur la fiabilité perd de son importance.

Notes

[1] Crédit photo : Lane Hartwell (Creative Commons By-Sa)




À lire et à faire lire : Biens Communs – La Prospérité par le Partage

Ed Yourdon - CC by-saEn avril dernier nous mettions en ligne un remarquable article de Silke Helfrich « Les biens communs ou le nouvel espoir politique du XXIe siècle ? ». Cette fois-ci nous avons le plaisir de relayer l’annonce de la traduction française d’un rapport d’une cinquantaine de pages sur ces fameux Biens communs, où l’on retrouve Silke Helfrich parmi les nombreux auteurs de cet ouvrage collectif. Il a pour titre « Biens Communs – La Prospérité par le Partage » et il est naturellement placé sous licence libre Creative Commons By-Sa.

Nous avons déjà eu l’occasion de dire que nous pensions que « les Biens communs seront à n’en pas douter non seulement l’un des mots clés de ces temps nouveaux qui s’offrent à nous, mais aussi, si nous le voulons bien, l’un des éléments moteurs et fédérateurs des politiques progressistes de demain ». Ce rapport est une pièce important à verser au dossier, tellement importante que d’aucuns pourraient presque y voir une sorte de manifeste pour les générations à venir[1].

Il n’est pas toujours aisé de définir avec précision ce que sont les Biens communs, d’ailleurs ceci fait l’objet d’un chapitre dédié en guise de préambule. Mais à chaque fois que l’on tente d’en dresser une liste, les logiciels en font partie, à la condition d’être libres. On ne s’étonnera donc pas qu’ils soient souvent cités ici.

Il est également dit que « les biens communs ont besoin d’hommes et de femmes qui soient prêts à les défendre et qui s’en sentent responsables ». Aussi modeste soit notre contribution, nous en sommes 😉

Vous trouverez le rapport en version PDF en suivant ce lien. Et pour vous donner plus encore envie de le lire (ce qui implique le dur sacrifice de devoir laisser au repos son compte Twitter pendant une petite heure), nous en avons reproduit ci-dessous la quatrième de couverture, l’introduction et la conclusion.

Remarque : Le document est agrémenté de citations comme, par exemple, celle-ci de Benni Bärmann que je soumets à votre sagacité : « Les biens communs plairont aux conservateurs par leur dimension de préservation et de communauté, aux libéraux par la mise à distance de l’État et l’absence d’incompatibilité avec le marché, aux anarchistes par la mise en avant de l’auto-organisation, et aux socialistes et communistes par l’idée de propriété commune sous contrôle collectif. »

Biens Communs – La Prospérité par le Partage (extraits)

URL d’origine du document (dans son intégralité)

Un rapport de Silke Helfrich, Rainer Kuhlen, Wolfgang Sachs, Christian Siefkes
Publié en décembre 2009 par la Fondation Heinrich Böll
Traduit par Jeremy Marham et Olivier Petitjean (Ritimo.org)
Sous licence Creative Commons By-Sa

Quatrième de couverture

Ce sont de grands inconnus, et pourtant nous vivons tous grâce à eux. Ils sont au fondement même de notre vie collective. Ce sont les biens communs. L’air, l’eau, les savoirs, les logiciels et les espaces sociaux. Et bien d’autres choses qui rendent possible la vie quotidienne et le bon fonctionnement de l’économie.

De nombreux biens communs sont cependant menacés – ils sont ôtés à la collectivité, commercialisés, détruits de manière irréversible. Au lieu de cela, ils devraient être cultivés et développés.

Nous avons besoin d’une nouvelle conscience de l’importance de ces « choses qui nous sont communes ». Sans eux, il n’y a en effet pas de bien-être et pas de prospérité possibles. Les biens communs ont besoin d’hommes et de femmes qui soient prêts à les défendre et qui s’en sentent responsables.

De nombreux problèmes de notre époque pourraient être résolus si nous dirigions l’énergie et la créativité dont nous disposons vers ce qui fonde notre richesse, ce qui fonctionne, et ce qui aide les hommes et les femmes à développer leur potentiel.

Ce rapport vise précisément à mettre ces choses, ainsi que les principes d’une «production par les pairs basée sur les biens communs», au centre de l’attention publique.

Objet de ce rapport

Ce que l’on appelait traditionnellement res communes – les choses qui nous appartiennent en commun – a été sinon oublié, du moins supplanté par les res privatae organisées par le marché, ainsi que par les res publicae mises à disposition par l’État. Elles sont dès lors traitées comme des res nullius, c’est-à-dire des « choses de personne ».

L’air et l’eau sont de parfaits exemples de biens communs qui, malgré leur importance, partagent bien souvent le triste sort des « choses de personne », de ces choses dont personne ne s’occupe. Les conséquences catastrophiques pour nous tous d’un tel état de fait se manifestent aujourd’hui de toute part.

Les « biens communs » – res communes, ou encore « commons » en anglais – ne sont pas des biens « sans maître ». Ils ne peuvent pas et ne doivent pas être utilisés à n’importe quelle fin, et encore moins détruits. Chacun de nous peut légitimement faire état de droits sur eux. Les biens communs sont les choses qui nous nourrissent, qui nous permettent de communiquer ainsi que de nous déplacer, qui nous inspirent et qui nous attachent à certains lieux– et dont, de manière tout aussi significative, nous avons besoin pour déverser nos gaz d’échappement et nos eaux usées.

La conception classique de la propriété, comprise en premier lieu comme droit de l’individu, acquiert une nouvelle dimension si l’on prend conscience de l’existence d’un droit collectif sur les biens communs.

  • Quelles sont les conséquences d’une redéfinition des terres comme biens communs ?
  • Qu’advient-il de l’espace public lorsqu’il n’est plus possible de le privatiser à volonté par la publicité, les décibels, les voitures ou les parkings ?
  • À quoi ressemblerait une société où l’utilisation libre des biens relatifs à laconnaissance et la culture serait devenue la règle, et leur utilisation commerciale l’exception ?
  • Quelles sont les règles et les institutions qui encouragent un rapport riche de sens aux biens communs ?

Ces questions ne sont débattues ni sur le plan théorique ni sur le plan de leurs conséquences politiques, sociales ou économiques.

Nous avons voulu dans ce rapport étudier le potentiel des biens communs lorsqu’ils sont utilisés de manière appropriée et durable. Nous y examinons les facteurs qui menacent leur existence. Nous y montrons quelles sont les règles qui ont fait leurs preuves dans certaines situations, et quelles sont celles qui doivent être entièrement repensées. Dans les pages qui suivent, nous partageons avec vous nos réflexions et nos expériences.

Les biens communs ne sont pas tous similaires, pas plus que les habillages institutionnels nécessaires pour transformer des ressources existantes en biens communs sécurisés. La remise du prix Nobel d’économie 2009 à la théoricienne des biens communs Elinor Ostrom a attiré l’attention du monde entier sur les questions discutées ici. L’approche théorique du juriste Yochai Benkler, avec le motif d’une « production par les pairs basée sur les communs » (commons-based peer production) qu’il met en avant, est elle aussi stimulante.

Il faut renforcer les biens communs, au-delà et de manière complémentaire au marché et à l’État. Chacun est appelé à assumer ses responsabilités en tant que copossesseur des « choses qui nous sont communes », afin d’en tirer davantage de liberté et de communauté. Les biens communs ont besoin d’hommes et de femmes, non seulement de marchés, d’aides gouvernementales ou de régulation étatique. La richesse qui se dispense à travers les biens communs doit être partagée de manière nouvelle et équitable dans toutes les sphères de notre vie.

Pour conclure : une vision

Nous avons besoin de changement, et nous connaissons la direction à emprunter. De nombreuses personnes sont déjà en chemin.

Ce rapport démontre que l’idée des biens communs peut faire nconverger différents mouvements. Voilà leur point fort.

Elle permet de rassembler en une stratégie commune la diversité des expériences pratiques et des projets, sans pour autant renoncer à la diversité des perspectives et des idéologies.

  1. Nous pouvons directement vouer notre énergie, nos institutions et nos talents aux biens communs et à ce qui constitue leur essence: la diversité de la vie.
  2. Nous pouvons nous demander systématiquement, à propos de tout projet, de toute idée ou de toute activité économique, s’il apporte plus aux communautés, à la société et à l’environnement qu’il ne leur retire.
  3. Nous pouvons reconnaître et soutenir matériellement en priorité les activités qui génèrent, entretiennent ou multiplient des biens à la libre disposition de tous.
  4. Nous pouvons faire en sorte que la participation collective et équitable aux dons de notre Terre ainsi qu’aux réalisations collectives du passé et du présent soit institutionnalisée et devienne la norme.
  5. Nous pouvons recourir à des processus décisionnels, des moyens de communication et des technologies transparents, participatifs et libres, ainsi que les améliorer.
  6. Nous pouvons inverser la tendance actuelle: en nous fixant des limites et en utilisant de manière durable les ressources naturelles, mais en étant prodigues en matière de circulation des idées. A insi nous bénéficierons au mieux des deux.
  7. Nous pouvons trouver des moyens intelligents de promouvoir la progression de tous, au lieu de nous concentrer exclusivement sur l’avancement individuel.

Lire le rapport « Biens Communs – La Prospérité par le Partage » dans son intégralité …

Notes

[1] Crédit photo : Ed Yourdon (Creative Commons By-Sa)




Promouvoir le logiciel libre dès la maternelle

Michelle Adcock - CC by-sa Il y a quelques temps nous recevions une question fort pertinente via le formulaire de contact du Framablog. Une question du genre de celles dont on n’improvise pas la réponse dans la foulée, et il arrive alors que les réponses se fassent attendre un moment. Toutefois, les réponses une fois construites peuvent valoir le coup d’être partagées… [1]

Le plus facile, en matière de réponses, est de demander à ceux qui savent. Et les forums sont là pour ça. Mais pour aider dans le processus, la piqûre de rappel est un instrument qui se révèle efficace, et ainsi, le jeune père d’élève dont émanait la question, croisé samedi dernier au cours de l’une des nombreuses manifestations d’opposition à la LOPPSI qui animèrent le pays, en usa avec talent…

Pour la petite histoire, c’est un candidat aux élections de parents d’élèves de son école qui posa la question et c’est entre autre à un élu que s’adresse cette réponse, avec toutes nos félicitations et nos encouragements.

La question se présentait de la manière suivante :

Bonjour

Je vais me présenter aux élections de parents d’élève pour ma fille de 3 ans, en maternelle des petits. J’ai souvent lu des articles très intéressants sur le libre à l’école dans le Framablog et je suis moi même pirate et libriste. Je me demande si vous pourriez me conseiller sur, au niveau maternelle des petits, quels sont les actions que je pourrais tenter et sensibilisations que je pourrais entreprendre au niveau de l’école et de la municipalité, depuis ce poste de représentant des parents d’élèves. […]

La réponse que nous avons à lui fournir, dans la droite lignée de la catégorie Éducation de ce blog, émane d’un directeur d’école et animateur TICE. Il l’a découpée en quatre volets que voici.

Des difficultés

À l’école, l’informatique pour les élèves ce sont les TICE (Technologie de l’Information et de la Communication à l’École) parfois appelées TUIC (« U » pour « usuelle »).

Eh bien les TICE, le matériel informatique, ne sont plus mentionnés pour le cycle maternel dans les programmes 2008 de l’Éducation Nationale. Pas interdits, mais pas mentionnés : même pas comme exemple de support d’écrit.

Le niveau de maîtrise de l’outil informatique est très inégal parmi les enseignant(e)s de maternelle.

La dotation en matériel, pour les écoles maternelles et élémentaires, est du ressort de la municipalité. Les écoles maternelles sont souvent les parents pauvres en matière d’équipement informatique : souvent un poste pour la direction d’école… et c’est tout. Les parents d’élèves peuvent apporter leur concours en trouvant du matériel de récupération.

Des aides

Une remarque préalable : les enseignant(e)s sont responsables de leur pédagogie. On peut les aider, voire les inciter, mais en aucun cas les contraindre à faire utiliser l’outil informatique par les élèves.

Le mode de fonctionnement de la plupart des classes maternelles (en ateliers à certains moments) est favorable à l’utilisation de postes, par petits groupes, parmi d’autres activités. Il est nécessaire que le matériel soit fiable, et que les logiciels soient adaptés pour permettre rapidement une autonomie des élèves à cet atelier.

Dans de nombreuses circonscriptions, il existe un animateur TICE : un enseignant partiellement détaché. Parmi ces missions, il doit apporter son concours aux enseignants désirant mettre en œuvre une pédagogie utilisant les TICE. Il serait judicieux de se rapprocher de lui.

Il existe des packs logiciels (regroupant système d’exploitation et logiciels ludo-éducatifs) très bien conçus, et utilisables dès la maternelle à l’école ou à la maison. Ils se présentent sous forme de live-CD (on fait démarrer la machine sur le lecteur de cédérom) et on est assuré que les données contenues sur le disque dur ne risquent rien. Pratique pour l’ordinateur familial. On peut aussi les copier sur une clé USB, et la rendre amorçable [2]. On peut enfin les copier sur le disque dur à la place du système d’exploitation déjà existant (intéressant dans le cas d’une vieille machine un peu à bout de souffle).

Des réalisations très intéressantes

Il existe aussi la version monoposte d’AbulEdu (notice Framasoft), l’excellent FramaDVD École (page projet) et enfin de très nombreuses applications pédagogiques libres fonctionnant sous Windows.

Une remarque pour finir

Il me semble très maladroit de se présenter comme «  pirate et libriste ». Ça ne peut que renforcer la confusion dans l’esprit de certains, qui assimilent les deux termes. Ça ne peut que rendre plus difficile votre démarche d’aide aux équipes enseignantes.

Soyons clairs : le piratage à l’école… on n’en veut pas.

Pour des raisons éthiques : nous avons une mission d’éducation civique et morale. Tricher, voler, utiliser des logiciels piratés est en contradiction totale avec une démarche éducative.

Item 2.3 du Brevet Informatique et Internet (B2i)
Si je souhaite récupérer un document, je vérifie que j’ai le droit de l’utiliser et à quelles conditions.

Pour des raisons militantes : on sait bien que les pirates de logiciels font le jeu des maisons d’édition en renforçant la présence de leurs produits, en les rendant plus utilisés, donc plus désirables.

Soyons fiers des logiciels libres !

Notes

[1] Crédit photo : Michelle Adcock Creative Commons By-Sa

[2] On devrait même dire : « amorçante »