Les droits d’auteur pour les nuls (dont certains nous gouvernent)

Marfis75 - CC by-saMaître Eolas vient de nous pondre un excellent billet intitulé Les droits d’auteurs pour les nuls.

Les nuls en question, ce sont d’abord vous et moi, qui trouveront là l’occasion de découvrir, parfaire ou mettre à jour leurs connaissances sur le sujet. Mais ce sont aussi et surtout ceux qui nous gouvernent et qui s’apprêtent à faire voter une loi scélérate (n’ayons pas peur des mots), à savoir la loi Création et Internet (ou Hadopi)[1].

Arguant de mon « droit de courte citation sous réserve que soient indiqués clairement le nom de l’auteur et la source » (ce qui est déjà fait ci-dessus), je n’ai pu résister à vous en recopier les derniers paragraphes.

Deux mots pour conclure, comme disent les avocats qui en ont encore deux cent à dire : d’une part, la protection des œuvres de l’esprit, et le droit de leurs auteurs de les exploiter commercialement est pour moi tout à fait légitime. Permettre à un artiste de vivre de son art est normal et sain pour la vie artistique. Je ne suis pas en guerre contre les droits d’auteur. J’émets simplement des doutes sur la réalité de l’étendue du préjudice que les ayants-droits prétendent subir à cause du téléchargement par des particuliers (télécharger une œuvre ne fait pas obstacle à l’acheter par la suite pour l’avoir en meilleure qualité ou bénéficier des bonus, et rien ne permet d’affirmer que ceux qui ont téléchargé une œuvre l’aurait acheté s’ils avaient été mis dans l’impossibilité de se la procurer de cette façon), et constate que le conservatisme de cette industrie qui espère arrêter le court du temps et de la technologie plutôt que faire face aux défis que représentent l’évolution de la technique est proprement suicidaire. Nous sommes en 2009, et l’industrie musicale commence tout juste à proposer légalement des titres au format largement compatible, ayant semble-t-il compris la bêtise que constituaient les mesures techniques de protection qui protégeaient surtout contre l’écoute du morceau.

Car, et c’est là ma deuxième observation, rappelez vous ce que je vous ai dit. Le droit d’auteur est apparu pour protéger les auteurs contre les éditeurs qui s’enrichissaient sur leur dos, puis contre les producteurs de spectacle et les interprètes qui faisaient de même. Le combat des ayant-droits aujourd’hui présente une grande nouveauté : il oppose les ayant-droits à leur public, qui ne s’enrichit pas sur leur dos. Les musiciens insultent ceux qui apprécient leur musique en les traitant de voleurs, les réalisateurs font de même avec ceux qui apprécient leur film en les traitant de dealers.

Je ne suis pas expert en marketing, mais qu’il me soit permis d’émettre des doutes sur la viabilité de cette attitude, et même de sa simple rationalité.

Quelle est la différence entre la loi DADVSI et cette loi Hadopi qui s’invite trois ans plus tard à l’Assemblée ? Aucune, ou presque, du côté du législateur, qui n’a semble-t-il pas retenu la leçon. Par contre on sent bien que la « société civile » est plus impliquée, comme l’illustre justement cette intervention qui sort du champ des défenseurs du logiciel libre et sa culture.

Quitte à faire momentanément le dos rond, il y a de quoi être optimisme pour l’avenir…

Notes

[1] Crédit photo : Marfis75 (Creative Commons (By-Sa)




La loi Création et Internet, le chant du cygne et le maquis

Tempo no tempo - CC byCette loi « Création et Internet » s’apparente de plus en plus au chant du cygne d’une industrie culturelle totalement dépassée par les événements et qui s’arc-boute sur ce qu’il lui reste encore de privilèges hérités du siècle dernier. Associée avec la politique web 1.0 d’un Sarkozy, tout est réuni pour casser la société numérique en deux et voir les éléments les plus progressistes du pays prendre le maquis virtuel pour tenter de sauver ce qui peut encore l’être tant que la neutralité du Net sera garantie.

Un peu emphatique ce premier paragraphe non ? Allez, tant, pis, je le garde quand même 😉

En fait il s’agissait juste d’introduire cet article du collectif Libre Accès, qui fait justement partie de ceux qui sont bien décidés à ne pas s’en laisser compter[1].

Edit : Dans un autre registre, on pourra également lire cette gore mais assez désopilante BD de Flock.

La libre circulation de l’Art est la garantie de notre liberté

Libre Accès – Lettre d’information – février 2009
Article sous Licence Art Libre

La préface de La crise de la culture d’Hannah Arendt commence par cette citation d’un poème de René Char : « Notre héritage n’est précédé d’aucun testament », faisant référence à son choix d’entrer en résistance, à la prise de conscience que lutter contre la tyrannie restitue à chacun, au sein de l’espace public, sa liberté.

La circulation des œuvres de l’esprit a toujours été un enjeu majeur ; les amateurs du totalitarisme ont une forte passion morbide pour brûler des livres et imposer leur pensée unique aux masses. Le hacker Soljenitsyne en a su quelque chose : la parution de L’Archipel du Goulag, qui arriva en Europe de l’Ouest sous la forme d’un microfilm, est un des premiers exemples de l’enjeu que représente la numérisation des livres pour notre civilisation.

Il reste encore des hommes et des femmes dans le monde pour qui les actes de création constituent autant d’actes de résistances à la tyrannie. Actes de dignité où écrire, filmer, peindre, peut constituer un véritable crime passible de la peine de mort. Il est important de garder cette idée présente à l’esprit et de ne pas oublier qu’Internet représente rien de moins que de notre liberté de créer, d’échanger et de partager.

L’essence et l’avantage d’Internet est sa décentralisation. C’est l’outil rêvé de tous les amoureux de la liberté, encyclopédistes des Lumières, amis de l’éducation populaire et de l’art, leur permettant de diffuser leurs idées et les conserver. Bibliothèque-monde de toutes les cultures, lieu de production et de circulation de la pensée, l’art pour tous accessible, outil de pair à pair par excellence, Internet est un idéal des Lumières. C’est un espace d’expression, de réciprocité, de critique et donc de création.

En termes économiques, il serait temps de prendre conscience de faits essentiels qui se dessinent depuis son apparition :

  • l’ancien modèle des médias était basé sur la diffusion et la consommation, tandis que le nouveau modèle s’est développé sur la participation et l’expression;
  • l’élément critique de l’ancienne chaîne de valeur reposait sur la distribution, tandis que la nouvelle chaîne de valeur est centrée sur la découverte et la propagation;
  • il faut porter son attention là où l’argent s’est déplacé, là où les gens dépensent leur argent, sans occulter dans le même temps que les circuits financiers et produits dérivés se sont globalisés, hors de tout contrôle des Etats-nations et des territoires.

Ce sont là des données de base, familières à tout acteur informé de l’économie numérique. Il est donc particulièrement inquiétant pour nos démocraties de constater que ces mêmes lobbies financiers n’ont de cesse de vouloir contrôler Internet par des méthodes non seulement arbitraires et irrationnelles mais également tout à fait dépassées.

Les arguments justifiant la mise sous contrôle du réseau se réclament paradoxalement de la défense de la culture, alors que c’est justement elle qui est attaquée ; au même titre qu’ils invoquent des raisons pseudo-économiques, alors que par essence l’économie numérique refuse radicalement un contrôle central. Ce paradoxe a d’ailleurs été brillamment dénoncé par les situationnistes qui écrivaient dès 1967 : « la fin de l’histoire de la culture se manifeste par deux côtés opposés : le projet de son dépassement dans l’histoire totale, et l’organisation de son maintien en tant qu’objet mort, dans la contemplation spectaculaire »

Ces objets morts, stars télévisuelles qui ont l’odeur des icônes des églises mais sans leur efficacité, sont mis en avant pour justifier tous les abus du contrôle d’Internet. La mort de notre liberté est préparée dans une tentative vaine et pitoyable de conjurer la mort de l’artiste télévisé.

La loi « Création et Internet » souhaiterait que l’on installât un logiciel sur chacun de nos ordinateurs pour prouver que nous ne sommes pas des copieurs d’œuvres numériques interdites. Absurdité fondamentale : l’informatique, Internet, sont intrinsèquement copie, comme le rappelait Intel Corporation dans son Amicus brief lors du procès MGM vs Grokster.

L’argument de la culture en danger, servi à satiété, est un mensonge. La culture foisonne, les créateurs, de plus en plus nombreux, ne cessent de créer. Le public a soif d’œuvres auxquelles il accède de plus en plus en amateur, participant, co-créateur, et non plus en consommateur. La dissémination et l’accès de tous et par tous à la culture, voilà ce qui est en danger.
Et il est déconcertant de voir que c’est au nom du droit d’auteur, pour défendre la création, que l’on s’apprête à faire voter le projet de loi « Création et Internet », loi liberticide par excellence. Les comités de censure sont-il en train d’être remplacés par les Majors à qui le gouvernement français veut déléguer des pouvoirs arbitraires de police de l’Internet ?
Le pouvoir oligopolistique des Majors renforcé par la puissance publique pourrait contrôler l’ensemble des diffusions culturelles par une intégration verticale anti-économique et anti-concurrentielle : des tuyaux Internet, des radios, des télévisions, des journaux, des salles de concert…

C’est donc bien la liberté de l’auteur et son indépendance qui sont attaquées. Il n’est guère étonnant que de plus en plus d’auteurs et d’interprètes, voulant expérimenter d’autres dispositifs de création, quittent la SACEM (dans la musique) et les circuits classiques de distribution, pour mieux maîtriser leurs créations. Tout le monde n’est pas un adepte de la chanson à 2 minutes 30. La SACEM, influencée par les Majors ne sait pas rémunérer équitablement les auteurs occasionnellement diffusés sur les radios, par exemple. Ses modèles de répartitions sont basés sur des données partielles, accordant une prime aux plus gros diffusés. La production de la création doit correspondre au moule marketing de l’industrie culturelle ou ne pas exister.

De fait, il y a de plus en plus d’artistes qui, pour être en accord avec leur processus créatif, s’auto-produisent et s’auto-diffusent via Internet. Pour protéger leurs œuvres et garantir le partage de celles-ci, ils utilisent différentes licences telles la Licence Art Libre ou les Creative Commons.
Ils retrouvent ainsi leurs libertés premières d’auteurs : choisir les possibilités de modification de leurs œuvres, d’utilisation, de collaboration, de rémunération. Certains auteurs souhaitent privilégier la diffusion et la pérennisation de leurs œuvres, plutôt que leur rétribution financière.

Antoine Moreau, fondateur de la Licence Art Libre écrit : « Je crois pouvoir dire alors que le copyleft participe bien de ce récit des rêves ou des visions qui va à contre-temps de tout ce qui prétend dominer le cours de la création. C’est une liberté intempestive qui ne se soumet pas à l’injonction de l’actualité mais envisage un temps élargi, qui va très loin dans le passé, très loin dans l’avenir et très profondément dans le présent ».

Un musicien qui vient de terminer la création d’une œuvre musicale peut en un clic être écouté d’Afrique en Asie. Internet offre aux artistes un moyen de propagation inédit auquel les Majors ne s’étaient pas préparés. La plupart des plateformes de téléchargement d’œuvres sont multilingues. Il n’est plus rare qu’un artiste qui ne trouve pas son public localement le trouve à l’autre bout du monde.

C’est une vraie chance pour les auteurs, et pour l’humanité. Des groupes de musique comme Nine Inch Nails sont en passe de démontrer que la libre diffusion des œuvres n’empêche pas les artistes de trouver des modes de rémunérations concrets via la vente de places de concert ou de disques, avec toute une gamme possible de services et de produits dérivés.

Il y a bien un imaginaire défaillant dans les débats actuels sur la rémunération des auteurs et artistes-interprètes. Les moines copistes de l’industrie du DVD tentent d’imposer le même rapport de force que lors de la naissance de l’imprimerie, voulant casser une technologie brisant leur monopole. Frédéric Bastiat, économiste libéral français, les décrivit fort bien dans sa Pétition des Fabricants de Chandelles geignant contre la concurrence indue du soleil.

C’est l’auteur/artiste interprète à qui nous devons garantir une rémunération et non pas à l’industrie culturelle. La démocratisation des outils d’autoproduction et d’autodiffusion dans tous les Arts (cinématographique, musical, graphique, etc.) doit être prise en considération. Il appartient aux pouvoirs publics de savoir s’ils veulent soutenir les Majors ou les auteurs. N’en déplaise aux moines copistes de l’industrie du DVD et à leurs icônes télévisées, la création est foisonnante sur Internet et il est temps qu’elle soit reconnue.

S’il est fondamental de garantir cette liberté de choix de diffusion des œuvres et de leur circulation, nous devons être capables d’adapter le financement de l’art à l’heure d’Internet, sachant que sa défense ne peut être, ni en contradiction avec les valeurs démocratiques, ni avec les technologies actuelles. Comme le disait Michel Vivant en 2003 au Colloque de l’UNESCO ”Droit d’auteur et droits voisins dans la société de l’information” : « Il ne s’agit pas de s’incliner devant le fait. Il s’agit de ne pas nier la réalité. ».

La libre circulation de l’Art garantit notre humanité, le pouvoir de se penser homme, voire humanité. On a besoin de se connaître à travers les grottes de Lascaux, dans les ruines de Babel. Antoine Moreau rappelle : « Il n’y a pas d’ouvrages de Platon et il n’y en aura pas. Ce qu’à présent l’on désigne sous ce nom est de Socrate au temps de sa belle jeunesse. Adieu et obéis-moi. Aussitôt que tu auras lu et relu cette lettre, brûle-la. La notion d’auteur, qui n’existe pas dans la Grèce Antique ni au Moyen-Âge où l’autorité émanait des dieux ou de Dieu, apparut. ». Garantir la libre circulation des œuvres d’Art, avec comme seul propriétaire, en dernier ressort, l’humanité, est donc essentiel. Pas de Copyright sur les œuvres de Lascaux, mais des amateurs d’Art archéologues entretenant notre patrimoine.

Le devoir de garantir la circulation de l’Art comme patrimoine de l’humanité oblige à penser sa préservation. Pas les salaires mirobolant des icônes télévisés mais de ceux qui, en premiers garantissent une pratique artistique : professeurs d’Art (plastique, musique, cinéma…), Maisons de la Culture, bibliothèques, espaces de pratique artistique, cinémas indépendants, universités… Il s’agit de multiplier les lieux ou les Artistes et les amateurs d’Art peuvent créer, échanger, écouter, pour maintenir à chaque Art les amateurs éclairés qui soutiendront toujours les Artistes/Auteurs.

Le financement de l’Art (pour les artistes souhaitant en bénéficier), doit être repensé par les puissances publiques. Préserver le seul intérêt des Majors, quand le statut des intermittents est menacé et le statut des artistes peintres est presque inexistant, démontre l’abandon de toute politique culturelle ambitieuse.
Si l’on songe que nous, citoyens, par les impôts, taxes et redevances que nous payons, sommes certainement le plus grand producteur culturel français, comment expliquer que l’on nous dénie toute participation aux débats en cours, et que l’on prétende privatiser et nous faire payer des œuvres que nous avons déjà financées? Est-il par exemple normal que l’Éducation Nationale, selon les accords sectoriels post-DADVSI, paye 4 millions d’euro par an pour n’avoir le droit, en ce qui concerne les œuvres audiovisuelles, que d’utiliser les chaînes hertziennes classiques ? Cela doit changer.
C’est en tant qu’amateurs d’Art et citoyens exigeants que nous devons être comptables des politiques culturelles et de leur diffusion. Il en va de nos identités et cultures plurielles, dont il faut empêcher l’uniformisation par une industrie culturelle qui, de TF1, à France 2 ou M6, montre les mêmes séries télévisées et les mêmes discours autistes du Président du tout nouveau Conseil de la création artistique.

Il incombe de défendre nos libertés concomitantes d’un accès à l’art pour tous. De ce point de vue, il est intéressant de noter que les Majors essaient d’imposer, comme les semenciers de Monsanto, un catalogue des œuvres dites protégées, au mépris du droit d’auteur censé protéger tout auteur d’une oeuvre de l’esprit. Il y a donc bien des logiques de domination économique qui sont à l’œuvre pour la privatisation des biens communs, contre lesquelles nous devons résister.

L’aboutissement des projets de Monsanto, comme le fameux « catalogue des semences » interdisant aux agriculteurs et jardiniers le droit de conserver, utiliser, échanger et vendre les semences ou du matériel de multiplication reproduits à la ferme, doit nous rendre vigilants sur les tentatives des Majors d’imposer le leur, fait du même petit nombre d’œuvres et rééditions formatées et sans risque.

Il y a un foisonnement d’Auteurs/Artistes talentueux qui autorisent la diffusion de leurs œuvres via la Licence Art Libre et les Creative Commons, plus de 30 000 œuvres musicales sur la plateforme Dogmazic, 10 000 œuvres littéraires sur le site de la maison d’édition InLibroVeritas, et dans le monde, d’après des estimations minimales, 130 millions d’œuvres et documents sous Creative Commons en juin 2008. Il est de notre devoir de les soutenir, car ils sont à l’avant-garde d’un mouvement de résistance, se livrant à la lutte pour la libre circulation de l’Art et donc notre liberté.

Pour Libre Accès, Jérémie Nestel (MACAQ, Radio du Ministère de la Crise du Logement), Bituur Esztreym (co-fondateur de Musique Libre ! et de dogmazic.net), Eric Aouanès (président de l’association Musique Libre ! et co-fondateur de la plateforme Dogmazic), Didier Guillon-Cottard (Festival Art is chaud) Mathieu Pasquini (gérant et fondateur de la maison d’édition InLibroVeritas).

Notes

[1] Crédit photo : Tempo no tempo (Creative Commons By)




Je veux la même chose sur mon Eee PC !

Faites passer pour montrer à quoi peut ressembler GNU/Linux aujourd’hui, qui plus est sur un netbook (ici le célèbre Eee PC).

Même ma compagne a été impressionnée, c’est vous dire…

—> La vidéo au format webm

Il s’agit de la distribution GNU/Linux Elive (Debian + Enlightenment) gentiment customisée pour faire tourner le flashy and sexy Compiz dessus (pour en savoir plus).

La musique est de Arena Of Electronic Music (licence Creative Commons By-Nc-Nd).




Wikipédia et éducation : un exemple de réconciliation 2/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage de l’enseignant qui est ici présentée.

Copie d'écran - Wikipédia - Jon Beasley-Murray

Introduction de Wikipédia dans les salles de classe : le loup est-il dans la bergerie ?

Was introducing Wikipedia to the classroom an act of madness leading only to mayhem if not murder?

Jon Beasley-Murray – avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Réflexions sur l’utilisation de Wikipédia dans le cadre du cours SPAN312 à l’Université de la Colombie Britannique, « Murder, Madness, and Mayhem: Latin American Literature in Translation » (NdT : « Meurtre, Folie et Chaos : la littérature latino-américaine en mouvement »), printemps 2008.

Wikipédia : mal aimée mais omniprésente dans l’éducation

Tel un membre non invité, Wikipédia s’aventure aujourd’hui très près du monde universitaire. Les objectifs de Wikipédia sont éminemment académiques : l’encyclopédie se focalise sur la collecte, le traitement, l’enregistrement et la transmission du savoir. À en juger par le nombre d’articles et de lecteurs, elle a particulièrement bien réussi à encourager une culture de curiosité intellectuelle. Elle est pourtant régulièrement sujette aux critiques formulées par les universitaires eux-mêmes.

Et pourtant tout le monde en fait usage d’une manière ou d’une autre, même si c’est difficile à admettre. Et surtout, nos étudiants l’utilisent, ouvertement ou non (puisqu’on leur impose souvent de ne pas citer les articles de Wikipédia dans leurs travaux), mais sans nécessairement en connaître véritablement le fonctionnement. On leur dit que l’usage de Wikipédia n’est pas conseillé, mais on leur dit rarement pourquoi, alors qu’eux la voient comme une ressource incroyablement utile.

La consigne : créer un « Article de Qualité »

J’ai décidé de faire de Wikipédia un axe central d’une matière que j’enseignais, en pensant que c’est seulement en y contribuant activement que les élèves découvriraient ses points faibles et ses points forts. J’avais aussi en tête l’idée qu’ils pourraient par la même occasion améliorer les articles dans un domaine qui à mes yeux manquait cruellement de contenu, en l’occurrence la littérature latino-américaine.

Wikipédia devait être un point important du cours mais sans en être pour autant l’essentiel. Ce n’était pas un cours sur Wikipédia mais, comme mes autres cours, il devait plutôt se concentrer sur l’Amérique Latine ainsi que sur la lecture d’un corpus de textes littéraires d’Amérique Latine. Dans ce cours intitulé « Murder, Madness, and Mayhem » (NdT : Meurtre, Folie et Chaos), les textes choisis comportaient une série de romans sur la dictature de la période du dix-neuvième siècle avec l’argentin Domingo Faustino Sarmiento jusqu’à l’époque contemporaine avec certains des auteurs d’Amérique Latine les plus en vue comme Gabriel García Márquez et Mario Vargas Llosa. Ces livres n’étant ni simples ni courts, les étudiants devaient passer une bonne partie de leur temps personnel à la lecture, la majeure partie du temps en classe étant consacrée aux explications et à la discussion.

Wikipédia n’était que peu abordé durant les cours. La tâche qui leur était assignée était plutôt d’éditer (ou, dans deux cas, de créer), en groupe, les articles de Wikipédia se rapportant aux œuvres et aux auteurs étudiés. Au cours de la session ils devaient réussir à faire obtenir à ces articles ce qu’on nomme dans le jargon Wikipédia le grade d’Article de Qualité.

Lorsque je leur ai assigné cette tâche je ne réalisais pas à quel point c’était ambitieux. Wikipédia définit un Article de Qualité comme un article qui « représente ce que l’on peut de trouver de mieux, et qui répond à des standards professionnels d’écriture et de présentation ». Et ces standards placent de fait la barre très haut. C’est manifestement un des paradoxes de Wikipédia : ses standards sont irréprochables alors même que la majeure partie de son contenu en est fort éloigné. Pour vous donner une idée, moins de 0,1% des articles de Wikipédia possèdent le label Article de Qualité.

En effet, alors que Wikipédia a déjà fait l’objet de nombreux projets pédagogiques au sein d’universités aussi dispersées que celles de Sydney, Hong-Kong, Minnesota et Leiden, c’était à ma connaissance la première fois qu’on demandait explicitement à des étudiants de créer des Articles de Qualité.

Considérations initiales : les avantages de Wikipédia

En plus d’enseigner (même indirectement) aux étudiants les faiblesses et les forces de Wikipédia et en même temps (peut-être incidemment) d’améliorer le contenu de l’encyclopédie concernant l’Amérique Latine, d’autres raisons plus positives venaient étayer ce choix de travail.

L’idée que les étudiants se lançaient dans un projet concret ayant des effets tangibles et publics, à défaut d’être éternels, me plaisait. Après tout, une dissertation ou un examen est un parfait exemple de travail inutile : souvent rédigé à la hâte pour un lecteur unique, le professeur, et ensuite mis de côté.

Je trouve regrettable qu’à de rares exceptions près, comme par exemple dans les ateliers d’écriture, les étudiants ne soient pas plus encouragés à relire et à réfléchir à leur propre travail, où trop souvent ils ne font que jeter un coup d’œil aux commentaires que le professeur aura laborieusement griffonné. C’est compréhensible, puisqu’ayant à ce stade très peu de chances de pouvoir retravailler leur devoir, ils ne s’intéressent alors qu’à leur note et c’est tout. Les étudiants ne découvrent que rarement l’importance des corrections dans un bon travail d’écriture. Alors qu’au contraire, sur Wikipédia, les corrections font (presque) tout : les contributeurs sont appelés « éditeurs » justement parce que leurs écrits sont en permanence au stade de la correction.

De plus ils participeraient à l’élaboration de pages qui, pour certaines (l’article sur Gabriel García Márquez par exemple), reçoivent plus de 60 000 visiteurs par mois. Même les articles les moins visités sur lesquels ils travaillaient recevaient plusieurs centaines de visites par mois. Ici ils écrivaient des articles pour un lectorat ayant la possibilité rare de répondre, de ré-écrire et de commenter le contenu qu’ils produisaient. En effet, travailler sur Wikipédia ouvre la porte au travail collaboratif : les étudiants devaient non seulement collaborer entre eux, mais aussi avec d’autres éditeurs ou des wikipédiens qu’ils ne rencontraient que sur le wiki.

Pour finir, l’idée même que l’attribution de la note soit extérieure à la classe m’attirait. L’idée que le travail soit jaugé à l’aune de son impact et non par le jugement personnel d’un professeur (aussi professionnel soit-il) me plaisait. Dès le départ, j’ai établi avec eux que les groupes qui réussiraient à faire obtenir à leur article la mention Article de Qualité seraient notés A+, c’est aussi simple que ça. Ceux qui atteignaient la mention Bon Article (la barre est placée moins haut, mais les Bons Articles ne représentent tout de même que 0,15% de tous les articles de Wikipédia en anglais) recevraient un A. La note pour ce devoir, en d’autres termes, serait déterminée par l’appréciation collective et publique des autres auteurs.

Considérations initiales : pièges potentiels

J’avoue que je n’ai pas beaucoup pris en considération les écueils de ce plan. Je reconnais que c’était un peu une expérience, mais la tenter me rendait enthousiaste. Ce n’était de toute façon pas le seul point sur lequel le cours serait noté et l’évaluation ne reposerait pas entièrement dessus : les étudiants devaient également tenir à jour un blog hebdomadaire sur leurs lectures et rendre deux devoirs, un à mi-session et un autre à la fin.

(En fin de compte le devoir de fin de session a été abandonné à la majorité des 2/3 de la classe après un vote des étudiants à bulletin secret : 85% d’entre eux ont voté pour l’annulation du devoir final et pour un plus gros coefficient du travail sur Wikipédia.)

J’avais surtout peur que les étudiants soient pris dans une guerre d’édition non constructive et potentiellement décourageante. Une guerre d’édition est un débat sans fin entre des éditeurs qui n’arrivent pas à s’accorder sur le contenu de l’article. Comme dans beaucoup d’interactions en ligne, ces désaccords deviennent rapidement désagréables et provoquent l’intervention d’un administrateur de Wikipédia qui peut décider de « bloquer » l’un des individus impolis, voire les deux. Je n’étais que trop conscient de ce problème puisque dans mes tentatives d’exploration de Wikipédia quelques mois avant de donner ce cours, je me suis retrouvé (plutôt par inadvertance) pris dans de telles guerres, et je me suis fait bloquer pendant quelque temps.

C’est toujours un peu risqué d’amener les étudiants à interagir directement avec la sphère publique. Et, d’une certaine manière, nous devons veiller sur eux. C’est peut-être la raison pour laquelle tellement de technologies de l’éducation (dont WebCT est le meilleur exemple) sont hermétiquement isolées du « monde réel ». Et ça ne serait pas très productif si l’un de mes étudiants se retrouvait bloqué et ne pouvait pas poursuivre son travail ! J’ai donc croisé les doigts en espérant que cette éventualité ne se présente pas.

Premiers pas : « notre » projet se met en route

Wikipédia ne m’était pas totalement inconnue puisque j’avais déjà à mon actif de nombreuses éditions d’articles et même quelques créations (même si ces derniers n’étaient rien d’autre que des ébauches, des versions courtes et préliminaires). Mais jusque là je n’avais pas encore travaillé de manière durable sur un article de Wikipédia. Et bien que j’avais quand même un sentiment de familiarité ainsi qu’un certain sens de la culture Wikipédia, j’avoue que j’étais malgré tout (et le suis d’ailleurs toujours) perplexe devant certains des détails les plus impénétrables des techniques et procédures de ce qui est maintenant devenu une gigantesque et labyrinthique entreprise.

D’un autre côté, cela m’a permis de comprendre l’intimidation que les élèves ne manqueraient pas de ressentir devant la tâche qui se présentaient à eux. Seuls un ou deux étudiants avaient déjà fait des modifications sur Wikipédia et ils étaient peu nombreux à montrer des signes de familiarité avec les conventions du Web. Et ne parlons même pas du code spécifique à Wikipédia (même si celui-ci est simplifié). Je crois que je peux comprendre leur étonnement quand, ayant cliqué pour la première fois sur le bouton « Modifier », ils sont tombés sur une masse confuse de gribouillis caractéristiques des logiciels de wiki.

Pour poser les bases du projet et obtenir du soutien, j’ai enregistré le projet sur une page Wikipédia dédiée à ce genre de choses, j’ai fait apparaître sur tous les articles du projet qu’ils faisaient partie d’une tâche pédagogique, et j’ai démarré une « page projet » décrivant nos objectifs. J’ai aussi laissé des messages sur d’autres projets Wikipédia jugés connexes (principalement des groupes d’éditeurs de Wikipédia qui se concentrent sur un sujet particulier comme par exemple la littérature ou l’Amérique du Sud); j’ai même laissé un mot au journal maison de l’encyclopédie, le Wikipédia Signpost (NdT : le Wikimag en français). J’ai ensuite présenté le projet à la classe, demandé aux étudiants de se créer un compte sur Wikipédia et j’ai croisé les doigts pour que ça marche.

Vous avez peut-être remarqué que je parle de « notre » projet et de « nos » objectifs. J’essaie en général d’inclure tout le monde quand je parle en classe : « nous » lisons les textes « ensemble  », « nous » essayons de comprendre comment les interpréter. Mais ici la sensation était presque palpable : dès le départ je sentais que je faisais aussi partie du projet, sentiment qui n’ira qu’en s’amplifiant dans les semaines suivantes.

Leçon numéro 1 : « ceci pourra être effacé »

Assez rapidement, quand tout le monde fut censé s’être enregistré et avoir commencé à jouer un peu avec les modifications, j’ai apporté mon ordinateur en cours et j’ai présenté les bases aux étudiants. Raccordé à un vidéoprojecteur, je leur ai montré sur grand écran où se trouve l’onglet « Modifier », comment faire une modification mineure (en changeant un mot sur la page Wikipédia de notre université) et comment faire une modification majeure (en vaporisant un article associé à l’université qui était manifestement un plagiat d’un autre site Web).

Un élève m’a par la suite demandé de leur montrer comment créer une nouvelle page. Deux des articles sur lesquels ils travaillaient n’existaient pas alors et j’ai alors décidé de créer El Señor Presidente, dont le seul contenu initial était : « El Señor Presidente est le titre d’un roman de Miguel Ángel Asturias ». J’ai ensuite poursuivi sur d’autres pages avant de revenir à celle-ci quelques instants plus tard… et c’était tout pour la première leçon. Sauf que, à mon grand embarras (et devant la classe entière) j’ai découvert qu’en à peine une minute d’autres éditeurs de Wikipédia avaient déjà collé une énorme bannière rose sur notre tout frais nouvel article avec la mention suivante : « Cette page est susceptible de remplir les critères de Wikipédia pour suppression rapide ». « Les salauds ! » murmurai-je dans ma barbe et je me suis dépêché de modifier le contenu de l’article pour y afficher « El Señor Presidente est le titre du roman le plus important du romancier, lauréat du prix Nobel, Miguel Ángel Asturias », inquiet que notre petit projet se fasse torpiller à peine commencé.

Si j’avais voulu montrer aux étudiants que la modification de Wikipédia est un exercice de négociation avec l’entière communauté d’éditeurs et de lecteurs, je n’aurais pas pu mieux choisir mon exemple. J’ai découvert (depuis) que pour d’autres projets pédagogiques sur Wikipédia, les étudiants sont souvent encouragés à faire un brouillon de leurs articles à l’abri des regards et de les enregistrer sur les pages publiques uniquement lorsqu’ils sont prêts à affronter un examen général. Ici tout était exposé et ouvert dès le début. Mais je n’ai aucun regret. C’est en effet là que le projet a puisé certains de ses meilleurs atouts.

La FA-Team : synergies, du bon et du mauvais

Mais on a rapidement eu un gros coup de chance, alors même que les messages que j’avais envoyés aux différents projets Wikipédia pré-existants semblaient lettre morte (la plupart, d’après ce que j’ai pu voir, étant enterrés ou plus souvent simplement débordés). Il s’est en effet trouvé qu’un groupe d’éditeurs expérimentés de Wikipédia avait commencé à lancer des idées pour augmenter le nombre d’Articles de Qualité sur Wikipédia. Ils se sont baptisés la « FA-Team » (NdT : L’équipe des Articles de Qualité, FA pour Featured Articles) et cherchaient alors un projet auquel participer. Or ils « nous » ont repéré et nous ont écrit pour savoir si nous désirions un coup de main.

Est-ce que nous désirions un coup de main ? Évidemment !

La FA-Team s’est répartie les articles du projet, ils ont laissé des messages d’accueil sur la page de discussion de chaque étudiant (les pages personnelles spécifiques à chaque utilisateur enregistré de Wikipédia et qui fonctionnent comme des pages où les éditeurs peuvent entrer en contact directement avec l’utilisateur) et ils ont débuté leur mission d’encouragement, de conseil et de guide auprès de notre groupe afin de nous pousser à rédiger des articles de Wikipédia de haut niveau. Ce sont des gens très méticuleux, dévoués, et par dessus tout généreux.

Je réalise maintenant que la FA-Team nous a fait la démonstration de la plus grand force (et peut-être aussi la plus grande faiblesse) de Wikipédia : la synergie. Les éditeurs de Wikipédia sont attirés par l’activité. J’irai même plus loin : ils sont particulièrement attirés par l’activité qui aboutit à l’ajout de contenu nouveau à l’encyclopédie. Un bon exemple de cette attraction est l’avertissement que j’ai reçu après avoir créé une page : il existe un noyau de volontaires de Wikipédia qui scrute sans cesse la création de nouvelles pages, prêts à se jeter dessus si un sujet déplacé ou non-encyclopédique est proposé. N’importe qui peut créer une page Wikipédia, mais si vous en créez une sur vous, votre petit groupe de musique ou votre chat, attendez vous à la voir disparaître sans avoir le temps de dire ouf.

De même, beaucoup de personnes émettent des critiques à l’encontre de Wikipédia, la plus connue étant peut-être celle du comédien américain Stephen Colbert, justement parce que n’importe qui peut ajouter n’importe quelle bêtise à un article. Mais je crois que ces personnes ne réalisent pas que des équipes dévouées de wikipédiens surveillent les modifications récentes pour éliminer rapidement ces bêtises flagrantes.

Mais l’aspect vraiment constructif de la réactivité de Wikipédia s’est également manifesté quand, dans les deux jours suivants la création de la page El Señor Presidente, une petite armée d’éditeurs a apporté des modifications mineures qui, combinées, ont apporté des changements importants dans la mise en page. Un des étudiants a ensuite ajouté un fragment d’information qu’il avait trouvé sur un autre site Web. Un petit coup de mise en page réalisée par d’autres éditeurs et au cours suivant cet article ressemblait déjà aux autres pages Wikipédia. Un peu court peut-être, plutôt incomplet et avec quelques sources tirées un peu au hasard d’Internet, mais il apportait des informations sur le sujet aux lecteurs, au moins le minimum, et surtout il était intégré au grand vaisseau Wikipedia.

(Je devrais préciser ici que j’étais indifférent au fait que le travail final des étudiants pourrait ne pas être « entièrement leur travail ». Pour moi, réussir à persuader d’autres personnes de travailler avec eux, travailler en harmonie avec des inconnus faisait également partie du projet. On peut évidemment se dire qu’ils pouvaient tricher pour accomplir leur devoir, comme pour n’importe quel autre devoir, par exemple en payant une tierce personne pour écrire les articles à leur place. Mais en fait le logiciel wiki qui suit les contributions de chacun offre une transparence inégalée, on sait ce que les étudiants font, étape par étape, qui, quoi et quand.)

Ainsi, l’intervention de la FA-Team n’était donc pas exceptionnelle. Ce n’est qu’un exemple de ce principe de synergie porté à une échelle légèrement plus importante et développée. On peut énoncer le principe de synergie ainsi : plus vous contribuez à Wikipédia, plus votre activité résonne et est développée et multipliée par l’activité d’autres personnes. Certes, les guerres d’édition existent, mais d’après mon expérience elles n’affectent en général pas l’ajout de nouveaux contenus. Ce n’était pas juste de la chance, on était tombé sur l’un des principes de base du fonctionnement du wiki.

L’inconvénient de ce principe est que là où Wikipédia est moribond, il le demeure. Bien qu’en théorie l’activité sur Wikipédia bourdonne en continu, en pratique un coup d’œil à l’historique de quelques pages (une information à portée de clic) suffira à vous convaincre que ces pages sont en fait plutôt stables. Un mauvais article pourra le rester pendant une très longue période. Ainsi dans notre projet nous avions les exemples de deux articles plus anciens (et donc plus importants) : les entrées pour Gabriel García Márquez et Mario Vargas Llosa, restées presque inchangées pendant des années, mis à part un petit peaufinage ça ou là. Nous nous devions donc d’y remédier.

Chercher et… chercher encore

C’est alors devenu un travail de recherche. Les étudiants devaient trouver ce qui est appelé en jargon wikipédien des sources sûres. Une doctrine fondamentale de Wikipédia (même si cela peut sembler étrange voire paradoxal, particulièrement pour des universitaires) est qu’elle ne sert pas à la publication de résultats inédits. Une entrée encyclopédique n’est pas faite pour introduire un débat. C’est la différence principale entre dissertation traditionnelle et Wikipédia.

La FA-Team ayant pris en charge le travail de mise en page ainsi que les tâches routinières, les étudiants étaient libres de s’adonner entièrement à la recherche. Mais c’était sans compter un autre piège qui nous a beaucoup ralenti et que nous aurions dû pourtant anticiper puisque ses racines plongent au cœur même des règles de Wikipédia : le fait que les étudiants n’évaluent pas suffisamment leurs sources.

Il faut se rappeler que le problème à la base de ce projet est que les étudiants se fient trop à Wikipédia sans vraiment en considérer les risques et les inconvénients. Il n’était en fait guère étonnant de les voir reproduire les mêmes erreurs en cherchant des sources pour les articles qu’ils devaient rédiger. Ainsi, il n’était pas rare qu’ils ajoutent des informations non vérifiables ou mal documentées (et trop souvent plagiées) ou qu’ils usent et abusent de citations d’autres pages Web et encyclopédies en ligne.

Et pourtant c’est de là aussi qu’a été tirée l’une des meilleures leçons de ce travail. Parce que Wikipédia exige que chaque information soit étayée par une référence (ce que les membres de la FA-Team répétaient inlassablement), les étudiants se sont retrouvés forcés de citer leurs sources. Ces sources pas forcément fiables se sont donc retrouvées exposées, ce qui n’aurait pas nécessairement été le cas pour un examen de session. De plus, justement parce que la rédaction sur Wikipédia est un processus de révision permanente, il a été demandé à certains de reprendre leur travail de recherche pour ré-évaluer leurs sources, pour en trouver de plus fiables avant de reprendre la rédaction. Par la même occasion le problème des plagiats a été réglé simplement parce que plus personne ne recopiait de passages en les faisant passer pour un produit fini.

Pour résumer, ce travail a fait ressortir les faiblesses initiales des étudiants dans le domaine de la recherche, mais ces faiblesses étaient bien la raison d’être de ce devoir. Ils ont cependant appris que rechercher des informations (et les mettre en forme) est un processus, souvent long, où l’on commence avec des sources parfois douteuses (comme Wikipédia lui-même) pour progresser vers des éléments ou preuves toujours plus solides, jusqu’à découvrir de nouvelles informations occultées par les premières sources.

Autres observations : un travail professionnel

Au moment où j’écris ceci, l’accouchement sous péridurale du projet n’est toujours pas terminé. Un article, celui que j’avais ironiquement créé devant la classe, a passé sa première inspection avec succès, une inspection particulièrement rigoureuse d’ailleurs, ce qui lui vaut maintenant le grade de Bon Article. Mes étudiants sont donc à l’origine d’une partie des 0,15% de ce que Wikipédia a de meilleur à offrir et tout cela en partant de rien. De plus, parmi ces 0,15% ne figure aucun autre travail littéraire d’Amérique Latine. Ils (nous ?) ont toutes les raisons d’être fiers d’eux[1]. Pour autant que je sache, c’est le seul travail éducatif sur Wikipédia à avoir directement abouti à un Bon Article[2].

Évidemment tout ne s’est pas fait sans accroc. Deux articles n’ont pour le moment pas vraiment progressé. Le rêve de créer douze nouveaux Articles de Qualité ne restera sans doute qu’un rêve (signifiant par là-même que toute la classe aurait eu la note A+ à un devoir représentant désormais 40% de leur note finale). Mais je suis sûr qu’il en sortira encore une série de Bons Articles (deux autres sont en cours d’évaluation), et certains seront sûrement nominés pour le grade d’Article de Qualité.

Voici donc la résultante d’un travail rigoureux qui, parce qu’il avait pour cadre ce site Web tant décrié qu’est Wikipédia, était loin d’être une solution de facilité. C’était même plutôt le contraire.

Je ne suis toujours pas aveuglé par Wikipédia, loin s’en faut. Il faut bien se dire que c’est une encyclopédie dont seulement une infime fraction de ses articles sont considérés comme de « bons » articles, même par ses propres éditeurs. D’autres faiblesses de Wikipédia sont plus apparentes que jamais, on les retrouve même à un certain degré dans ce projet : un article moribond aura tendance à le rester, et certaines sources sont discutables et souvent plagiées.

Mais, pour la défense de Wikipédia, je dois dire que je n’avais jusqu’alors pas réalisé à quel point ses propres critères sont ambitieux et avec quelle rigueur ils sont appliqués, ni même remarqué l’efficacité du processus collaboratif… si vous êtes prêt à apporter votre contribution et surtout si vous êtes prêt à faire les recherches nécessaires à l’ajout d’informations vérifiables. Là encore je dois dire que nous avons été particulièrement chanceux dans les rencontres que nous avons faites, mais je pense aussi que d’autres bénéficieront de la même bonne fortune.

En ce qui concerne le travail, qui je le répète est loin d’être achevé… j’aimerais croire qu’il enseigne aux étudiants l’art de la recherche et de l’écriture dans un environnement proche du monde réel. Il leur a été assigné au début du semestre un but à moyen terme, voire à long terme, et il leur a été demandé de travailler en collaboration au sein de leurs propres groupes mais aussi avec des inconnus dans un environnement ouvert afin d’établir comment parvenir à ce but et comment le réaliser. Ce travail devait déboucher sur un résultat professionnel, visible par des milliers de personnes, une ressource qui dans la plupart des cas serait la première escale de chercheurs futurs, qu’ils soient étudiants comme eux ou qu’ils fassent simplement partie des millions de visiteurs de Wikipédia de par le monde. La plupart de ces articles sont en effet le premier résultat affiché (ou presque) lors d’une recherche sur Internet sur le sujet traité.

En comparaison, les dissertations et les examens classiques que nous donnons à nos étudiants paraissent plutôt anecdotiques.

Inutile ? Pas d’argumentation

Ce que les étudiants n’apprennent pas par contre à travers ce projet est le développement d’un argument. L’argumentation, la construction cohérente d’une série d’idées, la défense et l’étayement d’une thèse convaincante, est évidemment au cœur de l’enseignement académique. J’attache beaucoup d’importance à cette compétence.

Mais on peut également dire que dans la plupart des emplois qu’occuperont les étudiants après la fin de leur cursus, l’argumentation ne tiendra pas une place aussi importante que dans le monde académique. À l’opposé, la recherche d’informations, la présentation, l’exactitude, l’aptitude à travailler en équipe et la capacité à négocier avec la sphère publique leur seront bien plus utiles (même si ça me fait un peu mal de l’admettre).

De plus, l’écriture sur Wikipédia leur inculque la pensée critique, peut-être pas celle qui est en général abordée à l’université… mais peut-être le devrait-elle. Les éditeurs de Wikipédia sont sans cesse encouragés à faire preuve d’esprit critique vis-à-vis des informations qu’ils trouvent et également vis-à-vis de leurs propres écrits.

J’ai un peu peur d’avoir trop enjolivé la chose. Je le ferai différemment si je suis un jour amené à le refaire. Et je dois vous avouer que j’ai souvent eu l’impression de faire un numéro d’équilibriste, que tout pouvait s’écrouler à tout moment. D’ailleurs nous ne sommes toujours pas à l’abri. Mais si quelque chose tourne mal je pourrai toujours modifier ce texte…

Oh, et si ça vous dit, n’hésitez pas à donner un coup de main sur Murder, Madness, and Mayhem !

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 2/6 – Le projet vu par l’enseignant
    Présentation, chronique et analyse du projet par le professeur Jon Beasley-Murray (à lire en premier).
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

Notes

[1] Le 10 avril 2008, El Señor Presidente est devenu le 2000ème Article de Qualité de Wikipedia. Cet article apparaîtra sur la première page de Wikipédia le 5 mai. Au final, les étudiants ont porté deux autres articles au niveau d’exigence requis pour obtenir le grade d’Article de Qualité (Mario Vargas Llosa et The General in His Labyrinth) tandis que huit autres ont obtenu le grade de « Bon Article ». Les seuls autres articles portant sur la littérature Latino-américaine à ce niveau sont Mário de Andrade et Jorge Luis Borges (bien qu’aujourd’hui ils n’obtiendraient certainement plus cet honneur, il est en effet intéressant de noter que les critères de qualité de Wikipédia augmentent régulièrement avec le temps). Grâce à nous, le nombre d’Articles de Qualité sur la culture latino-américaine a donc très fortement augmenté

[2] Plus de détails ici.




Wikipédia et éducation : un exemple de réconciliation 6/6

Cet article clôt le dossier Wikipédia et éducation : un exemple de réconciliation.

Il propose une sélections de liens pour informer, débattre et aller plus loin.

Liens francophones connexes

Revue de « presse » de ce dossier

  • Wikipédia comme support de travail universitaire ? – Adrienne Alix – Compteurdedit – 17 février 2009
    « Il va encore plus loin en se demandant s’il est plus formateur et plus utile à un étudiant de savoir argumenter sur un sujet donné (cadre d’une dissertation) ou de savoir présenter les connaissances liées à ce sujet, d’être capable de faire des recherches sur un sujet, de synthétiser des sources, de confronter son travail au regard des autres et de travailler en collaboration. C’est le genre de débat qui créerait immédiatement des hurlements dans une assemblée d’enseignants, mais je crois que c’est très intéressant si on se demande un peu ce que Wikipédia peut apporter à l’enseignement universitaire. Le volet argumentation pure, très académique, est une chose sans doute essentielle à maîtriser. Mais l’écriture collaborative, avec des exigences de qualité formelle et de sourçage, la synthétisation du savoir existant, la confrontation au regard des autres, toutes ces choses qui sont le principe même du fonctionnement de Wikipédia, je crois très sincèrement que c’est une part de pédagogie qui n’existe pas dans l’enseignement et qui serait pourtant très bonne pour l’esprit et très utile dans le monde professionnel, où on argumente rarement par dissertation. »
  • Une expérience canadienne réconcilie Wikipedia et éducation – Mathieu Grégoire-Racicot – Le Quotidien Jurassien – 20 février 2009
    « Avenir et partage de la connaissance pour les uns, royaume du plagiat et l’opinion mal formulée pour les autres, l’encyclopédie collaborative Wikipedia a une réputation controversée, sulfureuse, spécialement dans le monde de l’éducation. Or une petite histoire, rapportée par le très fouillé et très actif Framablog, tenu par un professeur de lycée français, montre à quel point des projets pédagogiques pourraient se trouver enrichis, encadrés et davantage formateurs en utilisant Wikipedia, non comme une source, mais comme aboutissement de travaux de recherche. »

Autour de l’éducation

  • Projets pédagogiques – Wikipédia
    « Si vous êtes un enseignant dans une école ou dans une université, nous vous encourageons à utiliser Wikipédia dans votre classe non seulement comme source d’information mais comme espace de rédaction et de construction de connaissances. »
  • Wikipédia : la rejeter ou la domestiquer ? – Eric Bruillard – Médialog 61 – mars 2007
    « Le phénomène Wikipédia interpelle le monde enseignant. Quelle confiance peut-on accorder à une encyclopédie rédigée par ses lecteurs et dont les articles sont modifiés en permanence ? Quelle place l’École peut-elle lui faire ? »
  • D’un Club Histoire à un Club Wikipédia – Sylvain Négrier – septembre 2008
    « Quels usages vos élèves font-ils de Wikipédia ? Wikipédia est visiblement une source d’information importante pour eux. Sa valorisation par les moteurs de ucation-a-education-exemple-projet-pedagogique-6exemple-projet-pedagogique-6recherche (dont Google) en fait un point de départ quasi obligé. C’est particulièrement net pour les TPE et l’ECJS. Le problème majeur, mais ce n’est pas une découverte, c’est le manque de recul (voire de compréhension) de certains élèves. Cela leur joue parfois des tours : lors d’une composition à faire à la maison (…) Ceci dit les élèves ne sont pas totalement naïfs, et je les invite à exercer leur esprit critique, y compris envers ce que je leur enseigne : je ne me considère pas comme infaillible. »
  • Wikipédia et le cours d’histoire – Les Clionautes – septembre 2008
    « L’encyclopédie en ligne est devenue un des pôles majeurs sur le web, et une référence de choix pour beaucoup d’élèves et enseignants. Elle fait néanmoins l’objet de réticences et a suscité des débats très vifs ces dernières années. Ce premier article, qui prolonge la page Wikipédia en débats, a pour objectif de revisiter les étapes et les enjeux d’un débat très médiatisé, sur fond de divergences quant à la vision de la société et de l’éducation. Une réflexion sur la place de Wikipedia à l’école invite à interroger nos pratiques, et à proposer des pistes pragmatiques, à court et à moyen terme. »
  • L’histoire peut-elle être Open Source ? Les historiens et Wikipedia – Roy Rosenzweig (traduction Clioweb) – juin 2006
    « L’histoire est un art (un métier ?) éminemment individualiste. Les travaux signés d’une seule personne sont la règle dans la profession (…) Cet individualisme qui caractérise la recherche en histoire est aussi très possessif. Afin de travailler honnêtement, et éviter les accusations de plagiat, nous autres historiens devons attribuer idées et expressions à ceux qui les ont émises (…) Il est donc presque impossible d’envisager dans notre culture professionnelle des travaux historiques dénués de propriétaire, effectués par une multitude d’auteurs anonymes. C’est pourtant la définition exacte de Wikipedia. »
  • Wikipédia tente de pénétrer le milieu éducatif – François Jarraud – Café Pédagogique – décembre 2005
    « Le problème c’est que Wikipédia n’est malheureusement plus un outil recommandable pour les enseignants. Le projet, fort sympathique au départ, sert des intérêts qui suscitent des interrogations (…) Tant que la clarté ne sera pas faite sur le fonctionnement de Wikipédia et le ménage dans ses articles, nous déconseillons aux enseignants de l’utiliser avec les élèves. »
  • Wikipédia, une encyclopédie sans auteurs ? – Serge Pouts-Lajus – Les dossiers de l’Ingénierie Educative n°58 – juin 2007
    « Wikipédia est un projet apparemment sympathique. Il possède des qualités qui ne peuvent lui être contestées et auxquelles je suis, comme tout le monde, sensible : l’encyclopédie libre est utile, gratuite et d’accès facile. Mais justement, lorsqu’il s’agit de savoirs, d’œuvres de l’esprit et de culture, les considérations utilitaristes ne suffisent pas. Tant que l’on reste attaché au principe de responsabilité des individus et des collectifs particuliers relativement aux œuvres qu’ils produisent, il n’est pas possible d’adhérer à un tel projet. »
  • De sévères critiques de Wikipédia – Alithia – Blog : Wikipédia ou le mythe de la neutralité – janvier 2007
    « Cet article et le suivant qui le complète, cite un très grand nombre de critiques faites à wikipedia, par des professionnels de l’enseignement, de la recherche et de l’éducation. »
  • L’édition de référence libre et collaborative : le cas de Wikipédia – INRP – mars 2006 (le dossier complet en pdf)
    « Selon Cormac Lawler, Wikipedia n’est pas simplement une encyclopédie, ni même un nouveau modèle éditorial : le projet présente en effet les caractéristiques d’une organisation apprenante tant dans sa structure que dans son fonctionnement. A la lumière des recherches sur les communautés virtuelles ou les communautés de pratique, il identifie les éléments de convergence suivants : Wikipedia est auto-gérée, auto-sélective et auto-évolutive. Le potentiel de la communauté réside selon lui dans la promotion d’une pédagogie de la découverte et dans le développement de l’esprit critique nécessaire à son fonctionnement. Le conflit est perçu comme un ingrédient nécessaire à la négociation car il requiert une mise en perspective des différents points de vue et une prise en compte des différences culturelles (…) La confrontation des partis-pris culturels est un signe d’action critique manifeste dans un contexte où l’adhésion à la règle de neutralité est partagée et où la convivialité est assumée comme essentielle. »
  • Le phénomène Wikipédia : une utopie en marche – Christian Vandendorpe – Le Débat, no 148 – janvier 2008
    « Au lieu d’élever un pare-feu autour de Wikipédia, l’École aurait donc tout intérêt à s’en servir comme d’un outil pédagogique. Outil d’éducation pour apprendre à respecter le bien public et à ne pas vandaliser des articles ; outil de formation à la lecture critique, surtout, afin d’apprendre à ne pas prendre pour argent comptant tout ce qui s’écrit : en vérifiant la présence de sources crédibles, en comparant divers états d’un article, en comparant la version française avec des versions rédigées dans d’autres langues, en faisant des recherches complémentaires dans d’autres sources, numériques ou imprimées. Une telle attitude critique est plus nécessaire que jamais, alors que le mensonge et la dissimulation s’épanouissent dans la culture anonyme du web et que les plus hautes sphères de l’administration de pays qui se présentent comme des modèles de démocratie pratiquent la désinformation à grande échelle, comme on l’a vu lors de la campagne qui a conduit les États-Unis à envahir l’Iraq. »
  • Wikipédia, un objet problème en information-documentation – Pascal Duplessis et Laure Endrizzi – mai 2008
    « En premier lieu, certainement, Wikipédia s’affiche en tant qu’objet documentaire, support de ressources informationnelles, et dont l’usage doit pouvoir être garanti : l’information offerte, même si elle est gratuite et facilement accessible, est-elle pour autant « consommable », c’est-à-dire sans risque de préjudice pour la santé intellectuelle ? Si de nombreux collègues de discipline ne s’offusquent pas de cette incertitude, sans doute par insuffisance d’expertise, le garant de l’information documentaire en circulation dans l’établissement, lui, s’en inquiète. Quel statut accorder à cet apport d’information au regard des autres ressources disponibles dans ou à partir du CDI ? Quelles précautions prendre ? Quel type d’accompagnement proposer aux élèves ? Quel discours tenir au sujet de Wikipédia ? »
  • Wikipédia – Une encyclopédie libre, gratuite et écrite coopérativement – Alain Caraco – BBF – août 2004
    « Wikipédia est-elle l’encyclopédie qu’attendaient les bibliothèques publiques françaises ? J’aurais tendance à répondre oui et non à la fois. Non dans son état actuel : trop de domaines sont insuffisamment couverts, trop d’articles sont encore à l’état d’une ébauche rédigée hâtivement. Mais, très certainement, oui dans un état futur (…) La Wikipédia en ligne ne peut être qu’en travaux permanents. C’est une sorte de chaudron bouillonnant, où l’on produit la matière première, toujours instable. Des éditions stabilisées, monolingues ou multilingues, sur cédérom, sur papier ou en ligne pourraient en être dérivées. Elles pourraient même être vendues par des éditeurs commerciaux, avec de la valeur ajoutée, notamment en matière de présentation ou d’illustration. Ce modèle économique existe déjà pour les logiciels libres : on peut télécharger Linux auprès de la communauté des développeurs, ou bien acheter une version commerciale, avec un mode d’emploi et une assistance téléphonique. »
  • C’est rien qu’à cause de Wikipédia si nos enfants échouent ! – Framablog – octobre 2008
    « Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens (…) Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ? »
  • Ceux qui disent non… à Wikipédia – Astrid Girardeau – Les Écrans – janvier 2008
    « Diaboliser et interdire des sites Internet sous prétexte que les étudiants n’utilisent pas assez leurs propres cerveaux et les contenus académiques, on a vu plus constructif et efficace. Quand on observe l’ergonomie ou la disponibilité des outils d’information académiques accessibles à l’université pour les étudiants, fait remarquer Ertzcheid, on comprend hélas très facilement pourquoi ils préfèrent utiliser Wikipédia ou Google. S’en désoler ne servira à rien. »
  • Wikipédia est un projet encyclopédique et un bien commun de l’humanité – Astrid Girardeau – Les Écrans – janvier 2008
    « Pour 1 enseignant ou 1 université interdisant d’utiliser Wikipédia, 100 autres forment les étudiants à son usage, les aident à décrypter ses contenus. Ce faux-procès en incompétence qui est de plus en plus souvent fait à Wikipédia est d’autant plus horripilant que Wikipédia affiche clairement sur sa page d’accueil le fait qu’elle ne doit pas être utilisée comme une source primaire d’information. »

Plus général

  • Wikipédia – Wikipédia
    « Comme l’indique la première ligne de sa page d’accueil, Wikipédia a pour slogan : Le projet d’encyclopédie librement distribuable que chacun peut améliorer. Ce projet est décrit par son cofondateur Jimmy Wales comme un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la terre dans sa langue maternelle (…) En revanche, Wikipédia n’a pas pour but de présenter des informations inédites. Comme pour les encyclopédies classiques, son ambition se limite à exposer des connaissances déjà établies et reconnues. Les travaux personnels ou originaux n’ont pas leur place dans Wikipédia. »
  • Critiques de Wikipédia – Wikipédia
    « Sébastien Blondeel, dans un livre sur Wikipédia, a écrit en 2006 : Wikipédia est un projet avec lequel il faudra compter. Et si les critiques commencent à se faire entendre, c’est paradoxalement plutôt bon signe : justifiées, elles permettent de prendre conscience des problèmes ; gratuites ou exagérées, elles confirment l’influence et le succès du projet. »
  • Wikipédia : constats et propositions – Nat Makarevitch – avril 2006
    « Ce document expose des problèmes et incohérences de Wikipedia, projet d’encyclopédie libre publiée sur le Web, dans le but de l’améliorer, non de dénigrer. Nous y montrons le caractère abusif de certaines actions menées par certains contributeurs. »
  • WikiGrill – Les articles de Wikipédia passés sur le gril de Books
    « Pour remarquable qu’elle soit, et globalement salutaire, l’entreprise Wikipédia invite à la critique. Si beaucoup d’articles de cette encyclopédie d’inspiration démocratique sont de grande qualité, d’autres ne résistent pas à un examen attentif. Soit parce que leur contenu est léger ou inconsistant, soit parce qu’il est manipulé, parfois avec une grande habileté, par des internautes ou des lobbies qui défendent un intérêt. Or, Wikipédia est devenu le premier mode d’accès au savoir pour les jeunes et les moins jeunes qui, sans avoir reçu de formation universitaire poussée, naviguent quotidiennement sur le web. Avec sa rubrique WikiGrill, Books souhaite attirer l’attention sur l’existence de biais qui influencent de manière plus ou moins cryptée la qualité ou l’objectivité de certains articles de Wikipédia. »
  • La réponse de Sylvain Négrier à l’initiative WikiGrill (décembre 2008) : Une lecture critique de Wikigrill
    « Les wikipédiens s’interrogent depuis longtemps sur ce qu’est un bon article. Ils ont défini progressivement deux labels, attribués après un vote des contributeurs, représentant chacun un palier dans le niveau des articles. Il s’agit du label Article de Qualité, le plus prestigieux, pour le moment décerné à un peu plus de 500 articles, et du label Bon Article, qui concerne près de 500 articles et qui récompense ceux qui sont satisfaisants mais qui paraissent encore améliorables. Les conditions d’attribution de ces labels se sont considérablement durcies ces derniers mois, au grand dam de certains wikipédiens, essentiellement pour que ces articles, proposés comme vitrine de Wikipédia (notamment en page d’accueil), puissent échapper aux critiques les plus évidentes. Cela ne constitue toutefois pas une garantie totale : ces articles ne sont que très rarement relus par d’authentiques spécialistes, et les discussions lors des votes se portent assez volontiers sur les aspects formels. Il aurait donc été particulièrement intéressant que les auteurs de Wikigrill™ s’attachent prioritairement à ces articles labellisés. Sont-ils réellement d’un bon niveau ? La procédure d’attribution des labels telle qu’elle existe est-elle à même de repérer les meilleurs articles ? Ne faudrait-il pas la remplacer par une relecture par un/des spécialiste(s) ? »
  • La réponse de Jean-Claude Guédon à l’initiative WikiGrill (janvier 2009) : Wikipedia ? Moi, j’aime plutôt bien
    « Wikipedia n’est pas un produit textuel fixe offert à la consommation; il s’agit d’un processus incessant qui nous convie à la table du plus grand banquet intellectuel jamais construit dans l’histoire de l’humanité. Déjà étonnamment utile, essayons d’imaginer ce que ce sera dans dix ou vingt ans. »
  • L’encyclopédie de non-référence – Denis Berger – février 2005
    « On sait que l’idée de Wikipedia, comme sa licence LGPL, viennent de l’univers du logiciel libre, tendance Stallman, et visent à reproduire dans le domaine de la connaissance ce qui a si bien réussi dans celui de l’informatique : l’élaboration d’un bien commun par la participation de tous, en fonction des moyens de chacun, puisque tout un chacun est présupposé dépositaire d’une parcelle de connaissance qui, si menue soit-elle, est susceptible d’intéresser l’ensemble. Mais la ressemblance entre un programme et une encyclopédie se limite au fait que, dans un cas comme dans l’autre, il faut commencer par les écrire ; le programme, lui, ensuite, s’exécute, et dispose donc de son propre système de correction d’erreurs, brutal mais efficace : s’il est mal écrit, il plante. Il offre donc, paradoxalement pour un logiciel libre par définition livré sans, une garantie quant à son fonctionnement, la disponibilité des sources comme des programmeurs permettant, de plus, en l’espèce, de résoudre rapidement les problèmes. Autrement dit, l’exportation de ce concept, tel qu’il est présenté, vers un projet encyclopédique se révèle privé de pertinence puisque, là, rien, en dehors d’une éventuelle relecture d’un participant qui pourra peut-être se trouver contredite un peu plus tard par un autre, ne garantit la qualité de l’information publiée ; ici, le mécanisme cumulatif et automatique qui permet l’amélioration continue du logiciel libre ne joue pas.  »
  • Inside Wikipédia – Camille Gévaudan – Les Écrans – juillet 2008
    « Ecrans.fr s’invite à l’intérieur de Wikipédia et vous propose d’aller voir comment un projet aussi pharaonique peut fonctionner au quotidien. »
  • Wikifeuilleton – Le Tigre
    « Les coulisses de l’encyclopédie collaborative Wikipedia. »
  • À propos de Wikipédia – Rui Nibau – Framasoft – mars 2006
    « Ici, je n’ai fait que voir un verre à moitié vide en n’abordant qu’un unique aspect des critiques formulées à l’encontre de Wikipédia. D’autres internautes peuvent – à juste titre – le voir à moitié plein. A un moment de son histoire où l’encyclopédie acquiert une visibilité croissante dans d’autres médias, et attire donc l’attention d’acteurs aux intérêts divergents, l’avenir proche nous dira si ce verre finira par se remplir ou par se briser. » (et la réponse de Nojhan : Wikipédia, l’encylopédie asymptotique)
  • Wikipédia : le refus du pouvoir – Mémoire de fin d’étude de Sylvain Firer-Blaess – Institut d’Etudes Politiques de Lyon – 2006/2007
    « Wikipédia refuse le pouvoir : elle refuse la possession de l’information aux plus fortuné, en rendant l’information libre. Elle refuse aussi la production du savoir par quelque uns, en donnant ce pouvoir à tous. Elle refuse dans son organisation les statuts spéciaux, elle refuse la centralisation de la surveillance et de la décision. Ainsi elle dissout le pouvoir et en donne une parcelle à chacun : le pouvoir de décider, le pouvoir de créer le savoir, le pouvoir de s’informer. Elle empêche ainsi fortement les processus de domination dans son organisation interne. Elle a aussi un impact sur le monde réel, impact certes minime, mais donner la possibilité aux personnes qui disposent d’une connexion internet de disposer d’un savoir libre et gratuit, c’est déjà quelque chose. »
  • D’Amour & de Neutralité : Ce(ux) qui résiste(nt) – Martin Erpicum – Mémoire universitaire – juillet 2005
    « L’objet empirique de ce mémoire est l’encyclopédie libre Wikipédia. De tout temps, les encyclopédies ont été un support à l’apprentissage d’un intérêt certain. L’apparition d’un type d’encyclopédie rédigée coopérativement par des pairs sur le réseau Internet a entraîné bon nombre de questionnements : critères de validation de la connaissance, contrôle des actes de vandalisme, régulation des contributeurs, etc. Afin d’éclairer en partie ces questionnements, le présent travail va tenter de décrire les pratiques de régulations inhérentes à la tâche de rédacteur encyclopédique, et de rendre compte des contraintes et normes émergentes qui encadrent l’activité des pairs. »

Succincte bibliographie

  • « Wikipédia, Découvrir, utiliser, contribuer » – Florence Devouard et Guillaume Paumier – Presses universitaires de Grenoble – janvier 2009
    « Ce livre vous guide à la découverte de cette gigantesque fourmilière et vous explique comment utiliser efficacement son contenu. Il vous incite ensuite à devenir acteur et à participer à la rédaction de l’encyclopédie, quels que soient votre âge et vos domaines de compétences. »
  • Wikipédia, Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste – Marc Foglia – FYP Éditions – novembre 2007
    « Cherchez n’importe quel mot sur Google… Les deux premières pages de résultat, celles qui comptent, renvoient presque invariablement à un article de Wikipédia. Comment cette encyclopédie d’un nouveau genre s’est-elle installée comme une source universelle de connaissance, et désormais comme un réflexe intellectuel ? L’origine de ce phénomène, son fonctionnement et son évolution fulgurante sont autant d’appels à la réflexion.Wikipédia c’est la dématérialisation de la connaissance et la progression de son accessibilité : peut-on parler d’un nouveau média ? d’une Toile dans la Toile ? Que devient la propriété intellectuelle dans ce partage gratuit de la connaissance ? Pourra-t-on parler d’une « génération Wikipedia » ? Quels sont les risques que fait courir l’encyclopédie libre à la connaissance, au jugement et à l’esprit critique ? Ces interrogations nous permettent d’éclairer d’autres phénomènes contemporains comme le travail collaboratif en réseau, la frontière entre biens marchands et biens non-marchands, la frontière entre travail et bénévolat, la démocratie à l’ère du numérique, etc. Par une approche critique, philosophique et sociologique, l’ouvrage analyse en profondeur cette « l’encyclopédie collaborative » comme un phénomène émergent, comme expression de tendances de fond de la modernité au XXIe siècle, et une innovation remarquable susceptible d’éclairer d’autres évolutions de la société contemporaine. »
  • Wikipédia – Comprendre et participer – Sébastien Blondeel – Eyrolles – avril 2006
    « Qui n’a entendu parler de Wikipédia, l’encyclopédie collaborative de l’Internet la plus vaste et la plus consultée ? Qui ne connaît ce projet international auquel des experts de tous domaines contribuent ? Née en 2001, Wikipédia compte plus de trois millions d’articles début 2006, 120 langues actives, un million d’articles en anglais, 250 000 en français. Ce livre explique comment l’explorer et y participer, dans quelles limites réutiliser son contenu et quels sont ses secrets de fonctionnement (financement, contexte politique). »

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



La migration OpenOffice.org vue par un proviseur de lycée

Snow Kisses Sky - CC byD’ordinaire ce sont les enseignants qui viennent à la barre témoigner de l’intérêt de substituer la suite propriétaire MS Office de Microsoft par la suite bureautique libre OpenOffice.org (sachant que tout est fait par la partie adverse pour ralentir le mouvement).

D’où l’intérêt d’avoir ici la chronique objective d’un proviseur de lycée[1], qui nous explique ses motivations et dresse un premier bilan de l’opération. Travaillant dans un établissement scolaire qui a effectué il y a deux ans la même migration, je me suis reconnu sans peine dans son récit.

Quant à la conclusion, elle est à graver dans le marbre : « Le poids des habitudes et du nombre pèse alors fortement, incitant par souci d’efficacité, dans un monde et dans un domaine où le temps l’emporte sur les principes, à une comparaison technique en défaveur des logiciels libres. Dans notre métier, le temps et la récurrence sont facteurs de réussite ; il convient, me semble-t-il, au regard de l’importance et de la légitimité des enjeux, d’attendre et de persévérer… »

Logiciels libres au Lycée Français International de Pékin

URL d’origine du document (EPI)

Stéphane Sachet – Pékin, le 14 janvier 2009

Paradoxe et pléonasme en deux mots, déjà toute la complexité de la relation à l’informatique s’impose à nous.

Mais restons plus pragmatique, pourquoi et comment avons-nous basculé, au Lycée Français International de Pékin, vers les logiciels libres.

Pour fixer rapidement le contexte, l’établissement en gestion directe de l’AEFE, scolarise environ 1 000 élèves, de la petite section à la terminale, répartis sur trois sites.

Préparant un plan de mise à niveau de l’équipement informatique sur 3 ans, nous avons réalisé en janvier 2008 une enquête auprès des personnels pour identifier et préciser leurs besoins et leurs attentes relatives à l’outil informatique. À cette occasion nous les avons interrogés sur leur capacité à utiliser, dans le cadre professionnel, des logiciels libres et si oui, avec quel accompagnement.

Ce questionnement pose à la fois la question de l’utilisation d’outils commerciaux au sein d’un établissement scolaire mais aussi celles de la compétence technique et de l’engagement des personnels par rapport au TICE.

Pour l’équipe de direction, trois objectifs étaient clairement identifiés : éthique, juridique et financier.

  • Éthique, il va de soi que notre mission et les valeurs de l’école française nous engagent à former des élèves, mais des élèves libres de choisir, on peut même aller jusqu’à espérer, que s’il y a choix il y a réflexion… prémisse de la pensée.
  • Juridique, car tout personnel de direction sait qu’à l’épreuve de la réalité, nos moyens limités et le développement rapide de l’informatique peuvent aboutir à des solutions pirates et par conséquent à un risque juridique bien réel.
  • Financier, le coût d’achat des licences pèse bien sûr et de manière significative sur notre budget.

75 % des personnels se déclaraient être prêts à utiliser des logiciels libres, sous réserve pour une partie d’entre eux de pouvoir bénéficier, en interne de formations à ces logiciels.

La décision fut donc prise au printemps 2008 de basculer vers les logiciels libres sur les trois sites et pour tous les personnels, enseignants, administratifs, en installant durant l’été et à l’occasion du remplacement et de l’extension de nos réseaux la suite open office comprenant entre autres, OpenOffice.org Writer, OpenOffice.org Cal et OpenOffice.org Base.

Six mois après cette mise en oeuvre, que peut-on en dire ? Quels sont les écueils et les contraintes ?

En premier lieu, de façon prévisible, une période d’adaptation technique s’impose. Celle-ci permettant d’appréhender et de maîtriser les différences fonctionnelles d’utilisation entre les logiciels Microsoft et OpenOffice, temps proportionnel à la fréquence d’utilisation et au degré d’autonomie des utilisateurs.

En second lieu, vient la nécessité de mettre à jour pour les enseignants leurs bases de documents et de supports informatiques en relation avec la découverte et la maîtrise progressive des compétences informatiques, compétences clairement définies à cet égard par le B2i.

Enfin, se posent les problèmes d’une part, de communication entre utilisateurs, les logiciels libres n’étant pas majoritairement partagés entre partenaires institutionnels et d’autre part, les problèmes de continuité de pratique, les personnels et les élèves utilisant bien souvent à la maison des logiciels Microsoft, logiciels qu’ils ont découverts et appris à utiliser… à l’école !

Sur le plan technique la conversion des fichiers est assez simple à résoudre, en modifiant quelques habitudes à l’enregistrement.

S’agissant de la comparaison, il me semble que du moins pour la suite OpenOffice.org l’ergonomie et les fonctions avancées souffrent d’une fonctionnalité un peu moins grande. J’en veux pour exemple le publipostage ou le suivi de corrections sous Open office.org Writer ou encore les formules et les renvois sur OpenOffice.org Cal encore peu opérationnels pour les utilisateurs souvent autodidactes que nous sommes dans l’éducation.

Le poids des habitudes et du nombre pèse alors fortement, incitant par souci d’efficacité, dans un monde et dans un domaine où le temps l’emporte sur les principes, à une comparaison technique en défaveur des logiciels libres.

Dans notre métier, le temps et la récurrence sont facteurs de réussite ; il convient, me semble-t-il, au regard de l’importance et de la légitimité des enjeux, d’attendre et de persévérer…

Stéphane Sachet
Proviseur au Lycée Français International de Pékin

Notes

[1] Crédit Photo : Snow Kisses Sky (Creative Commons By)




Le désastre Vista n’a pas forcément favorisé Linux

Hamed Masoumi - CC byL’article du jour, ou plutôt la traduction du jour, évoque un phénomène que nous sommes nombreux à avoir constaté : la perte initiale de « l’avantage » qu’avait GNU/Linux chez les netbooks au bénéfice non pas de Vista (il est bien incapable de tourner sur ces petites machines) mais de Windows XP.

Il suffit en effet de s’en aller faire un tour chez un grand revendeur d’informatique pour se rendre compte que, dans la grande majorité des cas, les netbooks sous Linux ne sont pas mis en valeur (aussi bien côté présentation que côté personnel de l’échoppe qui aura vite fait de vous conseiller le netbook Windows si tant est que vous lui posiez la question).

Et c’est d’autant plus dommage que nous avions là une belle opportunité de montrer au « grand public » que Linux était désormais une alternative réelle et crédible[1]. Raison de plus pour « pousser Linux côté marketing » sachant que l’arrivée prochaine du nouveau système d’exploitation Windows 7 (justement là pour faire oublier l’accident industriel Vista) risque de compliquer encore un peu plus la donne…

En quoi le désastre Vista a nui à Linux

How Vista’s total failure hurt Linux

Steven J. Vaughan-Nichols – 28 janvier 2009 – ComputerWorld.com
(Traduction Framalang : Yonell et Don Rico)

Après avoir bien examiné Vista, j’ai compris que le desktop Linux avait de beaux jours devant lui. Vista était, et demeure, l’incarnation du désastre pour un système d’exploitation. Là aussi, j’avais raison. Et quand les netbooks ont fait leur apparition, c’était Linux, et pas Vista, qui a d’abord triomphé.

Mais ce que je n’avais pas prévu, c’était que les ventes de Vista seraient si faibles que Microsoft ferait carrément marche arrière, en ranimant d’abord XP Familial, puis, en décembre 2008, XP Pro.

Certes, Microsoft n’a pas fait de déclaration fracassante du genre « Vista est une bouse, on a pigé, prenez plutôt XP », mais dans les faits, c’est exactement ce qu’ils ont fait. Et c’est une des raisons pour lesquelles ils veulent sortir leur nouveau système d’exploitation Windows 7, alias Vista light, au plus vite.

Windows 7, à la différence de Vista, pourra tourner sur les netbooks. Et une fois que Windows 7 sera en service, Microsoft reprendra son entreprise de mise au placard de XP.

Entre-temps, Linux est passé de propriétaire de la niche des netbooks à actionnaire même pas majoritaire. Que s’est-il passé ?

Selon Gary Marshall de Tech Radar, c’est parce qu’on demande aux utilisateurs de choisir entre « Windows XP et tout un tas de distributions différentes ».

Je n’adhère pas à cette idée. Seul un linuxien connaît les différences, ou même le nom, des différentes distributions Linux proposées sur les netbooks. Ce qu’un client ou un commercial sait d’un netbook, c’est à quoi il ressemble, la quantité de RAM et la taille du disque dur, plus son prix. Et c’est à peu près tout.

Alors, pourquoi XP fait-il un tel retour en force ? Eh bien, je crois que Microsoft offre de sacrées ristournes aux fabricants, pour s’assurer que XP ait une présence suffisante. Les fabricants, qui ont l’impression que Microsoft leur doit quelque chose après leur avoir balancé la boule puante Vista, sont contents d’avoir un XP à prix d’ami.

Même dans ce cas de figure, les netbooks sous Linux restent moins chers que ceux pourvus de XP, mais les fabricants, à l’exception de Dell avec son matériel sous Ubuntu, ne font pas grand chose pour les mettre en avant. Oui, tous ceux qui comptent dans le marché des PC proposent maintenant Linux, mais ils n’en font aucune publicité.

Je les soupçonne tous d’être contents d’avoir adopté Linux. Mais je soupçonne aussi qu’en grande partie, il en est ainsi pour qu’ils puissent dire à Microsoft de leur faire un bon prix pour les licences XP et Windows 7, parce que si Microsoft ne se positionne pas, ils peuvent toujours leur préférer Linux.

Alors, que faire pour Linux ? D’une part, nous devons propager l’idée que le desktop Linux est disponible, largement à la hauteur de Windows, et souvent meilleur.

La Linux Foundation fait tout son possible pour y parvenir, en avançant avec son concours de vidéos « We’re Linux ». Le desktop Linux est allé à peu près au bout de ce qu’il pouvait faire sans le soutien du marché plus large des non-techniciens. Avec les pubs issues du travail de la Linux Foundation, avec les distributions accessibles, et avec les ordinateurs et portables pré-installés Linux, c’est aux fans et aux distributeurs de faire reprendre l’avancée de Linux pour le grand public.

Notes

[1] Crédit photo : Hamed Masoumi (Creative Commons By)




Largage de liens en vrac #11

Linda Yvonne - CC byLes soldes sont passées mais cela n’empêche pas ce nouveau largage de logiciels libres de bénéficier de 100% de baisse sur 100% de la sélection.

Et ce n’est pas la peine de vous bousculer car il y en aura pour tout le monde selon le bon vieil adage rappelé récemment par Serge Soudoplatoff : « quand on partage un bien matériel il se divise, quand on partage un bien immatériel il se multiplie »[1].

  • PDFreaders.org : Une très intéressante initiative de la Free Software Foundation Europe listant tous les lecteurs PDF libres à disposition (histoire de mieux encore se passer du très lourd, au sens propre et figuré, lecteur d’Adobe)
  • SUSE Studio : Puissant utilitaire pour se créer sa distribution OpenSuse à la carte qui générerera automatiquement une image disque à graver sur CD/DVD ou à mettre sur sa clé USB. On s’en prend à rêver d’une telle application francisée et pas uniquement réservée à cette distribution. Voir aussi cette vidéo YouTube de présentation.
  • Geek.menu : Un fork du menu de la suite d’application portables PortableApps. Devrait intéresser toute l’équipe de notre Framakey.
  • Portable Ubuntu for Windows : Comme son nom l’indique il s’agit d’une version portable d’Ubuntu qui tourne sous Windows (si un visiteurs voulait bien tester pour nous en faire un petit retour…)
  • Impressive : Permet de faire de jolies présentations du moment que vous lui fournissez un PDF. Powerpoint en tremble déjà (j’exagère un peu quand même). J’aime bien le slogan qui en dit long : « the Chuck Norris of presentation software ! ».
  • SpeedCrunch  : Ambitionne ni plus ni moins d’être la calculatrice de base pour tous les OS (et pourrait bien y arriver tant sont déjà nombreuses les fonctionnalités).
  • The Guide : Pour Windows, permet d’organiser ses notes dans une organisation arborescente avec export en RTF, existe en version portable (peut-être un remplaçant de KeyNote ?)
  • PianoBooster : Un truc pédagogique autour de l’apprentissage du piano. Le plus simple est encore de voir la vidéo du site officiel.
  • Taekwindow : C’est tout simple mais c’est bien pratique si vous avez pris certaines (bonnes) habitudes Linux que vous ne retrouvez pas sous Windows. Permet en effet de manipuler et redimensionner les fenêtres de vos applications avec le même confort que dans X11.
  • Musicy : Permet d’enregistrer la musique des webradios (nécessite Windows + .NET + penser très fort au droit à la copie privée). Mieux expliqué ici que sur le pas du tout joli site officiel.
  • OpenOfficeMax : Un site 100 % dédié à OpenOffice Writer, imprimez et faites passer le dépliant ! (sans oublier l’affiche réalisée par l’APRIL et tous ses petits amis).
  • jQuery par Jarodxxx : Enfin un site portail consacré à jQuery en français ! (tiens, tant qu’on est dans le JavaScript, voici $fx() une toute légère bibliothèque pour mettre un peu d’animation dans vos pages web)
  • Sophie : Plate-forme permettant de créer des sorte de « livres en ligne » intégrant de nombreux médias. Le plus simple c’est encore d’aller voir tout de suite le demo books pour s’en faire une idée plus précise.
  • Google Blog Converters : Pour passer bien plus facilement qu’avec d’un moteur de blog à un autre moteur de blog (moteurs pour le moment supportés : WordPress, Blogger, LiveJournal, MovableType et grand absent : Dotclear)
  • Sonar : Pour les développeurs, une application puissante de contrôle de qualité de code (parce que sinon personne ne pourra améliorer votre logiciel). Voir cette présentation en français.
  • AVS : Un logiciel de gestion de configuration logicielle (+ rapport de bugs) passé récemment en libre à ce que j’ai compris.
  • Tree Visualization : En Java, permet de graphiquement visualiser vos données de plein de manières différentes (pourra intéresser le monde universitaire par exemple).
  • Dooble : Un navigateur Internet qui met l’accent sur la sécurisation de notre vie privée en ne laissant strictement aucune trace. S’appuie sur l’original moteur de recherche YaCy dont il faudrait peut-être parler plus souvent (uniquement Windows pour le moment).
  • Jolicloud : L’OS Linux spécial Netbook de Tariq Krim (ex-Netvibes) va bientôt voir le jour. Grosse concurrence en perspective puisque HP vient de sortir sa très prometteuse version customisée d’Ubuntu pour ses HP Mini Mi Edition.
  • Google Sitemap Generator : Nouveauté Google pour webmasters, permet de dire aux moteurs de recherche quelles sont les pages et les mises à jour disponibles pour l’indexation d’un site Web (c’est du Google donc attention à ce que vous souhaitez lui faire faire de vos données).
  • Bonkey : Efficace logiciel de sauvegarde pour Windows ou Mac (qui est passé en libre parce que l’auteur n’a plus le temps de s’en occuper !)
  • Moonlight : Implémentation Linux du plugin Microsoft Silverlight pour FIrefox (réalisé par Novell pour que les internautes linuxiens puissent tout de même suivre en direct l’investiture d’Obama).
  • GNOME Do : Lance vos applications et recherche intelligemment vos fichiers dans une très esthétique interface (c’est pour GNOME mais était-ce la peine de le préciser ?).
  • LÖVE : Un moteur de jeu en 2D qui devrait intéresser les gamerZ en herbe.
  • COQOS d’OpenSynergy : Le système d’exploitation universel pour la voiture de demain, d’après leurs dires et c’est du Linux embarqué of course. Un article en anglais pour en savoir plus.
  • Mirrors.163.com : Gros site miroir de distributions GNU/Linux à garder dans ses marque-pages.

Notes

[1] Crédit photo : Linda Yvonne (Creative Commons By)