Le jour où le Web refusa le navigateur Internet Explorer 6

Schmorgluck - CC by-saMon titre est un peu accrocheur et inexact mais il témoigne d’un mouvement d’origine norvégienne de ras-le-bol généralisé vis-à-vis d’Internet Explorer 6, le navigateur de Microsoft véritable cauchemar vivant de tout webmaster un tant soit peu respectueux des standards.

Si tu ne vas pas à Lagardère, Lagardère ira à toi ! C’est ce que sont un peu en train de se dire un certain nombre de gros sites norvégiens qui invitent les visiteurs malencontreusement restés sur cette version de ce navigateur à soit passer à la version 7 (bien), soit envisager d’autres alternatives telles Firefox, Safari et Opera (mieux)[1].

Des sites norvégiens déclarent la guerre à IE 6

Norwegian Websites Declare War on IE 6

Michael Calore – 19 février – Wired Blog
(Traduction Framalang : Simon Descarpentries)

Plusieurs importants sites web norvégiens ont lancé une campagne de sensibilisation en direction des utilisateurs de Microsoft Internet Explorer 6, les encourageant à mettre à jour leur navigateur obsolète.

À l’origine de cette action, on trouve Finn.no, un site web semblable à eBay, apparemment le plus gros site de vente et d’achat d’occasions en Norvège, Finn étant le norvégien de « trouver » (NdT: « Find » et anglais). Un peu plus tôt cette semaine, Finn.no posta un avertissement sur son site à l’intention des visiteurs utilisant IE6. La bannière, affichée à droite, les presse d’abandonner IE6 et de passer à la version suivante, Internet Explorer 7.

Bon nombre d’autres sites, tels que l’influent journal hightech Digi.no ont rejoint la campagne, mais en élargissant le terrain de jeu à d’autres navigateurs, suggérant aux utilisateurs de passer soit à IE7 soit à une autre alternative comme Firefox, Safari ou, bien sûr le navigateur norvégien Opera.

Le phénomène est en train de s’étendre à d’autres pays.

Des sites en Suède, en Indonésie et en Australie se joignent au mouvement. Le blogueur norvégien Peter Haza fait le décompte des participants, et un wiki international, appelé « IE6 – DO NOT WANT » (NdT : On n’en veut pas !) a été mis en place pour garder la trace des actions navi-cides (tueuses de navigateur). Il y a également un groupe sur Facebook.

Même Microsoft supporte la campagne. Le site norvégien d’actualité « Teknisk Ukeblad » rapportait mercredi les paroles suivantes d’Alveberg Isabella de Microsoft Norvège : « Nous espérons bien sûr que nos utilisateurs nous suivent avec Internet Explorer 7 ».

IE6, sorti en 2001, est le fléau des programmeurs web, des designers, et des équipes de support de service web. Le navigateur est bourré de bizarreries (NdT : non respect des standards) qui le rendent incapable d’interpréter les pages de la même manière que les autres navigateurs, et les webmestres doivent donc toujours prévoir des exceptions pour s’adresser aux utilisateurs d’IE6.

La plupart d’entre eux souhaiteraient simplement que ce navigateur disparaisse, les libérant ainsi de son support. Les chiffres varient d’un pays à l’autre, mais il reste entre 10% et 20% d’internautes utilisant IE6 de par le monde, certains par méconnaissance d’un meilleur navigateur, d’autres parce que le logiciel leur est imposé par leur entreprise. Finn.no note que 17% de ses utilisateurs utilisent IE6. De telles proportions sont trop importantes à l’heure actuelle pour être ignorées par les concepteurs de site web.

Cette protestation anti-IE6 se joue dans l’ombre de l’examen de Microsoft par la commission européenne à la concurrence. La commission, stimulée en décembre 2007 par la plainte d’Opera Software, s’interroge sur les pratiques de Microsoft consistant à livrer IE pré-installé avec Windows sur les ordinateurs de bureau. La commission est en train de statuer sur l’opportunité de forcer Microsoft et ses revendeurs européens à offrir aux utilisateurs le choix d’installer un ou plusieurs navigateurs, lors du premier démarrage d’une machine fraîchement achetée.

Notes

[1] Crédit illustration : Schmorgluck (Creative Commons By-Sa)




La loi Création et Internet, le chant du cygne et le maquis

Tempo no tempo - CC byCette loi « Création et Internet » s’apparente de plus en plus au chant du cygne d’une industrie culturelle totalement dépassée par les événements et qui s’arc-boute sur ce qu’il lui reste encore de privilèges hérités du siècle dernier. Associée avec la politique web 1.0 d’un Sarkozy, tout est réuni pour casser la société numérique en deux et voir les éléments les plus progressistes du pays prendre le maquis virtuel pour tenter de sauver ce qui peut encore l’être tant que la neutralité du Net sera garantie.

Un peu emphatique ce premier paragraphe non ? Allez, tant, pis, je le garde quand même 😉

En fait il s’agissait juste d’introduire cet article du collectif Libre Accès, qui fait justement partie de ceux qui sont bien décidés à ne pas s’en laisser compter[1].

Edit : Dans un autre registre, on pourra également lire cette gore mais assez désopilante BD de Flock.

La libre circulation de l’Art est la garantie de notre liberté

Libre Accès – Lettre d’information – février 2009
Article sous Licence Art Libre

La préface de La crise de la culture d’Hannah Arendt commence par cette citation d’un poème de René Char : « Notre héritage n’est précédé d’aucun testament », faisant référence à son choix d’entrer en résistance, à la prise de conscience que lutter contre la tyrannie restitue à chacun, au sein de l’espace public, sa liberté.

La circulation des œuvres de l’esprit a toujours été un enjeu majeur ; les amateurs du totalitarisme ont une forte passion morbide pour brûler des livres et imposer leur pensée unique aux masses. Le hacker Soljenitsyne en a su quelque chose : la parution de L’Archipel du Goulag, qui arriva en Europe de l’Ouest sous la forme d’un microfilm, est un des premiers exemples de l’enjeu que représente la numérisation des livres pour notre civilisation.

Il reste encore des hommes et des femmes dans le monde pour qui les actes de création constituent autant d’actes de résistances à la tyrannie. Actes de dignité où écrire, filmer, peindre, peut constituer un véritable crime passible de la peine de mort. Il est important de garder cette idée présente à l’esprit et de ne pas oublier qu’Internet représente rien de moins que de notre liberté de créer, d’échanger et de partager.

L’essence et l’avantage d’Internet est sa décentralisation. C’est l’outil rêvé de tous les amoureux de la liberté, encyclopédistes des Lumières, amis de l’éducation populaire et de l’art, leur permettant de diffuser leurs idées et les conserver. Bibliothèque-monde de toutes les cultures, lieu de production et de circulation de la pensée, l’art pour tous accessible, outil de pair à pair par excellence, Internet est un idéal des Lumières. C’est un espace d’expression, de réciprocité, de critique et donc de création.

En termes économiques, il serait temps de prendre conscience de faits essentiels qui se dessinent depuis son apparition :

  • l’ancien modèle des médias était basé sur la diffusion et la consommation, tandis que le nouveau modèle s’est développé sur la participation et l’expression;
  • l’élément critique de l’ancienne chaîne de valeur reposait sur la distribution, tandis que la nouvelle chaîne de valeur est centrée sur la découverte et la propagation;
  • il faut porter son attention là où l’argent s’est déplacé, là où les gens dépensent leur argent, sans occulter dans le même temps que les circuits financiers et produits dérivés se sont globalisés, hors de tout contrôle des Etats-nations et des territoires.

Ce sont là des données de base, familières à tout acteur informé de l’économie numérique. Il est donc particulièrement inquiétant pour nos démocraties de constater que ces mêmes lobbies financiers n’ont de cesse de vouloir contrôler Internet par des méthodes non seulement arbitraires et irrationnelles mais également tout à fait dépassées.

Les arguments justifiant la mise sous contrôle du réseau se réclament paradoxalement de la défense de la culture, alors que c’est justement elle qui est attaquée ; au même titre qu’ils invoquent des raisons pseudo-économiques, alors que par essence l’économie numérique refuse radicalement un contrôle central. Ce paradoxe a d’ailleurs été brillamment dénoncé par les situationnistes qui écrivaient dès 1967 : « la fin de l’histoire de la culture se manifeste par deux côtés opposés : le projet de son dépassement dans l’histoire totale, et l’organisation de son maintien en tant qu’objet mort, dans la contemplation spectaculaire »

Ces objets morts, stars télévisuelles qui ont l’odeur des icônes des églises mais sans leur efficacité, sont mis en avant pour justifier tous les abus du contrôle d’Internet. La mort de notre liberté est préparée dans une tentative vaine et pitoyable de conjurer la mort de l’artiste télévisé.

La loi « Création et Internet » souhaiterait que l’on installât un logiciel sur chacun de nos ordinateurs pour prouver que nous ne sommes pas des copieurs d’œuvres numériques interdites. Absurdité fondamentale : l’informatique, Internet, sont intrinsèquement copie, comme le rappelait Intel Corporation dans son Amicus brief lors du procès MGM vs Grokster.

L’argument de la culture en danger, servi à satiété, est un mensonge. La culture foisonne, les créateurs, de plus en plus nombreux, ne cessent de créer. Le public a soif d’œuvres auxquelles il accède de plus en plus en amateur, participant, co-créateur, et non plus en consommateur. La dissémination et l’accès de tous et par tous à la culture, voilà ce qui est en danger.
Et il est déconcertant de voir que c’est au nom du droit d’auteur, pour défendre la création, que l’on s’apprête à faire voter le projet de loi « Création et Internet », loi liberticide par excellence. Les comités de censure sont-il en train d’être remplacés par les Majors à qui le gouvernement français veut déléguer des pouvoirs arbitraires de police de l’Internet ?
Le pouvoir oligopolistique des Majors renforcé par la puissance publique pourrait contrôler l’ensemble des diffusions culturelles par une intégration verticale anti-économique et anti-concurrentielle : des tuyaux Internet, des radios, des télévisions, des journaux, des salles de concert…

C’est donc bien la liberté de l’auteur et son indépendance qui sont attaquées. Il n’est guère étonnant que de plus en plus d’auteurs et d’interprètes, voulant expérimenter d’autres dispositifs de création, quittent la SACEM (dans la musique) et les circuits classiques de distribution, pour mieux maîtriser leurs créations. Tout le monde n’est pas un adepte de la chanson à 2 minutes 30. La SACEM, influencée par les Majors ne sait pas rémunérer équitablement les auteurs occasionnellement diffusés sur les radios, par exemple. Ses modèles de répartitions sont basés sur des données partielles, accordant une prime aux plus gros diffusés. La production de la création doit correspondre au moule marketing de l’industrie culturelle ou ne pas exister.

De fait, il y a de plus en plus d’artistes qui, pour être en accord avec leur processus créatif, s’auto-produisent et s’auto-diffusent via Internet. Pour protéger leurs œuvres et garantir le partage de celles-ci, ils utilisent différentes licences telles la Licence Art Libre ou les Creative Commons.
Ils retrouvent ainsi leurs libertés premières d’auteurs : choisir les possibilités de modification de leurs œuvres, d’utilisation, de collaboration, de rémunération. Certains auteurs souhaitent privilégier la diffusion et la pérennisation de leurs œuvres, plutôt que leur rétribution financière.

Antoine Moreau, fondateur de la Licence Art Libre écrit : « Je crois pouvoir dire alors que le copyleft participe bien de ce récit des rêves ou des visions qui va à contre-temps de tout ce qui prétend dominer le cours de la création. C’est une liberté intempestive qui ne se soumet pas à l’injonction de l’actualité mais envisage un temps élargi, qui va très loin dans le passé, très loin dans l’avenir et très profondément dans le présent ».

Un musicien qui vient de terminer la création d’une œuvre musicale peut en un clic être écouté d’Afrique en Asie. Internet offre aux artistes un moyen de propagation inédit auquel les Majors ne s’étaient pas préparés. La plupart des plateformes de téléchargement d’œuvres sont multilingues. Il n’est plus rare qu’un artiste qui ne trouve pas son public localement le trouve à l’autre bout du monde.

C’est une vraie chance pour les auteurs, et pour l’humanité. Des groupes de musique comme Nine Inch Nails sont en passe de démontrer que la libre diffusion des œuvres n’empêche pas les artistes de trouver des modes de rémunérations concrets via la vente de places de concert ou de disques, avec toute une gamme possible de services et de produits dérivés.

Il y a bien un imaginaire défaillant dans les débats actuels sur la rémunération des auteurs et artistes-interprètes. Les moines copistes de l’industrie du DVD tentent d’imposer le même rapport de force que lors de la naissance de l’imprimerie, voulant casser une technologie brisant leur monopole. Frédéric Bastiat, économiste libéral français, les décrivit fort bien dans sa Pétition des Fabricants de Chandelles geignant contre la concurrence indue du soleil.

C’est l’auteur/artiste interprète à qui nous devons garantir une rémunération et non pas à l’industrie culturelle. La démocratisation des outils d’autoproduction et d’autodiffusion dans tous les Arts (cinématographique, musical, graphique, etc.) doit être prise en considération. Il appartient aux pouvoirs publics de savoir s’ils veulent soutenir les Majors ou les auteurs. N’en déplaise aux moines copistes de l’industrie du DVD et à leurs icônes télévisées, la création est foisonnante sur Internet et il est temps qu’elle soit reconnue.

S’il est fondamental de garantir cette liberté de choix de diffusion des œuvres et de leur circulation, nous devons être capables d’adapter le financement de l’art à l’heure d’Internet, sachant que sa défense ne peut être, ni en contradiction avec les valeurs démocratiques, ni avec les technologies actuelles. Comme le disait Michel Vivant en 2003 au Colloque de l’UNESCO ”Droit d’auteur et droits voisins dans la société de l’information” : « Il ne s’agit pas de s’incliner devant le fait. Il s’agit de ne pas nier la réalité. ».

La libre circulation de l’Art garantit notre humanité, le pouvoir de se penser homme, voire humanité. On a besoin de se connaître à travers les grottes de Lascaux, dans les ruines de Babel. Antoine Moreau rappelle : « Il n’y a pas d’ouvrages de Platon et il n’y en aura pas. Ce qu’à présent l’on désigne sous ce nom est de Socrate au temps de sa belle jeunesse. Adieu et obéis-moi. Aussitôt que tu auras lu et relu cette lettre, brûle-la. La notion d’auteur, qui n’existe pas dans la Grèce Antique ni au Moyen-Âge où l’autorité émanait des dieux ou de Dieu, apparut. ». Garantir la libre circulation des œuvres d’Art, avec comme seul propriétaire, en dernier ressort, l’humanité, est donc essentiel. Pas de Copyright sur les œuvres de Lascaux, mais des amateurs d’Art archéologues entretenant notre patrimoine.

Le devoir de garantir la circulation de l’Art comme patrimoine de l’humanité oblige à penser sa préservation. Pas les salaires mirobolant des icônes télévisés mais de ceux qui, en premiers garantissent une pratique artistique : professeurs d’Art (plastique, musique, cinéma…), Maisons de la Culture, bibliothèques, espaces de pratique artistique, cinémas indépendants, universités… Il s’agit de multiplier les lieux ou les Artistes et les amateurs d’Art peuvent créer, échanger, écouter, pour maintenir à chaque Art les amateurs éclairés qui soutiendront toujours les Artistes/Auteurs.

Le financement de l’Art (pour les artistes souhaitant en bénéficier), doit être repensé par les puissances publiques. Préserver le seul intérêt des Majors, quand le statut des intermittents est menacé et le statut des artistes peintres est presque inexistant, démontre l’abandon de toute politique culturelle ambitieuse.
Si l’on songe que nous, citoyens, par les impôts, taxes et redevances que nous payons, sommes certainement le plus grand producteur culturel français, comment expliquer que l’on nous dénie toute participation aux débats en cours, et que l’on prétende privatiser et nous faire payer des œuvres que nous avons déjà financées? Est-il par exemple normal que l’Éducation Nationale, selon les accords sectoriels post-DADVSI, paye 4 millions d’euro par an pour n’avoir le droit, en ce qui concerne les œuvres audiovisuelles, que d’utiliser les chaînes hertziennes classiques ? Cela doit changer.
C’est en tant qu’amateurs d’Art et citoyens exigeants que nous devons être comptables des politiques culturelles et de leur diffusion. Il en va de nos identités et cultures plurielles, dont il faut empêcher l’uniformisation par une industrie culturelle qui, de TF1, à France 2 ou M6, montre les mêmes séries télévisées et les mêmes discours autistes du Président du tout nouveau Conseil de la création artistique.

Il incombe de défendre nos libertés concomitantes d’un accès à l’art pour tous. De ce point de vue, il est intéressant de noter que les Majors essaient d’imposer, comme les semenciers de Monsanto, un catalogue des œuvres dites protégées, au mépris du droit d’auteur censé protéger tout auteur d’une oeuvre de l’esprit. Il y a donc bien des logiques de domination économique qui sont à l’œuvre pour la privatisation des biens communs, contre lesquelles nous devons résister.

L’aboutissement des projets de Monsanto, comme le fameux « catalogue des semences » interdisant aux agriculteurs et jardiniers le droit de conserver, utiliser, échanger et vendre les semences ou du matériel de multiplication reproduits à la ferme, doit nous rendre vigilants sur les tentatives des Majors d’imposer le leur, fait du même petit nombre d’œuvres et rééditions formatées et sans risque.

Il y a un foisonnement d’Auteurs/Artistes talentueux qui autorisent la diffusion de leurs œuvres via la Licence Art Libre et les Creative Commons, plus de 30 000 œuvres musicales sur la plateforme Dogmazic, 10 000 œuvres littéraires sur le site de la maison d’édition InLibroVeritas, et dans le monde, d’après des estimations minimales, 130 millions d’œuvres et documents sous Creative Commons en juin 2008. Il est de notre devoir de les soutenir, car ils sont à l’avant-garde d’un mouvement de résistance, se livrant à la lutte pour la libre circulation de l’Art et donc notre liberté.

Pour Libre Accès, Jérémie Nestel (MACAQ, Radio du Ministère de la Crise du Logement), Bituur Esztreym (co-fondateur de Musique Libre ! et de dogmazic.net), Eric Aouanès (président de l’association Musique Libre ! et co-fondateur de la plateforme Dogmazic), Didier Guillon-Cottard (Festival Art is chaud) Mathieu Pasquini (gérant et fondateur de la maison d’édition InLibroVeritas).

Notes

[1] Crédit photo : Tempo no tempo (Creative Commons By)




Quand le marketing Microsoft cible l’éducation et ses enseignants clients

Logo CMIT 2009 - Grand prix MicrosoftCe n’est pas faute d’avoir tenté de contrarier la chose, mais, beau joueur, le Framablog tient à féliciter chaleureusement Microsoft pour avoir récemment remporté le Grand Prix « Acquisition et Fidélisation Clients » grâce à sa campagne « Éducation » réalisée avec l’agence Infoflash, lors du quatrième forum du CMIT (qui a réuni près de trois cents professionnels de la communauté du marketing et de la communication du secteur des TIC).

J’espère que Thierry de Vulpillières n’oubliera pas d’associer le Café Pédagogique et Projetice à un succès auquel ils ont grandement contribué.

Sur le site d’Infoflash (qui porte bien son nom), on peut lire la campagne ainsi résumée :

Microsoft France
Office 2007 à la conquête des enseignants

L’objectif
Une campagne de conquête de marché et d’adoption d’Office dans l’Éducation

La cible
Les enseignants des 12 000 collèges et lycées et des 40 000 écoles primaires

L’idée
Une communication personnalisée par discipline enseignée avec un mix print et web provoquant l’adhésion des enseignants et leur reconnaissance

Les moyens
Un dispositif efficace : poster, lettre d’introduction, mailing, portail de téléchargement riche et interactif avec introduction en vidéo. Un message positif, clair et personnalisé aux cibles identifiées

On trouve plus de détails sur un communiqué de presse d’Infoflash, daté du 29 janvier dernier et titré « Microsoft part à l’assaut du monde de l’éducation avec Infoflash » (sic !), dont voici quelques extraits.

Au 1er semestre 2008, la division Microsoft Education a sollicité les équipes d’Infoflash pour créer en un mois seulement une mécanique et les outils les mieux adaptés à sa campagne de communication autour de Microsoft Office Professionnel 2007.

L’agence a donc proposé une communication personnalisée par discipline enseignée avec un mix print et web destiné à susciter l’adhésion des enseignants et leur reconnaissance. En plus de créer deux sites Internet performants pour sensibiliser et répondre à leurs attentes, des mailings personnalisés ainsi que des mailings promotionnels ont été envoyés aux enseignants et aux établissements scolaires ciblés.

Infoflash a mené cette campagne en deux temps : En juin 2008, un mailing personnalisé a été envoyé à 120 000 enseignants et personnels de collèges pour leur faire découvrir Microsoft Office Professionnel 2007. Ce mailing les encourageait à télécharger gratuitement la licence et à se former pendant l’été sur www.officepourlesenseignants.fr, site réalisé pour la campagne.

Voir le billet Microsoft Office 2007 désormais gratuite pour tous les enseignants sur le Framablog.

En novembre 2008, ce sont deux vagues de mailings spécifiques qui ont été initiées par Infoflash. Un mailing promotionnel a ainsi été envoyé à 12 000 personnels de collèges (principaux, documentalistes et intendants) pour faire découvrir Microsoft Office Professionnel 2007 aux établissements grâce à une offre promotionnelle d’achats de licences à prix très attractif en accédant à www.officepourlesetablissements.fr

Voir le billet L’accès au fichier professionnel des enseignants : l’exemple Microsoft sur le Framablog.

Un 2e mailing a été envoyé à 350 000 enseignants dont 30 000 enseignants en école primaire pour leur proposer le téléchargement gratuit de la solution Microsoft pour leur usage personnel ainsi que l’accès à 350 tutoriels pour les aider à préparer leurs élèves au B2i.

Voir le billet L’influence de Microsoft à l’école n’est-elle pas disproportionnée ? sur le Framablog.

Le dispositif global mis en place autour de Microsoft Office Professionnel 2007 a donc servi à la fois aux enseignants (gain de temps, préparation des cours…) et aux élèves (traitement de texte, tableur, recherche sur Internet).

Voir le billet Le débat sur Windows Vista et MS Office 2007 à l’école aura-t-il lieu ? sur le Framablog.

Le communiqué s’achève sur deux témoignages :

« Nous avons pu constater que les enseignants et le personnel des établissements scolaires ont très bien perçu cette campagne ; ce qui a indéniablement permis d’augmenter la visibilité de cette solution proposée par Microsoft » précise Frédérique Dublanc, Directrice de clientèle chez Infoflash.

« Au-delà de la rapidité avec laquelle a été conçue cette campagne intégrée, il faut noter que c’est un des 1ers sites à avoir été développé en Silverlight, ce qui a permis la diffusion de l’offre Microsoft Office 2007 Professionnel pour les Enseignants mais aussi l’appropriation de nos technologies web » indique Simon Mouyal, Directeur de la communication PME-PMI de Microsoft France.

Bien vu le coup de Silverlight, soit dit en passant.

Difficile de reprocher quoi que ce soit à Infoflash qui s’exprime ici dans la culture et le vocable issus de son secteur professionnel, mais suis-je le seul à tiquer lorsque la « cible » est l’Éducation nationale et les « clients » ses enseignants ?




Merci à La Nouvelle République du Centre-Ouest

La Nouvelle République - 16 février 2008Très bonne nouvelle et très bon article que celui paru le lundi 16 février dernier sous la plume de Sébastien Kerouanton dans la Nouvelle République.

Titré avec malice « Le conseil général se libère des logiciels payants », il nous raconte pourquoi et comment le conseil général des Deux-Sèvres migrera d’ici 2010 son parc d’un petit millier d’ordinateurs de la suite bureautique Microsoft Office à son alternative libre OpenOffice.org.

Outre cet article on pourra lire un rappel bienvenu de la situation chez les pionniers de la gendarmerie nationale (qui, non, rien de rien, non, ils ne regrettent rien), et deux encarts, l’un sur la différence entre logiciel libre et gratuit (qui pour ne pas évoquer le code source jongle un peu avec les droits de la propriété intellectuelle) et l’autre sur la galaxie du logiciel libre (où quelques logiciels phares sont cités, tout comme Framasoft d’ailleurs).

Vous les trouverez tous en pièce-jointe ci-dessous dans le pdf de l’article tel qu’il est apparu dans le journal papier (ou print chez les modernes).

Nous ne sommes pas là pour distribuer des bons points aux journalistes, mais grand merci. Cela fait non seulement plaisir à lire mais est également susceptible de faire réfléchir d’autres institutions (voire même directement des particuliers) qui hésitent à s’embarquer dans un similaire et salutaire processus.

Vous travaillez dans une collectivité territoriale qui demeure à quai avec Microsoft ? Que ne diriez-vous de subrepticement imprimer le pdf pour le coller sauvagement près de la machine à café !

Quant à la dernière phrase de l’article principal, je me l’encadre près de la cheminée : « L’objectif n’est pas seulement de faire des économies, mais de s’inscrire dans un mouvement politique de changement des comportements. »

Le conseil général se libère des logiciels payants

URL d’origine du document
La Nouvelle République – Sébastien Kerouanton – Lundi 16 février 2008

Le conseil général va abandonner le coûteux Microsoft Office au profit d’un logiciel libre gratuit. De nombreuses administrations ont déjà fait ce choix.

Au revoir Microsoft Office, bonjour Open Office. Une petite révolution se prépare sur un petit millier d’ordinateurs du conseil général des Deux-Sèvres. D’ici 2010, les logiciels de bureautique de marque Microsoft devraient avoir disparu des PC, au profit de traitements de texte et tableurs d’origine « libre ». C’est à dire gratuits (ou presque, lire par ailleurs).

Gain théorique : 150 € de licence annuelle par poste de travail. « Mais il est trop tôt pour mesurer l’économie réelle, car les coûts induits les premières années ne sont pas encore définis, précise le premier vice-président, Alain Mathieu. Il ne s’agit pas simplement d’installer sur les ordinateurs un logiciel gratuit qu’on a trouvé sur internet ! Reconfigurer les postes aura un coût ».

Le nouveau programme devra en effet s’intégrer dans une longue chaîne informatique et « communiquer » avec de nombreux congénères : des logiciels « métier », spécifiques à un service, développés ou modifiés en interne. « Nous aurons forcément à gérer des problèmes de compatibilité, sur les documents Excel par exemple », prédit Florian Morisset, responsable du service informatique, en charge du chantier de conversion. Il faudra aussi préparer au nouveau logiciel des utilisateurs habitués de longue date aux produits Microsoft. « Nous en sommes à la première étape : former des référents dans chaque service, qui pourront aider leurs collègues », poursuit Florian Morisset.

Un chantier informatique et humain

Observe-t-on des réticences ? « Il y a des a priori infondés sur la qualité du produit, en raison de sa gratuité, et la confiance dans la marque, estime Alain Mathieu. Mais les performances d’Open Office sont largement suffisantes pour l’usage que nous en faisons ». « Les logiciels Word et Excel sont rarement utilisés au delà de 20 % de leurs possibilités », confirme Florian Morisset.

« Le déploiement d’Open Office sera prudent et progressif, reprend Alain Mathieu. L’objectif n’est pas seulement de faire des économies, mais de s’inscrire dans un mouvement politique de changement des comportements. »

Les gendarmes ont gagné au change

URL d’origine du document
La Nouvelle République – Lundi 16 février 2008

Dans les brigades de gendarmerie des Deux-Sèvres et d’ailleurs, la conversion aux logiciels libres est déjà de l’histoire ancienne. Sur les 70.000 ordinateurs de la gendarmerie nationale (dont 450 pour notre département), la migration de Microsoft Office à Open Office s’est faite en 2005. « Cette phase a duré un an et demi, et les problèmes ont été très limités, explique le lieutenant-colonel Xavier Guimard, à la sous-direction des télécommunications et de l’informatique. Nous avons aujourd’hui très peu de plaintes des gendarmes utilisateurs. A l’époque, il a surtout fallu recréer tous les modèles de documents, et former le personnel. 800.000 € ont été consacrés à la formation ».

Une dépense à comparer avec les 2 millions d’euros investis jusque-là tous les ans dans les achats de licences… L’économie générée par les logiciels libres est considérable. D’autant qu’Open Office s’accommode d’ordinateurs moins performants. Cela génère des économies indirectes sur le renouvellement plus lent du parc informatique.

Les informaticiens de la gendarmerie ont aussi exploité l’accès au code source. La possibilité d’opérer dans les entrailles du logiciel : « Nous avons développé des applications particulières, dont un programme d’assistance dans la rédaction des procédures judiciaires. En communiquant avec deux autres logiciels, il permet au gendarme de gagner du temps ». La gendarmerie estime que cette application créée grâce à l’accès au code source produit un gain annuel de… trois millions d’heures de travail. Prochaine étape : l’adoption de Linux pour remplacer Windows. Cette transition se fera au rythme du renouvellement des unités centrales, et devrait être achevée d’ici cinq à six ans.

Repère

URL d’origine du document
La Nouvelle République – Lundi 16 février 2008

En matière de logiciel, « libre » et « gratuit » ne sont pas synonymes. Dans le premier cas, le concepteur du logiciel renonce à ses droits sur la propriété intellectuelle de sa création. Dans les faits, ce logiciel libre est souvent disponible gratuitement. Mais une société peut le commercialiser, avec par exemple un service après-vente. Au contraire, rien n’interdit à un créateur de logiciels de distribuer gratuitement l’un de ses produits, tout en en conservant la propriété intellectuelle. Ce « gratuiciel » n’est donc pas libre.

En savoir plus : La galaxie libre

URL d’origine du document
La Nouvelle République – Lundi 16 février 2008

Parmi les logiciels libres les plus connus du grand public, citons Mozilla Firefox, un navigateur internet qui remplace déjà Explorer sur de nombreux PC. Du côté des messageries, c’est Thunderbird, cousine de Firefox, qui se positionne comme sérieux rival d’Outlook. Pour la bureautique, Open Office, en cours d’adoption au conseil général, détrône déjà Word et Excel dans plusieurs administrations. Moins répandu chez les particuliers, mais en croissance régulière, Linux : ce système d’exploitation grignote le quasi-monopole de Windows. Clam et Clamwin sont les antivirus les plus connus de la sphère libre. Le second étant la version adaptée à Windows. A noter qu’il existe des logiciels libres dédiés à l’apprentissage, au graphisme, à la généalogie, des jeux, etc. (www.framasoft.net)

Edit : Vive la presse régionale ! Aujourd’hui (mardi 17 février) c’est au tour du Bien Public de nous pondre un article en tout point similaire, Logiciels libres : les administrations et collectivités sont séduites, dont voici un extrait que je place au dessus de l’autre sur la cheminée : « Plus que le logiciel libre c’est l’esprit du logiciel libre qui nous séduit : développement, mutualisation, partage d’expérience, enchérit le conseil général. Les vrais enjeux de cette démarche sont d’aboutir à un patrimoine de logiciels utiles aux missions du service public. »




Je veux la même chose sur mon Eee PC !

Faites passer pour montrer à quoi peut ressembler GNU/Linux aujourd’hui, qui plus est sur un netbook (ici le célèbre Eee PC).

Même ma compagne a été impressionnée, c’est vous dire…

—> La vidéo au format webm

Il s’agit de la distribution GNU/Linux Elive (Debian + Enlightenment) gentiment customisée pour faire tourner le flashy and sexy Compiz dessus (pour en savoir plus).

La musique est de Arena Of Electronic Music (licence Creative Commons By-Nc-Nd).




Wikipédia et éducation : un exemple de réconciliation 1/6

Dossier Wikipédia - Étudiants de Jon Beasley-Murray - CC byTous les articles de l’encyclopédie libre Wikipédia possèdent un historique. Certains ont même une véritable histoire…

Il existe dans Wikipédia des articles qui possèdent le label « Article de Qualité » ou le label « Bon Article ». Il s’agit de « refléter la diversité et la richesse de l’encyclopédie ». Pour qu’un article puisse y prétendre, il doit répondre à certains critères parmi lesquels avant tout la qualité encyclopédique (clarté, exhaustivité, neutralité, pertinence, citation des sources…) mais aussi la qualité de finition (orthographe, syntaxe, mise en page, illustrations…) et le respect des licences. Tout contributeur peut y soumettre un article et tout contributeur peut participer au processus de vote.

Au moment où j’écris ces lignes, on trouve dans la version française de Wikipédia 527 « Articles de Qualité » et 529 « Bons Articles » sur un total de 765 360 articles. Moins de 0,1% des articles de l’encyclopédie sont des « Articles de Qualité » ou des « Bons Articles ».

La version anglaise de l’encyclopédie Wikipédia a pris l’habitude de mettre chaque jour en lumière sur sa page d’accueil un « Article de Qualité » fraîchement labellisé. Le 5 mai 2008, c’est l’article El Señor Presidente, traitant du roman éponyme du prix Nobel guatémaltèque Miguel Ángel Asturias, qui a connu ce petit honneur. C’est l’histoire pédagogiquement remarquable de cet article (et de quelques autres connexes) que nous vous proposons aujourd’hui dans ce mini-dossier de six pages.

Jon Beasley-Murray est professeur de littérature latino-américaine à l’Université de la Colombie Britannique (Vancouver – Canada). Ayant constaté que ce domaine était très faiblement couvert par la version anglaise de Wikipédia, il a décidé d’intégrer l’encyclopédie à l’un de ses cours en lançant le « défi » suivant à ses étudiants : quitte à les créer pour l’occasion, choisissons quelques articles afférents, répartissez-vous par groupes, et faisons en sorte qu’ils obtiennent tous le label « Article de Qualité » dans le temps imparti du semestre universitaire.

Le chemin fut semé d’embûches, certains écueils ne purent être évités et l’implication ne fut pas forcément la même pour tout le monde, mais globalement le succès aura été au rendez-vous. Succès pour les étudiants, pour leur professeur, mais aussi pour Wikipédia qui se retrouve non seulement avec des articles bonifiés mais également avec un exemple, décrit et analysé par ses acteurs, dont on peut dresser le bilan et s’interroger sur les conditions de sa reproductibilité.

Oscillant entre la tentation de l’interdiction et la préconisation sans précaution, le corps enseignant a souvent du mal à composer avec cet objet mutant qu’est Wikipédia, dont il ne peut que constater l’usage massif qu’en font, pas toujours à bon escient, leurs étudiants. Le malaise est latent, pour ne pas dire patent, et aboutit à ce que Wikipédia et monde éducatif se regardent parfois un peu en chien de faïence (cf notre page de liens connexes).

Ce projet pédagogique pose de nombreuses questions, apportent quelques réponses et permet en outre à tout lecteur non familier avec Wikipédia de mieux comprendre ce qu’est réellement l’encyclopédie et comment elle fonctionne « de l’intérieur ». C’est pourquoi il nous est apparu intéressant de l’étudier dans le détail en traduisant ces quelques articles qui sont autant de témoignages enrichissants. Pour ajouter modestement notre contribution au débat, lever éventuellement quelques malentendus, et, sait-on jamais, inciter certains collègues à se lancer eux-aussi dans une future et similaire aventure…

Dans la mesure où ce dossier est conséquent et qu’il est peut-être plus confortable de lire le tout sur papier imprimé, vous trouverez ci-dessous en annexe une version complète au format PDF (merci Garburst).

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008




Wikipédia et éducation : un exemple de réconciliation 2/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage de l’enseignant qui est ici présentée.

Copie d'écran - Wikipédia - Jon Beasley-Murray

Introduction de Wikipédia dans les salles de classe : le loup est-il dans la bergerie ?

Was introducing Wikipedia to the classroom an act of madness leading only to mayhem if not murder?

Jon Beasley-Murray – avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Réflexions sur l’utilisation de Wikipédia dans le cadre du cours SPAN312 à l’Université de la Colombie Britannique, « Murder, Madness, and Mayhem: Latin American Literature in Translation » (NdT : « Meurtre, Folie et Chaos : la littérature latino-américaine en mouvement »), printemps 2008.

Wikipédia : mal aimée mais omniprésente dans l’éducation

Tel un membre non invité, Wikipédia s’aventure aujourd’hui très près du monde universitaire. Les objectifs de Wikipédia sont éminemment académiques : l’encyclopédie se focalise sur la collecte, le traitement, l’enregistrement et la transmission du savoir. À en juger par le nombre d’articles et de lecteurs, elle a particulièrement bien réussi à encourager une culture de curiosité intellectuelle. Elle est pourtant régulièrement sujette aux critiques formulées par les universitaires eux-mêmes.

Et pourtant tout le monde en fait usage d’une manière ou d’une autre, même si c’est difficile à admettre. Et surtout, nos étudiants l’utilisent, ouvertement ou non (puisqu’on leur impose souvent de ne pas citer les articles de Wikipédia dans leurs travaux), mais sans nécessairement en connaître véritablement le fonctionnement. On leur dit que l’usage de Wikipédia n’est pas conseillé, mais on leur dit rarement pourquoi, alors qu’eux la voient comme une ressource incroyablement utile.

La consigne : créer un « Article de Qualité »

J’ai décidé de faire de Wikipédia un axe central d’une matière que j’enseignais, en pensant que c’est seulement en y contribuant activement que les élèves découvriraient ses points faibles et ses points forts. J’avais aussi en tête l’idée qu’ils pourraient par la même occasion améliorer les articles dans un domaine qui à mes yeux manquait cruellement de contenu, en l’occurrence la littérature latino-américaine.

Wikipédia devait être un point important du cours mais sans en être pour autant l’essentiel. Ce n’était pas un cours sur Wikipédia mais, comme mes autres cours, il devait plutôt se concentrer sur l’Amérique Latine ainsi que sur la lecture d’un corpus de textes littéraires d’Amérique Latine. Dans ce cours intitulé « Murder, Madness, and Mayhem » (NdT : Meurtre, Folie et Chaos), les textes choisis comportaient une série de romans sur la dictature de la période du dix-neuvième siècle avec l’argentin Domingo Faustino Sarmiento jusqu’à l’époque contemporaine avec certains des auteurs d’Amérique Latine les plus en vue comme Gabriel García Márquez et Mario Vargas Llosa. Ces livres n’étant ni simples ni courts, les étudiants devaient passer une bonne partie de leur temps personnel à la lecture, la majeure partie du temps en classe étant consacrée aux explications et à la discussion.

Wikipédia n’était que peu abordé durant les cours. La tâche qui leur était assignée était plutôt d’éditer (ou, dans deux cas, de créer), en groupe, les articles de Wikipédia se rapportant aux œuvres et aux auteurs étudiés. Au cours de la session ils devaient réussir à faire obtenir à ces articles ce qu’on nomme dans le jargon Wikipédia le grade d’Article de Qualité.

Lorsque je leur ai assigné cette tâche je ne réalisais pas à quel point c’était ambitieux. Wikipédia définit un Article de Qualité comme un article qui « représente ce que l’on peut de trouver de mieux, et qui répond à des standards professionnels d’écriture et de présentation ». Et ces standards placent de fait la barre très haut. C’est manifestement un des paradoxes de Wikipédia : ses standards sont irréprochables alors même que la majeure partie de son contenu en est fort éloigné. Pour vous donner une idée, moins de 0,1% des articles de Wikipédia possèdent le label Article de Qualité.

En effet, alors que Wikipédia a déjà fait l’objet de nombreux projets pédagogiques au sein d’universités aussi dispersées que celles de Sydney, Hong-Kong, Minnesota et Leiden, c’était à ma connaissance la première fois qu’on demandait explicitement à des étudiants de créer des Articles de Qualité.

Considérations initiales : les avantages de Wikipédia

En plus d’enseigner (même indirectement) aux étudiants les faiblesses et les forces de Wikipédia et en même temps (peut-être incidemment) d’améliorer le contenu de l’encyclopédie concernant l’Amérique Latine, d’autres raisons plus positives venaient étayer ce choix de travail.

L’idée que les étudiants se lançaient dans un projet concret ayant des effets tangibles et publics, à défaut d’être éternels, me plaisait. Après tout, une dissertation ou un examen est un parfait exemple de travail inutile : souvent rédigé à la hâte pour un lecteur unique, le professeur, et ensuite mis de côté.

Je trouve regrettable qu’à de rares exceptions près, comme par exemple dans les ateliers d’écriture, les étudiants ne soient pas plus encouragés à relire et à réfléchir à leur propre travail, où trop souvent ils ne font que jeter un coup d’œil aux commentaires que le professeur aura laborieusement griffonné. C’est compréhensible, puisqu’ayant à ce stade très peu de chances de pouvoir retravailler leur devoir, ils ne s’intéressent alors qu’à leur note et c’est tout. Les étudiants ne découvrent que rarement l’importance des corrections dans un bon travail d’écriture. Alors qu’au contraire, sur Wikipédia, les corrections font (presque) tout : les contributeurs sont appelés « éditeurs » justement parce que leurs écrits sont en permanence au stade de la correction.

De plus ils participeraient à l’élaboration de pages qui, pour certaines (l’article sur Gabriel García Márquez par exemple), reçoivent plus de 60 000 visiteurs par mois. Même les articles les moins visités sur lesquels ils travaillaient recevaient plusieurs centaines de visites par mois. Ici ils écrivaient des articles pour un lectorat ayant la possibilité rare de répondre, de ré-écrire et de commenter le contenu qu’ils produisaient. En effet, travailler sur Wikipédia ouvre la porte au travail collaboratif : les étudiants devaient non seulement collaborer entre eux, mais aussi avec d’autres éditeurs ou des wikipédiens qu’ils ne rencontraient que sur le wiki.

Pour finir, l’idée même que l’attribution de la note soit extérieure à la classe m’attirait. L’idée que le travail soit jaugé à l’aune de son impact et non par le jugement personnel d’un professeur (aussi professionnel soit-il) me plaisait. Dès le départ, j’ai établi avec eux que les groupes qui réussiraient à faire obtenir à leur article la mention Article de Qualité seraient notés A+, c’est aussi simple que ça. Ceux qui atteignaient la mention Bon Article (la barre est placée moins haut, mais les Bons Articles ne représentent tout de même que 0,15% de tous les articles de Wikipédia en anglais) recevraient un A. La note pour ce devoir, en d’autres termes, serait déterminée par l’appréciation collective et publique des autres auteurs.

Considérations initiales : pièges potentiels

J’avoue que je n’ai pas beaucoup pris en considération les écueils de ce plan. Je reconnais que c’était un peu une expérience, mais la tenter me rendait enthousiaste. Ce n’était de toute façon pas le seul point sur lequel le cours serait noté et l’évaluation ne reposerait pas entièrement dessus : les étudiants devaient également tenir à jour un blog hebdomadaire sur leurs lectures et rendre deux devoirs, un à mi-session et un autre à la fin.

(En fin de compte le devoir de fin de session a été abandonné à la majorité des 2/3 de la classe après un vote des étudiants à bulletin secret : 85% d’entre eux ont voté pour l’annulation du devoir final et pour un plus gros coefficient du travail sur Wikipédia.)

J’avais surtout peur que les étudiants soient pris dans une guerre d’édition non constructive et potentiellement décourageante. Une guerre d’édition est un débat sans fin entre des éditeurs qui n’arrivent pas à s’accorder sur le contenu de l’article. Comme dans beaucoup d’interactions en ligne, ces désaccords deviennent rapidement désagréables et provoquent l’intervention d’un administrateur de Wikipédia qui peut décider de « bloquer » l’un des individus impolis, voire les deux. Je n’étais que trop conscient de ce problème puisque dans mes tentatives d’exploration de Wikipédia quelques mois avant de donner ce cours, je me suis retrouvé (plutôt par inadvertance) pris dans de telles guerres, et je me suis fait bloquer pendant quelque temps.

C’est toujours un peu risqué d’amener les étudiants à interagir directement avec la sphère publique. Et, d’une certaine manière, nous devons veiller sur eux. C’est peut-être la raison pour laquelle tellement de technologies de l’éducation (dont WebCT est le meilleur exemple) sont hermétiquement isolées du « monde réel ». Et ça ne serait pas très productif si l’un de mes étudiants se retrouvait bloqué et ne pouvait pas poursuivre son travail ! J’ai donc croisé les doigts en espérant que cette éventualité ne se présente pas.

Premiers pas : « notre » projet se met en route

Wikipédia ne m’était pas totalement inconnue puisque j’avais déjà à mon actif de nombreuses éditions d’articles et même quelques créations (même si ces derniers n’étaient rien d’autre que des ébauches, des versions courtes et préliminaires). Mais jusque là je n’avais pas encore travaillé de manière durable sur un article de Wikipédia. Et bien que j’avais quand même un sentiment de familiarité ainsi qu’un certain sens de la culture Wikipédia, j’avoue que j’étais malgré tout (et le suis d’ailleurs toujours) perplexe devant certains des détails les plus impénétrables des techniques et procédures de ce qui est maintenant devenu une gigantesque et labyrinthique entreprise.

D’un autre côté, cela m’a permis de comprendre l’intimidation que les élèves ne manqueraient pas de ressentir devant la tâche qui se présentaient à eux. Seuls un ou deux étudiants avaient déjà fait des modifications sur Wikipédia et ils étaient peu nombreux à montrer des signes de familiarité avec les conventions du Web. Et ne parlons même pas du code spécifique à Wikipédia (même si celui-ci est simplifié). Je crois que je peux comprendre leur étonnement quand, ayant cliqué pour la première fois sur le bouton « Modifier », ils sont tombés sur une masse confuse de gribouillis caractéristiques des logiciels de wiki.

Pour poser les bases du projet et obtenir du soutien, j’ai enregistré le projet sur une page Wikipédia dédiée à ce genre de choses, j’ai fait apparaître sur tous les articles du projet qu’ils faisaient partie d’une tâche pédagogique, et j’ai démarré une « page projet » décrivant nos objectifs. J’ai aussi laissé des messages sur d’autres projets Wikipédia jugés connexes (principalement des groupes d’éditeurs de Wikipédia qui se concentrent sur un sujet particulier comme par exemple la littérature ou l’Amérique du Sud); j’ai même laissé un mot au journal maison de l’encyclopédie, le Wikipédia Signpost (NdT : le Wikimag en français). J’ai ensuite présenté le projet à la classe, demandé aux étudiants de se créer un compte sur Wikipédia et j’ai croisé les doigts pour que ça marche.

Vous avez peut-être remarqué que je parle de « notre » projet et de « nos » objectifs. J’essaie en général d’inclure tout le monde quand je parle en classe : « nous » lisons les textes « ensemble  », « nous » essayons de comprendre comment les interpréter. Mais ici la sensation était presque palpable : dès le départ je sentais que je faisais aussi partie du projet, sentiment qui n’ira qu’en s’amplifiant dans les semaines suivantes.

Leçon numéro 1 : « ceci pourra être effacé »

Assez rapidement, quand tout le monde fut censé s’être enregistré et avoir commencé à jouer un peu avec les modifications, j’ai apporté mon ordinateur en cours et j’ai présenté les bases aux étudiants. Raccordé à un vidéoprojecteur, je leur ai montré sur grand écran où se trouve l’onglet « Modifier », comment faire une modification mineure (en changeant un mot sur la page Wikipédia de notre université) et comment faire une modification majeure (en vaporisant un article associé à l’université qui était manifestement un plagiat d’un autre site Web).

Un élève m’a par la suite demandé de leur montrer comment créer une nouvelle page. Deux des articles sur lesquels ils travaillaient n’existaient pas alors et j’ai alors décidé de créer El Señor Presidente, dont le seul contenu initial était : « El Señor Presidente est le titre d’un roman de Miguel Ángel Asturias ». J’ai ensuite poursuivi sur d’autres pages avant de revenir à celle-ci quelques instants plus tard… et c’était tout pour la première leçon. Sauf que, à mon grand embarras (et devant la classe entière) j’ai découvert qu’en à peine une minute d’autres éditeurs de Wikipédia avaient déjà collé une énorme bannière rose sur notre tout frais nouvel article avec la mention suivante : « Cette page est susceptible de remplir les critères de Wikipédia pour suppression rapide ». « Les salauds ! » murmurai-je dans ma barbe et je me suis dépêché de modifier le contenu de l’article pour y afficher « El Señor Presidente est le titre du roman le plus important du romancier, lauréat du prix Nobel, Miguel Ángel Asturias », inquiet que notre petit projet se fasse torpiller à peine commencé.

Si j’avais voulu montrer aux étudiants que la modification de Wikipédia est un exercice de négociation avec l’entière communauté d’éditeurs et de lecteurs, je n’aurais pas pu mieux choisir mon exemple. J’ai découvert (depuis) que pour d’autres projets pédagogiques sur Wikipédia, les étudiants sont souvent encouragés à faire un brouillon de leurs articles à l’abri des regards et de les enregistrer sur les pages publiques uniquement lorsqu’ils sont prêts à affronter un examen général. Ici tout était exposé et ouvert dès le début. Mais je n’ai aucun regret. C’est en effet là que le projet a puisé certains de ses meilleurs atouts.

La FA-Team : synergies, du bon et du mauvais

Mais on a rapidement eu un gros coup de chance, alors même que les messages que j’avais envoyés aux différents projets Wikipédia pré-existants semblaient lettre morte (la plupart, d’après ce que j’ai pu voir, étant enterrés ou plus souvent simplement débordés). Il s’est en effet trouvé qu’un groupe d’éditeurs expérimentés de Wikipédia avait commencé à lancer des idées pour augmenter le nombre d’Articles de Qualité sur Wikipédia. Ils se sont baptisés la « FA-Team » (NdT : L’équipe des Articles de Qualité, FA pour Featured Articles) et cherchaient alors un projet auquel participer. Or ils « nous » ont repéré et nous ont écrit pour savoir si nous désirions un coup de main.

Est-ce que nous désirions un coup de main ? Évidemment !

La FA-Team s’est répartie les articles du projet, ils ont laissé des messages d’accueil sur la page de discussion de chaque étudiant (les pages personnelles spécifiques à chaque utilisateur enregistré de Wikipédia et qui fonctionnent comme des pages où les éditeurs peuvent entrer en contact directement avec l’utilisateur) et ils ont débuté leur mission d’encouragement, de conseil et de guide auprès de notre groupe afin de nous pousser à rédiger des articles de Wikipédia de haut niveau. Ce sont des gens très méticuleux, dévoués, et par dessus tout généreux.

Je réalise maintenant que la FA-Team nous a fait la démonstration de la plus grand force (et peut-être aussi la plus grande faiblesse) de Wikipédia : la synergie. Les éditeurs de Wikipédia sont attirés par l’activité. J’irai même plus loin : ils sont particulièrement attirés par l’activité qui aboutit à l’ajout de contenu nouveau à l’encyclopédie. Un bon exemple de cette attraction est l’avertissement que j’ai reçu après avoir créé une page : il existe un noyau de volontaires de Wikipédia qui scrute sans cesse la création de nouvelles pages, prêts à se jeter dessus si un sujet déplacé ou non-encyclopédique est proposé. N’importe qui peut créer une page Wikipédia, mais si vous en créez une sur vous, votre petit groupe de musique ou votre chat, attendez vous à la voir disparaître sans avoir le temps de dire ouf.

De même, beaucoup de personnes émettent des critiques à l’encontre de Wikipédia, la plus connue étant peut-être celle du comédien américain Stephen Colbert, justement parce que n’importe qui peut ajouter n’importe quelle bêtise à un article. Mais je crois que ces personnes ne réalisent pas que des équipes dévouées de wikipédiens surveillent les modifications récentes pour éliminer rapidement ces bêtises flagrantes.

Mais l’aspect vraiment constructif de la réactivité de Wikipédia s’est également manifesté quand, dans les deux jours suivants la création de la page El Señor Presidente, une petite armée d’éditeurs a apporté des modifications mineures qui, combinées, ont apporté des changements importants dans la mise en page. Un des étudiants a ensuite ajouté un fragment d’information qu’il avait trouvé sur un autre site Web. Un petit coup de mise en page réalisée par d’autres éditeurs et au cours suivant cet article ressemblait déjà aux autres pages Wikipédia. Un peu court peut-être, plutôt incomplet et avec quelques sources tirées un peu au hasard d’Internet, mais il apportait des informations sur le sujet aux lecteurs, au moins le minimum, et surtout il était intégré au grand vaisseau Wikipedia.

(Je devrais préciser ici que j’étais indifférent au fait que le travail final des étudiants pourrait ne pas être « entièrement leur travail ». Pour moi, réussir à persuader d’autres personnes de travailler avec eux, travailler en harmonie avec des inconnus faisait également partie du projet. On peut évidemment se dire qu’ils pouvaient tricher pour accomplir leur devoir, comme pour n’importe quel autre devoir, par exemple en payant une tierce personne pour écrire les articles à leur place. Mais en fait le logiciel wiki qui suit les contributions de chacun offre une transparence inégalée, on sait ce que les étudiants font, étape par étape, qui, quoi et quand.)

Ainsi, l’intervention de la FA-Team n’était donc pas exceptionnelle. Ce n’est qu’un exemple de ce principe de synergie porté à une échelle légèrement plus importante et développée. On peut énoncer le principe de synergie ainsi : plus vous contribuez à Wikipédia, plus votre activité résonne et est développée et multipliée par l’activité d’autres personnes. Certes, les guerres d’édition existent, mais d’après mon expérience elles n’affectent en général pas l’ajout de nouveaux contenus. Ce n’était pas juste de la chance, on était tombé sur l’un des principes de base du fonctionnement du wiki.

L’inconvénient de ce principe est que là où Wikipédia est moribond, il le demeure. Bien qu’en théorie l’activité sur Wikipédia bourdonne en continu, en pratique un coup d’œil à l’historique de quelques pages (une information à portée de clic) suffira à vous convaincre que ces pages sont en fait plutôt stables. Un mauvais article pourra le rester pendant une très longue période. Ainsi dans notre projet nous avions les exemples de deux articles plus anciens (et donc plus importants) : les entrées pour Gabriel García Márquez et Mario Vargas Llosa, restées presque inchangées pendant des années, mis à part un petit peaufinage ça ou là. Nous nous devions donc d’y remédier.

Chercher et… chercher encore

C’est alors devenu un travail de recherche. Les étudiants devaient trouver ce qui est appelé en jargon wikipédien des sources sûres. Une doctrine fondamentale de Wikipédia (même si cela peut sembler étrange voire paradoxal, particulièrement pour des universitaires) est qu’elle ne sert pas à la publication de résultats inédits. Une entrée encyclopédique n’est pas faite pour introduire un débat. C’est la différence principale entre dissertation traditionnelle et Wikipédia.

La FA-Team ayant pris en charge le travail de mise en page ainsi que les tâches routinières, les étudiants étaient libres de s’adonner entièrement à la recherche. Mais c’était sans compter un autre piège qui nous a beaucoup ralenti et que nous aurions dû pourtant anticiper puisque ses racines plongent au cœur même des règles de Wikipédia : le fait que les étudiants n’évaluent pas suffisamment leurs sources.

Il faut se rappeler que le problème à la base de ce projet est que les étudiants se fient trop à Wikipédia sans vraiment en considérer les risques et les inconvénients. Il n’était en fait guère étonnant de les voir reproduire les mêmes erreurs en cherchant des sources pour les articles qu’ils devaient rédiger. Ainsi, il n’était pas rare qu’ils ajoutent des informations non vérifiables ou mal documentées (et trop souvent plagiées) ou qu’ils usent et abusent de citations d’autres pages Web et encyclopédies en ligne.

Et pourtant c’est de là aussi qu’a été tirée l’une des meilleures leçons de ce travail. Parce que Wikipédia exige que chaque information soit étayée par une référence (ce que les membres de la FA-Team répétaient inlassablement), les étudiants se sont retrouvés forcés de citer leurs sources. Ces sources pas forcément fiables se sont donc retrouvées exposées, ce qui n’aurait pas nécessairement été le cas pour un examen de session. De plus, justement parce que la rédaction sur Wikipédia est un processus de révision permanente, il a été demandé à certains de reprendre leur travail de recherche pour ré-évaluer leurs sources, pour en trouver de plus fiables avant de reprendre la rédaction. Par la même occasion le problème des plagiats a été réglé simplement parce que plus personne ne recopiait de passages en les faisant passer pour un produit fini.

Pour résumer, ce travail a fait ressortir les faiblesses initiales des étudiants dans le domaine de la recherche, mais ces faiblesses étaient bien la raison d’être de ce devoir. Ils ont cependant appris que rechercher des informations (et les mettre en forme) est un processus, souvent long, où l’on commence avec des sources parfois douteuses (comme Wikipédia lui-même) pour progresser vers des éléments ou preuves toujours plus solides, jusqu’à découvrir de nouvelles informations occultées par les premières sources.

Autres observations : un travail professionnel

Au moment où j’écris ceci, l’accouchement sous péridurale du projet n’est toujours pas terminé. Un article, celui que j’avais ironiquement créé devant la classe, a passé sa première inspection avec succès, une inspection particulièrement rigoureuse d’ailleurs, ce qui lui vaut maintenant le grade de Bon Article. Mes étudiants sont donc à l’origine d’une partie des 0,15% de ce que Wikipédia a de meilleur à offrir et tout cela en partant de rien. De plus, parmi ces 0,15% ne figure aucun autre travail littéraire d’Amérique Latine. Ils (nous ?) ont toutes les raisons d’être fiers d’eux[1]. Pour autant que je sache, c’est le seul travail éducatif sur Wikipédia à avoir directement abouti à un Bon Article[2].

Évidemment tout ne s’est pas fait sans accroc. Deux articles n’ont pour le moment pas vraiment progressé. Le rêve de créer douze nouveaux Articles de Qualité ne restera sans doute qu’un rêve (signifiant par là-même que toute la classe aurait eu la note A+ à un devoir représentant désormais 40% de leur note finale). Mais je suis sûr qu’il en sortira encore une série de Bons Articles (deux autres sont en cours d’évaluation), et certains seront sûrement nominés pour le grade d’Article de Qualité.

Voici donc la résultante d’un travail rigoureux qui, parce qu’il avait pour cadre ce site Web tant décrié qu’est Wikipédia, était loin d’être une solution de facilité. C’était même plutôt le contraire.

Je ne suis toujours pas aveuglé par Wikipédia, loin s’en faut. Il faut bien se dire que c’est une encyclopédie dont seulement une infime fraction de ses articles sont considérés comme de « bons » articles, même par ses propres éditeurs. D’autres faiblesses de Wikipédia sont plus apparentes que jamais, on les retrouve même à un certain degré dans ce projet : un article moribond aura tendance à le rester, et certaines sources sont discutables et souvent plagiées.

Mais, pour la défense de Wikipédia, je dois dire que je n’avais jusqu’alors pas réalisé à quel point ses propres critères sont ambitieux et avec quelle rigueur ils sont appliqués, ni même remarqué l’efficacité du processus collaboratif… si vous êtes prêt à apporter votre contribution et surtout si vous êtes prêt à faire les recherches nécessaires à l’ajout d’informations vérifiables. Là encore je dois dire que nous avons été particulièrement chanceux dans les rencontres que nous avons faites, mais je pense aussi que d’autres bénéficieront de la même bonne fortune.

En ce qui concerne le travail, qui je le répète est loin d’être achevé… j’aimerais croire qu’il enseigne aux étudiants l’art de la recherche et de l’écriture dans un environnement proche du monde réel. Il leur a été assigné au début du semestre un but à moyen terme, voire à long terme, et il leur a été demandé de travailler en collaboration au sein de leurs propres groupes mais aussi avec des inconnus dans un environnement ouvert afin d’établir comment parvenir à ce but et comment le réaliser. Ce travail devait déboucher sur un résultat professionnel, visible par des milliers de personnes, une ressource qui dans la plupart des cas serait la première escale de chercheurs futurs, qu’ils soient étudiants comme eux ou qu’ils fassent simplement partie des millions de visiteurs de Wikipédia de par le monde. La plupart de ces articles sont en effet le premier résultat affiché (ou presque) lors d’une recherche sur Internet sur le sujet traité.

En comparaison, les dissertations et les examens classiques que nous donnons à nos étudiants paraissent plutôt anecdotiques.

Inutile ? Pas d’argumentation

Ce que les étudiants n’apprennent pas par contre à travers ce projet est le développement d’un argument. L’argumentation, la construction cohérente d’une série d’idées, la défense et l’étayement d’une thèse convaincante, est évidemment au cœur de l’enseignement académique. J’attache beaucoup d’importance à cette compétence.

Mais on peut également dire que dans la plupart des emplois qu’occuperont les étudiants après la fin de leur cursus, l’argumentation ne tiendra pas une place aussi importante que dans le monde académique. À l’opposé, la recherche d’informations, la présentation, l’exactitude, l’aptitude à travailler en équipe et la capacité à négocier avec la sphère publique leur seront bien plus utiles (même si ça me fait un peu mal de l’admettre).

De plus, l’écriture sur Wikipédia leur inculque la pensée critique, peut-être pas celle qui est en général abordée à l’université… mais peut-être le devrait-elle. Les éditeurs de Wikipédia sont sans cesse encouragés à faire preuve d’esprit critique vis-à-vis des informations qu’ils trouvent et également vis-à-vis de leurs propres écrits.

J’ai un peu peur d’avoir trop enjolivé la chose. Je le ferai différemment si je suis un jour amené à le refaire. Et je dois vous avouer que j’ai souvent eu l’impression de faire un numéro d’équilibriste, que tout pouvait s’écrouler à tout moment. D’ailleurs nous ne sommes toujours pas à l’abri. Mais si quelque chose tourne mal je pourrai toujours modifier ce texte…

Oh, et si ça vous dit, n’hésitez pas à donner un coup de main sur Murder, Madness, and Mayhem !

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 2/6 – Le projet vu par l’enseignant
    Présentation, chronique et analyse du projet par le professeur Jon Beasley-Murray (à lire en premier).
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

Notes

[1] Le 10 avril 2008, El Señor Presidente est devenu le 2000ème Article de Qualité de Wikipedia. Cet article apparaîtra sur la première page de Wikipédia le 5 mai. Au final, les étudiants ont porté deux autres articles au niveau d’exigence requis pour obtenir le grade d’Article de Qualité (Mario Vargas Llosa et The General in His Labyrinth) tandis que huit autres ont obtenu le grade de « Bon Article ». Les seuls autres articles portant sur la littérature Latino-américaine à ce niveau sont Mário de Andrade et Jorge Luis Borges (bien qu’aujourd’hui ils n’obtiendraient certainement plus cet honneur, il est en effet intéressant de noter que les critères de qualité de Wikipédia augmentent régulièrement avec le temps). Grâce à nous, le nombre d’Articles de Qualité sur la culture latino-américaine a donc très fortement augmenté

[2] Plus de détails ici.




Wikipédia et éducation : un exemple de réconciliation 3/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage d’un éditeur de Wikipédia ayant aidé les étudiants à atteindre leur objectif, à savoir la quête de l’Article de Qualité, qui est ici présentée.

Copie d'écran - Wikipédia - Témoignage wikipédien

Wikipédia et université : Murder, Madness and Mayhem ?

Wikipedia and academia: Murder, Madness and Mayhem?

EyeSerene – 14 avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Quand l’idée a été soulevée de mettre sur pied une équipe d’éditeurs spécifiquement dédiée à l’obtention du label Article de Qualité, nous sommes entrés en contact avec le Wikiprojet Murder, Madness and Mayhem (NdT : Meutre, Folie et Chaos, MMM) pour ce que nous pourrions appeler notre première mission. Deux réactions antagonistes sont alors nées en moi. Je me suis exclamé « magnifique ! » mais une voie plus sceptique murmurait « hum… pourquoi pas ». La première émane de ma foi dans « le rêve », la deuxième de mon expérience sur le terrain du travail sur Wikipédia.

Je crois avec ferveur en la vision de Wikipédia ainsi résumée « Imaginez un monde dans lequel chacun puisse avoir, partout sur la planète, libre accès à la somme de toutes les connaissances humaines. C’est ce que nous sommes en train de faire » (Jimmy Wales). Évidemment, certains avertissements sont de rigueur, peut-être que l’adjectif « vérifiable » devrait être ajouté ici !, mais derrière tous les articles de groupes de musique méconnus, d’écoles primaires et d’épisodes des Simpson, le rêve se poursuit. Les gens instruits sont des gens libres et autonomes et une longue route a été tracée depuis le temps où le savoir et l’éducation n’étaient réservés qu’à une petite élite… mais il nous reste encore beaucoup de chemin à parcourir.

Peut-être sommes nous de doux rêveurs à croire qu’une encyclopédie peut changer le monde, mais pour moi l’important n’est pas là. C’est le concept sous-jacent qui me motive. Et si les gens, indépendamment de leur race, de leur religion, de leur emplacement géographique ou quoi que ce soit d’autre pouvaient s’unir comme nous le faisons ici ? Et si ils pouvaient s’affranchir des frontières, des gouvernements et des contraintes sociales pour communiquer et collaborer les uns avec les autres de manière constructive et créer quelque chose qui est infiniment plus grand que la somme de ses parties ? Je pense alors qu’il serait très difficile de convaincre un public ainsi informé et lié que tel groupe ou telle nationalité est en fait leur ennemi, alors qu’une longue expérience personnelle leur affirme le contraire. Le fait que Wikipédia soit banni ou restreint dans certaines parties du monde et chez certains régimes politiques en dit long sur la peur que peut engendrer ce simple concept « d’information en accès libre ».

Évidemment, et quand bien même tous ceux qui comme moi tiennent à la crédibilité de notre encyclopédie aiment à penser que le savoir que nous mettons à disposition est vraiment utile, nous devons aussi tenir compte de tous ces articles de groupes de musique méconnus, d’écoles primaires ou d’épisodes des Simpson. Mais sous bien des aspects c’est ce qui fait la force de notre modèle.La force magnétomotrice, un article technique qui capte une audience relativement faible et spécialisée, est classé dans la catégorie des articles à étoffer même s’il existe dans l’encyclopédie depuis bientôt quatre ans. L’article Les Simpson fait quant à lui l’objet de modifications permanentes, il s’est largement étoffé et se décline aujourd’hui dans plus de soixante langues (alors qu’on ne trouve que six localisations de la force magnétomotrice). Si nous acceptons le fait que Wikipédia est plus qu’une encyclopédie, nos articles sur la pop-culture font clairement parti de notre succès. Ils participent à la collaboration et aux interactions sociales au-delà des continents et des océans et peut-être que ce sont ces articles qui reflètent le mieux la vision de Wikipédia.

La crédibilité culturelle de Wikipédia n’est plus à démontrer. Vous voulez savoir quel docteur a pris la suite de Patrick Troughton (NdT : dans la série TV Docteur Who) ? Vous voulez connaître le nom de la maison de Harry Potter ? Où irons-nous alors en priorité ? J’aimerais cependant que Wikipédia soit également reconnu comme une source académiquement acceptable. On sait bien désormais que Wikipédia constitue la première étape de n’importe quelle recherche pour la majorité des étudiants, et ce dès le secondaire. On peut débattre du bien-fondé de cette habitude, mais en tant qu’étudiant planchant en fin d’étude sur la diffractométrie de rayons X, j’aurais certainement apprécié en 1989 avoir cette ressource primaire, quand bien même l’article en lui même n’aurait évidemment pas été suffisant.

Wikipédia ne peut pas se substituer à une recherche bibliographique, vous devez quand même lire les bons articles et les bons journaux. Il ne peut pas vous enseigner une matière non plus, nos articles ne sont pas écrits dans cette optique, bien qu’ils soient assez complets pour qu’un lecteur néophyte puisse comprendre de quoi il en retourne. Si vous attendez ceci de Wikipédia (que tout le travail soit déjà fait ou qu’il vous enseigne une matière), vous vous trompez lourdement sur les buts de Wikipédia. Mais le fait est que notre encyclopédie a été, est et restera certainement toujours utilisée ainsi. Cependant combien d’étudiants comprennent véritablement la différence entre se rendre sur leur source d’information en ligne préférée pour vérifier la réponse à une question de quizz sur le nombre de test centuries que Andrew Strauss a inscrit (la réponse est 12 au fait) et citer cette information dans la biographie d’un joueur de cricket ?

C’est là, pour moi, la fascinante dichotomie du Wikiproject Murder Madness and Mayhem de Jbmurray. Il faut avouer qu’on a commencé à s’habituer à ce que notre encyclopédie ou nos articles soient tournés en ridicule par le monde universitaire et, même si ce n’est pas toujours de gaieté de cœur, il nous faut bien reconnaître que leurs critiques ne sont pas infondées. Wikipédia a la réputation de ne pas respecter l’expertise auto-proclamée et les arguments des experts sont rarement pris au sérieux. Du fait de l’anonymat des éditeurs et de l’impossibilité de vraiment connaître les références de la personne de l’autre côté du modem je ne vois pas comment il pourrait en être autrement… mais devoir étayer chaque affirmation par une source vérifiable a sans aucun doute repoussé des éditeurs qui autrement auraient apporté une contribution importante à notre effort.

De nombreux universitaires, indignés d’être traités de la sorte par des gens qu’ils ne connaissaient pas ou qu’ils ne respectaient pas (intellectuellement s’entend !), se sont retirés du projet avec dégoût, résolus à ne jamais plus employer Wikipédia et à ne plus jamais en encourager l’usage non plus.

J’ai également souvenir d’un incident où l’auteur d’un livre cité dans un article a tenté de corriger l’article, mais sa modification a été refusée par des éditeurs qui se sont servis de son propre livre pour justifier le rejet. Frustré, il répondit en substance « C’est moi l’auteur de ce foutu texte que vous citez à tort, je sais de quoi je parle ! », mais ça ne l’a pas beaucoup aidé. D’un autre côté, pourquoi en tant qu’éditeurs devrions-nous accepter aveuglément ce que nous dit un « expert » auto-proclamé ? N’est-ce pas ce qui fait en partie la vision de Wikipédia ? Nous ne nous contentons pas (ou nous ne devrions pas nous contenter) de donner les faits… idéalement nous fournissons aussi des sources afin que tout un chacun puisse vérifier ces faits. On retombe sur « l’accès libre à l’information » !

Mon enthousiasme pour le projet novateur de Jbmurray, l’espoir qu’il est possible non seulement d’améliorer notre encyclopédie (ce qui me tient à cœur) en aidant les élèves dans leurs études, mais aussi de renforcer sa crédibilité et peut-être même de recruter de nouveaux accrocs à Wikipédia éditeurs, a donc été quelque peu tempéré par les expériences qu’ont eu de nombreux universitaires avec nous. Évidemment, Jbmurray n’était pas exactement un novice sur Wikipédia et il était déjà au courant des particularismes, voire même parfois des absurdités, qui maintiennent notre effort sur de bons rails, mais cela ne préfigurait en rien du succès de son projet.

Côté technique, j’avais de gros doute qu’on puisse ne serait-ce qu’approcher le grade d’Article de Qualité pour chaque article du projet. Malgré ce que peuvent en dire les critiques, rédiger un Article de Qualité est un processus complexe et rigoureux qui demande une grande disponibilité, beaucoup d’énergie et, oserais-je le dire, de l’expertise (pas seulement sur le sujet de l’article mais aussi sur les critères strictes des Articles de Qualité). Le seul moyen d’atteindre ce but était que la FA-Team collabore étroitement avec Jbmurray et les éditeurs de MMM.

J’ai tiré de mon expérience sur Wikipédia la conclusion que pour certains éditeurs le principe de la collaboration restera à tout jamais un mystère. Et pourtant il n’y a rien de bien sorcier si tout le monde y met de la bonne volonté. C’est évident que si les éditeurs sont traités avec respect, approchés de manière ouverte et amicale, remerciés pour ce qu’ils font de bien et réprimandés (poliment !) lorsqu’ils se trompent, ils répondront alors positivement dans la plupart des cas. Que ce soit sur Internet ou dans la vraie vie, certains sembleront toujours génétiquement incapables de formuler des encouragements ou de recevoir des critiques, mais ces personnes poussent à bout la patience de la communauté et finalement abandonnent le navire.

Bien que nous baignons dans un monde virtuel, nous avons à faire avec des personnes bien réelles avec des émotions bien réelles au bout de la connexion, alors pourquoi devraient-elles être traitées plus durement que si nous les rencontrions dans notre bureau, notre salle de classe ou au bar… et au nom de quoi devrions nous fermer les yeux sur de tels agissements ? Wikipédia s’auto-gère assez bien, ce qui profite à la collaboration, et comme le note Jbmurray ceci peut déboucher sur une synergie qui vous permet de croire que notre vision est vraiment à notre portée. Il soulève ici un corolaire très intéressant, un corolaire qui touche à la critique universitaire. Lorsque la collaboration existe (et en déformant les paroles bibliques, lorsque deux éditeurs ou plus s’unissent au nom de Wikipédia…), de grandes choses peuvent se produire.

Mais lorsque l’on permet aux articles de se morfondre dans leur médiocrité, et cela arrive encore trop souvent pour des articles techniques, ésotériques ou académiques, c’est notre réputation qui s’en retrouve entachée. Au bout du compte, tout ce que l’on obtient alors est de l’antagonisme, qu’il représente aussi bien le « contraire de la synergie » que la « caractérisation de la réaction des personnes qui accèdent à ces articles ».

Grâce au soutien universitaire de Jbmurray, aux encouragement et aux conseils techniques de la FA-Team, les rédacteurs étudiants de MMM ont produit un impressionnant travail de fond, fait d’autant plus remarquable que beaucoup n’avaient jamais édité dans Wikipédia avant ce travail. Dans un certain sens nous poussons ici plus loin encore qu’à l’accoutumée les capacités de la communauté à travailler dans la même direction, puisque, contrairement à nous wikipédiens, les éditeurs de MMM ne sont pas ici de leur plein gré mais parce qu’ils y sont obligés, de leur succès dépendent leurs notes ! Voilà qui les pousse à collaborer encore davantage pour atteindre leur but, mais c’est une motivation autre que celle qui anime d’ordinaire nos éditeurs volontaires.

Je ne suis pas naïf au point d’imaginer que tous les wikipédiens adhèrent à l’idéal de Wales, chaque éditeur a sa propre motivation et certaines sont moins louables que d’autres. Quoiqu’il en soit, si on met de côté ceux qui sont là pour, par exemple, créer des articles vaniteux ou pour faire de la publicité pour leur commerce, le résultat final est le même et encore une fois, c’est la collaboration de tant de personnalités différentes pour aboutir à un but commun qui me donne espoir et qui me fait croire à la mission de Wikipédia.

La collaboration n’est pas toujours simple (si c’était le cas, des groupes comme le Comité d’Arbitrage et des pages comme l’Appel aux commentaires seraient largement superflus) et dès le début certains des éditeurs de MMM ont dû se frayer un chemin dans le méandre des révisions des articles, prenant alors potentiellement le risque de déclencher de nouvelles guerres d’édition ou pire encore. Ils y sont très bien parvenus grâce à leur propre envie d’apprendre et grâce à la bonne volonté dont ont fait preuve les éditeurs réguliers qui n’étaient pas familiers avec ce projet et ces objectifs, sachant que la différence entre le premier essai timide d’un nouvel éditeur et l’acte de vandalisme est parfois difficile à discerner.

Alors, sur quoi va déboucher cette expérience MMM ? On en aura évidemment une meilleure idée quand elle aura déjà un peu de vécu, mais on peut espérer que les étudiants la trouveront enrichissante et instructive, qu’ils en retiendront plus que juste les notes qu’ils recevront. Scolairement parlant, comme l’écrit Jbmurray, ils devraient en tirer une meilleure compréhension de la nécessité d’étayer leurs informations avec des sources vérifiables et ils devraient aussi mieux percevoir les limitations d’une encyclopédie en temps que ressource. Wikipédia ne peut être, même dans le meilleur des cas, que le point de départ d’une recherche approfondie. Le projet a peut-être aussi posé les bases d’un modèle qui aura du succès dans le monde universitaire.

Cela ne fait aucun doute, de nombreuses personnes parmi les éditeurs sont hautement qualifiées dans leur domaine et dans le partage de leurs connaissances dans ce domaine au sein même de l’encyclopédie, contribuant à améliorer le niveau global de Wikipédia. Mais la sempiternelle question de la couverture du sujet reste toujours en suspens dans la communauté (ou plutôt chez ceux qui s’intéressent plus particulièrement à la qualité des articles). Nous pouvons imposer des règles et des critères pour les Bons Articles ou pour les Articles de Qualité mais, en tant que non-experts, comment être surs qu’un article est complet et précis ? Nous pouvons utiliser les sources mentionnées et vérifier les références, mais sans un expert à disposition nous devons nous reposer sur l’article lui-même pour obtenir ces informations.

D’une manière générale notre travail est satisfaisant, car même en tant que non-experts quelques recherches nous permettent de juger de la profondeur (ou du manque de profondeur) de la couverture d’un article. Mais comme l’a prouvé cette expérience, les conseils d’experts sont inestimables. Pour résumer, nous avons besoin des universitaires car apparemment leurs étudiants ont besoin de nous.

Naturellement, des mises en garde sont de rigueur. Si certains experts ne voient en Wikipédia que frustration et antagonisme, c’est principalement car ils n’ont pas à l’esprit la spécificité de Wikipédia, à savoir sa communauté et ses lois. Même si la grande majorité des éditeurs supposera la bonne foi, le respect se gagne. C’est seulement en lisant les règles de Wikipédia et en faisant l’effort de vous y tenir que vous gagnerez ce respect qui donnera du poids à vos opinions et vos propositions. Quelle crédibilité peut-on accorder à universitaire étranger débarquant dans un séminaire en imposant ses propres pratiques et en faisant fi des convenances et traditions locales ?

Pourquoi devrions nous alors accepter ce genre de comportement ? Comme Jbmurray le fait remarquer, la capacité à développer une idée et de la défendre avec ardeur a moins de valeur sur Wikipédia que la capacité à négocier un consensus… et de se retirer avec élégance si ce consensus ne va pas dans notre sens, même lorsque les autres éditeurs ont ponctuellement clairement tort (ce qui arrive inévitablement avec une communauté de cette dimension). Mais à long terme, est-ce vraiment important ? Le consensus peut évoluer, et un article peut toujours être revu une semaine après, un mois après, une année après…

L’incapacité chronique de certains universitaires et experts à réaliser que Wikipédia n’est pas l’extension de leur faculté et qu’elle n’est pas par conséquent sous leur autorité, que notre mission est simplement de reproduire ce qui a déjà été publié par des sources vérifiables (vérifiabilité, pas vérité), et que leurs compétences dans un domaine ne les dote pas nécessairement de la capacité à bien faire dans d’autres domaines, a sans aucun doute affecté les relations dans les deux sens. Cependant le monde académique a beaucoup à y apporter, si l’on ne se trompe pas sur ce qu’est Wikipédia (et encore plus ce qu’elle n’est pas ou ce qu’elle ne prétend pas être). C’est ce que démontre le projet MMM de Jbmurray où tout le monde est au final gagnant.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.