Le débat britannique traversera-t-il la Manche ?

Hamed Masoumi - CC byL’article que nous vous proposons aujourd’hui n’a rien d’original en soi. Il doit en exister de similaires partout dans le monde sachant qu’en plus le mouvement ne fait que commencer. Il nous a semblé pourtant intéressant de le traduire dans un contexte où la France semble prendre du retard sur le sujet.

Nous sommes en Angleterre, pays que le Framablog visite souvent en ce moment, le parti conservateur, dans l’opposition, demande aux travaillistes au pouvoir de réduire (voire plafonner) ses dépenses publiques en matière de TIC et d’envisager des solutions « Open Source » pour y arriver.

Il est bien sûr question de jeu politique et, surtout, d’économies de gros sous en période de crise. Mais la question de l’interopérabilité est évoquée (se donner un « langage commun ») ainsi que celle de l’accès des petites sociétés de services en logiciels libres aux marchés publics jusqu’ici l’apanage des grands groupes.

Pour rappel le système politique britannique actuel est fondé sur le bipartisme, avec à droite les Conservateurs (appelés aussi « Tories ») et à gauche les Travaillistes (ou « Labor Party ») actuellement au pouvoir avec Gordon Brown, successeur de Tony Blair[1].

Le parti conservateur britannique envisage de plafonner les dépenses TIC du gouvernement

Tories consider IT contract cap

27 janvier 2009 – BBC News
(Traduction Framalang : Don Rico et Goofy)

Le parti conservateur britannique envisage sérieusement d’imposer un plafond de 100 millions de livres au buget TIC du gouvernement afin d’éviter les gouffres financiers comme celui qu’a connu le système informatique du National Health Service (NdT : le système de santé public).

Au lieu de confier des contrats de longue durée à de grosses entreprises de TIC, les députés Tories souhaitent ouvrir les appels d’offres à de plus petites sociétés proposant des logiciels « Open Source ».

Un rapport rédigé à l’intention du Shadow Chancellor George Osborne (NdT : membre de l’opposition chargé des questions économiques au sein de son parti) avance que les économies potentielles pourraient atteindre 600 millions de livres.

D’après les Tories, les Travaillistes auraient dilapidé des milliards dans des projets TIC « catastrophiques ».

Le Shadow Chancellor est en train d’examiner ce rapport, que lui a remis le docteur Mark Thompson, professeur de la Judge Business School à l’université de Cambridge, dans le cadre des préparatifs détaillés du projet de gouvernement auquel travaillent les conservateurs.

« Moderniser le gouvernement »

« Le parti conservateur est tourné vers l’avenir », a déclaré Mr. Osborne. C’est nous qui avons ouvert le débat sur l’utilisation des logiciels libres au sein du gouvernement, et je me réjouis que le docteur Mark Thompson nous ait soumis ces recommandations détaillées.

« Ces propositions n’ont pas pour seul objectif la limitation des dépenses. Il est surtout question de moderniser le gouvernement, de rendre les services publics plus novateurs et de les améliorer. »

Il a déclaré vouloir recueillir les avis du public et de l’industrie des TIC sur ces propositions.

Les conservateurs accusent le gouvernement d’avoir dilapidé des milliards de livres dans des projets TIC calamiteux, comme par exemple le système de dossiers médicaux informatisé du National Health Service, dont le coût initialement prévu à 2 milliards de livres a explosé pour en atteindre 12, et qui depuis le début accumule les retards.

Le Committee on Public Accounts (NdT : équivalent de la Cour des comptes) a récemment émis des doutes quant au respect de la date butoir, fixée à 2015.

Ces dernières années, le gouvernement a revu à la baisse certains projets TIC. En 2006, il a mis au rancart un projet de plusieurs milliards de livres visant à déployer un nouveau système centralisé pour le registre national d’identité, préférant le laisser en l’état et conserver l’ensemble des renseignements sur trois bases de données séparées déjà existantes.

Mais selon les conservateurs, on pourrait économiser des millions supplémentaires en abandonnant les pratiques actuelles du gouvernement consistant à confier les projets TIC à un petit nombre de grosses entreprises.

« Ouvrir la concurrence »

Dans son rapport, le docteur Thompson plaide en faveur d’un système d’appels d’offres TIC « ouvert », où l’on consulterait un plus grand nombre d’entreprises, y compris des start-ups innovantes.

Il recommande l’adoption des formats de données ouverts et standards au sein du gouvernement, afin de créer un « langage » commun pour les systèmes TIC de l’État.

Cela aurait pour conséquence de réduire les coûts des acquisitions de licences et d’affranchir les corps gouvernementaux de contrats monopolistiques de longue durée, indique-t-on dans le rapport.

« Cela signifie que le gouvernement du Royaume-Uni n’aurait plus jamais contraint à signer un contrat pour des logiciels dépassant les 100 millions de livres. Finis les gouffres financiers informatiques », y ajoute-t-on.

D’après le docteur Thompson, son rapport « explique comment le gouvernement peut économiser des centaines de millions de livres chaque année en instaurant un processus plus ouvert de passation de marchés publics pour les TIC, ce qui impliquerait de donner leur chance aux logiciels libres. »

Et d’ajouter : « Cela n’a rien de sorcier. Il s’agit de créer un système de passations de marchés publics moderne et efficace. Partout dans le monde, des gouvernements et des entreprises utilisent des logiciels libres, et nous-même ici au Royaume-Uni pourrions faire beaucoup plus que ce que nous faisons actuellement. »

Notes

[1] Crédit photo : Hamed Masoumi (Creative Commons)




Musique, industrie et industrie musicale

Notsogoodphotography - CC byNous le savions déjà : « musique » et « industrie musicale » sont deux entités distinctes. La révolution numérique n’a fait que nous le rappeler mais en apportant un petit quelque chose en plus : la possibilité pour le premier de ne pas être obligé d’en passer forcément par le second pour exister. Surtout si cette industrie musicale renonce à s’adapter et préfère mettre son énergie à chercher des mesures coercitives pour ramener ses clients dans le droit chemin de la rassurante situation d’avant (qui n’est déjà plus).

Et si nous commencions par prendre conscience des évolutions avant que d’envisager une éventuellement réconciliation ?

La traduction de ce court extrait du blog de Seth Godin y participe modestement.[1].

Musique vs L’Industrie Musicale

Music vs. the music industry

Seth Godin – 13 février 2009 – Blog
(Traduction Framalang : Claude le Paih)

Quelques extraits d’une interview sur le futur de l’industrie musicale. J’abordais une industrie spécifique, mais je pense que cela peut être généralisé.

L’industrie musicale privilégie surtout l’aspect « industrie » et moins l’aspect « musique ». C’est le meilleur moment de l’histoire de la musique si votre rêve est de distribuer autant de musique que possible à un maximum de personnes, ou si votre objectif en tant que musicien est d’être écouté par une large audience. Il n’y a jamais eu une telle époque auparavant. Donc si votre intérêt est la musique, c’est génial.
Mais si votre intérêt penche vers le côté industriel et ses limousines, ses acomptes, ses juristes, son polycarbonate et ses vynils, c’est tout simplement horrible. Le changement actuel étant que les personnes persistant à vouloir garder le monde tel qu’il était avant, seront de plus en plus contrariées par la nouvelle donne, ce qui peut aller jusqu’à la perte de leur emploi. Ceux qui veulent inventer un nouveau cadre, de nouvelles de règles du jeu, un nouveau paradigme, n’en reviennent pas de leur bonne fortune et réalisent combien ils sont chanceux que le monde de l’industrie ne remarque pas une telle opportunité…

Je définis une tribu comme un groupe de personnes partageant une culture, un but, une mission commune, et aussi souvent un leader commun. Il y a des tribus de gens, sortant parfois des sentiers battus, qui se sentent en phase parce qu’ils veulent repenser l’industrie musicale. Il y a ainsi la tribu de ceux qui suivent Bruce Springsteen et paient des sommes déraisonnables pour l’écouter en concert et comparer les titres.
Cela n’a plus rien à voir avec les anciennes habitudes des labels musicaux occupés à conquérir de l’espace commercial à la radio et dans les magasins de disques. L’industrie musicale a désormais besoin de se redéfinir et d’œuvrer à la recherche, l’interconnexion et la direction de tribus d’individus désirant suivre un musicien et se connecter avec ceux qui souhaitent en faire de même…

Dans les années soixante-dix et quatre-vingt, vous écoutiez une chanson car « tous les autres » l’écoutaient aussi. C’est la définition de la pop music. À cette époque, nous définissions « les autres » comme des personnes de notre université ou des gens écoutant la radio WPLJ[2].
Aujourd’hui, « les autres » ne sont pas définis par le lieu de résidence ou la radio écoutée. Ils sont définis par le segment vertical ou horizontal du monde auquel vous vous connectez. Je peux écouter Keller Williams[3] parce que ma tribu connaît des Deadheads désenchantés[4]. N’ayant plus de nouveau Grateful Dead à écouter, nous écoutons Keller Williams : c’est de la pop music pour nous. Il n’est pas populaire chez les jeunes du collège qui n’ont jamais entendu parler de lui, n’est-ce pas ? Ainsi vous vous retrouvez avec une multitude de niches qui sont autant de manières différentes de regarder le monde…

Le tout numérique est en train de surpasser le CD, et une fois le mouvement amorcé cela va de plus en plus vite. Le plus intéressant pour moi est de connaître celui qui contrôlera la programmation musicale (NdT : la playlist). S’il y a une quantité infinie de musique offerte (et dès que la quantité de musique excède le temps disponible d’une vie, elle est infinie !), quelqu’un sera-t-il assez influent pour me suggérer quoi écouter ? Ce quelqu’un sera-t-il payé pour me le dire ou bien paiera-t-il pour me le dire ? La question reste pour le moment ouverte mais les réponses sont dans toutes ces niches. Qui sont les personnes influentes et comment se diffusent cette influence ?
L’analogie que j’aime donner est que si vous êtes un écrivain et qu’Oprah Winfrey[5] vous appelle, vous ne dites pas : « combien allez vous me payer pour participer à votre show et présenter mon livre ? » En fait, si vous le pouviez, vous paieriez pour collaborer avec Oprah.
Pendant très longtemps, l’industrie musicale a eu deux grandes idées : d’un côté, payer pour passer sur Clear Channel[6] ou MTV, de l’autre, faire payer pour écouter sa musique en concert ou sur votre chaîne Hi-Fi. Ces temps sont tous en train de se diluer actuellement. « Si je suis le directeur des programmes de ma propre radio, que devient mon bakchich ? »[7].

Notes

[1] Crédit photo : Notsogoodphotography (Creative Commons)

[2] Radio populaire aux USA

[3] Keller Williams est un chanteur américain un peu « décalé »

[4] Les Deadheads sont des fans du groupe Grateful Dead

[5] Oprah Winfrey est l’animatrice du célèbre talk-show qui porte son nom

[6] Clear Channel est un groupe de médias américains possédant de nombreuses radios et télévisions

[7] Bakchich ou payola dans le texte




« Vous êtes trop cons, je laisse tomber ! »

Nils Geylen - CC by-saDans notre récent billet Du choix risqué du logiciel propriétaire et étranger pour sa défense nationale, nous avions évoqué le cas de Conficker, ce ver informatique qui a récemment affecté (et infecté) bon nombre d’ordinateurs sous Windows.

Carla Schroder a fait sa petite revue de presse autour du sujet[1] et… les bras lui en sont tombés ! À dire vrai, elle en a carrément gros sur la patate. Tout y passe : les journalistes, les militaires, les sociétés d’antivirus, les clients de Microsoft et bien sûr ce « système d’exploitation de merde ».

Ce qui nous donne, vous l’aurez compris, un article coup de gueule et coup de sang un « brin » polémique qui ne manquera pas de faire réagir dans les commentaires[2].

J’abandonne. Windows ou la preuve que les gens sont trop cons pour utiliser des ordinateurs.

I Give Up. Windows Is Proof That People Are Too Stupid To Use Computers.

Carla Schroder – 12 février 2009 – LinuxToday Blog
(Traduction Framalang : Olivier et Don Rico)

Et trop cons ou faux-culs pour reconnaître en Windows l’échec qu’il est vraiment. S’il s’agissait de n’importe quel autre type de produit, on l’aurait banni de tous les pays du monde depuis des lustres. Pour parler de la dernière attaque virale affectant Windows, le ver Conficker, la BBC prend son ton nonchalant habituel, ne le décrit comme un ver spécifique à Windows qu’au bout de plusieurs paragraphes, cite des vendeurs d’antivirus comme si leur avis avait un quelconque intérêt, alors que ce ne sont que des nuisibles, pour finir par rejeter la faute sur les utilisateurs :

« Le ver se répand par les réseaux peu sécurisés, les cartes mémoires et les PC qui ne sont pas à jour (…) Microsoft a fait son travail en protégeant les ordinateurs familiaux, mais le ver continue sa progression dans les entreprises qui ont ignoré la mise à jour (…) Bien sûr, le vrai problème vient des utilisateurs n’ayant pas appliqué le correctif sur leurs ordinateurs », ajoute-t-il.

Veuillez m’excuser, il faut que j’aille me défouler sur quelque chose.

BIEN SÛR que c’est la faute des utilisateurs. Ils continuent à utiliser le pourriciel le plus cher et le plus mal conçu de tout le Système solaire. Mais ses défauts incurables ne leurs sont pas imputables. Abandonnez aussi l’idée que ces utilisateurs puissent être secourus par Linux, nous ne voulons PAS qu’ils utilisent Linux. « It is impossible to make anything foolproof, because fools are ingenious » (NdT : « Il est impossible de concevoir un produit infaillible, car les idiots sont ingénieux » Jeu de mots sur foolproof, infaillible et fool, imbécile).

Quand on parle de logiciels malveillants, ce sont des logiciels malveillants pour WINDOWS, PAS des logiciels malveillants pour les ordinateurs

Les armées américaine et anglaise sont mises à mal par des logiciels malveillants pour WINDOWS. Pas des logiciels malveillants pour ordinateurs, des logiciels malveillants pour WINDOWS. Chers journalistes, prenez note. C’est un fait de la plus haute importance. Je sais à quel point vous détestez les faits et les recherches, je vous l’apporte donc sur un plateau. Ne me remerciez pas. Même Wired, dont on attend pourtant mieux, s’est fendu de ces quelques lignes, du mauvais journalisme de première classe :

« La progression rapide d’un ver au sein du réseau de la Défense donne des sueurs froides aux ingénieurs informaticiens du ministère de la Défense. L’utilisation des clés USB, des CD, des cartes mémoire et de tout autre support de stockage est donc prohibée sur leurs réseaux pour essayer d’enrayer la progression du ver. »

À aucun moment l’article ne fait mention de Windows ou de Microsoft. Ça nous a bien fait marrer quand la Royal Navy a mis Windows sur ses sous-marins il y a tout juste quelques semaines. Mais la plaisanterie a assez duré :

« Le ministère de la Défense a confirmé aujourd’hui qu’il a été victime d’un virus ayant causé l’arrêt d’un "petit nombre" de serveurs de la Défense dont, en particulier, le réseau d’administration des bâtiments de la Royal Navy. »

Ils minimisent évidemment le problème, ne vous faites pas de bile, ce n’est rien de grave, circulez il n’y a rien à voir. Après tout, les têtes nucléaires sont à jour avec le SP4 ou une autre connerie du genre. Et là non plus personne n’évoque le mot tabou Windows.

Des avions de chasse cloués au sol par une infection bénigne, sans importance

Celle-là, elle est à se tordre :

« Des avions de chasse français n’étaient pas en mesure de décoller après que des ordinateurs militaires ont été infectés par un virus… Les appareils étaient dans l’incapacité de télécharger leur plan de vol après que les bases de données ont été infectées par un virus Microsoft malgré une alerte donnée quelques mois auparavant. »

Et là encore le problème est minimisé : « L’échange d’informations a été affecté, mais aucune donnée n’a été perdue. C’est un problème de sécurité que nous avions déjà simulé. » Il faut reconnaître que le reporter a eu le courage de dire Microsoft et Windows. Mais malheureusement c’est encore l’utilisateur qui est pointé du doigt.

Microsoft ameute les troupes !

Je vous ai réservé la meilleure histoire pour la fin. Je n’invente RIEN ! Microsoft elle-même, la plus grosse entreprise de logiciel, connue pour les milliers de milliards de dollars qu’elle a engrangé dans ses coffres-forts, qui dépense des milliards de dollars pour le développement de Windows mais dont les codeurs ne parviennent pas à se sortir de ce pétrin, offre donc une récompense :

Microsoft ameute les troupes pour choper Conficker
« Dans un effort coordonné à l’échelle mondiale pour venir à bout de ce que les experts désignent comme ce qui pourrait être le pire logiciel malveillant, des grands noms de l’industrie, du monde universitaire et des services de police joignent leurs efforts dans la chasse au ver Conficker… Microsoft coordonne des actions visant à arracher la tête du ver – offrant une récompense de 250 000 dollars à quiconque pourrait fournir des informations menant à l’arrestation et à la condamnation des responsables de la propagation de Conficker sur Internet. »

Vous devez vraiment lire cet article, on le croirait extrait du Journal des aberrations. Il nous conte comment cette ligue d’experts s’est mise en branle pour combattre ce ver : vendeurs d’antivirus, services secrets, ICANN, Verisign et les universités. Voici la chute de l’histoire :

« Conficker utilise la fonction Autorun de Windows – celle qui lance automatiquement les CD-Rom ou les DVD quand on les insère dans l’ordinateur.
Autorun facilite la vie des utilisateurs, mais désactiver AutoRun, c’est enquiquinant, d’après Nazario. »

Enquiquinant ? J’ai bien lu ? ENQUIQUINANT ???

Je ne sais pas trop, je suis tiraillé entre l’envie d’utiliser un langage peu châtié et celle de me mettre à pleurer. J’imagine alors que Conficker n’est « qu’un léger désagrément ». Et j’imagine que s’ils finissent pas attraper et punir les auteurs de Conficker, les 36 millions d’autres vers Windows, chevaux de Troie Windows et autres logiciels malveillants Windows disparaîtront tous.

Personne ne rejette la faute sur Microsoft

Faut-il donc être un petit génie pour comprendre que « Tiens, si j’arrête d’utiliser ce système d’exploitation de merde je n’aurai plus ces problèmes ! Tiens, peut-être que le fabricant mérite bien un petit procès pour avoir fait subir au monde cette bouse, une bouse qui a engendré des milliards de dollars de dégâts et qui a mis en danger la sécurité publique ! »

Pensez-vous. Après avoir vu le même scénario se répéter des centaines de fois au cours des 13 dernières années, tout ce qu’on peut en conclure, c’est que :

  • Les journalistes sont des crétins.
  • Les militaires sont des crétins.
  • L’industrie des antivirus n’est qu’un énorme parasite qui se satisfait bien de son inefficacité.
  • Les clients de Microsoft sont des crétins.
  • Tout le monde est corrompu… des corrompus bon marché qui plus est.

La seule hypothétique lueur d’espoir que nous ayons, c’est que les milliers de vers Windows vont se mettre en guerre les uns contre les autres et détruiront chaque machine Windows sur Terre. Mais le remède ne serait que de courte durée, car même après un holocauste nucléaire Windows la première chose que les gens feraient serait de se relever, de s’épousseter et d’essayer de redémarrer leur machine pour voir si ça ressuscite leur système.

Notes

[1] Pour comparer, voici une revue de presse francophone (by Google) parlant de Conficker. Est-ce mieux décrit que ce qu’évoque Carla ?

[2] Crédit photo : Nils Geylen (Creative Commons By-Sa)




Plus de 100 vidéos autour du Libre avec Framatube et Blip.tv

La cola de mi perro - CC byFramatube, contraction pas forcément heureuse mais en tout cas signifiante de Framasoft et YouTube, a récemment franchi le cap symbolique des 100 vidéos (104 pour être précis), presque toutes en français ou sous-titrées, offrant par là-même un catalogue « spécialisé » qui pourra être utile à toute personne souhaitant s’informer et diffuser la « culture » et « l’état d’esprit » du logiciel libre, pris au sens large (et nébuleux) du terme.

Bien que toujours considéré en version bêta, nous le faisons aujourd’hui « sortir de l’ombre » pour vous le présenter plus en détail[1].

En version courte et flash

Si vous êtes un lecteur ou un webmaster pressé, et que le format flash ne vous fait pas peur, vous pouvez tout de suite visiter cette page pour avoir l’occasion de toutes les visionner d’un coup à même notre lecteur embarqué (dont vous obtiendrez le code pour en faire de même sur votre propre site si d’aventure vous le souhaitiez). Vous pouvez également sauter tout notre « inutile verbiage » pour accéder directement à une petite sélection bien sentie de ce que l’on pourrait tout aussi improprement qualifier de « Web TV du Libre » du réseau Framasoft.

Mais, comme nous le verrons ci-après, il est aussi possible (et conseillé) de se rendre sur notre compte hébergé par blip.tv.

Le choix blip.tv

À l’origine il s’agissait de stocker et d’archiver les vidéos présentées sur le Framablog. On avait commencé par les héberger sur nos propres serveurs mais par souci de charge (et d’économie de moyens) on a préféré externaliser le service en ouvrant donc un compte sur la plate-forme blip.tv.

Soit dit en passant ce point de départ explique également le caractère quelque peu éclectique de la sélection. Il n’y a pas eu volonté méthodique de référencer toutes les vidéos évoquant le logiciel libre francophone. Cela s’est fait petit à petit en fonction des sujets mis en ligne sur le blog.

Toujours est-il que pourquoi blip.tv et non pas YouTube ou Dailymotion ?

Pour plusieurs raisons à cela.

  • Blip.tv reconnait et sait convertir le format libre Ogg Theora, on peut donc uploader directement dans ce format.
  • Au delà du streaming en flash, blip.tv propose explicitement le téléchargement, non seulement au format flash (.flv) mais aussi au format d’origine, donc pour ce qui nous concerne le Ogg. Ceci permet aux visiteurs qui ne possèdent pas le plugin flash de ne pas être pénalisés.
  • Blip.tv fait mention explicite de la licence des vidéos (lorsque l’on met en ligne une vidéo, il est en effet proposé un champ spécifique où figure par exemple toute la panoplie des Creative Commons).

À ma connaissance, tout ceci est absent des YouTube et autres Dailymotion. Même si l’un (voir ce billet) comme l’autre (site en Ogg dédié au projet OLPC) ont fait quelques progrès récemment. Le plus choquant restant l’absence de mention des licences qu’il aurait été facile d’inclure mais qui aurait alors posé quelques cas de conscience aux utilisateurs, quitte à ce qu’ils choisissent finalement de ne pas uploader la vidéo (ceci expliquant donc cela et aboutissant au fait qu’on trouve un nombre hallucinant de vidéos diffusées illégalement sur ces plate-formes).

Et puis il y a aussi tout ce qui tourne autour de quelque chose que l’on pourrait appeler la confiance. Les « Termes de services » contractés en vous inscrivant à la plate-forme sont plutôt clairs chez blip.tv (voir plus bas) et plutôt confus chez les autres (et je ne vous parle même pas des affres actuelles des utilisateurs, quelque part un peu naïfs, de Facebook). YouTube a ainsi récemment, et sans crier gare, fait apparaitre un moteur de recherche interne à même son lecteur embarqué (quand on passe la souris dessus, c’est très pénible à l’usage). Cela reste gentillet mais que se passera-t-il si un jour ils décident de mettre quelques secondes de pub au démarrage ? Ce sera assurément le pactole avec toutes les vidéos YouTube qui traînent sur des millions de blogs (et, même si ce n’est pas très « courtois » ce genre de petites manipulations doit être certainement prévues dans le « contrat que personne ne lit »). J’ajoute que sur blip.tv, on ne vient pas nous dire « Essayez YouTube dans un autre navigateur Web, téléchargez Google Chrome ».

Sur blip.tv, on lit plutôt ceci :

Nous croyons que le fruit de votre dur travail doit vous appartenir. Quand vous mettez en ligne sur blip.tv vous nous donnez le droit de distribuer votre vidéo tant que vous ne choisissez pas de la supprimer de notre système. Vous n’avez à nous céder aucun droit d’exclusivité, et nous ne vendrons pas votre œuvre, ni ne ferons de la publicité pour celle-ci sans votre autorisation expresse.

Mais surtout cela :

Nous sommes des adeptes convaincus des licences copyleft, telle que Creative Commons les propose. Nous incitons tout le monde à examiner les licences Creative Commons et à les adopter. Chaque vidéo publiée sous licence copyleft enrichit la création collective de façon significative.

Nous vivons à une époque que les historiens qualifieront de démocratisation de l’expression. Tandis qu’autrefois la production et la diffusion des médias étaient concentrées en quelques mains, maintenant elles sont partout : chacun peut proposer un spectacle, une ressource éducative, une expertise. Les contraintes traditionnelles imposées par les coûts de production élevés et la distribution restreinte n’existent plus : maintenant n’importe qui disposant d’une caméra et d’un ordinateur peut produire du contenu vidéo, la seule contrainte est celle qu’imposent les limites de la créativité humaine. Les utilisateurs de blip.tv ont démontré que de telles limites n’existaient pas.

Nous pensons que la libération des moyens de production est une des des choses les plus importantes qui soit arrivée dans l’histoire récente. Elle permet à tout le monde de créer la prochaine comédie géniale, de partager la réalité de la vie quotidienne par-delà les différences culturelles, d’échanger des points de vue politiques et des ressources éducatives. C’est une très bonne chose, et nous nous consacrons à élargir encore cette démocratisation d’une façon qui respecte toujours les droits à la propriété intellectuelle, sur une plateforme où chacun puisse se sentir à l’aise.

Nous sommes pour une nouvelle économie de l’abondance. Il n’est plus dans l’intérêt de quiconque de mettre des chaînes aux médias, de les attacher à un site Web particulier, ou d’être pieds et poings liés à des métadonnées. Nous ne construisons pas un jardin entouré de murailles, nous travaillons activement à faire tomber les murailles pour permettre la libération et le partage ouvert des médias et des contenus des médias sur le Web.

À comparer avec la philosophie générale de la prochaine loi « Internet et Création »…

Merci pour eux donc. J’aurais pu aussi évoquer le fait qu’avec blip.tv vous pouvez dans le même mouvement uploader chez eux mais aussi sur le beau projet qu’est Internet Archive, mais, bon, j’arrête là, on pourrait croire que je suis un VRP de blip.tv 😉

Framatube chez blipt.tv : petit mode d’emploi illustré

Comme cela a été mentionné plus haut, vous pouvez lire les vidéos ou les embarquer via notre lecteur flash disponible sur cette page. Mais se rendre directement sur notre compte blip.tv et y feuilleter le catalogue offre plus d’informations et d’options.

Voici comment se présente une page vidéo sur notre compte blip.tv. Il s’agit en l’occurrence du récent clip Firefox in Motion (découvert of course chez Tristan Nitot).

Copie d'écran - Framatube - Blip.tv

On notera que l’on peut donc embarquer les vidéos une par une plutôt que la « télévision » entière.

Simple et pratique. Sans oublier que vous pouvez vous abonner au flux Framatube de différentes façons :

Firefox 3.1 et sa nouvelle balise vidéo

Nous avons évoqué la prochaine version de Firefox, que nous attendons en version stable avec impatience, dans deux récents billets : Quand Mozilla participe à la libération de la vidéo et Building the world we want, not the one we have.

Retenons que nous pourrons alors lire les vidéos au format Ogg directement dans Firefox sans avoir besoin du moindre plugin. Il suffira, pour le webmaster, d’insérer quelque chose qui ressemblera, en version minimaliste, au code (en HTML 5) suivant :

 <video> <source src="http://framasoft.blip.tv/ma-super-video.ogg"></source> </video> 

(Pour de plus amples informations lire par exemple ce billet de Laurent Jouanneau)

Autrement dit, toutes « nos » vidéos disponibles au format Ogg sur blip.tv pourront être reprises directement par les autres sites, sans passer par la case flash et sans nécessiter de téléchargement pour le visiteur sous Firefox 3.1. Plutôt intéressant non ! Imaginez-vous par exemple, muni de votre Framakey et sa version portable de Firefox 3.1, montrant à votre assistance médusée quelques vidéos issues de Framatube se lançant directement depuis la navigateur, ça peut faire son petit effet…

Intérêt de Framatube

Outre l’avantage pour ce blog, et par extension pour tout le réseau de sites et de projets Framasoft, de proposer des vidéos qui ne tirent pas sur ses serveurs (mais sur celui de blip.tv), il n’est pas forcément inintéressant d’avoir ainsi centralisé de nombreuses ressources vidéos francophones autour du logiciel libre (ressources que nous comptons bien continuer à mettre à jour, voir plus bas le paragraphe qui invite à y participer avec nous).

  • Le visiteur y trouvera matière à s’informer et se tenir au courant de l’actualité francophone en la matière (s’abonner au flux RSS peut être alors judicieux).
  • Le webmaster y puisera les vidéos de son choix dans le format de son choix et participera ainsi à la diffusion du contenu de Framatube, c’est-à-dire « le logiciel libre et son état d’esprit ».
  • Le « conférencier » y cherchera quelques ressources pour une intervention publique (pris au sens large, ça peut être tout aussi bien un éducateur, un associatif sur un stand, un atelier de LUG, un cinéma indépendant, etc.).

Il y aurait également un intérêt « sociologique », mais je marche sur des œufs là, en frisant la condescendance. Mon sentiment de prof, c’est que l’on se retrouve avec toute une catégorie d’internautes, appelons-la « génération YouTube », qui lisent peu (ou en tout cas vite et surtout pas trop long) mais consomment beaucoup de vidéos. Les mêmes, en gros, qui passaient beaucoup de temps devant la télévision avant l’avènement d’Internet. Il y a peut-être moyen ici d’arriver à les toucher pour leur proposer ponctuellement autre chose que les clips people et autres vidéogagueries à la chauffeur de buzz pour les sensibiliser à « nos » problématiques de libertés numériques (qui finissent par devenir des libertés tout court).

Une petite sélection

Vous trouverez la liste de toutes les vidéos, non seulement dans le player mais surtout sur notre compte blip.tv.

Dans la mesure où certaines vidéos n’ont pas pu, faute de temps, être présentées ici, dans la mesure où certains lecteurs du Framablog sont de nouveaux lecteurs (bienvenus, l’abonnement au flux RSS fait office de carte de fidélité), nous vous en proposons ci-dessous une petite sélection, bien entendu non exhaustive, puisque comme cela a été dit nous dépassons désormais la centaine.

Qu’il me soit permis de remercier vivement au passage le travail de JosephK qui aura patiemment converti la quasi-totalité des vidéos au format Ogg.

Conférences « ça, c’est du lourd ! »
  • Michel Serres – La révolution culturelle et cognitive engendrée par les nouvelles technologies
  • Thierry Stœhr – Et les formats ouvœrts
  • Benjamin Bayart – Internet libre ou Minitel 2.0 ? Vous ne l’avez pas encore vue ?
  • Richard Stallman – Parce qu’il faut bien en avoir vue au moins une !
  • Eben Moglen – Le logiciel et la communauté (ma préférée, vous ne l’avez pas encore vue ?)
  • Tim Morley – Espéranto et logiciel libre
Politique (ou apparenté)
  • [Obama et l’Open Source|http://framatube.org/media/cnn-obama-et-lopensource – Le modèle bottom-up et la référence au livre La cathédrale et le bazar
  • Citation de Jacques Attali – Révélatrice ?
  • Michel Rocard – À propos de Ségolène et… des logiciels libres !
  • Jérôme Relinger – PC et adjoint au Maire du 13e arrondissement de Paris
  • François Bayrou – Sa pertinente et éloquente vision des deux mondes
Communauté
  • Ubuntu – Christophe Sauthier, président de l’association francophone
  • Linux à Perpignan – Un exemple exemplaire de diffusion territoriale du logiciel libre
Free Culture
Éducation
Vu à la télé
Pause publicitaire
Les inclassables
Framasofteries

Voilà, c’est déjà pas mal ! Et n’oubliez pas bien entendu de vous rendre régulièrement sur les sites qui non plus diffusent mais directement produisent des vidéos. Je pense par exemple au dépôt de l’APRIL, à Kassandre, Ralamax ou encore Lprod (à compléter dans les commentaires).

Participer au projet Framatube

Si vous trouvez ce projet un tant soit peu pertinent et utile, vous êtes cordialement invité à vous joindre à nous. Nous sommes toujours en sous-effectif chronique (et toujours contents de faire de nouvelles rencontres). Pour ce faire il suffit de nous envoyer un message.

Ce ne sont pas les besoins qui manquent en effet. Il conviendrait d’abord d’améliorer les descriptions souvent trop succinctes des vidéos (il manque ainsi presque systématiquement pour le moment la mention de la source) mais également d’exercer un travail de veille pour évaluer les vidéos « candidates », sans oublier les éventuelles tâches techniques de conversion, montage, etc.

Merci de votre attention, de votre éventuelle participation et n’hésitez pas à nous proposer, dans les commentaires, des vidéos non référencées susceptibles de venir grossir le rang de notre canal (quitte à ce qu’elles ne soient pas en français mais tellement intéressantes que ça vaille le coup de déclencher la « procédure Framalang » de transcription, traduction, sous-titrage).

Notes

[1] Crédit photo : La cola de mi perro (Creative Commons By)




Le jour où le Web refusa le navigateur Internet Explorer 6

Schmorgluck - CC by-saMon titre est un peu accrocheur et inexact mais il témoigne d’un mouvement d’origine norvégienne de ras-le-bol généralisé vis-à-vis d’Internet Explorer 6, le navigateur de Microsoft véritable cauchemar vivant de tout webmaster un tant soit peu respectueux des standards.

Si tu ne vas pas à Lagardère, Lagardère ira à toi ! C’est ce que sont un peu en train de se dire un certain nombre de gros sites norvégiens qui invitent les visiteurs malencontreusement restés sur cette version de ce navigateur à soit passer à la version 7 (bien), soit envisager d’autres alternatives telles Firefox, Safari et Opera (mieux)[1].

Des sites norvégiens déclarent la guerre à IE 6

Norwegian Websites Declare War on IE 6

Michael Calore – 19 février – Wired Blog
(Traduction Framalang : Simon Descarpentries)

Plusieurs importants sites web norvégiens ont lancé une campagne de sensibilisation en direction des utilisateurs de Microsoft Internet Explorer 6, les encourageant à mettre à jour leur navigateur obsolète.

À l’origine de cette action, on trouve Finn.no, un site web semblable à eBay, apparemment le plus gros site de vente et d’achat d’occasions en Norvège, Finn étant le norvégien de « trouver » (NdT: « Find » et anglais). Un peu plus tôt cette semaine, Finn.no posta un avertissement sur son site à l’intention des visiteurs utilisant IE6. La bannière, affichée à droite, les presse d’abandonner IE6 et de passer à la version suivante, Internet Explorer 7.

Bon nombre d’autres sites, tels que l’influent journal hightech Digi.no ont rejoint la campagne, mais en élargissant le terrain de jeu à d’autres navigateurs, suggérant aux utilisateurs de passer soit à IE7 soit à une autre alternative comme Firefox, Safari ou, bien sûr le navigateur norvégien Opera.

Le phénomène est en train de s’étendre à d’autres pays.

Des sites en Suède, en Indonésie et en Australie se joignent au mouvement. Le blogueur norvégien Peter Haza fait le décompte des participants, et un wiki international, appelé « IE6 – DO NOT WANT » (NdT : On n’en veut pas !) a été mis en place pour garder la trace des actions navi-cides (tueuses de navigateur). Il y a également un groupe sur Facebook.

Même Microsoft supporte la campagne. Le site norvégien d’actualité « Teknisk Ukeblad » rapportait mercredi les paroles suivantes d’Alveberg Isabella de Microsoft Norvège : « Nous espérons bien sûr que nos utilisateurs nous suivent avec Internet Explorer 7 ».

IE6, sorti en 2001, est le fléau des programmeurs web, des designers, et des équipes de support de service web. Le navigateur est bourré de bizarreries (NdT : non respect des standards) qui le rendent incapable d’interpréter les pages de la même manière que les autres navigateurs, et les webmestres doivent donc toujours prévoir des exceptions pour s’adresser aux utilisateurs d’IE6.

La plupart d’entre eux souhaiteraient simplement que ce navigateur disparaisse, les libérant ainsi de son support. Les chiffres varient d’un pays à l’autre, mais il reste entre 10% et 20% d’internautes utilisant IE6 de par le monde, certains par méconnaissance d’un meilleur navigateur, d’autres parce que le logiciel leur est imposé par leur entreprise. Finn.no note que 17% de ses utilisateurs utilisent IE6. De telles proportions sont trop importantes à l’heure actuelle pour être ignorées par les concepteurs de site web.

Cette protestation anti-IE6 se joue dans l’ombre de l’examen de Microsoft par la commission européenne à la concurrence. La commission, stimulée en décembre 2007 par la plainte d’Opera Software, s’interroge sur les pratiques de Microsoft consistant à livrer IE pré-installé avec Windows sur les ordinateurs de bureau. La commission est en train de statuer sur l’opportunité de forcer Microsoft et ses revendeurs européens à offrir aux utilisateurs le choix d’installer un ou plusieurs navigateurs, lors du premier démarrage d’une machine fraîchement achetée.

Notes

[1] Crédit illustration : Schmorgluck (Creative Commons By-Sa)




Chapprouve ce contrat de licence !

L’ubunteros Anne Loucks est facétieuse. Fatiguée d’avoir à accepter, par succession de clics, ces contrats de licence utilisateur (ou CLUF) de logiciels propriétaires que personne ne lit, elle a lâchement décidé que dorénavant ce serait Simba qui signerait à sa place.

Le problème c’est que, comme Socrate, Simba est un chat. Nous voici donc devant un très dangereux vide juridique qui ne manquera pas d’interpeller Maître Eolas et nos spécialistes de Veni Vidi Libri.

Un chat d’agrément

The Agreeable Cat

Anne Loucks – février 2008
(Traduction Framalang : Olivier)

Combien de fois vous êtes-vous retrouvé à faire défiler un contrat de licence comme celui-ci, tiré du site Web d’Adobe :

The Agreeable Cat

Les gens ont pris la (mauvaise) habitude de simplement cliquer sur « Accepter » sans même lire les termes du contrat. Je comprends tout à fait cette attitude. Lire un CLUF, c’est une perte de temps. « Bla bla bla… en acceptant ce contrat vous déclarer céder votre premier-né… bla bla bla… vendez votre âme… » etc.

J’ai trouvé une merveilleuse solution à ce problème. Mon chat, Simba, accepte le contrat à ma place. N’étant pas reconnu légalement, j’ignore si l’accord d’un minou vaut quelque chose face à un juge, mais en supposant que cet accord soit valable, je pense que c’est lui qui serait responsable de tout manquement aux termes du contrat. D’un autre côté il n’est même pas majeur, du moins en âge humain.

The Agreeable Cat

Alors d’abord il faut trouver un moyen pour amener Simba à pousser sur le bouton. Je me sers d’un morceau de carton sur lequel j’ai collé une surépaisseur pour appuyer sur la barre d’espace, dans la plupart des cas c’est suffisant pour appuyer sur un bouton à l’écran après que vous l’ayez activé avec la touche TAB.

The Agreeable Cat

Ensuite je le place correctement au dessus du clavier de mon ordinateur.

The Agreeable Cat

Et enfin j’attire Simba sur la plateforme en carton en lui faisant miroiter des caresses.

The Agreeable Cat

C’est gagné ! Il a appuyé sur le bouton de sa propre initiative. Ok, il y a été indirectement contraint et il a reçu une récompense, mais concrètement, personne n’a forcé mon chat à appuyer sur ce bouton et à se lier à ce contrat de licence. En tout cas on sait qu’il n’y a pas été contraint par la menace.

The Agreeable Cat

C’est parti, le téléchargement est lancé et je ne me suis engagé à rien.

Cette stratégie est également applicable avec un petit chien, un enfant (de préférence celui du voisin) ou n’importe quel ingénieux petit appareil permettant d’appuyer sur les boutons en fonction du vent dans les branches des arbres. C’est pas moi, c’est Mère Nature qui a appuyé, promis !

Qui sait quelle valeur un tel argument aurait au tribunal, et après tout, est-ce vraiment important ? Les CLUF sont une vaste plaisanterie à la base car elles ne sont pas signées physiquement. Mais si vous n’êtes pas sûr de la légalité de ce que vous faites avec vos logiciels, peut-être que votre chat sera tout aussi enchanté que le mien d’avoir à appuyer sur ce bouton.




Wikipédia et éducation : un exemple de réconciliation 2/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage de l’enseignant qui est ici présentée.

Copie d'écran - Wikipédia - Jon Beasley-Murray

Introduction de Wikipédia dans les salles de classe : le loup est-il dans la bergerie ?

Was introducing Wikipedia to the classroom an act of madness leading only to mayhem if not murder?

Jon Beasley-Murray – avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Réflexions sur l’utilisation de Wikipédia dans le cadre du cours SPAN312 à l’Université de la Colombie Britannique, « Murder, Madness, and Mayhem: Latin American Literature in Translation » (NdT : « Meurtre, Folie et Chaos : la littérature latino-américaine en mouvement »), printemps 2008.

Wikipédia : mal aimée mais omniprésente dans l’éducation

Tel un membre non invité, Wikipédia s’aventure aujourd’hui très près du monde universitaire. Les objectifs de Wikipédia sont éminemment académiques : l’encyclopédie se focalise sur la collecte, le traitement, l’enregistrement et la transmission du savoir. À en juger par le nombre d’articles et de lecteurs, elle a particulièrement bien réussi à encourager une culture de curiosité intellectuelle. Elle est pourtant régulièrement sujette aux critiques formulées par les universitaires eux-mêmes.

Et pourtant tout le monde en fait usage d’une manière ou d’une autre, même si c’est difficile à admettre. Et surtout, nos étudiants l’utilisent, ouvertement ou non (puisqu’on leur impose souvent de ne pas citer les articles de Wikipédia dans leurs travaux), mais sans nécessairement en connaître véritablement le fonctionnement. On leur dit que l’usage de Wikipédia n’est pas conseillé, mais on leur dit rarement pourquoi, alors qu’eux la voient comme une ressource incroyablement utile.

La consigne : créer un « Article de Qualité »

J’ai décidé de faire de Wikipédia un axe central d’une matière que j’enseignais, en pensant que c’est seulement en y contribuant activement que les élèves découvriraient ses points faibles et ses points forts. J’avais aussi en tête l’idée qu’ils pourraient par la même occasion améliorer les articles dans un domaine qui à mes yeux manquait cruellement de contenu, en l’occurrence la littérature latino-américaine.

Wikipédia devait être un point important du cours mais sans en être pour autant l’essentiel. Ce n’était pas un cours sur Wikipédia mais, comme mes autres cours, il devait plutôt se concentrer sur l’Amérique Latine ainsi que sur la lecture d’un corpus de textes littéraires d’Amérique Latine. Dans ce cours intitulé « Murder, Madness, and Mayhem » (NdT : Meurtre, Folie et Chaos), les textes choisis comportaient une série de romans sur la dictature de la période du dix-neuvième siècle avec l’argentin Domingo Faustino Sarmiento jusqu’à l’époque contemporaine avec certains des auteurs d’Amérique Latine les plus en vue comme Gabriel García Márquez et Mario Vargas Llosa. Ces livres n’étant ni simples ni courts, les étudiants devaient passer une bonne partie de leur temps personnel à la lecture, la majeure partie du temps en classe étant consacrée aux explications et à la discussion.

Wikipédia n’était que peu abordé durant les cours. La tâche qui leur était assignée était plutôt d’éditer (ou, dans deux cas, de créer), en groupe, les articles de Wikipédia se rapportant aux œuvres et aux auteurs étudiés. Au cours de la session ils devaient réussir à faire obtenir à ces articles ce qu’on nomme dans le jargon Wikipédia le grade d’Article de Qualité.

Lorsque je leur ai assigné cette tâche je ne réalisais pas à quel point c’était ambitieux. Wikipédia définit un Article de Qualité comme un article qui « représente ce que l’on peut de trouver de mieux, et qui répond à des standards professionnels d’écriture et de présentation ». Et ces standards placent de fait la barre très haut. C’est manifestement un des paradoxes de Wikipédia : ses standards sont irréprochables alors même que la majeure partie de son contenu en est fort éloigné. Pour vous donner une idée, moins de 0,1% des articles de Wikipédia possèdent le label Article de Qualité.

En effet, alors que Wikipédia a déjà fait l’objet de nombreux projets pédagogiques au sein d’universités aussi dispersées que celles de Sydney, Hong-Kong, Minnesota et Leiden, c’était à ma connaissance la première fois qu’on demandait explicitement à des étudiants de créer des Articles de Qualité.

Considérations initiales : les avantages de Wikipédia

En plus d’enseigner (même indirectement) aux étudiants les faiblesses et les forces de Wikipédia et en même temps (peut-être incidemment) d’améliorer le contenu de l’encyclopédie concernant l’Amérique Latine, d’autres raisons plus positives venaient étayer ce choix de travail.

L’idée que les étudiants se lançaient dans un projet concret ayant des effets tangibles et publics, à défaut d’être éternels, me plaisait. Après tout, une dissertation ou un examen est un parfait exemple de travail inutile : souvent rédigé à la hâte pour un lecteur unique, le professeur, et ensuite mis de côté.

Je trouve regrettable qu’à de rares exceptions près, comme par exemple dans les ateliers d’écriture, les étudiants ne soient pas plus encouragés à relire et à réfléchir à leur propre travail, où trop souvent ils ne font que jeter un coup d’œil aux commentaires que le professeur aura laborieusement griffonné. C’est compréhensible, puisqu’ayant à ce stade très peu de chances de pouvoir retravailler leur devoir, ils ne s’intéressent alors qu’à leur note et c’est tout. Les étudiants ne découvrent que rarement l’importance des corrections dans un bon travail d’écriture. Alors qu’au contraire, sur Wikipédia, les corrections font (presque) tout : les contributeurs sont appelés « éditeurs » justement parce que leurs écrits sont en permanence au stade de la correction.

De plus ils participeraient à l’élaboration de pages qui, pour certaines (l’article sur Gabriel García Márquez par exemple), reçoivent plus de 60 000 visiteurs par mois. Même les articles les moins visités sur lesquels ils travaillaient recevaient plusieurs centaines de visites par mois. Ici ils écrivaient des articles pour un lectorat ayant la possibilité rare de répondre, de ré-écrire et de commenter le contenu qu’ils produisaient. En effet, travailler sur Wikipédia ouvre la porte au travail collaboratif : les étudiants devaient non seulement collaborer entre eux, mais aussi avec d’autres éditeurs ou des wikipédiens qu’ils ne rencontraient que sur le wiki.

Pour finir, l’idée même que l’attribution de la note soit extérieure à la classe m’attirait. L’idée que le travail soit jaugé à l’aune de son impact et non par le jugement personnel d’un professeur (aussi professionnel soit-il) me plaisait. Dès le départ, j’ai établi avec eux que les groupes qui réussiraient à faire obtenir à leur article la mention Article de Qualité seraient notés A+, c’est aussi simple que ça. Ceux qui atteignaient la mention Bon Article (la barre est placée moins haut, mais les Bons Articles ne représentent tout de même que 0,15% de tous les articles de Wikipédia en anglais) recevraient un A. La note pour ce devoir, en d’autres termes, serait déterminée par l’appréciation collective et publique des autres auteurs.

Considérations initiales : pièges potentiels

J’avoue que je n’ai pas beaucoup pris en considération les écueils de ce plan. Je reconnais que c’était un peu une expérience, mais la tenter me rendait enthousiaste. Ce n’était de toute façon pas le seul point sur lequel le cours serait noté et l’évaluation ne reposerait pas entièrement dessus : les étudiants devaient également tenir à jour un blog hebdomadaire sur leurs lectures et rendre deux devoirs, un à mi-session et un autre à la fin.

(En fin de compte le devoir de fin de session a été abandonné à la majorité des 2/3 de la classe après un vote des étudiants à bulletin secret : 85% d’entre eux ont voté pour l’annulation du devoir final et pour un plus gros coefficient du travail sur Wikipédia.)

J’avais surtout peur que les étudiants soient pris dans une guerre d’édition non constructive et potentiellement décourageante. Une guerre d’édition est un débat sans fin entre des éditeurs qui n’arrivent pas à s’accorder sur le contenu de l’article. Comme dans beaucoup d’interactions en ligne, ces désaccords deviennent rapidement désagréables et provoquent l’intervention d’un administrateur de Wikipédia qui peut décider de « bloquer » l’un des individus impolis, voire les deux. Je n’étais que trop conscient de ce problème puisque dans mes tentatives d’exploration de Wikipédia quelques mois avant de donner ce cours, je me suis retrouvé (plutôt par inadvertance) pris dans de telles guerres, et je me suis fait bloquer pendant quelque temps.

C’est toujours un peu risqué d’amener les étudiants à interagir directement avec la sphère publique. Et, d’une certaine manière, nous devons veiller sur eux. C’est peut-être la raison pour laquelle tellement de technologies de l’éducation (dont WebCT est le meilleur exemple) sont hermétiquement isolées du « monde réel ». Et ça ne serait pas très productif si l’un de mes étudiants se retrouvait bloqué et ne pouvait pas poursuivre son travail ! J’ai donc croisé les doigts en espérant que cette éventualité ne se présente pas.

Premiers pas : « notre » projet se met en route

Wikipédia ne m’était pas totalement inconnue puisque j’avais déjà à mon actif de nombreuses éditions d’articles et même quelques créations (même si ces derniers n’étaient rien d’autre que des ébauches, des versions courtes et préliminaires). Mais jusque là je n’avais pas encore travaillé de manière durable sur un article de Wikipédia. Et bien que j’avais quand même un sentiment de familiarité ainsi qu’un certain sens de la culture Wikipédia, j’avoue que j’étais malgré tout (et le suis d’ailleurs toujours) perplexe devant certains des détails les plus impénétrables des techniques et procédures de ce qui est maintenant devenu une gigantesque et labyrinthique entreprise.

D’un autre côté, cela m’a permis de comprendre l’intimidation que les élèves ne manqueraient pas de ressentir devant la tâche qui se présentaient à eux. Seuls un ou deux étudiants avaient déjà fait des modifications sur Wikipédia et ils étaient peu nombreux à montrer des signes de familiarité avec les conventions du Web. Et ne parlons même pas du code spécifique à Wikipédia (même si celui-ci est simplifié). Je crois que je peux comprendre leur étonnement quand, ayant cliqué pour la première fois sur le bouton « Modifier », ils sont tombés sur une masse confuse de gribouillis caractéristiques des logiciels de wiki.

Pour poser les bases du projet et obtenir du soutien, j’ai enregistré le projet sur une page Wikipédia dédiée à ce genre de choses, j’ai fait apparaître sur tous les articles du projet qu’ils faisaient partie d’une tâche pédagogique, et j’ai démarré une « page projet » décrivant nos objectifs. J’ai aussi laissé des messages sur d’autres projets Wikipédia jugés connexes (principalement des groupes d’éditeurs de Wikipédia qui se concentrent sur un sujet particulier comme par exemple la littérature ou l’Amérique du Sud); j’ai même laissé un mot au journal maison de l’encyclopédie, le Wikipédia Signpost (NdT : le Wikimag en français). J’ai ensuite présenté le projet à la classe, demandé aux étudiants de se créer un compte sur Wikipédia et j’ai croisé les doigts pour que ça marche.

Vous avez peut-être remarqué que je parle de « notre » projet et de « nos » objectifs. J’essaie en général d’inclure tout le monde quand je parle en classe : « nous » lisons les textes « ensemble  », « nous » essayons de comprendre comment les interpréter. Mais ici la sensation était presque palpable : dès le départ je sentais que je faisais aussi partie du projet, sentiment qui n’ira qu’en s’amplifiant dans les semaines suivantes.

Leçon numéro 1 : « ceci pourra être effacé »

Assez rapidement, quand tout le monde fut censé s’être enregistré et avoir commencé à jouer un peu avec les modifications, j’ai apporté mon ordinateur en cours et j’ai présenté les bases aux étudiants. Raccordé à un vidéoprojecteur, je leur ai montré sur grand écran où se trouve l’onglet « Modifier », comment faire une modification mineure (en changeant un mot sur la page Wikipédia de notre université) et comment faire une modification majeure (en vaporisant un article associé à l’université qui était manifestement un plagiat d’un autre site Web).

Un élève m’a par la suite demandé de leur montrer comment créer une nouvelle page. Deux des articles sur lesquels ils travaillaient n’existaient pas alors et j’ai alors décidé de créer El Señor Presidente, dont le seul contenu initial était : « El Señor Presidente est le titre d’un roman de Miguel Ángel Asturias ». J’ai ensuite poursuivi sur d’autres pages avant de revenir à celle-ci quelques instants plus tard… et c’était tout pour la première leçon. Sauf que, à mon grand embarras (et devant la classe entière) j’ai découvert qu’en à peine une minute d’autres éditeurs de Wikipédia avaient déjà collé une énorme bannière rose sur notre tout frais nouvel article avec la mention suivante : « Cette page est susceptible de remplir les critères de Wikipédia pour suppression rapide ». « Les salauds ! » murmurai-je dans ma barbe et je me suis dépêché de modifier le contenu de l’article pour y afficher « El Señor Presidente est le titre du roman le plus important du romancier, lauréat du prix Nobel, Miguel Ángel Asturias », inquiet que notre petit projet se fasse torpiller à peine commencé.

Si j’avais voulu montrer aux étudiants que la modification de Wikipédia est un exercice de négociation avec l’entière communauté d’éditeurs et de lecteurs, je n’aurais pas pu mieux choisir mon exemple. J’ai découvert (depuis) que pour d’autres projets pédagogiques sur Wikipédia, les étudiants sont souvent encouragés à faire un brouillon de leurs articles à l’abri des regards et de les enregistrer sur les pages publiques uniquement lorsqu’ils sont prêts à affronter un examen général. Ici tout était exposé et ouvert dès le début. Mais je n’ai aucun regret. C’est en effet là que le projet a puisé certains de ses meilleurs atouts.

La FA-Team : synergies, du bon et du mauvais

Mais on a rapidement eu un gros coup de chance, alors même que les messages que j’avais envoyés aux différents projets Wikipédia pré-existants semblaient lettre morte (la plupart, d’après ce que j’ai pu voir, étant enterrés ou plus souvent simplement débordés). Il s’est en effet trouvé qu’un groupe d’éditeurs expérimentés de Wikipédia avait commencé à lancer des idées pour augmenter le nombre d’Articles de Qualité sur Wikipédia. Ils se sont baptisés la « FA-Team » (NdT : L’équipe des Articles de Qualité, FA pour Featured Articles) et cherchaient alors un projet auquel participer. Or ils « nous » ont repéré et nous ont écrit pour savoir si nous désirions un coup de main.

Est-ce que nous désirions un coup de main ? Évidemment !

La FA-Team s’est répartie les articles du projet, ils ont laissé des messages d’accueil sur la page de discussion de chaque étudiant (les pages personnelles spécifiques à chaque utilisateur enregistré de Wikipédia et qui fonctionnent comme des pages où les éditeurs peuvent entrer en contact directement avec l’utilisateur) et ils ont débuté leur mission d’encouragement, de conseil et de guide auprès de notre groupe afin de nous pousser à rédiger des articles de Wikipédia de haut niveau. Ce sont des gens très méticuleux, dévoués, et par dessus tout généreux.

Je réalise maintenant que la FA-Team nous a fait la démonstration de la plus grand force (et peut-être aussi la plus grande faiblesse) de Wikipédia : la synergie. Les éditeurs de Wikipédia sont attirés par l’activité. J’irai même plus loin : ils sont particulièrement attirés par l’activité qui aboutit à l’ajout de contenu nouveau à l’encyclopédie. Un bon exemple de cette attraction est l’avertissement que j’ai reçu après avoir créé une page : il existe un noyau de volontaires de Wikipédia qui scrute sans cesse la création de nouvelles pages, prêts à se jeter dessus si un sujet déplacé ou non-encyclopédique est proposé. N’importe qui peut créer une page Wikipédia, mais si vous en créez une sur vous, votre petit groupe de musique ou votre chat, attendez vous à la voir disparaître sans avoir le temps de dire ouf.

De même, beaucoup de personnes émettent des critiques à l’encontre de Wikipédia, la plus connue étant peut-être celle du comédien américain Stephen Colbert, justement parce que n’importe qui peut ajouter n’importe quelle bêtise à un article. Mais je crois que ces personnes ne réalisent pas que des équipes dévouées de wikipédiens surveillent les modifications récentes pour éliminer rapidement ces bêtises flagrantes.

Mais l’aspect vraiment constructif de la réactivité de Wikipédia s’est également manifesté quand, dans les deux jours suivants la création de la page El Señor Presidente, une petite armée d’éditeurs a apporté des modifications mineures qui, combinées, ont apporté des changements importants dans la mise en page. Un des étudiants a ensuite ajouté un fragment d’information qu’il avait trouvé sur un autre site Web. Un petit coup de mise en page réalisée par d’autres éditeurs et au cours suivant cet article ressemblait déjà aux autres pages Wikipédia. Un peu court peut-être, plutôt incomplet et avec quelques sources tirées un peu au hasard d’Internet, mais il apportait des informations sur le sujet aux lecteurs, au moins le minimum, et surtout il était intégré au grand vaisseau Wikipedia.

(Je devrais préciser ici que j’étais indifférent au fait que le travail final des étudiants pourrait ne pas être « entièrement leur travail ». Pour moi, réussir à persuader d’autres personnes de travailler avec eux, travailler en harmonie avec des inconnus faisait également partie du projet. On peut évidemment se dire qu’ils pouvaient tricher pour accomplir leur devoir, comme pour n’importe quel autre devoir, par exemple en payant une tierce personne pour écrire les articles à leur place. Mais en fait le logiciel wiki qui suit les contributions de chacun offre une transparence inégalée, on sait ce que les étudiants font, étape par étape, qui, quoi et quand.)

Ainsi, l’intervention de la FA-Team n’était donc pas exceptionnelle. Ce n’est qu’un exemple de ce principe de synergie porté à une échelle légèrement plus importante et développée. On peut énoncer le principe de synergie ainsi : plus vous contribuez à Wikipédia, plus votre activité résonne et est développée et multipliée par l’activité d’autres personnes. Certes, les guerres d’édition existent, mais d’après mon expérience elles n’affectent en général pas l’ajout de nouveaux contenus. Ce n’était pas juste de la chance, on était tombé sur l’un des principes de base du fonctionnement du wiki.

L’inconvénient de ce principe est que là où Wikipédia est moribond, il le demeure. Bien qu’en théorie l’activité sur Wikipédia bourdonne en continu, en pratique un coup d’œil à l’historique de quelques pages (une information à portée de clic) suffira à vous convaincre que ces pages sont en fait plutôt stables. Un mauvais article pourra le rester pendant une très longue période. Ainsi dans notre projet nous avions les exemples de deux articles plus anciens (et donc plus importants) : les entrées pour Gabriel García Márquez et Mario Vargas Llosa, restées presque inchangées pendant des années, mis à part un petit peaufinage ça ou là. Nous nous devions donc d’y remédier.

Chercher et… chercher encore

C’est alors devenu un travail de recherche. Les étudiants devaient trouver ce qui est appelé en jargon wikipédien des sources sûres. Une doctrine fondamentale de Wikipédia (même si cela peut sembler étrange voire paradoxal, particulièrement pour des universitaires) est qu’elle ne sert pas à la publication de résultats inédits. Une entrée encyclopédique n’est pas faite pour introduire un débat. C’est la différence principale entre dissertation traditionnelle et Wikipédia.

La FA-Team ayant pris en charge le travail de mise en page ainsi que les tâches routinières, les étudiants étaient libres de s’adonner entièrement à la recherche. Mais c’était sans compter un autre piège qui nous a beaucoup ralenti et que nous aurions dû pourtant anticiper puisque ses racines plongent au cœur même des règles de Wikipédia : le fait que les étudiants n’évaluent pas suffisamment leurs sources.

Il faut se rappeler que le problème à la base de ce projet est que les étudiants se fient trop à Wikipédia sans vraiment en considérer les risques et les inconvénients. Il n’était en fait guère étonnant de les voir reproduire les mêmes erreurs en cherchant des sources pour les articles qu’ils devaient rédiger. Ainsi, il n’était pas rare qu’ils ajoutent des informations non vérifiables ou mal documentées (et trop souvent plagiées) ou qu’ils usent et abusent de citations d’autres pages Web et encyclopédies en ligne.

Et pourtant c’est de là aussi qu’a été tirée l’une des meilleures leçons de ce travail. Parce que Wikipédia exige que chaque information soit étayée par une référence (ce que les membres de la FA-Team répétaient inlassablement), les étudiants se sont retrouvés forcés de citer leurs sources. Ces sources pas forcément fiables se sont donc retrouvées exposées, ce qui n’aurait pas nécessairement été le cas pour un examen de session. De plus, justement parce que la rédaction sur Wikipédia est un processus de révision permanente, il a été demandé à certains de reprendre leur travail de recherche pour ré-évaluer leurs sources, pour en trouver de plus fiables avant de reprendre la rédaction. Par la même occasion le problème des plagiats a été réglé simplement parce que plus personne ne recopiait de passages en les faisant passer pour un produit fini.

Pour résumer, ce travail a fait ressortir les faiblesses initiales des étudiants dans le domaine de la recherche, mais ces faiblesses étaient bien la raison d’être de ce devoir. Ils ont cependant appris que rechercher des informations (et les mettre en forme) est un processus, souvent long, où l’on commence avec des sources parfois douteuses (comme Wikipédia lui-même) pour progresser vers des éléments ou preuves toujours plus solides, jusqu’à découvrir de nouvelles informations occultées par les premières sources.

Autres observations : un travail professionnel

Au moment où j’écris ceci, l’accouchement sous péridurale du projet n’est toujours pas terminé. Un article, celui que j’avais ironiquement créé devant la classe, a passé sa première inspection avec succès, une inspection particulièrement rigoureuse d’ailleurs, ce qui lui vaut maintenant le grade de Bon Article. Mes étudiants sont donc à l’origine d’une partie des 0,15% de ce que Wikipédia a de meilleur à offrir et tout cela en partant de rien. De plus, parmi ces 0,15% ne figure aucun autre travail littéraire d’Amérique Latine. Ils (nous ?) ont toutes les raisons d’être fiers d’eux[1]. Pour autant que je sache, c’est le seul travail éducatif sur Wikipédia à avoir directement abouti à un Bon Article[2].

Évidemment tout ne s’est pas fait sans accroc. Deux articles n’ont pour le moment pas vraiment progressé. Le rêve de créer douze nouveaux Articles de Qualité ne restera sans doute qu’un rêve (signifiant par là-même que toute la classe aurait eu la note A+ à un devoir représentant désormais 40% de leur note finale). Mais je suis sûr qu’il en sortira encore une série de Bons Articles (deux autres sont en cours d’évaluation), et certains seront sûrement nominés pour le grade d’Article de Qualité.

Voici donc la résultante d’un travail rigoureux qui, parce qu’il avait pour cadre ce site Web tant décrié qu’est Wikipédia, était loin d’être une solution de facilité. C’était même plutôt le contraire.

Je ne suis toujours pas aveuglé par Wikipédia, loin s’en faut. Il faut bien se dire que c’est une encyclopédie dont seulement une infime fraction de ses articles sont considérés comme de « bons » articles, même par ses propres éditeurs. D’autres faiblesses de Wikipédia sont plus apparentes que jamais, on les retrouve même à un certain degré dans ce projet : un article moribond aura tendance à le rester, et certaines sources sont discutables et souvent plagiées.

Mais, pour la défense de Wikipédia, je dois dire que je n’avais jusqu’alors pas réalisé à quel point ses propres critères sont ambitieux et avec quelle rigueur ils sont appliqués, ni même remarqué l’efficacité du processus collaboratif… si vous êtes prêt à apporter votre contribution et surtout si vous êtes prêt à faire les recherches nécessaires à l’ajout d’informations vérifiables. Là encore je dois dire que nous avons été particulièrement chanceux dans les rencontres que nous avons faites, mais je pense aussi que d’autres bénéficieront de la même bonne fortune.

En ce qui concerne le travail, qui je le répète est loin d’être achevé… j’aimerais croire qu’il enseigne aux étudiants l’art de la recherche et de l’écriture dans un environnement proche du monde réel. Il leur a été assigné au début du semestre un but à moyen terme, voire à long terme, et il leur a été demandé de travailler en collaboration au sein de leurs propres groupes mais aussi avec des inconnus dans un environnement ouvert afin d’établir comment parvenir à ce but et comment le réaliser. Ce travail devait déboucher sur un résultat professionnel, visible par des milliers de personnes, une ressource qui dans la plupart des cas serait la première escale de chercheurs futurs, qu’ils soient étudiants comme eux ou qu’ils fassent simplement partie des millions de visiteurs de Wikipédia de par le monde. La plupart de ces articles sont en effet le premier résultat affiché (ou presque) lors d’une recherche sur Internet sur le sujet traité.

En comparaison, les dissertations et les examens classiques que nous donnons à nos étudiants paraissent plutôt anecdotiques.

Inutile ? Pas d’argumentation

Ce que les étudiants n’apprennent pas par contre à travers ce projet est le développement d’un argument. L’argumentation, la construction cohérente d’une série d’idées, la défense et l’étayement d’une thèse convaincante, est évidemment au cœur de l’enseignement académique. J’attache beaucoup d’importance à cette compétence.

Mais on peut également dire que dans la plupart des emplois qu’occuperont les étudiants après la fin de leur cursus, l’argumentation ne tiendra pas une place aussi importante que dans le monde académique. À l’opposé, la recherche d’informations, la présentation, l’exactitude, l’aptitude à travailler en équipe et la capacité à négocier avec la sphère publique leur seront bien plus utiles (même si ça me fait un peu mal de l’admettre).

De plus, l’écriture sur Wikipédia leur inculque la pensée critique, peut-être pas celle qui est en général abordée à l’université… mais peut-être le devrait-elle. Les éditeurs de Wikipédia sont sans cesse encouragés à faire preuve d’esprit critique vis-à-vis des informations qu’ils trouvent et également vis-à-vis de leurs propres écrits.

J’ai un peu peur d’avoir trop enjolivé la chose. Je le ferai différemment si je suis un jour amené à le refaire. Et je dois vous avouer que j’ai souvent eu l’impression de faire un numéro d’équilibriste, que tout pouvait s’écrouler à tout moment. D’ailleurs nous ne sommes toujours pas à l’abri. Mais si quelque chose tourne mal je pourrai toujours modifier ce texte…

Oh, et si ça vous dit, n’hésitez pas à donner un coup de main sur Murder, Madness, and Mayhem !

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 2/6 – Le projet vu par l’enseignant
    Présentation, chronique et analyse du projet par le professeur Jon Beasley-Murray (à lire en premier).
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

Notes

[1] Le 10 avril 2008, El Señor Presidente est devenu le 2000ème Article de Qualité de Wikipedia. Cet article apparaîtra sur la première page de Wikipédia le 5 mai. Au final, les étudiants ont porté deux autres articles au niveau d’exigence requis pour obtenir le grade d’Article de Qualité (Mario Vargas Llosa et The General in His Labyrinth) tandis que huit autres ont obtenu le grade de « Bon Article ». Les seuls autres articles portant sur la littérature Latino-américaine à ce niveau sont Mário de Andrade et Jorge Luis Borges (bien qu’aujourd’hui ils n’obtiendraient certainement plus cet honneur, il est en effet intéressant de noter que les critères de qualité de Wikipédia augmentent régulièrement avec le temps). Grâce à nous, le nombre d’Articles de Qualité sur la culture latino-américaine a donc très fortement augmenté

[2] Plus de détails ici.




Wikipédia et éducation : un exemple de réconciliation 3/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage d’un éditeur de Wikipédia ayant aidé les étudiants à atteindre leur objectif, à savoir la quête de l’Article de Qualité, qui est ici présentée.

Copie d'écran - Wikipédia - Témoignage wikipédien

Wikipédia et université : Murder, Madness and Mayhem ?

Wikipedia and academia: Murder, Madness and Mayhem?

EyeSerene – 14 avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Quand l’idée a été soulevée de mettre sur pied une équipe d’éditeurs spécifiquement dédiée à l’obtention du label Article de Qualité, nous sommes entrés en contact avec le Wikiprojet Murder, Madness and Mayhem (NdT : Meutre, Folie et Chaos, MMM) pour ce que nous pourrions appeler notre première mission. Deux réactions antagonistes sont alors nées en moi. Je me suis exclamé « magnifique ! » mais une voie plus sceptique murmurait « hum… pourquoi pas ». La première émane de ma foi dans « le rêve », la deuxième de mon expérience sur le terrain du travail sur Wikipédia.

Je crois avec ferveur en la vision de Wikipédia ainsi résumée « Imaginez un monde dans lequel chacun puisse avoir, partout sur la planète, libre accès à la somme de toutes les connaissances humaines. C’est ce que nous sommes en train de faire » (Jimmy Wales). Évidemment, certains avertissements sont de rigueur, peut-être que l’adjectif « vérifiable » devrait être ajouté ici !, mais derrière tous les articles de groupes de musique méconnus, d’écoles primaires et d’épisodes des Simpson, le rêve se poursuit. Les gens instruits sont des gens libres et autonomes et une longue route a été tracée depuis le temps où le savoir et l’éducation n’étaient réservés qu’à une petite élite… mais il nous reste encore beaucoup de chemin à parcourir.

Peut-être sommes nous de doux rêveurs à croire qu’une encyclopédie peut changer le monde, mais pour moi l’important n’est pas là. C’est le concept sous-jacent qui me motive. Et si les gens, indépendamment de leur race, de leur religion, de leur emplacement géographique ou quoi que ce soit d’autre pouvaient s’unir comme nous le faisons ici ? Et si ils pouvaient s’affranchir des frontières, des gouvernements et des contraintes sociales pour communiquer et collaborer les uns avec les autres de manière constructive et créer quelque chose qui est infiniment plus grand que la somme de ses parties ? Je pense alors qu’il serait très difficile de convaincre un public ainsi informé et lié que tel groupe ou telle nationalité est en fait leur ennemi, alors qu’une longue expérience personnelle leur affirme le contraire. Le fait que Wikipédia soit banni ou restreint dans certaines parties du monde et chez certains régimes politiques en dit long sur la peur que peut engendrer ce simple concept « d’information en accès libre ».

Évidemment, et quand bien même tous ceux qui comme moi tiennent à la crédibilité de notre encyclopédie aiment à penser que le savoir que nous mettons à disposition est vraiment utile, nous devons aussi tenir compte de tous ces articles de groupes de musique méconnus, d’écoles primaires ou d’épisodes des Simpson. Mais sous bien des aspects c’est ce qui fait la force de notre modèle.La force magnétomotrice, un article technique qui capte une audience relativement faible et spécialisée, est classé dans la catégorie des articles à étoffer même s’il existe dans l’encyclopédie depuis bientôt quatre ans. L’article Les Simpson fait quant à lui l’objet de modifications permanentes, il s’est largement étoffé et se décline aujourd’hui dans plus de soixante langues (alors qu’on ne trouve que six localisations de la force magnétomotrice). Si nous acceptons le fait que Wikipédia est plus qu’une encyclopédie, nos articles sur la pop-culture font clairement parti de notre succès. Ils participent à la collaboration et aux interactions sociales au-delà des continents et des océans et peut-être que ce sont ces articles qui reflètent le mieux la vision de Wikipédia.

La crédibilité culturelle de Wikipédia n’est plus à démontrer. Vous voulez savoir quel docteur a pris la suite de Patrick Troughton (NdT : dans la série TV Docteur Who) ? Vous voulez connaître le nom de la maison de Harry Potter ? Où irons-nous alors en priorité ? J’aimerais cependant que Wikipédia soit également reconnu comme une source académiquement acceptable. On sait bien désormais que Wikipédia constitue la première étape de n’importe quelle recherche pour la majorité des étudiants, et ce dès le secondaire. On peut débattre du bien-fondé de cette habitude, mais en tant qu’étudiant planchant en fin d’étude sur la diffractométrie de rayons X, j’aurais certainement apprécié en 1989 avoir cette ressource primaire, quand bien même l’article en lui même n’aurait évidemment pas été suffisant.

Wikipédia ne peut pas se substituer à une recherche bibliographique, vous devez quand même lire les bons articles et les bons journaux. Il ne peut pas vous enseigner une matière non plus, nos articles ne sont pas écrits dans cette optique, bien qu’ils soient assez complets pour qu’un lecteur néophyte puisse comprendre de quoi il en retourne. Si vous attendez ceci de Wikipédia (que tout le travail soit déjà fait ou qu’il vous enseigne une matière), vous vous trompez lourdement sur les buts de Wikipédia. Mais le fait est que notre encyclopédie a été, est et restera certainement toujours utilisée ainsi. Cependant combien d’étudiants comprennent véritablement la différence entre se rendre sur leur source d’information en ligne préférée pour vérifier la réponse à une question de quizz sur le nombre de test centuries que Andrew Strauss a inscrit (la réponse est 12 au fait) et citer cette information dans la biographie d’un joueur de cricket ?

C’est là, pour moi, la fascinante dichotomie du Wikiproject Murder Madness and Mayhem de Jbmurray. Il faut avouer qu’on a commencé à s’habituer à ce que notre encyclopédie ou nos articles soient tournés en ridicule par le monde universitaire et, même si ce n’est pas toujours de gaieté de cœur, il nous faut bien reconnaître que leurs critiques ne sont pas infondées. Wikipédia a la réputation de ne pas respecter l’expertise auto-proclamée et les arguments des experts sont rarement pris au sérieux. Du fait de l’anonymat des éditeurs et de l’impossibilité de vraiment connaître les références de la personne de l’autre côté du modem je ne vois pas comment il pourrait en être autrement… mais devoir étayer chaque affirmation par une source vérifiable a sans aucun doute repoussé des éditeurs qui autrement auraient apporté une contribution importante à notre effort.

De nombreux universitaires, indignés d’être traités de la sorte par des gens qu’ils ne connaissaient pas ou qu’ils ne respectaient pas (intellectuellement s’entend !), se sont retirés du projet avec dégoût, résolus à ne jamais plus employer Wikipédia et à ne plus jamais en encourager l’usage non plus.

J’ai également souvenir d’un incident où l’auteur d’un livre cité dans un article a tenté de corriger l’article, mais sa modification a été refusée par des éditeurs qui se sont servis de son propre livre pour justifier le rejet. Frustré, il répondit en substance « C’est moi l’auteur de ce foutu texte que vous citez à tort, je sais de quoi je parle ! », mais ça ne l’a pas beaucoup aidé. D’un autre côté, pourquoi en tant qu’éditeurs devrions-nous accepter aveuglément ce que nous dit un « expert » auto-proclamé ? N’est-ce pas ce qui fait en partie la vision de Wikipédia ? Nous ne nous contentons pas (ou nous ne devrions pas nous contenter) de donner les faits… idéalement nous fournissons aussi des sources afin que tout un chacun puisse vérifier ces faits. On retombe sur « l’accès libre à l’information » !

Mon enthousiasme pour le projet novateur de Jbmurray, l’espoir qu’il est possible non seulement d’améliorer notre encyclopédie (ce qui me tient à cœur) en aidant les élèves dans leurs études, mais aussi de renforcer sa crédibilité et peut-être même de recruter de nouveaux accrocs à Wikipédia éditeurs, a donc été quelque peu tempéré par les expériences qu’ont eu de nombreux universitaires avec nous. Évidemment, Jbmurray n’était pas exactement un novice sur Wikipédia et il était déjà au courant des particularismes, voire même parfois des absurdités, qui maintiennent notre effort sur de bons rails, mais cela ne préfigurait en rien du succès de son projet.

Côté technique, j’avais de gros doute qu’on puisse ne serait-ce qu’approcher le grade d’Article de Qualité pour chaque article du projet. Malgré ce que peuvent en dire les critiques, rédiger un Article de Qualité est un processus complexe et rigoureux qui demande une grande disponibilité, beaucoup d’énergie et, oserais-je le dire, de l’expertise (pas seulement sur le sujet de l’article mais aussi sur les critères strictes des Articles de Qualité). Le seul moyen d’atteindre ce but était que la FA-Team collabore étroitement avec Jbmurray et les éditeurs de MMM.

J’ai tiré de mon expérience sur Wikipédia la conclusion que pour certains éditeurs le principe de la collaboration restera à tout jamais un mystère. Et pourtant il n’y a rien de bien sorcier si tout le monde y met de la bonne volonté. C’est évident que si les éditeurs sont traités avec respect, approchés de manière ouverte et amicale, remerciés pour ce qu’ils font de bien et réprimandés (poliment !) lorsqu’ils se trompent, ils répondront alors positivement dans la plupart des cas. Que ce soit sur Internet ou dans la vraie vie, certains sembleront toujours génétiquement incapables de formuler des encouragements ou de recevoir des critiques, mais ces personnes poussent à bout la patience de la communauté et finalement abandonnent le navire.

Bien que nous baignons dans un monde virtuel, nous avons à faire avec des personnes bien réelles avec des émotions bien réelles au bout de la connexion, alors pourquoi devraient-elles être traitées plus durement que si nous les rencontrions dans notre bureau, notre salle de classe ou au bar… et au nom de quoi devrions nous fermer les yeux sur de tels agissements ? Wikipédia s’auto-gère assez bien, ce qui profite à la collaboration, et comme le note Jbmurray ceci peut déboucher sur une synergie qui vous permet de croire que notre vision est vraiment à notre portée. Il soulève ici un corolaire très intéressant, un corolaire qui touche à la critique universitaire. Lorsque la collaboration existe (et en déformant les paroles bibliques, lorsque deux éditeurs ou plus s’unissent au nom de Wikipédia…), de grandes choses peuvent se produire.

Mais lorsque l’on permet aux articles de se morfondre dans leur médiocrité, et cela arrive encore trop souvent pour des articles techniques, ésotériques ou académiques, c’est notre réputation qui s’en retrouve entachée. Au bout du compte, tout ce que l’on obtient alors est de l’antagonisme, qu’il représente aussi bien le « contraire de la synergie » que la « caractérisation de la réaction des personnes qui accèdent à ces articles ».

Grâce au soutien universitaire de Jbmurray, aux encouragement et aux conseils techniques de la FA-Team, les rédacteurs étudiants de MMM ont produit un impressionnant travail de fond, fait d’autant plus remarquable que beaucoup n’avaient jamais édité dans Wikipédia avant ce travail. Dans un certain sens nous poussons ici plus loin encore qu’à l’accoutumée les capacités de la communauté à travailler dans la même direction, puisque, contrairement à nous wikipédiens, les éditeurs de MMM ne sont pas ici de leur plein gré mais parce qu’ils y sont obligés, de leur succès dépendent leurs notes ! Voilà qui les pousse à collaborer encore davantage pour atteindre leur but, mais c’est une motivation autre que celle qui anime d’ordinaire nos éditeurs volontaires.

Je ne suis pas naïf au point d’imaginer que tous les wikipédiens adhèrent à l’idéal de Wales, chaque éditeur a sa propre motivation et certaines sont moins louables que d’autres. Quoiqu’il en soit, si on met de côté ceux qui sont là pour, par exemple, créer des articles vaniteux ou pour faire de la publicité pour leur commerce, le résultat final est le même et encore une fois, c’est la collaboration de tant de personnalités différentes pour aboutir à un but commun qui me donne espoir et qui me fait croire à la mission de Wikipédia.

La collaboration n’est pas toujours simple (si c’était le cas, des groupes comme le Comité d’Arbitrage et des pages comme l’Appel aux commentaires seraient largement superflus) et dès le début certains des éditeurs de MMM ont dû se frayer un chemin dans le méandre des révisions des articles, prenant alors potentiellement le risque de déclencher de nouvelles guerres d’édition ou pire encore. Ils y sont très bien parvenus grâce à leur propre envie d’apprendre et grâce à la bonne volonté dont ont fait preuve les éditeurs réguliers qui n’étaient pas familiers avec ce projet et ces objectifs, sachant que la différence entre le premier essai timide d’un nouvel éditeur et l’acte de vandalisme est parfois difficile à discerner.

Alors, sur quoi va déboucher cette expérience MMM ? On en aura évidemment une meilleure idée quand elle aura déjà un peu de vécu, mais on peut espérer que les étudiants la trouveront enrichissante et instructive, qu’ils en retiendront plus que juste les notes qu’ils recevront. Scolairement parlant, comme l’écrit Jbmurray, ils devraient en tirer une meilleure compréhension de la nécessité d’étayer leurs informations avec des sources vérifiables et ils devraient aussi mieux percevoir les limitations d’une encyclopédie en temps que ressource. Wikipédia ne peut être, même dans le meilleur des cas, que le point de départ d’une recherche approfondie. Le projet a peut-être aussi posé les bases d’un modèle qui aura du succès dans le monde universitaire.

Cela ne fait aucun doute, de nombreuses personnes parmi les éditeurs sont hautement qualifiées dans leur domaine et dans le partage de leurs connaissances dans ce domaine au sein même de l’encyclopédie, contribuant à améliorer le niveau global de Wikipédia. Mais la sempiternelle question de la couverture du sujet reste toujours en suspens dans la communauté (ou plutôt chez ceux qui s’intéressent plus particulièrement à la qualité des articles). Nous pouvons imposer des règles et des critères pour les Bons Articles ou pour les Articles de Qualité mais, en tant que non-experts, comment être surs qu’un article est complet et précis ? Nous pouvons utiliser les sources mentionnées et vérifier les références, mais sans un expert à disposition nous devons nous reposer sur l’article lui-même pour obtenir ces informations.

D’une manière générale notre travail est satisfaisant, car même en tant que non-experts quelques recherches nous permettent de juger de la profondeur (ou du manque de profondeur) de la couverture d’un article. Mais comme l’a prouvé cette expérience, les conseils d’experts sont inestimables. Pour résumer, nous avons besoin des universitaires car apparemment leurs étudiants ont besoin de nous.

Naturellement, des mises en garde sont de rigueur. Si certains experts ne voient en Wikipédia que frustration et antagonisme, c’est principalement car ils n’ont pas à l’esprit la spécificité de Wikipédia, à savoir sa communauté et ses lois. Même si la grande majorité des éditeurs supposera la bonne foi, le respect se gagne. C’est seulement en lisant les règles de Wikipédia et en faisant l’effort de vous y tenir que vous gagnerez ce respect qui donnera du poids à vos opinions et vos propositions. Quelle crédibilité peut-on accorder à universitaire étranger débarquant dans un séminaire en imposant ses propres pratiques et en faisant fi des convenances et traditions locales ?

Pourquoi devrions nous alors accepter ce genre de comportement ? Comme Jbmurray le fait remarquer, la capacité à développer une idée et de la défendre avec ardeur a moins de valeur sur Wikipédia que la capacité à négocier un consensus… et de se retirer avec élégance si ce consensus ne va pas dans notre sens, même lorsque les autres éditeurs ont ponctuellement clairement tort (ce qui arrive inévitablement avec une communauté de cette dimension). Mais à long terme, est-ce vraiment important ? Le consensus peut évoluer, et un article peut toujours être revu une semaine après, un mois après, une année après…

L’incapacité chronique de certains universitaires et experts à réaliser que Wikipédia n’est pas l’extension de leur faculté et qu’elle n’est pas par conséquent sous leur autorité, que notre mission est simplement de reproduire ce qui a déjà été publié par des sources vérifiables (vérifiabilité, pas vérité), et que leurs compétences dans un domaine ne les dote pas nécessairement de la capacité à bien faire dans d’autres domaines, a sans aucun doute affecté les relations dans les deux sens. Cependant le monde académique a beaucoup à y apporter, si l’on ne se trompe pas sur ce qu’est Wikipédia (et encore plus ce qu’elle n’est pas ou ce qu’elle ne prétend pas être). C’est ce que démontre le projet MMM de Jbmurray où tout le monde est au final gagnant.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.