1

Espérons que cela reste absurde !

Quand une bande de joyeux drilles (de chez LoadingReadyRun) s’amusent à plonger les fameux Contrats de Licence Utilisateur Final (CLUF) dans la vrai vie, cela donne cette savoureuse petite vidéo que nous n’avons pu nous empêcher de sous-titrer.

On pense à Facebook bien sûr, et derrière lui tout le web 2.0, mais on pense également aux licences de logiciels propriétaires que nous signons le plus souvent les yeux fermés.

Nous sommes en 2009. Orwell et Ionesco nous ont quittés depuis longtemps…

—> La vidéo au format webm

À propos d’Orwell et de pastiche, j’imagine que vous avez déjà vu cet extrait viral du film Brazil de Terry Gilliam, revu et corrigé par la Quadrature du Net.

Si tel n’était pas le cas, le voici :

La vidéo au format webm.




Largage de liens en vrac #13

Tony the Misfit - CC byUne nouvelle version de nos liens logiciels en vrac d’assez bonne facture ma foi.

Comme pour les éditions précédentes, vous êtes cordialement invité à nous en dire plus dans les commentaires si vous connaissez ou avez testé les logiciels en question[1].

  • Cofundos : Ce n’est pas un logiciel mais un nouveau service web que l’on pourrait définir comme une sorte de place de marché pour les projets de logiciels libres. Structuré en réseau social, il aide à développer de nouvelles idées en regroupant ceux qui en ont besoin avec les développeurs qui sont prêts à les réaliser, moyennant finances (ou non).
  • Mediafox : Lu sur Lifehacker, Mediafox est une assez impressionnante version customisée de Firefox (thème + de nombreuses extensions) portable dédiée au multimédia. C’est aussi une belle démonstration de ce qu’il est possible de faire avec Firefox et ses extensions. Uniquement pour Windows (et en anglais).
  • PhoneGap : Un prometteur environnement JavaScript pour votre téléphone (Android, iPhone, Blackberry) limité pour le moment à quelques fonctionnalités (géolocalisation, vibreur…) pour développer dans le futurs de jolies WebApps.
  • Zekr : Une application Java multilangues destinée à l’étude du Coran.
  • Un livre blanc sur les CMS : Rédigé par Smile, un livre blanc sur les CMS Open Source : Spip, Joomla, Typo3, Drupal, etc. Utile pour faire le bon choix au lancement d’un projet Web (dommage que la licence soit un full copyright).
  • Songbird 1.1 : Nouvelle version majeure pour ce concurrent libre d’iTunes qui a le vent en poupe.
  • Simile Widgets : En JavaScript Ajax, quatre modules pour créer de riches applications web (frise chronologique, géolocalisation, graphiques, et défilement d’images à la sauce Apple),
  • AjaXplorer : Un esthétique gestionnaire de fichiers en ligne en Ajax qui témoigne lui aussi des avancées des applications web (les photos s’affichent, le mp3 et les flv se lisent, etc.).
  • Mixwidget.org : Une vieille K7 qui lit en flash votre playlist mp3. On est loin des formats ouverts mais c’est là encore très joliment réalisé.
  • OpenWith.org : L’un des plus intéressants de la série, à ceci près que ce n’est pas du libre et que c’est que pour Windows, ce qui fait deux lourds handicaps j’en conviens ! C’est aussi bien un service web qu’une application qui associe à tout format de fichier un logiciel libre et/ou gratuit permettant de le lire. Si vous tapez DOC par exemple, le logiciel vous proposera OpenOffice.org pour le lire avec un bouton direct pour le téléchargement. Pas forcément très pertinent avec MP3 (pourquoi Picasa en premier ?) ou PDF (il manque Sumatra !) mais l’idée est plutôt bonne, surtout pour aider votre belle-mère qui vient de vous envoyer un mail vous expliquant qu’elle ne comprend pas pourquoi elle n’arrive pas ouvrir sa pièce jointe en double-cliquant dessus ! Si l’application avait été libre et multi-OS et si les choix proposés se restreignaient au logiciel libre, on aurait obtenu un super service (quand bien même, oui je sais, proposer du freeware rend service à Mme Michu).
  • Creative Commons pour MS Office : Pour ceux qui, pour x raisons, travaillent encore avec la suite bureautique Microsoft MS Office (en particulier chez mes collègues profs) je signale que le plugin permettant de placer facilement son document sous licence Creative Commons, déjà disponible pour MS Office 2003, vient de sortir pour MS Office 2007.
  • 6zap : Une application Ajax-Web très ambitieuse puisqu’elle vous propose sur une même page une messagerie, un calendrier, un gestionnaire de fichiers et de contacts. On aurait donc à faire avec une sorte de groupware capable de potentiellement concurrencer Google, rien que ça ! (la FermeDuWeb en fait un rapide survol).
  • pHash : Un système de marquage (empreinte digitale numérique) qui contrairement à la cryptographie classique se base sur le contenu même du fichier pour son algorithme. Ainsi, à ce que j’en ai compris, le même fichier un peu modifié verra son marquage un peu modifié lui aussi, permettant de retrouver et associer facilement les deux fichiers en question.
  • Shutter : Linux only, et la copie d’écran devint un jeu d’enfants.
  • Qimo 4 Kids : Une distribution Ubuntu totalement orientée enfants avec plein de petites applications dédiées pré-installées. Une fois francisée cela pourrait bien intéresser nos écoles primaires.
  • TurnKey Linux : Basé sur Ubuntu, un système silimaire à Bitnami permettant de faire tourner de manière autonome (disque dur, clé USB, live CD, virtualisation…) des applications web (Drupal, Mediwiki, Joomla…) clé en main puisqu’il embarque le trio LAMP à chaque fois avec lui (du moins je crois). Pour ce qui concerne Windows, Pierre-Yves est en train d’y travailler avec la Framakey.
  • Frescobaldi : Pour faire simple, Frescobaldi est à LilyPond ce que Kile est à LaTeX : un front end graphique pour KDE4 (source LinuxFr).
  • DeskHedron : Le fameux cube 3D de Compiz (et de GNU/Linux) plongé dans l’univers Windows. Absolument aucune idée de ce que ça vaut concrètement.
  • Mahara : Je ne connaissais pas ce gestionnaire de portfolio orienté éducation. Comme ça sans l’avoir du tout testé, je la vois comme une sorte de mix entre un ENT et un Facebook (qui s’accouple bien avec Moodle qui plus est). Entre nous soit dit, les fameux ENT dont parle depuis plusieurs années notre chère Éducation Nationale sans réussir véritablement à les déployer massivement, vous ne trouvez pas qu’ils ont pris un coup de vieux avec l’avènement des réseaux sociaux ?
  • OneSwarm : Développé par des chercheurs de l’Université de Washington, ce logiciel ne fera pas plaisir à Christine Albanel puisqu’il permet d’échanger des fichiers en P2P mais de manière beaucoup plus sécurisé puisque l’on peut restreindre les informations transmises à un cercle d’amis dûment identifiés (du coup ils appellent cela le F2F, Friend-to-Friend). On pourra lire PC Inpact pour de plus amples informations.

Notes

[1] Crédit photo : Tony the Misfit (Creative Commons By)




Plus de 100 vidéos autour du Libre avec Framatube et Blip.tv

La cola de mi perro - CC byFramatube, contraction pas forcément heureuse mais en tout cas signifiante de Framasoft et YouTube, a récemment franchi le cap symbolique des 100 vidéos (104 pour être précis), presque toutes en français ou sous-titrées, offrant par là-même un catalogue « spécialisé » qui pourra être utile à toute personne souhaitant s’informer et diffuser la « culture » et « l’état d’esprit » du logiciel libre, pris au sens large (et nébuleux) du terme.

Bien que toujours considéré en version bêta, nous le faisons aujourd’hui « sortir de l’ombre » pour vous le présenter plus en détail[1].

En version courte et flash

Si vous êtes un lecteur ou un webmaster pressé, et que le format flash ne vous fait pas peur, vous pouvez tout de suite visiter cette page pour avoir l’occasion de toutes les visionner d’un coup à même notre lecteur embarqué (dont vous obtiendrez le code pour en faire de même sur votre propre site si d’aventure vous le souhaitiez). Vous pouvez également sauter tout notre « inutile verbiage » pour accéder directement à une petite sélection bien sentie de ce que l’on pourrait tout aussi improprement qualifier de « Web TV du Libre » du réseau Framasoft.

Mais, comme nous le verrons ci-après, il est aussi possible (et conseillé) de se rendre sur notre compte hébergé par blip.tv.

Le choix blip.tv

À l’origine il s’agissait de stocker et d’archiver les vidéos présentées sur le Framablog. On avait commencé par les héberger sur nos propres serveurs mais par souci de charge (et d’économie de moyens) on a préféré externaliser le service en ouvrant donc un compte sur la plate-forme blip.tv.

Soit dit en passant ce point de départ explique également le caractère quelque peu éclectique de la sélection. Il n’y a pas eu volonté méthodique de référencer toutes les vidéos évoquant le logiciel libre francophone. Cela s’est fait petit à petit en fonction des sujets mis en ligne sur le blog.

Toujours est-il que pourquoi blip.tv et non pas YouTube ou Dailymotion ?

Pour plusieurs raisons à cela.

  • Blip.tv reconnait et sait convertir le format libre Ogg Theora, on peut donc uploader directement dans ce format.
  • Au delà du streaming en flash, blip.tv propose explicitement le téléchargement, non seulement au format flash (.flv) mais aussi au format d’origine, donc pour ce qui nous concerne le Ogg. Ceci permet aux visiteurs qui ne possèdent pas le plugin flash de ne pas être pénalisés.
  • Blip.tv fait mention explicite de la licence des vidéos (lorsque l’on met en ligne une vidéo, il est en effet proposé un champ spécifique où figure par exemple toute la panoplie des Creative Commons).

À ma connaissance, tout ceci est absent des YouTube et autres Dailymotion. Même si l’un (voir ce billet) comme l’autre (site en Ogg dédié au projet OLPC) ont fait quelques progrès récemment. Le plus choquant restant l’absence de mention des licences qu’il aurait été facile d’inclure mais qui aurait alors posé quelques cas de conscience aux utilisateurs, quitte à ce qu’ils choisissent finalement de ne pas uploader la vidéo (ceci expliquant donc cela et aboutissant au fait qu’on trouve un nombre hallucinant de vidéos diffusées illégalement sur ces plate-formes).

Et puis il y a aussi tout ce qui tourne autour de quelque chose que l’on pourrait appeler la confiance. Les « Termes de services » contractés en vous inscrivant à la plate-forme sont plutôt clairs chez blip.tv (voir plus bas) et plutôt confus chez les autres (et je ne vous parle même pas des affres actuelles des utilisateurs, quelque part un peu naïfs, de Facebook). YouTube a ainsi récemment, et sans crier gare, fait apparaitre un moteur de recherche interne à même son lecteur embarqué (quand on passe la souris dessus, c’est très pénible à l’usage). Cela reste gentillet mais que se passera-t-il si un jour ils décident de mettre quelques secondes de pub au démarrage ? Ce sera assurément le pactole avec toutes les vidéos YouTube qui traînent sur des millions de blogs (et, même si ce n’est pas très « courtois » ce genre de petites manipulations doit être certainement prévues dans le « contrat que personne ne lit »). J’ajoute que sur blip.tv, on ne vient pas nous dire « Essayez YouTube dans un autre navigateur Web, téléchargez Google Chrome ».

Sur blip.tv, on lit plutôt ceci :

Nous croyons que le fruit de votre dur travail doit vous appartenir. Quand vous mettez en ligne sur blip.tv vous nous donnez le droit de distribuer votre vidéo tant que vous ne choisissez pas de la supprimer de notre système. Vous n’avez à nous céder aucun droit d’exclusivité, et nous ne vendrons pas votre œuvre, ni ne ferons de la publicité pour celle-ci sans votre autorisation expresse.

Mais surtout cela :

Nous sommes des adeptes convaincus des licences copyleft, telle que Creative Commons les propose. Nous incitons tout le monde à examiner les licences Creative Commons et à les adopter. Chaque vidéo publiée sous licence copyleft enrichit la création collective de façon significative.

Nous vivons à une époque que les historiens qualifieront de démocratisation de l’expression. Tandis qu’autrefois la production et la diffusion des médias étaient concentrées en quelques mains, maintenant elles sont partout : chacun peut proposer un spectacle, une ressource éducative, une expertise. Les contraintes traditionnelles imposées par les coûts de production élevés et la distribution restreinte n’existent plus : maintenant n’importe qui disposant d’une caméra et d’un ordinateur peut produire du contenu vidéo, la seule contrainte est celle qu’imposent les limites de la créativité humaine. Les utilisateurs de blip.tv ont démontré que de telles limites n’existaient pas.

Nous pensons que la libération des moyens de production est une des des choses les plus importantes qui soit arrivée dans l’histoire récente. Elle permet à tout le monde de créer la prochaine comédie géniale, de partager la réalité de la vie quotidienne par-delà les différences culturelles, d’échanger des points de vue politiques et des ressources éducatives. C’est une très bonne chose, et nous nous consacrons à élargir encore cette démocratisation d’une façon qui respecte toujours les droits à la propriété intellectuelle, sur une plateforme où chacun puisse se sentir à l’aise.

Nous sommes pour une nouvelle économie de l’abondance. Il n’est plus dans l’intérêt de quiconque de mettre des chaînes aux médias, de les attacher à un site Web particulier, ou d’être pieds et poings liés à des métadonnées. Nous ne construisons pas un jardin entouré de murailles, nous travaillons activement à faire tomber les murailles pour permettre la libération et le partage ouvert des médias et des contenus des médias sur le Web.

À comparer avec la philosophie générale de la prochaine loi « Internet et Création »…

Merci pour eux donc. J’aurais pu aussi évoquer le fait qu’avec blip.tv vous pouvez dans le même mouvement uploader chez eux mais aussi sur le beau projet qu’est Internet Archive, mais, bon, j’arrête là, on pourrait croire que je suis un VRP de blip.tv 😉

Framatube chez blipt.tv : petit mode d’emploi illustré

Comme cela a été mentionné plus haut, vous pouvez lire les vidéos ou les embarquer via notre lecteur flash disponible sur cette page. Mais se rendre directement sur notre compte blip.tv et y feuilleter le catalogue offre plus d’informations et d’options.

Voici comment se présente une page vidéo sur notre compte blip.tv. Il s’agit en l’occurrence du récent clip Firefox in Motion (découvert of course chez Tristan Nitot).

Copie d'écran - Framatube - Blip.tv

On notera que l’on peut donc embarquer les vidéos une par une plutôt que la « télévision » entière.

Simple et pratique. Sans oublier que vous pouvez vous abonner au flux Framatube de différentes façons :

Firefox 3.1 et sa nouvelle balise vidéo

Nous avons évoqué la prochaine version de Firefox, que nous attendons en version stable avec impatience, dans deux récents billets : Quand Mozilla participe à la libération de la vidéo et Building the world we want, not the one we have.

Retenons que nous pourrons alors lire les vidéos au format Ogg directement dans Firefox sans avoir besoin du moindre plugin. Il suffira, pour le webmaster, d’insérer quelque chose qui ressemblera, en version minimaliste, au code (en HTML 5) suivant :

 <video> <source src="http://framasoft.blip.tv/ma-super-video.ogg"></source> </video> 

(Pour de plus amples informations lire par exemple ce billet de Laurent Jouanneau)

Autrement dit, toutes « nos » vidéos disponibles au format Ogg sur blip.tv pourront être reprises directement par les autres sites, sans passer par la case flash et sans nécessiter de téléchargement pour le visiteur sous Firefox 3.1. Plutôt intéressant non ! Imaginez-vous par exemple, muni de votre Framakey et sa version portable de Firefox 3.1, montrant à votre assistance médusée quelques vidéos issues de Framatube se lançant directement depuis la navigateur, ça peut faire son petit effet…

Intérêt de Framatube

Outre l’avantage pour ce blog, et par extension pour tout le réseau de sites et de projets Framasoft, de proposer des vidéos qui ne tirent pas sur ses serveurs (mais sur celui de blip.tv), il n’est pas forcément inintéressant d’avoir ainsi centralisé de nombreuses ressources vidéos francophones autour du logiciel libre (ressources que nous comptons bien continuer à mettre à jour, voir plus bas le paragraphe qui invite à y participer avec nous).

  • Le visiteur y trouvera matière à s’informer et se tenir au courant de l’actualité francophone en la matière (s’abonner au flux RSS peut être alors judicieux).
  • Le webmaster y puisera les vidéos de son choix dans le format de son choix et participera ainsi à la diffusion du contenu de Framatube, c’est-à-dire « le logiciel libre et son état d’esprit ».
  • Le « conférencier » y cherchera quelques ressources pour une intervention publique (pris au sens large, ça peut être tout aussi bien un éducateur, un associatif sur un stand, un atelier de LUG, un cinéma indépendant, etc.).

Il y aurait également un intérêt « sociologique », mais je marche sur des œufs là, en frisant la condescendance. Mon sentiment de prof, c’est que l’on se retrouve avec toute une catégorie d’internautes, appelons-la « génération YouTube », qui lisent peu (ou en tout cas vite et surtout pas trop long) mais consomment beaucoup de vidéos. Les mêmes, en gros, qui passaient beaucoup de temps devant la télévision avant l’avènement d’Internet. Il y a peut-être moyen ici d’arriver à les toucher pour leur proposer ponctuellement autre chose que les clips people et autres vidéogagueries à la chauffeur de buzz pour les sensibiliser à « nos » problématiques de libertés numériques (qui finissent par devenir des libertés tout court).

Une petite sélection

Vous trouverez la liste de toutes les vidéos, non seulement dans le player mais surtout sur notre compte blip.tv.

Dans la mesure où certaines vidéos n’ont pas pu, faute de temps, être présentées ici, dans la mesure où certains lecteurs du Framablog sont de nouveaux lecteurs (bienvenus, l’abonnement au flux RSS fait office de carte de fidélité), nous vous en proposons ci-dessous une petite sélection, bien entendu non exhaustive, puisque comme cela a été dit nous dépassons désormais la centaine.

Qu’il me soit permis de remercier vivement au passage le travail de JosephK qui aura patiemment converti la quasi-totalité des vidéos au format Ogg.

Conférences « ça, c’est du lourd ! »
  • Michel Serres – La révolution culturelle et cognitive engendrée par les nouvelles technologies
  • Thierry Stœhr – Et les formats ouvœrts
  • Benjamin Bayart – Internet libre ou Minitel 2.0 ? Vous ne l’avez pas encore vue ?
  • Richard Stallman – Parce qu’il faut bien en avoir vue au moins une !
  • Eben Moglen – Le logiciel et la communauté (ma préférée, vous ne l’avez pas encore vue ?)
  • Tim Morley – Espéranto et logiciel libre
Politique (ou apparenté)
  • [Obama et l’Open Source|http://framatube.org/media/cnn-obama-et-lopensource – Le modèle bottom-up et la référence au livre La cathédrale et le bazar
  • Citation de Jacques Attali – Révélatrice ?
  • Michel Rocard – À propos de Ségolène et… des logiciels libres !
  • Jérôme Relinger – PC et adjoint au Maire du 13e arrondissement de Paris
  • François Bayrou – Sa pertinente et éloquente vision des deux mondes
Communauté
  • Ubuntu – Christophe Sauthier, président de l’association francophone
  • Linux à Perpignan – Un exemple exemplaire de diffusion territoriale du logiciel libre
Free Culture
Éducation
Vu à la télé
Pause publicitaire
Les inclassables
Framasofteries

Voilà, c’est déjà pas mal ! Et n’oubliez pas bien entendu de vous rendre régulièrement sur les sites qui non plus diffusent mais directement produisent des vidéos. Je pense par exemple au dépôt de l’APRIL, à Kassandre, Ralamax ou encore Lprod (à compléter dans les commentaires).

Participer au projet Framatube

Si vous trouvez ce projet un tant soit peu pertinent et utile, vous êtes cordialement invité à vous joindre à nous. Nous sommes toujours en sous-effectif chronique (et toujours contents de faire de nouvelles rencontres). Pour ce faire il suffit de nous envoyer un message.

Ce ne sont pas les besoins qui manquent en effet. Il conviendrait d’abord d’améliorer les descriptions souvent trop succinctes des vidéos (il manque ainsi presque systématiquement pour le moment la mention de la source) mais également d’exercer un travail de veille pour évaluer les vidéos « candidates », sans oublier les éventuelles tâches techniques de conversion, montage, etc.

Merci de votre attention, de votre éventuelle participation et n’hésitez pas à nous proposer, dans les commentaires, des vidéos non référencées susceptibles de venir grossir le rang de notre canal (quitte à ce qu’elles ne soient pas en français mais tellement intéressantes que ça vaille le coup de déclencher la « procédure Framalang » de transcription, traduction, sous-titrage).

Notes

[1] Crédit photo : La cola de mi perro (Creative Commons By)




Le jour où le Web refusa le navigateur Internet Explorer 6

Schmorgluck - CC by-saMon titre est un peu accrocheur et inexact mais il témoigne d’un mouvement d’origine norvégienne de ras-le-bol généralisé vis-à-vis d’Internet Explorer 6, le navigateur de Microsoft véritable cauchemar vivant de tout webmaster un tant soit peu respectueux des standards.

Si tu ne vas pas à Lagardère, Lagardère ira à toi ! C’est ce que sont un peu en train de se dire un certain nombre de gros sites norvégiens qui invitent les visiteurs malencontreusement restés sur cette version de ce navigateur à soit passer à la version 7 (bien), soit envisager d’autres alternatives telles Firefox, Safari et Opera (mieux)[1].

Des sites norvégiens déclarent la guerre à IE 6

Norwegian Websites Declare War on IE 6

Michael Calore – 19 février – Wired Blog
(Traduction Framalang : Simon Descarpentries)

Plusieurs importants sites web norvégiens ont lancé une campagne de sensibilisation en direction des utilisateurs de Microsoft Internet Explorer 6, les encourageant à mettre à jour leur navigateur obsolète.

À l’origine de cette action, on trouve Finn.no, un site web semblable à eBay, apparemment le plus gros site de vente et d’achat d’occasions en Norvège, Finn étant le norvégien de « trouver » (NdT: « Find » et anglais). Un peu plus tôt cette semaine, Finn.no posta un avertissement sur son site à l’intention des visiteurs utilisant IE6. La bannière, affichée à droite, les presse d’abandonner IE6 et de passer à la version suivante, Internet Explorer 7.

Bon nombre d’autres sites, tels que l’influent journal hightech Digi.no ont rejoint la campagne, mais en élargissant le terrain de jeu à d’autres navigateurs, suggérant aux utilisateurs de passer soit à IE7 soit à une autre alternative comme Firefox, Safari ou, bien sûr le navigateur norvégien Opera.

Le phénomène est en train de s’étendre à d’autres pays.

Des sites en Suède, en Indonésie et en Australie se joignent au mouvement. Le blogueur norvégien Peter Haza fait le décompte des participants, et un wiki international, appelé « IE6 – DO NOT WANT » (NdT : On n’en veut pas !) a été mis en place pour garder la trace des actions navi-cides (tueuses de navigateur). Il y a également un groupe sur Facebook.

Même Microsoft supporte la campagne. Le site norvégien d’actualité « Teknisk Ukeblad » rapportait mercredi les paroles suivantes d’Alveberg Isabella de Microsoft Norvège : « Nous espérons bien sûr que nos utilisateurs nous suivent avec Internet Explorer 7 ».

IE6, sorti en 2001, est le fléau des programmeurs web, des designers, et des équipes de support de service web. Le navigateur est bourré de bizarreries (NdT : non respect des standards) qui le rendent incapable d’interpréter les pages de la même manière que les autres navigateurs, et les webmestres doivent donc toujours prévoir des exceptions pour s’adresser aux utilisateurs d’IE6.

La plupart d’entre eux souhaiteraient simplement que ce navigateur disparaisse, les libérant ainsi de son support. Les chiffres varient d’un pays à l’autre, mais il reste entre 10% et 20% d’internautes utilisant IE6 de par le monde, certains par méconnaissance d’un meilleur navigateur, d’autres parce que le logiciel leur est imposé par leur entreprise. Finn.no note que 17% de ses utilisateurs utilisent IE6. De telles proportions sont trop importantes à l’heure actuelle pour être ignorées par les concepteurs de site web.

Cette protestation anti-IE6 se joue dans l’ombre de l’examen de Microsoft par la commission européenne à la concurrence. La commission, stimulée en décembre 2007 par la plainte d’Opera Software, s’interroge sur les pratiques de Microsoft consistant à livrer IE pré-installé avec Windows sur les ordinateurs de bureau. La commission est en train de statuer sur l’opportunité de forcer Microsoft et ses revendeurs européens à offrir aux utilisateurs le choix d’installer un ou plusieurs navigateurs, lors du premier démarrage d’une machine fraîchement achetée.

Notes

[1] Crédit illustration : Schmorgluck (Creative Commons By-Sa)




Wikipédia et éducation : un exemple de réconciliation 4/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction d’une interview du professeur et de trois de ses étudiantes parue dans la Gazette du Wikipédia anglais qui est ici présentée[1].

Copie d'écran - Wikipédia - Interview

Rencontre avec l’équipe du 2000ème Article de Qualité

Wikinews interviews team behind the 2,000th featured Wikipedia article

Brian McNeil – 14 avril 2008 – Wikipedia Signpost
(Traduction Framalang : Olivier)

Cette semaine, la version anglaise de Wikipédia célèbre son 2000ème Article de Qualité avec l’accession à ce grade de l’article El Señor Presidente. Les Articles de Qualité (AdQ) sont les exemples de ce que Wikipédia a de mieux à offrir en termes de qualité, de précision, de neutralité, d’exhaustivité et de style, et sont par conséquent considérés comme les meilleurs articles sur Wikipédia.

Le système d’évaluation de Wikipédia (proposition d’Articles de Qualité) qui juge les candidatures a élevé cinq articles au rang d’Article de Qualité en même temps : Walter de Coventre, Maximian, El Señor Presidente, Lord of the Universe et Red-billed Chough. Lorsque cinq articles se voient simultanément attribuer cette distinction comment déterminer lequel est le 2000ème autrement qu’arbitrairement ? À vrai dire chacun de ces articles pouvait légitimement revendiquer cet honneur.

Ce qui démarque El Señor Presidente des autres est qu’il est le premier exemple connu d’Article de Qualité directement issu d’un projet pédagogique, le wikiprojet Madness, Murder, and Mayhem (NdT : Meurtre, Folie et Chaos). Jon Beasley-Murray, professeur de littérature espagnole à l’Université de la Colombie Britannique, a en effet décidé de demander à ses élèves de participer à Wikipédia plutôt que de rendre des dissertations classiques. Il leur a ainsi attribué un ensemble d’articles à créer sur la littérature espagnole. Et de la qualité de l’article dépendait la note finale, un Bon Article apportant un A à ses auteurs tandis qu’un Article de Qualité leur assurait un A+. La classe a reçu l’aide de la FA-team, un nouveau Wikiproject dont le but est d’aider les nouveaux wikipédiens à obtenir le statut d’Article de Qualité. Parmi les douze articles sélectionnés, huit ont atteint le grade de Bon Article et trois au total sont devenus des Articles de Qualité (Mario Vargas Llosa et The General in His Labyrinth ont obtenu leur distinction dans la foulée de El Señor Presidente). Au début du projet la plupart de ces articles ne figuraient pas dans l’encyclopédie et certains ont donc été créés pour l’occasion comme ce fut le cas pour El Señor Presidente.

L’idée de Beasly-Murray était de se servir de Wikipédia comme d’un espace collaboratif où ses étudiants pourraient à la fois travailler leur matière et fournir, en quelque sorte un service public virtuel. Il a donc initié un projet Wikipédia, Murder Madness and Mayhem, dans le but de créer ou bonifier des articles sur les ouvrages de littérature d’Amérique Latine étudiés dans son cours. El Señor Presidente est l’œuvre de l’écrivain guatémaltèque lauréat du prix Nobel Miguel Ángel Asturias. C’est donc sans surprise qu’il est vu comme l’un des titres majeurs de la littérature sud-américaine.

Beasley-Murray a décrit cette expérience dans un essai. Il y raconte comment ce devoir a permis aux étudiants d’améliorer leurs aptitudes de recherche et comment ils se sont adaptés au cas particulier de l’écriture à destination d’un large public. Wikipédia, dit-il, n’encourage pas le type d’écriture persuasive généralement demandée en université, mais c’est un très bon exercice de recherche où il faut faire preuve d’esprit critique. On notera que ce WikiProject a causé quelques remous dans certains forums Internet dédiés à l’éducation, comme dans ce message intitulé : « Est-ce que Murder, Madness and Mayhem représente le futur des études supérieures ? ».

Ce n’est pas le premier projet universitaire faisant partie d’un cursus. C’est en revanche le premier à rencontrer un tel succès. Par le passé, des projets semblables ont connu des destinées diverses et variées, certains n’apportant que peu d’informations aux pages concernées, d’autres étant carrément chaotiques, sans réelle gouvernance, ne montrant aucun respect pour les règles de Wikipédia et n’ayant pas vraiment d’autres consignes que « étoffez pour avoir une bonne note ». Ce projet a réussi là où d’autres ont échoué pour deux principales raisons : le leadership du professeur, Jbmurray et les conseils de la FA-Team qui a aidé les étudiants et leur professeur à se faire aux us et coutumes du site et autres bizarreries typiquement wikipédiennes.

L’équipe de Wikinews a contacté le professeur Beasley-Murray pour qu’il nous raconte plus en détails cette histoire dans une interview. Vous trouverez ses réponses ci-dessous. Elles sont complétées par les interventions de trois de ses étudiants qui ont participé à la création et à l’élévation de El Señor Presidente au rang d’Article de Qualité. En plus du 2000ème Article de Qualité, le projet a pour l’instant aussi donné naissance à sept Bons Articles.

Murder, Madness and Mayhem

Wikinews : Professeur Beasley-Murray, merci de nous accorder un peu de votre précieux temps et merci d’avoir accepté de nous rencontrer. Pouvez-vous nous expliquer ce qui vous a conduit à initier ce projet ?

Dossier Wikipédia - Jon Beasley-Murray - CC byProf. Jon Beasley-Murray : En premier lieu, je voudrais dire que j’ai déjà écrit quelques réflexions à propos du projet sur Wikipédia même, c’est un essai que j’ai intitulé « Madness ».

Mais je peux vous en faire un résumé : j’ai fait quelques modifications sur Wikipédia il y a un an. J’ai commencé un peu par accident, après avoir découvert avec surprise qu’une partie de mes travaux universitaires se sont retrouvés sur le site. J’ai consacré un peu de temps à réorganiser et à étoffer des articles et des catégories liées à l’Amérique Latine, en particulier à la culture sud-américaine, qui est ma spécialité. J’ai découvert que la couverture de ce sujet sur Wikipédia était inégale, c’est le moins que l’on puisse dire. C’est en m’engageant là dedans que j’ai pris conscience que des étudiants pourraient apporter une participation constructive au site. Ils se servent déjà de Wikipédia, pourquoi ne pas trouver une manière de les faire participer ? C’est là que j’ai réalisé que c’est seulement en contribuant à cette encyclopédie qu’on peut vraiment la connaître, mieux distinguer ses forces et ses faiblesses, mais surtout comprendre ce qui fait qu’elle est comme elle est.

En fait j’ai toujours été attiré par l’usage de la technologie dans l’enseignement : listes de diffusion, sites Web, etc. Mais je n’ai jamais été un grand fan des « technologies de l’éducation » et ses prgrammes comme WebCT que les élèves ne rencontrent qu’en classe. En créant une sorte ghetto pédagogique, les technologies de l’éducation semblent passer complètement à côté des possibilités les plus intéressantes et les plus passionnantes qu’offre Internet : l’ouverture sur le vaste monde qui existe en dehors de la salle de classe et la re-définition des liens, parfois fragiles, entre les enseignants (censés être des experts et des puits de savoir) et les étudiants (trop souvent considérés comme les destinataires passifs de ce savoir).

Globalement, le projet sur Wikipédia avait plusieurs avantages :

  • faire mieux découvrir Wikipédia aux étudiants, un site important qu’ils emploient souvent (et trop souvent à mauvais escient);
  • améliorer Wikipédia en créant du contenu nouveau sur des sujets encore incomplets;
  • encourager les étudiants à créer quelque chose qui irradie au-delà du périmètre du cours, dans la sphère publique;
  • leur donner des objectifs tangibles qui seraient jugés autrement que par mon point de vue professoral;
  • changer leur approche de l’écriture en mettant en valeur l’importance de l’amélioration permanente;
  • leur apprendre la recherche et comment utiliser et évaluer une source.

Avez-vous consulté d’autres universitaires ou des étudiants avant de lancer ce projet ?

JMB : Non, pas vraiment en fait. Peut-être aurais-je dû ! Mais j’ai évoqué cette idée l’été dernier avec un ami qui travaille dans les technologies de l’éducation à l’Université de Colombie Britannique qui m’avait déjà aidé par le passé à intégrer des blogs dans mes cours. Cet ami, Brian Lamb, s’est montré comme à l’accoutumée enthousiaste pour ce genre d’expérimentation. Il s’est renseigné pour savoir si des bourses allouées à ce type d’initiatives existaient, mais apparemment ce n’était pas le cas. J’ai malgré tout décidé de poursuivre mon idée en solo.

Et en janvier, au moment où le projet allait débuter, je me suis inscrit sur Wikipédia : Projets Pédagogiques. De nombreux autres projets y étaient déjà référencés, certains déjà achevés, d’autres encore en cours. Je me suis alors dit que je n’étais pas vraiment seul finalement et que mon projet n’était pas si innovant. Je ne me suis rendu compte à quel point notre projet était différent et ambitieux que bien plus tard : notre but était de créer des Articles de Qualité, douze si possible, alors qu’aucun autre projet pédagogique n’y était parvenu !

Je suppose que la communauté Wikipédia vous soutenait. Des personnes extérieures à cette communauté vous ont-elles adressé des critiques négatives ?

JMB : Non, mais comme je vous l’ai dit, je n’en ai parlé à quasiment personne.

Mais je voudrais quand même préciser qu’il ne fallait par prendre le soutien de la communauté Wikipédia pour argent comptant. Pour d’autres projets pédagogiques, la première réaction des wikipédiens n’était pas si favorable. C’est en partie dû au fait que les étudiants sont encouragés à créer un nouvel article sur ce qu’ils veulent et ceux-ci se retrouvent rapidement menacés de suppression. C’est aussi parce qu’ils écrivent leurs dissertations hors ligne puis les envoient, et évidemment le plus souvent elles ne respectent pas les règles en vigueur sur Wikipédia (celles sur les Travaux inédits par exemple). Ces articles se retrouvent très vite décorés de commentaires et les pages de discussion qui y sont associées sont remplies d’avertissements et de reproches. Nous avons globalement réussi à éviter cela… principalement par chance ! Mais aussi que c’est parce que j’avais déjà passé pas mal de temps sur Wikipédia, et que j’étais familier de certaines coutumes du sites (mais pas toutes, loin s’en faut). Et puis surtout nous avions un but précis : les étudiants ne contribuaient pas à Wikipédia juste pour le plaisir de contribuer à Wikipédia.

Malgré cela, l’un de nos articles a été marqué pour « suppression rapide ». L’article s’est retrouvé affublé de ce bandeau moins d’une minute après que je l’ai créé devant tous les étudiants pendant un cours. Ce fut, devant toute la classe, un horrible moment de solitude, et j’ai eu furtivement le sentiment que tout allait très mal se passer. L’article marqué pour suppression immédiate était El Señor Presidente… qui est devenu, comme vous le savez, le 2000ème Article de Qualité sur Wikipédia.

Quelle importance dans la notation finale des étudiants avez-vous accordée au travail sur Wikipédia ?

JMB : À la base, le travail sur Wikipédia devait seulement représenter 30% de la note finale pour ce cours. Mais arrivé à la moitié du semestre j’ai commencé à m’inquiéter car le projet n’avait que peu avancé. J’ai donc proposé aux élèves de modifier la méthode d’évaluation en annulant les examens de fin de semestre. Par conséquent, les autres travaux qu’ils avaient réalisés (un partiel, leurs blogs et Wikipédia) devenaient tous plus importants. Après avoir évoqué cette proposition je leur ai laissé le temps de la réflexion. La décision a été prise par vote à bulletin secret avec la règle suivante : l’évaluation ne serait modifiée que si au moins deux tiers (66%) de la promotion étaient pour. Finalement, 85% de la classe a voté en faveur de l’augmentation du coefficient du projet Wikipédia pour qu’il représente 40% de leur note finale.

Étant moi-même (Brian McNeil) membre du comité de communication de la fondation Wikimedia, j’entends souvent les arguments des deux camps sur la pertinence et la fiabilité de Wikipédia. Les cas de figure peuvent être diamétralement opposés : depuis des étudiants se demandant pourquoi leur bibliothécaire ou leurs professeurs ont proscrit l’usage de Wikipédia pour un devoir, jusqu’au cas plus récent d’un enseignant chirurgien au Royaume-Uni demandant la permission de citer abondamment Wikipédia pour une publication sur la pertinence de l’encyclopédie et l’utilité qu’elle pourrait avoir pour les étudiants en médecine. J’ai une réponse toute prête pour expliquer comment vérifier les sources de Wikipédia : Wikipédia est un point de départ formidable pour vos recherches et si vous rejetez Wikipédia vous devriez aussi rejeter Britannica. Êtes-vous d’accord avec ça ?

JMB : Au cours de ce semestre je me suis forgé ma propre réponse à cette question. Si l’article Wikipédia est bon vous n’aurez même pas à le citer car il contient tous les liens nécessaires. S’il ne contient pas ces liens, ce n’est pas un bon article et il ne devrait donc surtout pas être cité.

Avant ce semestre je demandais expressément à mes étudiants de ne pas citer Wikipédia dans leurs devoirs, et je vais continuer dans cette voie. Je me méfie aussi quand ils citent des définitions du dictionnaire. Et même s’ils ne citent pas l’encyclopédie Britannica (je pense que Wikipédia a remplacé Britannica en fait), je ne serais pas non plus impressionné s’ils le faisaient.

Mais évidemment, comme vous le dites, Wikipédia peut être un excellent point de départ pour une recherche. Je l’utilise d’ailleurs souvent dans cette optique.

Feriez-vous à nouveau appel à un wiki si vous deviez recommencer une expérience collaborative ? On parle de quelque chose qu’on pourrait appeler « Eduwiki » pour la création de contenu pédagogique. Seriez-vous prêt à vous impliquer dans un tel projet ? Pensez-vous que le logiciel Mediawiki pourrait être utilisé dans d’autres domaines de l’éducation ? Ce type d’initiatives pourraient faire partie de plus vastes projets lancés par la fondation Wikimedia tels que Wikibooks ou Wikiversity. Choisiriez-vous ce type de fonctionnement ouvert au détriment d’un projet fermé au sein du monde universitaire où les compétences des contributeurs peuvent être vérifiées ?

JMB : Je ne sais pas vraiment. Comme vous avez déjà pu vous en apercevoir, j’ai fortement tendance à douter de tout ce qui comprend « édu » dans la dénomination. Je dis ça avec tout le respect que je dois à mes amis qui sont dans « EduTech », mais je devrais ajouter qu’ils sont souvent aussi suspicieux que je le suis, si ce n’est plus ! J’ai déjà travaillé deux fois avec des wikis dans des environnements plutôt fermés, ça n’a jamais été un succès. Je pense que c’est parce que nous n’avions pas atteint la masse critique. Ce qui fait que Wikipédia marche c’est la masse critique (même si, bien sûr, un faible pourcentage des lecteurs de Wikipédia deviennent contributeurs).

Dossier Wikipédia - Université de la Colombie Britannique - CC by-saIl faut dire aussi que peu de gens du monde universitaire comprennent l’esprit des wikis. Il leur (nous) est difficile de ne pas se (nous) montrer possessifs vis-à-vis de leur (notre) travail. Je crois que c’est de là que naissent les antagonismes et la frustration que ressentent les universitaires lorsqu’ils s’impliquent sur Wikipédia. C’est rarement « l’expertise » qui est en cause mais plutôt la propriété. Je reconnais que je ne suis pas très précis, mais par exemple un wiki avait été mis en place dans mon université, mais il était impossible de modifier le texte de quelqu’un d’autre. On aurait très bien pu alors afficher des pdf. C’était plus un exercice de monographie qu’un exercice d’écriture collaborative.

Et pour ce qui est des qualifications, sujet largement débattu sur Wikipédia, je pense que ce sont des sornettes. Je ne pense pas que les qualifications aient une si grande importance. Mes étudiants ne peuvent pas s’enorgueillir de beaucoup de titres, mais ils ont quand même produit un excellent résultat.

Comment qualifieriez-vous la réaction de vos étudiants à l’idée de faire ce devoir alors que tout le monde peut observer leur progression, y étaient-ils réceptifs ?

JMB : Dans les cours précédents j’ai souvent demandé à mes étudiants de tenir un blog, blog qui était évidemment visible de tous. Mais à vrai dire, peu de personnes se retrouvent pas hasard sur le blog d’un étudiant. Ce n’est pas vraiment le fait que les articles de Wikipédia soient publics qui importait mais plutôt le fait qu’ils allaient contribuer à l’un des dix sites les plus visités sur Internet. Alors je me suis décidé un jour à faire mes petites recherches pour savoir combien de personnes visitaient les pages sur lesquelles nous travaillions (j’ai accumulé ces résultats et je les ai plus tard mis à jour ici). Durant le cours suivant nous avons joué à deux petits jeux de devinette. Il fallait d’abord qu’ils devinent le pourcentage d’Articles de Qualité sur Wikipédia ; ils ont commencé avec 30% et ça leur a pris du temps avant de baisser leur estimation à 0,15%. Nous avons fait ce petit jeu juste après qu’El Señor Presidente eut atteint le statut d’Article de Qualité, ça leur a donné une idée de la performance qu’ils avaient réalisée je pense.

La deuxième devinette concernait le nombre de pages vues que généraient leurs articles chaque mois. Je ne sais plus quel nombre ils m’ont dit en premier, mais ce que je sais c’est qu’il était bien inférieur aux 50000 visites que l’article sur Gabriel García Márquez reçoit effectivement. Après avoir calculé que cet article devait recevoir plus de 600000 visites par an (je crois que c’est 750000 maintenant), l’équipe en charge de cette page a reçu un choc. Mais je pense aussi que réaliser l’importance de leur travail était excitant en même temps. Et je sais aussi que les étudiants qui verront bientôt leur article sur la page d’accueil du site anglais (le 5 mai) seront vraiment enchantés. Mais je crois que ce qui les intéresse le plus (eux et les autres étudiants) n’est pas le fait que le « public » ait accès à leur travail mais plutôt le fait de pouvoir dire à leurs amis et à leur famille de jeter un œil à leur travail.

Certains de vos étudiants ont-ils eu des problèmes d’adaptation qui les ont empêchés de travailler sur Wikipédia ?

JMB : Oui. Les réponses ont été assez variées. Certains étaient vraiment enthousiastes. Pour d’autres, il fallait laisser le temps à l’idée de faire son chemin. Quelques-uns ne se sont jamais vraiment sentis à l’aise avec le travail sur Wikipédia. Il m’est difficile de dire individuellement pourquoi. Certains ont été trop intimidés par la technologie, mais je pense surtout qu’ils n’y ont pas consacré assez de temps pour dépasser les premières barrières. De plus, comme c’était un travail de groupe, certains de ses effets pouvaient être angoissants par moments. C’est un aspect auquel je devrais réfléchir avant de tenter à nouveau une expérience similaire.

Pensez-vous que fonctionner ainsi, de manière aussi ouverte, a poussé les étudiants à travailler plus consciencieusement qu’ils ne l’auraient fait autrement ?

JMB : Oui, absolument, c’est certain ! Les étudiants, les plus actifs tout du moins, ont participé à l’élaboration d’articles comprenant entre 4000 et 8000 mots étayés par des recherches exhaustives, corrigés à maintes reprises, avec un souci du détail méticuleux. N’importe lequel des articles qu’ils ont rédigés est bien meilleur que n’importe quelle dissertation qu’ils auraient produite autrement. Évidemment, certains étudiants étaient plus actifs que d’autres. Ils ont donc appris plus et ont aussi été plus poussés que les autres. Mais les remarques et les questions incessantes des autres éditeurs de Wikipédia, en particulier des membres de la FA-Team, qui a réalisé l’essentiel du travail de révision, les ont forcés à toujours réfléchir à ce qu’ils disaient, à comment ils le disaient et à bien citer leurs sources.

Rétrospectivement, que feriez-vous différemment ?

JBM : Certains aspects du travail en groupe n’ont pas fonctionné de manière optimale. Nous avons également commencé assez lentement : il faudrait que je réfléchisse à comment y remédier. De plus, une fois que le projet sera achevé, la FA-Team et moi (et n’importe quel étudiant intéressé évidemment) prévoyons une réflexion « post-mortem » sur tous les aspects de la collaboration. On peut toujours améliorer les choses. J’ai aussi beaucoup appris grâce à ce projet et j’espère bien me servir de cette expérience la prochaine fois.

Vous en êtes à 6000 éditions, avez-vous attrapé le « virus wiki » ? Allez-vous continuer à participer ?

JMB : 7000 maintenant ! Il faudra bien que je lève le pied quand le projet sera terminé car il m’a pris énormément de temps. Mais je compte me remettre en selle à l’automne.

Maintenant que l’on peut dire que votre projet est une réussite, qu’auriez-vous à dire à d’autres universitaires pour les persuader de se lancer dans des expériences similaires ?

JMB : Je les y encouragerai c’est sûr, mais je ne voudrais pas passer pour un évangéliste de Wikipédia. Je peux tout à fait comprendre pourquoi des activités précédemment engagées avec l’encyclopédie ont pu se révéler décevantes, frustrantes ou pire encore. Mais je pense que, particulièrement si les universitaires prennent le temps de comprendre les aspects de la culture de Wikipédia, certaines activités peuvent se montrer très gratifiantes. Nous avons eu beaucoup de chance de croiser le chemin de la FA-Team, un groupe d’éditeurs expérimentés de Wikipédia qui venait juste de se former pour aider les autres à atteindre le statut d’Article de Qualité. Leur participation a été un vrai don du ciel. Mais je ne vois pas pourquoi d’autres ne pourraient pas bénéficier d’une assistance semblable (voire différente, sait-on jamais, et peut-être meilleure) dans d’autres circonstances.

Avant de continuer en faisant participer vos étudiants à la discussion, j’aimerais conclure en vous demandant votre avis sur l’intégration d’un tel exercice au programme. L’envisagez-vous ? Pensez-vous que d’autres institutions devraient étudier votre projet en vue de le reproduire ?

JMB : Je recommencerai cette expérience, ça ne fait aucune doute. Le seul côté négatif pour le professeur est que, s’il veut que le projet soit correctement mené, il doit y consacrer beaucoup de travail. Mais d’un autre côté, en terme de ressources, ce genre de projet n’en requiert quasiment pas. Mon université (et bien d’autres) paye des licences à plusieurs millions de dollars pour des logiciels pédagogiques comme WebCT. C’est de l’argent gaspillé, beaucoup d’argent gaspillé d’après moi, mais je reconnais que c’est un racket lucratif pour ceux qui vendent ces logiciels. Je pense aussi que l’université se désengage d’une part importante de sa mission : investir dans les Biens Communs. La tendance aujourd’hui, dans le monde universitaire, est à la privatisation et au cloisonnement (même si je dois dire qu’il existe encore quelques valeureuses exceptions, le travail sur l’accès libre de mon ancien collègue John Willinsky est à ce titre exemplaire). À mesure que les universités s’impliqueront dans Wikipédia, elles réaliseront qu’elles peuvent le faire sans nécessairement y perdre leurs exigences de qualité en matière de recherche et la rigueur universitaire qu’il est également de leur devoir de défendre, et que cela profite non seulement à leurs étudiants mais aussi au bien commun.

Bons Articles et Articles de Qualité

En plus de l’Article de Qualité, sept autres articles ont atteint le statut de Bons Articles. Était-ce une source de motivation pour tous ceux d’entre vous impliqués dans le projet ?

Dossier Wikipédia - Étudiants de Jon Beasley-Murray - CC byMonica Freudenreich : Je ne peux pas parler au nom de toute la classe, mais je crois que nous étions tous un peu hésitants. Nous n’avions jamais été confrontés dans notre cursus à un projet d’une telle envergure et nous ne savions pas vraiment ce qui allait en ressortir, c’est le moins que l’on puisse dire. Nous autres étudiants, nous avons l’habitude de toujours faire les choses à la dernière minute et pour ce projet ça n’était vraiment pas possible. Et donc, malgré un démarrage assez poussif dans l’ensemble, je pense que le statut que la plupart des articles du projet ont atteint est vraiment impressionnant et que cette réussite est une énorme motivation en elle-même.

Katy Konik : Je ne peux pas parler au nom de tous, mais je pense que de voir tous ces articles atteindre le statut de Bons Articles a prouvé que l’objectif était tout à fait atteignable. Je crois que le seul problème est qu’au sein de la classe chacun travaille à son rythme. Voir que d’autres ont déjà atteint le statut de Bon Article quand on n’y est pas encore peut mettre la pression.

Elyse Economides : Cela nous a servi d’encouragement, mais en même temps rendait la tâche un peu plus intimidante. C’était formidable de voir tant de groupes atteindre le statut de Bon Article au bout de quatre mois, mais cela nous rappelait également tous les efforts et le temps qui devaient y être consacrés. Heureusement, voir nos camarades obtenir le statut de Bon Article nous a convaincus que ce défi était à notre portée.

À quel moment avez-vous ressenti qu’il était possible d’atteindre les statuts de Bon Article ou d’Article de Qualité ? Depuis combien de temps travailliez-vous sur Wikipédia à ce moment là ?

MF : Je me suis créé un compte en janvier, comme beaucoup d’autres étudiants de notre classe, je ne savais même pas avant qu’on pouvait modifier Wikipédia. La page a été créée, je crois, le 15 janvier, avec l’aide du Dr Beasley-Murray. Comme je n’avais aucune idée de la manière de créer une page, après que le bandeau « suppression immédiate » ait été apposé sur l’article, je me suis dit que je devrais y apporter du contenu pour éviter qu’elle soit supprimée. Nous avions entrepris notre travail depuis 3 mois avant d’être promus sur la liste des articles candidats au grade de Bon Article puis à partir de là il nous a fallu 1 mois supplémentaire pour recevoir notre étoile d’or récompensant les Articles de Qualité. Mais je ne crois pas que ce soit le temps qui compte dans l’obtention d’un Bon Article ou d’un Article de Qualité, c’est plutôt la qualité du contenu et la volonté des autres wikipédiens de collaborer sur le projet. J’ai fait confiance aux utilisateurs plus expérimentés pour nous prévenir quand les statuts de Bon Article ou d’Article de Qualité étaient envisageables et pour nous donner une liste de choses qui restaient à faire pour atteindre ces étapes.

KK : Lorsque le projet nous a été présenté à la mi-janvier nous étions tous très motivés pour atteindre le grade d’Article de Qualité et je crois que je ne réalisais pas très bien la quantité de travail et de ré-écriture nécessaire pour atteindre ce but. À la mi-février nous avons consacré quelques jours à la lecture de toutes les sources en langue anglaise que nous pouvions trouver et nous balancions tout ce que nous trouvions sur la page. C’est à ce moment là que d’autres personnes ont véritbalement commencé à montrer de l’intérêt pour notre travail en proposant des suggestions et en faisant des tas de modifications elles-mêmes. Pour être honnête c’était un peu décourageant de voir à quel point les règles sur Wikipédia sont strictes et de se rendre compte de la quantité de travail de ré-écriture qui nous attendait. Même si ces critères pouvaient paraître de prime abord décourageants, ils nous donnaient une idée exacte de ce que nous devions faire et ils rendaient nos objectifs plus concrets et atteignables.

EE : Une fois que professeur Beasley-Murray nous a vraiment encouragés à commencer nos articles en nous donnant comme consigne de faire une modification, importante ou pas, à notre article, éditer un article sur Wikipédia était déjà moins intimidant même si l’entreprise nous semblait toujours pharamineuse. La base de l’article, le plan et les informations qui ont survécu aux révisions, ont été créés vers la fin février, c’est à ce moment-là que le statut de Bon Article est devenu un objectif tangible. C’est également à ce moment-là que les contributions extérieures à notre groupe se sont faites plus importantes, un apport positif qui s’est maintenu durant le reste de notre progression.

Si vous pouviez modifier les directives pour conseiller les gens qui désirent promouvoir un article au rang d’Article de Qualité, que changeriez-vous ?

KK : Je pense que les directives sont équilibrées et c’est ce qui fait que les Articles de Qualité sont des sources fiables. Je n’aurais en fait qu’une remarque à faire vis-à-vis des Conventions de Style qui sont carrément incompréhensibles pour les profanes comme moi. Si nous n’avions pas reçu le soutien d’éditeurs professionnels qui savaient ce qu’ils faisaient je ne sais pas si nous aurions pu surmonter cet obstacle.

EE : Même si je n’ai probablement pas une expérience des directives aussi importante que les autres membres de mon groupe, de ce que j’en ai vu, un certain niveau d’exigence technique et professionnel est requis, ce qui est nécessaire pour assurer la continuité et le sérieux des articles, mais cela peut se révéler compliqué à comprendre et à mettre en application pour les utilisateurs néophytes. Les directives sont une composante nécessaire de Wikipédia et Wikipédia fournit les explications nécessaires à leur compréhension. Je pense que pour bien se familiariser avec ces directives il faut s’entraîner et prendre exemple sur les autres articles.

Chacune de vos contributions était directement consultable sur Internet. Pensez-vous que ça vous ait encouragé à plus vous appliquer que pour une dissertation conventionnelle que le professeur est seul à lire ?

MF : Pas vraiment. Je pense surtout que ce sont les autres éditeurs de Wikipédia qui nous ont poussés à nous appliquer davantage. Ils nous stimulaient en permanence pour que nous trouvions de meilleurs sources à référencer. Lorsque vous visez un Bon Article ou un Article de Qualité ils mettent la barre extrêmement haut. Les blogs ou d’autres sites Internet comme Facebook rendent également toute contribution directement visible et pourtant leur contenu peut-être d’un niveau très médiocre, si l’on peut parler de niveau. Je pense donc que le fait que notre travail apparaissait sur Internet n’a rien à voir avec notre détermination à travailler dur sur ce projet. Le soutien que nous ont apporté les autres wikipédiens tout au long de l’aventure m’a permis de me motiver pour poursuivre le travail et aussi me fixer des objectifs de qualité élevés.

KK : Je ne pense pas que ça ait quelque chose à voir avec le fait que notre travail était directement visible en ligne. Je crois personnellement que ce sont surtout la possibilité de recevoir des commentaires et de re-travailler les pages qui nous ont poussé à toujours améliorer la qualité de nos contributions. C’est vraiment très différent d’une dissertation que vous ne pouvez rendre qu’une seule fois sans pouvoir la corriger en fonction des commentaires reçus. Par cet aspect du travail nous avons appris beaucoup plus grâce à Wikipédia que grâce à une dissertation, nous pouvions vraiment utiliser les commentaires des autres éditeurs.

EE : J’aurais presque tendance à dire que ça a eu l’effet inverse. Même si de nombreux utilisateurs de Wikipédia font très attention à leurs contributions, Wikipédia reste anonyme et les contributions de chacun ne sont pas nécessairement retraçables. Il faut dire aussi que Wikipédia change perpétuellement au gré des allées et venues des éditeurs, une information que l’on ajoute n’est jamais inamovible. Une dissertation est toujours liée à son auteur et contrairement à Wikipedia, son contenu est définitif.

Ressentez-vous un sentiment d’accomplissement plus grand en ayant apporté quelque chose aux « Communs numériques » plutôt que d’avoir rendu une dissertation ?

MF : Cela ne fait aucun doute. Un nombre incalculable de personnes vont lire cette page au cours de son existence. J’ai investi tellement d’énergie dans la rédaction et l’amélioration de cet article que je suis vraiment fière du résultat final. Quand je le relis, j’ai même du mal à croire que j’y ai contribué. Les dissertations que je rends finissent en général dans un classeur, qui restera bien rangé sous mon lit ou alors dans un coin de mon disque dur, pour ne jamais être ré-ouvertes. La page sur Wikipédia sera consultée et servira certainement à quelqu’un. Je dois dire que je suis plutôt sure que la bibliographie référence quasiment tout ce qui a été publié en anglais sur le sujet. Si quelqu’un cherche à approfondir El Señor Presidente tout est là et je trouve que c’est vraiment incroyable !

EE : Oui et non. Contribuer à la création d’un Article de Qualité est synonyme de répandre cette information à un nombre potentiellement illimité de personne, mais rédiger une dissertation est également un accomplissement à part entière, ça implique beaucoup de recherches et de rédaction. Sur Wikipédia un nombre largement plus important de personnes pourront consulter et apprécier le travail de quelqu’un, je le reconnais, mais c’est aussi moins personnel. Je trouve que les deux font naître un sentiment d’accomplissement, peut-être mêlé à un sentiment de soulagement aussi.

Avez-vous attrapé le « virus wiki » ? Allez-vous continuer à contribuer ?

MF : Je n’en suis pas certaine, je pense que Wikipédia est une formidable ressource et j’éprouve beaucoup d’admiration pour tous ceux qui œuvrent pour que Wikipédia soit une source complète et fiable, mais je ne sais pas encore si je vais continuer à y participer. J’aimerais pouvoir dire que oui, mais entre deux emplois et les cinq cours que je suis, il va falloir que j’arrête ou que je me limite avant la fin du semestre. Ensuite, cet été, je cumulerai trois emplois et deux cours, là non plus je ne sais pas combien de temps je pourrai accorder à Wikipédia. Mais je pense que quand je lirai des romans ou que je ferai des recherches pour des devoirs futurs, j’utiliserai les informations et les références recueillies pour étoffer les articles concernant les sujets étudiés.

KK : Je ne sais pas si je vais continuer à contribuer, il faut voir la quantité de travail et de recherche nécessaire pour produire du contenu de qualité. Si j’ai attrapé le « virus wiki » ça serait plutôt pour le respect que j’accorde maintenant aux autres Bons Articles ou Articles de Qualité. Même si je n’ai pas forcément le droit de les citer dans mes dissertations, j’aurai au moins appris que ce sont des sources excellentes et qu’ils peuvent me mener vers d’autres articles universitaires. Quand je ne connais rien dans un domaine c’est toujours vers Wikipédia que je me tourne et si je peux y trouver des liens vers d’autres sources alors je sais que je suis sur un bon article.

EE : Je pense que je vais continuer à participer, même si ça sera surtout par des modifications mineures comme des corrections orthographiques ou grammaticales, c’est là que je m’épanouis le plus. Je pense que toute modification sur Wikipédia, peu importe son importance, donne à l’utilisateur un sentiment de satisfaction.

Si le Professeur Beasley-Murray souhaitait recommencer ce projet dans les années à venir, quel conseil donneriez-vous aux étudiants qui prendraient votre relève et feraient leurs débuts sur Wikipédia  ?

MF : Je leur conseillerais de s’y prendre tôt et de commencer avec les recherches. En plus du projet sur Wikipédia nous avions à rendre des comptes rendus de lecture. Je conseillerais également une approche hebdomadaire du projet aux étudiants, je leur recommanderais de prendre au moins une heure par semaine pour éditer Wikipédia ou pour faire des recherches sur le sujet. Pour commencer, les bases de données de journaux en ligne sont très utiles, mais il faut reconnaître que de nombreux articles traitant des romans ne sont pas publiés en ligne et l’aide de votre assistant bibliothécaire vous sera très précieuse. J’ai eu recours à leurs compétences trois fois pour savoir comment obtenir les informations que je cherchais. Je leur conseillerais également de ne pas se laisser dépasser par l’ampleur de la tâche. Les wikipédiens imposent des critères de qualité très élevés, mais ils ne sont pas hors d’atteinte. Ayez confiance en vous, même en tant que non diplômé et même si l’anglais n’est pas votre spécialité vous pouvez apporter une contribution importante et voir vos efforts se matérialiser en quelque chose de concret.

EE : Je les encouragerais moi aussi à commencer leurs recherches tôt afin de réunir autant d’informations que possible sur le sujet. Les vétérans et utilisateurs expérimentés de Wikipédia semblent graviter autour des pages qui font preuve d’une activité importante. Je les encouragerais également à trouver leur rythme (ce que j’aurais du faire), à prendre exemple sur d’autres pages et à chercher conseil auprès des autres utilisateurs. Je les encouragerais à se réunir avec les autres membres du groupe assez tôt pour mettre sur pied un plan pour la recherche et l’écriture.

Qui d’après vous note le plus sévèrement ? Les autres professeurs à qui vous avez rendu des devoirs conventionnels ou l’équipe qui juge les contributions faites à Wikipédia en vue de leur attribuer les grades de Bon Article ou d’Article de Qualité ?

MF : La question ne se pose même pas ! L’inspection pour obtenir le grade de Bon Article a vraiment été intense et je dois avouer que j’étais plutôt intimidée au début. Ils ont dégagé toute une liste de points à re-travailler, après les avoir corrigés je me suis rendu compte que ces améliorations étaient à la fois nécessaires et importantes. Mais nous n’étions pas encore au bout de nos peines. En fait, avant même la fin de l’inspection un autre éditeur a passé l’article en revue, vérifiant chaque ligne pour nous présenter à la fin une liste d’améliorations encore plus longue. Une fois qu’elles furent intégrées l’article a encore été révisé de fond en comble. Par moment j’ai vraiment été découragée par la montagne de travail que cela représentait et je n’étais pas tout à fait sûre de pouvoir tout corriger. Mais grâce à leur soutien indéfectible et leur aide nous y sommes parvenus. Pour les devoirs que nous rendons habituellement, les professeurs ne font que peu de commentaires avant de nous rendre les copies. En presque quatre ans passés à l’université, un seul professeur nous a rendu nos devoirs en nous laissant la possibilité de les revoir et de re-travailler les passages problématiques. Et personnellement, je trouve cet exercice de ré-écriture, clarification et amélioration du texte extrêmement formatrice. Au cours des mois écoulés j’ai appris tellement à propos de l’écriture que je ne saurais même pas par où commencer… et ça se voit. J’ai toujours eu des notes autour de B+/A- tout au long de mes études universitaires et aux deux derniers devoirs que j’ai rendus j’ai eu des A ! Je pense que les notes parlent d’elles-mêmes.

KK : Wikipédia était carrément plus intense, mais je pense aussi que le processus était plus juste. La critique ne me gène pas tant qu’on a l’occasion de corriger les choses. C’est exactement ce que j’ai apprécié dans le déroulement de ce projet sur Wikipédia et je crois que c’est la raison pour laquelle ce fut une très bonne expérience pédagogique.

EE : Dans l’ensemble, Wikipédia semble être plus constant et cohérent dans son appréciation alors que les professeurs peuvent parfois noter de manière inattendue. Mais malgré tout, que ce soit avec Wikipédia ou avec mes professeurs, dans les deux cas, un travail de très bonne qualité est attendu et l’auteur est mis au défi de produire un tel travail.

D’autres wikipédiens ne faisant par partie de la classe ont-ils apporté des contributions importantes ? Et si oui, cela vous a-t-il aidé ?

MF : Si au commencement nous étions pratiquement seuls, à mesure que nous nous sentions plus à l’aise sur Wikipédia et que nous étoffions nos recherches sur le sujet, nous avons reçu plus d’aide de la part d’autres wikipédiens, des gens que nous ne connaissions vraiment pas et qui désiraient nous aider à atteindre notre objectif ambitieux : l’Article de Qualité. Cette aide nous a été très précieuse, je pense même que nous n’aurions pu atteindre notre but sans l’assistance et les conseils qu’ils nous ont prodigués tout au long du projet. Je ne les remercierai jamais assez de nous avoir ainsi guidés et remis dans le droit chemin quand nous rencontrions des obstacles.

EE : Oui, d’autres utilisateurs de Wikipédia ont largement contribué, même avant que notre groupe n’approche du statut de Bon Article. Cet esprit communautaire développé entre tous les utilisateurs est vraiment l’un des éléments de base de Wikipédia. Lorsqu’ils identifient un besoin, ils apportent rapidement leur aide et leur soutien.

Une question assez ouverte : voyez-vous une place pour l’utilisation de la technologie wiki dans d’autres matières que vous suivez, ou même dans le futur emploi que vous visez ?

MF : Wikipédia est à mes yeux une formidable ressource où l’on peut trouver des informations concises et bien organisées. Notre société allant toujours plus vite, l’encyclopédie ne fera que gagner en importance pour les personnes qui doivent rapidement vérifier des noms ou des lieux pour leur travail. J’utilise déjà Wikipédia pour vérifier rapidement certaines références ou pour m’informer sur quelqu’un ou quelque chose lorsque je ne suis pas familière avec le sujet.

KK : Je vois plein d’usages potentiels de la technologie wiki. Mon premier réflexe lorsque j’ai une question est souvent de me rendre sur Wikipédia. Même si je ne peux pas citer Wikipédia dans mes devoirs, j’ai appris que si l’article est bon j’y trouverai beaucoup d’informations pour mes travaux universitaires et si ce n’est pas le cas, Wikipédia n’en reste pas moins une excellente ressource où trouver des connaissances de base. Je pense que si plus d’articles pouvaient atteindre au moins le statut de Bon Article l’encyclopédie commencerait à être reconnue comme une source fiable.

EE : J’ai toujours apprécié Wikipédia en tant que ressource où trouver des informations de base pour beaucoup des matières que j’étudie. Et même si elle n’est pas reconnue comme une source purement académique je m’en sers pour me familiariser avec un sujet avant de m’engager dans des recherches plus approfondies. Je trouve également Wikipédia très utile pour les sujets non-académiques, c’est d’ailleurs là que réside sa beauté.

Le 2000ème

Quel a été votre sentiment quand El Señor Presidente a reçu le statut d’Article de Qualité ? Y-avez-vous porté un toast ou avez-vous fait la fête pour célébrer ?

MF : J’étais (et je le suis toujours) extrêmement excitée. Avant que le semestre ne commence en janvier je ne savais même pas que n’importe qui pouvait modifier Wikipédia, ne parlons même pas de créer une page pour la commencer à partir de rien. Je ne savais vraiment pas si nous arriverions à le mener jusqu’aux propositions d’Articles de Qualité mais nous avons bénéficié de tant de soutien pour la révision et les aspects techniques de Wikipédia touchant à la création d’un article que rien n’aurait été possible sans l’aide que nous ont apportée quelques wikipédiens. Malheureusement nous n’avons pas pu fêter ça, le travail d’étudiant semble sans fin, mais je vous avoue que je m’en vante sans vergogne devant ma famille ou mes amis.

KK : C’était vraiment formidable mais, pour être honnête, j’avais tellement pris l’habitude d’éditer Wikipédia pendant deux mois que j’étais presque triste que tout se termine. Créer un article sur Wikipédia est vraiment un travail de groupe et j’étais un peu triste que tout s’arrête après avoir collaboré si intensément avec un groupe extraordinaire.

EE : C’était presque un sentiment surnaturel. On a du mal à croire qu’un article créé en janvier mérite maintenant le statut d’Article de Qualité moins de quatre mois plus tard. Toute notre classe a célébré la fin des cours, j’imagine que nous fêtions un peu en même temps la fin de notre projet sur Wikipédia.

Avez-vous été déçues que plus d’articles n’atteignent pas le statut d’Article de Qualité ?

MF : Je n’ai pas participé à l’élaboration des autres articles, donc ça me touche moins. Peut-être devriez-vous poser cette question à Dr. Beasley-Murray qui a participé, lui, à chaque article.

Est-ce que ça a été plus dur que vous ne l’imaginiez d’atteindre ce statut ?

MF : En fait je ne sais pas vraiment ce que j’attendais. Au début projet j’ai lu d’autres articles traitant de livres qui avaient atteint le statut d’Articles de Qualité et ils étaient vraiment très bons, donc dès le début je savais que ça allait être difficile et j’étais prête à affronter les difficultés et à me lancer.

KK : Je ne dirais pas que c’était plus dur que je ne l’imaginais, mais ça nous a demandé plus de travail. Par chance nous avions avec nous un groupe d’utilisateurs et d’éditeurs de Wikipédia fantastique qui nous a aidés à comprendre dès le début ce qui nous attendait. Et pour être honnête, sans leur aide je pense que tout ce processus aurait été bien plus difficile, voire impossible. J’ai appris à travers cette expérience que si vous êtes prêt à y accorder le travail et le temps nécessaire ce n’est vraiment pas impossible.

EE : L’engagement requis, en temps et en efforts, est important, mais je pense que l’on doit s’y attendre pour un article reconnu. Notre chance a été d’être guidés à chaque étape par des éditeurs expérimentés, c’est grâce à eux que nous sommes arrivés si loin et si vite.

Que les auteurs ne soient pas crédités sur Wikipédia vous pose-t-il problème ?

MF : Absolument pas. Wikipédia est vraiment un effort de groupe et je pense que ça serait injuste de ne citer que quelques noms. J’ai peut-être été l’un des principaux éditeurs, travaillant sans relâche sur l’article, mais en même temps il n’aurait jamais atteint le statut d’Article de Qualité sans le soutien indéfectible d’autres collaborateurs dont l’aide a été extrêmement précieuse. Ce qui m’impressionne toujours, c’est la rigueur de leur relecture, leur capacité à se concentrer sur les passages perfectibles, tout ceci a rendu l’article final tout simplement remarquable.

KK : Cela ne me dérange vraiment pas personnellement car je l’ai fait dans le cadre d’un devoir scolaire. Donc comme je ne me suis occupé que d’un unique article le manque de crédit ne me gène pas, surtout que c’est vraiment un effort collectif. Ce qui me dérange plus est le manque de reconnaissance dont est victime Wikipédia dans le monde universitaire. Beaucoup de personnes ont travaillé d’arrache-pied sur cet article, et il en va de même pour les autres Articles de Qualité évidemment, pour lui assurer de solides bases universitaires et pourtant l’encyclopédie a toujours mauvaise réputation. Je crois que les Articles de Qualité méritent plus de reconnaissance de la part du monde universitaire car ce sont d’excellentes sources d’informations.

EE : Pas vraiment. Le but de Wikipédia est de partager et de diffuser l’information, pas de formuler de nouvelles idées ou d’avancer des hypothèses. En fait, les utilisateurs sont surtout des agrégateurs, ils rassemblent les informations et les organisent en une page cohérente. Même si certains utilisateurs contribuent plus que d’autres, tous les utilisateurs travaillent de concert vers un objectif commun, et cet objectif n’est pas la reconnaissance individuelle. De plus, Wikipédia a mis en place son propre système de reconnaissance et de récompenses pour rendre à César ce qui appartient à César.

« Publier ou mourir » semble être le mantra du monde académique. Pensez-vous que le milieu éducatif devrait adopter Wikipédia, ou tout du moins sa technologie sous-jacente, pour réduire les coûts de publication ?

MF : Étant donné que je ne suis pas encore diplômée je ne peux pas vraiment dire que j’ai été confrontée à cette pression du « publie ou crève » (NdT : publish or die). Je pense en revanche que ce devoir nous a été très profitable et j’y vois beaucoup de points positifs. D’habitude ce que nous autres étudiants écrivons n’est jamais publié, c’était donc une chance pour nous de publier quelque chose sur Wikipédia. Je pense aussi que nous avons acquis beaucoup de compétences importantes grâce à l’édition de Wikipédia parce que personne n’écrit jamais quelque chose pour ne plus jamais y revenir. Wikipédia encourage les révisions multiples, le travail de ré-écriture ou encore les recherches plus approfondies pour clarifier un point développé. Je pense que notre écriture s’est améliorée également et que nous avons pu amender nos points faibles. Je ne sais pas si j’ai vraiment répondu à la question, mais oui, je pense que le milieu éducatif devrait voir Wikipédia comme un outil pédagogique précieux pour les étudiants. Comme le nom des personnes n’est lié à aucun article ou que le vrai nom de la personne n’apparaît pas lorsqu’elle édite, je pense qu’il serait très difficile d’utiliser Wikipédia, sous sa forme actuelle, pour réduire les coûts élevés de publication.

EE : Wikipédia est très utile pour se renseigner (et même plus que simplement se renseigner dans certains cas) sur certains sujets universitaires et je pense que l’encyclopédie devrait être mieux reconnue. Il faudrait aussi que les étudiants, quel que soit leur niveau d’étude, puissent citer Wikipédia comme n’importe quelle autre source universitaire dans leurs devoirs ou leurs projets. Je peux tout à fait concevoir par contre qu’il est difficile de considérer Wikipédia comme une source universitaire rigoureuse puisqu’elle est ouverte aux modifications par des universitaires et des non-universitaires sans discrimination. Je crois que Wikipédia devrait continuer à être employée pour la recherche d’informations ou pour débuter une recherche et comme tremplin vers d’autres sources.

Après avoir travaillé sur un article pour qu’il atteigne le statut d’Article de Qualité, votre opinion sur Wikipédia a-t-il changé par rapport au début de ce projet ?

MF : Comme je l’ai déjà dit, j’ignorais même que quelqu’un pouvait éditer Wikipédia avant de commencer le projet, mon opinion sur Wikipédia a donc été profondément modifiée. Après avoir travaillé sur cette page si longtemps et après avoir obtenu le grade d’Article de Qualité ,j’ai nettement plus de respect maintenant pour les éditeurs qui œuvrent à améliorer l’information qu’on y trouve. Wikipédia est une ressource formidable et ça ne fait aucun doute pour moi que ça n’ira qu’en s’améliorant. Puisque, avant de commencer le projet, on nous demandait de ne jamais citer Wikipédia dans nos écrits universitaires, je m’étais dit qu’on ne pouvait pas faire confiance à son contenu. En même temps, l’un de mes professeurs cette année a inclus dans la bibliographie qu’il nous a transmise pour son cours certains articles de Wikipédia sur la théorie du Big-Bang et j’en ai été choquée. J’en ai tiré une leçon : Wikipédia peut être un outil de recherche extrêmement précieux, au moins en ce qui concerne les Bons Articles et les Articles de Qualité, le lecteur peut y trouver une liste complète et fiable de travaux universitaires. Je ne pourrais jamais exprimer tout mon respect pour ceux qui travaillent chaque jour sur les articles de Wikipédia à regrouper des sources et des informations, ils font vraiment quelque chose de remarquable. Que ça plaise ou non aux professeurs, Wikipédia est largement utilisée par les étudiants pour faire des vérifications rapides sur des faits, des personnes, des endroits, des évènements ou des travaux et je pense qu’avec l’aide d’éditeurs dévoués l’encyclopédie ne pourra que s’améliorer et en nous impressionnant toujours davantage.

EE : J’ai découvert l’attrait de Wikipédia, non seulement pour accéder à l’information, mais aussi pour la partager. J’ai aussi découvert tous les efforts qui sont faits « en coulisse » pour créer, entretenir et éditer les articles. Wikipédia m’avait toujours semblé être une ressource dominée par des personnes expertes dans leur domaine, ou en tout cas des passionnés. Travailler sur un article m’a cependant montré que vraiment n’importe qui peut apporter sa pierre à l’édifice « Wikipédia » et avoir un impact important.

Je voudrais tous vous remercier d’avoir pris un peu de votre temps pour aider à la création de cet article pour Wikinews… qui sait, finira-t-il peut-être aussi dans la liste des Articles de Qualité !

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 4/6 – Le projet vu par les étudiant(e)s
    Interview du professeur Jon Beasley-Murray et de trois de ses étudiantes par la gazette anglophone de Wikipédia.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

Notes

[1] Crédit photos : 1. Jon Beasley-Murray – 2. Ubccampus – 3. Monicaandkaty01




Vivre sa vie ou l’enregistrer ? Telle est la question !

Put the camera down - SoupPour une fois ce n’est pas le couple Obama qui impressione sur la photo ci-contre[1]. Cliquez dessus pour voir… et vous constaterez peut-être avec moi que « quelque chose ne va pas ».

Qu’est-ce qui pousse tous ces gens à vivre les moments forts de leur vie à travers le prisme de leurs écrans ? Quelles conséquences cela peut-il bien avoir sur l’évènement fort en lui-même mais également à long terme sur la perception et les émotions de nos propres vies ? C’est le sujet du jour qui fait écho à l’émission radio Place de la Toile (France-Culture) du 23 janvier dernier intitulée Et si on se déconnectait ? dont je vous suggère la synthèse réalisée par Hubert Guillaud sur InternetActu.

Il est soudainement loin le temps où l’on se moquait gentiment des touristes japonais rivés à leur appareil photo…

La technologie, c’est formidable, mais n’en oublie-t-on pas de vivre ?

Technology is Great, but Are We Forgetting to Live?

Sarah Perez – 22 janvier 2009 – ReadWriteWeb
(Traduction Framalang : Don Rico et aKa)

Imaginez, vous êtes à un concert où votre groupe préféré monte sur scène pour la dernière fois. Ou bien vous assistez à la prestation de serment du Président Obama. Ou alors vous êtes simplement assis en famille devant le sapin de Noël, à regarder vos enfants ouvrir leurs cadeaux. Qu’êtes-vous en train de faire dans tous ces cas de figure ? Si vous êtes comme la plupart de nos contemporains, vous êtes sans doute en train de filmer la scène avec un gadget électronique d’un genre ou d’un autre, smartphone, appareil photo numérique ou camescope. Il se peut même que vous partagiez ce moment avec d’autres sur Twitter, Facebook ou FriendFeed.

Nos vies sur support numérique

Grâce à la technologie, nous pouvons graver pour toujours chaque moment de notre vie. Nous pouvons prendre des photos, y ajouter un commentaire et les partager aussitôt. Nous pouvons les archiver pour la postérité sur le Web intemporel. Et peut-être qu’un jour, nos arrière-arrière-petits-enfants retrouveront nos profils de réseaux sociaux dans les pages en cache d’Internet Archive et découvriront tout ce que nous avons voulu faire savoir au monde à notre sujet.

D’accord, c’est génial. C’est vraiment dingue. Mais qu’en est-il de nous, et du temps que nous avons passé à enregistrer ces moments ? Ne sommes-nous pas passés à côté de notre vie à trop vouloir la consigner ?

La technologie a accompli des tels progrès que l’utiliser n’exige presque plus aucun effort et nous l’intégrons dans notre vie comme jamais auparavant. Finie l’époque où l’ordinateur était une machine qui vous connectait à un réseau de pages au temps de chargement interminable. Non, le Web d’aujourd’hui, notre cerveau universel, tient dans la poche et est accessible de partout[2].

On peut aujourd’hui transférer nos photos (et même nos vidéos) directement de l’appareil au Web grâce à d’ingénieuses inventions telles que les cartes SD sans fil d’Eye-Fi, technologie qui fait de notre vie un flux constant d’informations destiné à remplir les pages omniprésentes d’une Toile en expansion permanente. Une Toile dont la création constitue peut-être le symbole des efforts fournis par l’humanité pour comprendre le concept de l’Univers, car de quelle manière décrira-t-on le Web de demain ? Comme une entité qui n’a ni début[3] ni fin, un dépôt d’archives en expansion continue recueillant la totalité de nos vies numériques.

On en oublie de vivre

Durant notre bref passage sur Terre, à force de vouloir consigner les moindres instants de notre vie, il se peut que nous en oubliions, de temps à autre en tout cas, comment vraiment profiter de la vie. Et pour profiter de la vie, n’en déplaise à certains, il faut se déconnecter, ranger son appareil photo, et pour une fois savourer l’instant.

Jane Maynard, de l’association Silicon Valley Moms (NdT : Mamans de la Silicon Valley), nous rappelle que de nos jours c’est un travers répandu qui ne concerne plus seulement les fous de technologie. Prenant l’exemple d’un concert où elle allait voir ses enfants jouer, elle décrit ce qui lui pose problème : « Les caméras. Je suis en face d’un dilemme. En voulant consigner les moments fabuleux que l’on vit, on néglige parfois la vraie vie. Comme lorsqu’on assiste au récital de piano de son enfant via l’écran LCD de son appareil et non directement. C’est un équilibre délicat à trouver auquel, j’en suis sûre, nous réfléchissons tous et sommes tous confrontés, surtout à notre époque du tout-numérique. Je me force parfois à ne pas sortir ma caméra, même si j’ai très envie d’enregistrer une scène, de façon à la vivre pleinement au moment où elle se produit. Ces moments-là, je ne les regrette jamais… mais ces considérations m’ont poussée à me poser des questions. Combien de fois me suis-je tellement focalisée sur l’idée de prendre la photo parfaite de mes enfants que j’en ai oublié complètement de profiter du moment présent ? »

Et si on se déconnectait ?

Définir ce qui mérite d’être enregistré et ou pas n’a rien de compliqué. Nous estimons automatiquement que ce sont les moments les plus importants, les plus sensationnels et les plus incroyables qu’il faut enregistrer. Mais ce sont pourtant ces moments-là qu’il vaut mieux savourer pleinement, en leur accordant notre entière attention.

Selon Martin Kelly, blogueur axé sur la religion, « à certains moments, il est bien plus important d’être présent que d’enregistrer quoi que soit ». (Il venait de s’étonner lui-même en regardant les photos floues qu’il avait estimé nécessaire de prendre lors d’un mariage, alors que la mariée s’avançait vers l’autel. Avec le recul, il s’agissait précisément du genre d’instant dont il aurait pu se passer de photographier.)

« Cessez de vouloir vivre votre vie par procuration. Vous êtes déjà là. Vous n’avez rien à prouver », déclare Kat Orphanides en regardant des spectateurs enregistrer un concert au lieu de profiter de la musique. En réalité, c’est plus facile à dire qu’à faire. Si vous avez déjà ressenti une sensation de manque technologique quand vous vous déconnectez du Web (comment ne pas envoyer un tweet pour raconter ce que je viens de voir ? Il faut absolument que je prenne ça en photo !), c’est que vous êtes à deux doigts de ne faire plus qu’un avec la machine. Il est peut-être temps de vous rappeler que vivre se suffit à soi-même… du moins parfois. Vous n’aurez peut-être pas d’archive des moments tous plus extraordinaires les uns que les autres que vous aurez vécu, mais votre vie n’en sera que plus satisfaisante.

Notes

[1] Crédit photo : Put the camera down and enjoy a moment for once

[2] Bien évidemment, ces constatations s’appliquent aux parties du monde où la technologie moderne, comme les smartphones et le haut-débit, sont banals. On n’a pas accès à ces machins partout dans les monde, je le sais.

[3] La toute première page Web se trouve ici, mais elle n’est désignée comme page « Web » que parce que des liens hypertextes la relient à d’autres pages à l’aide de balises html. Alors, était-ce vraiment la première ? Ou est-elle soudain apparue en même temps que les autres ? Est-ce vraiment le point d’origine du Web ?




Cloud computing, logiciel libre et service public

Per Ola Wiberg - CC byEn ce début d’investiture Obama, de nombreux internautes expriment souhaits et desiderata à la nouvelle administration.

Le vœu de William Hurley a retenu notre attention. « Je suggère que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités », nous dit-il. Nous n’en saurons pas vraiment plus car il n’est pas entré dans les détails mais nous avons néanmoins saisi la perche pour en faire un billet où nous pourrions nous interroger ensemble sur les relations entre l‘informatique dans les nuages, le logiciel libre et un éventuel rôle de la puissance publique.

Placer nos données personnelles, nos fichiers, nos liens, etc. sur le Grand Internet présente en effet de nombreux avantages pratiques à l’heure où l’on peut « quasiment » se connecter partout tout le temps. Mais ce n’est pas sans poser quelques questions pour ne pas dire quelques problèmes. Je pense par exemple à la mésaventure récente de ce pauvre Marc L***[1] que l’on pouvait suivre au jour le jour à la trace via Facebook et consorts. Je pense également à notre récent billet La tête dans les nuages mais les pieds sur terre. Je pense enfin à la toile tissée méthodiquement par Google avec tous ses services en ligne (Gmail, Reader, Maps, Earth, Picasa, Calendar, Docs, YouTube…) que nous sommes nombreux à utiliser au quotidien.

Et puisqu’il est question d’éducation supérieure et d’université[2], je dois bien vous avouer que, l’année dernière, lorsqu’il a été question de créer en deux-trois coups de cuillère à pot des adresses de messagerie (avec ou sans chat) pour tous les enseignants et étudiants de mon établissement scolaire, de se doter d’agendas partagés et d’une suite bureautique en ligne (fichiers tableurs et traitements de texte potentiellement accessibles en lecture écriture, selon les droits, à toute la communauté, et disponibles au format ODF), je me suis tourné vers… Google Apps Education sans avoir « malheureusement » à le regretter.

En tant que responsable TICE de mon lycée J’ai donc osé confier les données de mes élèves à Google ! Est-ce grave docteur ? Oui ça l’est ! J’en ai bien conscience et je compte bien un jour me soigner (quand bien même Google n’affiche bien entendu pas de publicités pour ce service spécifique au monde éducatif). Il faut tout de même dire, à ma décharge, que par rapport à ma problématique et à mes besoins (temps limité, budget nul et situation particulière d’un lycée à l’étranger) je ne pouvais raisonnablement pas m’appuyer sur un quelconque Espace Numérique de Travail (ENT) dont je doute de plus en plus de leur pertinence et efficience à mesure que le temps passe (surtout si l’on continue à s’obstiner à les développer académie par académie).

Les partisans du logiciel libre peuvent sensibiliser sur les risques encourus à confier nos documents et informations numériques à des services en ligne « gratuits » proposés par des sociétés commerciales « web 2.0 » qui n’offrent pas de garanties sur l’avenir et sont souvent opaques au niveau de nos droits et des formats. Ils peuvent pousser à ce que des licences plus adaptées et plus transparentes soient adoptées (telle la licence AGPL). Mais, contrairement à un Microsoft où il « suffisait » de proposer des alternatives logicielles libres, ils ne peuvent absolument pas concurrencer un Google sur son terrain, c’est-à-dire justement le cloud computing, qui nécessite des investissements très très lourds ne serait-ce que pour pour installer et maintenir les batteries de serveurs disséminés un peu partout sur le réseau. Et alors je crois effectivement que le politique et le secteur public (national ou supra-national) peuvent nous être d’un grand secours pour modifier la donne (si tant est que l’on juge que la donne mérite modification).

C’est certainement l’alliance « logiciel libre + secteur public » qui pourra faire en sorte de ne pas laisser le champ libre aux seules sociétés privées. Ne privatisons pas la totalité du cloud computing (surtout dans le domaine éducatif), voilà par extrapolation, le sujet du billet du jour. Un peu comme ce qu’a voulu faire le projet de bibliothèque numérique européenne Europeana pour contrarier Google Books avec pour le moment le succès que l’on sait

L’enseignement supérieur a besoin d’un nuage informatique national

Higher education needs a national computing cloud

William Hurley – 26 janvier 2009 – InfoWorld
(Traduction Framalang : Don Rico)

Le cloud computing (ou informatique dématérialisée ou informatique dans les nuages), est vital pour l’avenir de l’enseignement supérieur aux États-Unis, et j’invite le Président Obama à agir

Le 26 janvier 2009
M. le Président Barack Obama
La Maison Blanche
Washington, DC 20500-0001

M. le Président,

Je tiens à vous adresser mes plus sincères félicitations, Monsieur, pour votre récente investiture à la fonction de 44ème Président des États-Unis d’Amérique. Votre victoire est la preuve de la grandeur de notre démocratie, mais aussi de la capacité de transformation de cette même démocratie. Comme des millions de mes semblables du monde entier, j’ai regardé avec une grande fierté votre prestation de serment, lors de laquelle vous êtes devenu un exemple vivant de l’impact que peut avoir un seul citoyen américain.

Vous avez déclaré « Le monde change, et nous devons changer avec lui ». Je suis on ne peut plus d’accord, M. le Président, et je crois que la politique que mènera votre administration sera une fontaine d’innovation. Je sais que le vice-président et vous êtes profondément favorables au développement des initiatives de recherche dans les instituts d’enseignement supérieur qui sont au cœur de l’innovation américaine. Pour ces instituts, l’avenir est déjà là. Mais, comme l’a écrit William Gibson « il n’est pas encore tout à fait équitablement réparti ».

Nous avons laissé le coût de la technologie entraver notre capacité à innover. Les chercheurs ne sont plus limités par le manque d’idées ou de connaissances, mais plutôt par les moyens informatiques nécessaires pour conduire des expériences et en analyser les résultats.

Je suggère donc que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités. Une telle ressource aurait le mérite de niveler le terrain universitaire. Les chercheurs qui travaillent d’arrache-pied dans des milliers d’instituts de taille modeste auraient alors accès à une puissance informatique qui n’est pour l’instant accessible qu’à une poignée de privilégiés. Il nous est impossible de prédire d’où viendra la prochaine grande innovation, mais des ressources informatiques dématérialisées publiques amélioreraient de façon extraordinaire nos moyens de coopérer et d’innover au niveau national.

Les grandes avancées technologiques et sociales peuvent se produire presque simultanément. En septembre 1962, un jeune chercheur publiait ce qui donnerait naissance aux plus grandes avancées technologiques de notre temps, et au même moment, un autre jeune homme originaire de Kosciusko, dans le Missouri, amorçait un itinéraire personnel qui aboutirait à un moment charnière dans la lutte pour les droits civiques. D’aucuns peuvent y voir une coïncidence, mais en ce qui me concerne j’y vois la providence. Les recommandations de Paul Baran en faveur d’une structure nationale publique destinée à transporter des données informatiques et l’entrée de James Meredith à l’université du Mississipi ont, du point de vue technologique et social, changé les États-Unis en profondeur.

Votre administration, par sa connaissance des nouvelles technologies, tient l’occasion d’accomplir un autre grand bond en avant. On ne peut comparer ma lettre à l’article de Baran, mais j’espère suggérer cette idée au moment opportun. Une idée trop en avance sur son temps a aussi peu de valeur qu’une idée avancée après que des engagements ont déjà été pris. J’espère donc attirer votre attention maintenant, avant que vos projets de réformes pour l’éducation aient été élaborés, et tant qu’il reste du temps pour prévoir le financement d’un cloud computing ayant le potentiel de transformer des chercheurs dispersés et inégaux en une locomotive d’innovation la plus puissante du monde.

Encore une fois, M. le Président, je tiens à vous féliciter, votre équipe et vous, pour votre victoire grandiose acquise grâce aux nouvelles technologies, ainsi que pour votre investiture inattendue, exaltante et triomphante.

Notes

[1] J’en profite pour saluer ici le très libre curieux magazine curieux Le Tigre.

[2] Crédit photo : Per Ola Wiberg (Creative Commons By)




Largage de liens en vrac #9

Meanest Indian - CC byBon ben c’est bientôt Noël, les bons baisers de Fort-de-France, tout ça… Dans ma besace, et comme c’est désormais devenu une tradition, j’ai tous les liens logiciels deliciousés depuis un bon gros mois. J’aurais pu les sortir un à un en prenant soin de les étudier méticuleusement mais faute de temps j’ai tout vidé en vrac à même le sol (c’est assez joli dans la neige remarquez). Ce serait bien le diable si vous ne trouviez pas au moins une chaussure à votre pied dans le tas[1].

  • Oxite : Commençons par la toute fraîche plate-forme CMS/Blog de… Microsoft. C’est bien entendu fait avec les technos de la maison (ASP et .NET) et avec la licence libre maison mais ne boudons pas notre plaisir car c’est tout de même un bonne nouvelle de la part de ceux qui affublaient hier encore le logiciel libre de noms d’oiseaux comme cancer ou pire encore communiste !
  • OpenXML Document Viewer : Dans le même ordre d’idée, c’est-à-dire toujours chez Microsoft, signalons cette extension Firefox capable a priori de lire les document sous le controversé format de la suite MS Office l’OOXML (.docx, etc.). La sortie est en HTML, donc c’est plus un convertisseur qu’un viewer. Une extension pour le navigateur libre concurrent (et bientôt, semble-t-il, la lecture/écriture native de l’ODF dans MS Office), jusqu’où n’est-on pas prêt à aller pour, au choix, assurer l’interopérabilité ou… ne pas perdre la guerre des formats !
  • Ecofont : Il fallait y penser, une police de caractère écologique parce qu’il y a des trous blancs dedans (et donc on use moins d’encre vous me suivez). Écologique et logique que le choix se soit porté sur une licence libre. Signalons en passant que l’Open Font Library commence à être vraiment bien fourni.
  • FUSBi : Acronyme de Free USB Installer, permet d’installer sa distribution GNU/Linux bootable sur une clé USB. Sauf que attention, pas n’importe quelle distribution, les seules véritablement libres selon la FSF ce qui donne ici : gNewSense, UTUTO, Dynebolic, BLAG and GNUstep.
  • Kiwix :  : Un logiciel pour utiliser Wikipedia sans connexion Internet. Pour la version française il vous faudra 2 Go d’espace mais c’est somme toute logique vu la dimension prise par l’encyclopédie (dans tous les sens du terme). Pratique aussi pour lutter contre la fracture numérique.
  • Tiny Tiny RSS : Un aggrégateur de flux RSS en ligne qui pourrait bien devenir le Google Reader killer du libre. Tout comme Piwik avec Google Analytics, il est fort important de disposer d’outils libres marchant sur les plate-bandes de Google.
  • Abiword : Belle mise à jour (avec l’intégration de l’OOXML de Microsoft par exemple) pour cet adorable petit traitement de texte qui a su trouver sa place dans PLLM (Paysage du Logiciel Libre Mondiale), surtout si vous trouvez qu’OpenOffice.org est trop pataud par rapport à vos modestes besoins.
  • Songbird : Autre très belle mise à jour, rien moins que la 1.0 (toujours très important de passer le seuil psychologique du 1.0 pour un logiciel). iTunes a désormais un réel concurrent libre. Et que même qu’il sait en faire beaucoup plus et se marie à merveille à grands coups d’extensions avec Firefox (celle que je préfère affiche l’article Wikipédia de la musique du moment). Bref, mériterait un billet à lui tout seul.
  • OpenGoo : Toujours dans la série émouvante des 1.0 (et toujours dans les concurrents potentiels à Google, ici Google Docs), signalons donc la mise à jour de cette suite bureautique en ligne qui commence à faire son trou.
  • Elgg : Et pour en finir avec les mises à jour majeures, celle de Elgg (1.2) qui devient très certainement la meilleure solution actuelle pour faire son propre site en réseau social (propose peu ou prou la même chose que Facebook, tout du moins les fonctions basiques).
  • Multi Theft Auto : Je connais pas bien mais à ce que j’ai compris c’est open source et ça permet de jouer à plusieurs à Grand Theft Auto : San Andreas (GTA : SA). Les adeptes s’y retrouveront (mais ils peuvent aussi laisser un commentaire pour dire ce qu’ils en pensent).
  • LoseThos : Rien moins qu’un système d’exploitation complet ne dépassant pas les 20 Mo et mis par son auteur dans le domaine public. Ne tourne que sur les IBM PC x86_64. Didactiquement c’est un formidable jouet pour les développeurs en herbe puisque vous avez d’office tous les droits sur tout 😉
  • XMind : Un logiciels pour faire du mind mapping (ou carte heuristique) qui semble assez puissant si l’on en juge par la présentation du site officiel.
  • Kaltura : Se veut être un peu le YouTube du libre (mais je peux me tromper) avec de plus des fonctions d’édition collectives a priori intéressantes. Collabore déjà avec Wikipédia et est proposé comme extension sur Drupal, WordPress ou Mediawiki.
  • OpenProj : Un outil de planification de projet, concurrent direct de solutions propriétaires comme Microsoft Project.
  • CockingIT : Même fonction que le logiciel précédent mais en plus simple et sexy (Ajax inside) et surtout en ligne.
  • Animata : De la création d’animation tout à fait originale et semble-t-il simple d’accès (non disponible sous Linux).
  • Translate.Net : Un logiciel qui se connecte aux plus populaires des services de traduction en ligne pour vous proposer plusieurs résultats et vous faciliter la tâche.
  • OTRS : Pour l’entreprise, un logiciel de gestion de tickets simple et efficace. Dans la même catégorie, j’ai noté également SiT! (à bien prononcer).
  • Cloud (gOS) : Un OS hybrique entre GNU/Linux (Ubuntu avec Enlightenment) et l’informatique dans les nuages à base principalement d’applications Google. Candidat aux netbooks, et très sexy sur le papier (voir la présentation diaporama sur le site). Fait beaucoup parler de lui sur le toile anglophone en ce moment.
  • Instalinux : Je ne connaissais pas. Permet de se faire, étapes par étapes, une image ISO d’un CD d’installation personnalisée de GNU/Linux à commencer bien entendu par le choix de la distribution (Ubuntu, Fedora, OpenSUSE, etc.)
  • Conky : Pour les geeks (et d’ailleurs que pour Linux), permet de faire afficher de manière très clair et agréable sur votre bureau plein d’informations systèmes.
  • Ubuntu Eee : Ubuntu sur votre Eee PC. Fort bien fait et téléchargeable puis installable directement à partir d’une clé USB.
  • Appnr : Pour installer des programmes sous Ubuntu, Synaptic c’est très pratic sauf que c’est tout de même assez frustre. Ici tout se fait à partir du web avec copies d’écrans et tout le tralala.
  • Go-oo : Le saviez-vous chers amis ubunteros ? Il y a un peu de Go-oo dans votre OpenOffice.org.
  • Toutou Linux : Basé sur Pupy Linux (lire par exemple ce test plus qu’enthousiaste), cette mini, moins de 100 Mo, distribution Linux est tout sauf un gadget. Il faudra aussi en reparler (ne serait-ce que parce qu’on tient un excellent candidat pour les machines soit-disant obsolètes de l’Education Nationale).
  • pure:dyne : Une distribution GNU/Linux spécialement dédiée aux artistes-hackeurs (et je sais qu’il y en a ou qui souhaitent le devenir). Il va sans dire qu’il y a plein d’outils pour l’audio et la vidéo dedans.
  • LotoEduc : Création de cartes de loto éducatives (qui ne devrait pas tarder à se trouver dans l’annuaire Framasoft, non, mais !).
  • Xerte Project : Nous vient de l’Université de Nottingham. Pour créer des applications web éducatives en Flash (un peu comme Mathenpoche en fait). Les démos sont assez impressionnantes de qualité graphiques comme seul Flash peut le proposer actuellement (et malheureusement).
  • Sage : On ne parle pas peut-être pas assez de ce logiciel de mathématiques capable de rivaliser, excusez du peu avec Magma, Maple, Mathematica et Matlab réunis !
  • ClamXav : Enfin une déclinaison Mac pour le célèbre outil anti-virus issu du monde du libre.
  • simpleCart : Si vous souhaitez créer une boutique en ligne pour quelques produits, et si ni le JavaScript ni Paypal ne vous pose problème, alors c’est certainement la meilleure des solutions (avec un look tout de suite très pro, ce qui fait jamais de mal quand on veut que les visiteurs deviennent aussi clients).
  • SimplePie : Une solution super élégante pour aggréger des flux RSS dans vos sites web (avec extensions pour WordPress, Drupal, Joomla, etc.).
  • GameJS : Un moteur de développement de jeu 2D en JavaScript. Le Tetris en exemple est fort bien fait.
  • today’s timetable : Toujours du JavaScript en code libre, une très esthétique (et valide W3C) frise chronologique pour vos sites.
  • WysiHat : Un éditeur WYSIWYG en JavaScript. Une petit demo pour bien comprendre.
  • Vfront : Vous voulez un truc plus sexy-web-2.0-ajax que PhpMyAdmin pour gérer vos bases SQL ?
  • Blackbird : Une console en JavaScript sur vos pages web. C’est très joli et en plus ça doit certainement servir à quelque chose !
  • The Beta (tbeta) : Popularisé par l’iPhone, les écrans tactiles sont en pleine évolution. Le libre n’est pas en reste.

Notes

[1] Crédit photo : Meanest Indian (Creative Commons By)