Framakey WebApps : du nouveau dans les applications portables

Framakey 1.9 - InterfaceIl y a un mois presque jour pour jour, je me mettais la pression vous annonçait quel devraient être les prochaines étapes pour la Framakey en 2009. Faisons donc un rapide bilan.

Le portail d’applications portables est bien plus à jour (sauf la partie jeux). Certes, certaines applications ne sont pas disponibles dans leurs toutes dernières versions, mais normalement aucune version majeure ou corrigeant des failles de sécurité n’a été oubliée. Pour les accrocs aux toutes dernières versions, je vous renvoie plutôt vers nos amis de PortableApps.com, dont la communauté (anglophone) est bien plus importante, et par conséquent plus réactive.

La Framakey 1.9 est bien sortie (et dans les temps, s’il vous plait !). Une version 1.10 est d’ailleurs en préparation, corrigeant quelques bugs mineurs. La nouvelle interface (cliquez sur l’image ci-dessus), inspirée de la Xandros équipant les eeePC, semble plaire à beaucoup d’entre vous (rappelons au passage qu’elle tourne simplement avec du Firefox+Jquery+HTML+CSS).

N’ayant pas trouvé d’équivalent libre, j’ai développé (très rapidement, en utilisant une méthode de développement agile intitulée La Rache) un petit outil pour tester la rapidité en écriture des clés USB sous Windows. En effet, les taux constructeurs sont des moyennes, or la vitesse des clés USB est extrêmement variable suivant la taille des fichiers. Ainsi, la même clé peut faire du 2Mo/s sur des fichiers de 10Mo, et un pitoyable 2Kos pour des fichiers de 1Ko. Framakey Drive Benchmark vous permet donc de tester votre clé suivant la taille des fichiers, et vous fournit même un temps approximatif d’installation de la Framakey (25mn pour certaines clés, et 6H pour d’autres…). Alors toi aussi vient jouer à qui à la plus rapide en testant (Licence GPL, version bêta, toussa) Framakey Drive Benchmark.

Mais surtout, une bonne partie de ce rafraichissant mois de mars aura été consacré au développement d’un nouveau type d’applications portables : les WebApps.

Is it a plane? Is it a bird? No! It’s a WebApp!

Vous je ne sais pas, mais moi ça m’arrive souvent : un ami (souvent une amie, d’ailleurs, sans faire dans le sexisme ou la misogynie), sachant que vous vous y connaissez en « tous ces trucs d’internet » vous appelle (de préférence à un moment ou vous étiez hyper concentré dans une partie de Frozen Bubble) pour vous dire « Dis, il y a quelques jours, tu m’as parlé des Wikis. Là je viens d’en télécharger un pour voir à quoi ça ressemblait, mais il se passe rien quand je double-clique sur index.php. C’est nul, tes trucs-libres-qui-marchent-pas ! ».

Vous êtes alors devant un choix cornélien : prendre une voix de répondeur et dire que vous êtes parti pour 15 jours en vacances et que vous rappellerez dès que possible. Ou partir dans 2 heures d’explications techniques sur les technologies clients-serveurs et faire par téléphone du support technique sur l’installation d’EasyPHP (ou WAMP, ou XAMP, ou …). Et pas question de vous en tirer avec un « T’as qu’à cocher Apache PHP et MySQL et PHP dans Synaptic » puisqu’il parait que ça n’existe pas encore sous Windows (mais je vous assure qu’à Framasoft, on y travaille…).

Bref, installer une application web comme SPIP, Drupal, Joomla, Dotclear, WordPress, MediaWiki, Alfresco, ou que sais-je encore, c’était quand même plus compliqué que de double cliquer sur setup.exe…

C’était ? Et oui !
A force de travailler sur le concept d’applications portables, on se dit qu’on devrait pouvoir faire la même chose avec les applications web : on télécharge, on dézippe, ça marche.

« No hassle », comme disent nos amis américains (faut juste faire gaffe à la prononciation).
Grâce à toutes les briques libres existantes, notamment le trop méconnu ZazouMiniWebServeur (développé par un très sympathique frenchy, qui plus est), il est possible de remixer PHP, MySQL, ZMWS et l’application dans un seul fichier zip.

Une petite vidéo (5mn) sera plus parlante qu’un long discours.

—> La vidéo au format webm

En fait, il y a déjà une société qui proposait ce type d’applications web. En effet, Bitnami propose depuis plusieurs mois des Bitnami Stacks, qui fonctionnent sensiblement sur le même principe. Cependant, les serveurs (Apache et MySQL) tournent en « service Windows », rendant tres « centralisé » l’utilisation de ses applications : pas de possibilité de les copier sur clé USB ou CD, lancement automatique des services au démarrage de la machine, etc. Et j’ai moi-même expérimenté quelques déconvenues avec Bitnami en installant, puis désinstallant des stacks : perte de la base de données, fichiers communs qui disparaissent…
De plus, les applications sont anglophones (là le WebApp Manager est multilingue).

Enfin et surtout, les Bitnami Stacks, utilisent l’installateur BitRock qui, si j’ai bien lu les conditions, n’est pas libre mais « gratuit pour les projets libres » (rien que pour ça, ça m’a donné envie de voir si on pouvait proposer une alternative vraiment libre[1]). On ne prétend pas avoir en moins de 15 jours fait mieux que Bitnami, mais au moins on a fait un pas de plus vers du 100% libre, puisque chacun peut tenter de se faire sa WebApp (je ne prétends pas que ça soit simple, mais c’est accessible et au moins partiellement documenté).

Avec les WebApps, pas de problème pour lancer plusieurs applications en même temps : chacune tourne indépendamment dans son dossier, qu’on peut sans problème copier sur clé USB par exemple pour faire une démo à un client ou pour bloguer déconnecté.

La preuve en images (animées).

—> La vidéo au format webm

Évidemment, pour les habitués du web, cela peut paraitre peu intéressant : « Autant faire une installation en ligne, l’application sera disponible 24H/24. Là, si j’éteind l’ordinateur, la WebApp n’est plus accessible ! ». Certes, mais le public des WebApps n’est pas le même, elles visent plutôt :

  • L’hyper-débutant qui ne sait pas ce qu’est un serveur web
  • Le débutant qui ne sait pas faire la différence entre un fichier interprété (.php par exemple) et un fichier exécutable (.exe)
  • Les personnes ne sachant pas ou ne voulant pas faire d’installation d’application web (« heu… c’est quoi mon hôte MySQL ? »)
  • Les personnes souhaitant faire une démo de leur application web sur un salon, sans connexion internet, depuis une clé USB
  • Les entreprises souhaitant envoyer un site dynamique sur CD à leurs clients
  • Les personnes souhaitant s’installer localement et facilement un wiki pour faire de la prise de notes en local
  • Les personnes souhaitant tester plusieurs CMS avant de faire leur choix
  • etc..

Je rappelle au passage que les WebApps sont en version bêta, et donc susceptibles d’importants changements au cours des prochaines semaines.

Reprenons notre casquette de militant du logiciel libre

Si on se place dans la perspective ou de plus en plus d’applications sont dans les nuages, que beaucoup de ces applications sont libres, mais qu’il y a là aussi une forte résistance des applications propriétaires (de Facebook aux Google Apps, en passant par Basecamp), il faut peut être s’interroger sur :

  • Comment faciliter l’accès aux applications web au grand public ?
  • Comment leur donner de meilleures chances face aux gros services marketing de sociétés privées ?
  • Comment éviter la frustration de l’utilisateur lambda, qui veut voir plus qu’une capture écran, mais pas forcément prendre un hébergement en ligne ?
  • Comment éviter le phénomène Minitel 2.0, dont nous sommes – nous, développeurs – en partie responsable en mettant une barrière à l’entrée parfois trop haute pour le citoyen numérique lambda ?

Un exemple : toutes les personnes que je connais qui ont tenté d’installer Mediawiki ou Drupal, pourtant tous deux extrêmement reconnus dans leurs domaines, ont reconnu que « les premières heures de prises en main ont été laborieuses ». Comment, dans ces conditions, espérer que Tata Jeannine installe sa propre application web ? Elle fera comme les autres, elle finira chez Blogger (bof bof) ou WordPress.com (mieux).

Bref, comment faciliter la transition entre le tout local que l’informatique à connu pendant des dizaines d’années, vers le tout dans Firefox en ligne vers lequel il semblerait que l’on se dirige à la vitesse d’un photon dans une fibre optique ?

Le logiciel libre à un véritable intérêt stratégique à promouvoir le libre dans le web, car c’est sur la toile que nous passons de plus en plus de temps. C’est là qu’est notre vie numérique. « C’est là que nous avons notre tête », pour reprendre les propos de Michel Serres.

Or, si ces applications foisonnent et s’émulsionnent dans les milieux autorisés (celui du développement web, des hébergeurs, de ceux qui savent…), il faut bien avouer qu’il n’y a pas beaucoup d’initiatives pour les rendre plus « populaires » au sens premier du terme.

Évidemment, les WebApps ne sont pas la solution, mais nous espérons qu’elles pourront être une piste intéressante, reprise et remixée par d’autres (notamment les éditeurs d’applications web libres) afin de rendre plus accessibles leur travail auprès d’un plus large public.

We need you!

Ceux qui sont encore là ont sans doute remarqué que l’offre de WebApps est relativement pauvre : 4 ou 5 applications web prêtes à l’emploi, alors qu’ils en existe des dizaines, voir des centaines d’intéressantes.

En effet, nous sommes déjà passablement occupés avec Framasoft, Framakey, Framabook, et j’en passe. Maintenir un portail de 20 ou 30 WebApps nous prendrait bien trop de temps.

S’il y a parmi vous des volontaires pour maintenir des WebApps (Joomla Portable ? Dotclear Portable ? Mediawiki portable ?) qu’ils n’hésitent pas à lire Comment créer ma WebApp ? puis à nous contacter. Les prérequis sont vraiment accessibles (savoir installer l’application, savoir la mettre à jour, disposer d’un système Windows).
De même, de futurs développements du WebApp Manager sont envisagés. Par exemple pour publier facilement sa WebApp en ligne, ou pour synchroniser des bases locales et distantes. Là aussi, n’hésitez pas à prendre contact si vous voulez contribuer au code.

N.B. : Une démo des WebApps (et de la FramaGnu !) sera probablement faite au salon Solutions Linux la semaine prochaine. Si vous souhaitez en discuter, demandez le stand Framasoft (on squattera très probablement le stand d’une association amie).

Notes

[1] En fait, le WebApp Manager est développé en AutoIt, langage freeware non libre. Mais les sources du WebAppManager sont, elles, bien libres. Il ne tient qu’à vous de le redévelopper dans n’importe quel autre langage disposant d’un compilateur libre




Cent millions de photos sous licence Creative Commons sur Flickr

Joi - CC byCertains lecteurs me demandent parfois comment je m’y prends pour sélectionner les photographies illustrant les billets du Framablog. Il n’y a pas de secret. Je les sélectionne généralement à partir de cette page du site Flickr en restreignant la recherche aux licences Creative Commons (avec « autorisation d’utilisation commerciale » et « autorisation de modifier, adapter ou développer le contenu »). Exemple avec les tags sky, africa et sad.

Étant un adepte de Flickr depuis quelques années maintenant, j’ai pu observer la qualité croissante des photographies sous licence Creative Commons de l’annuaire, qualité qui allait de pair avec la quantité. Aujourd’hui le blog des Creative Commons est fier de nous annoncer que l’on a dépassé le cap symbolique des cent millions d’images, en offrant à quelques généreux donateurs le très beau livre de portraits de Joi Ito, photographe et accessoirement président actuel de Creative Commons[1].

Fêtons les 100 millions de photos sous Creative Commons de Flickr avec le livre Free Souls de Joi Ito

Celebrate 100 Million CC Photos on Flickr with Joi Ito’s Free Souls

Fred Benenson – 23 mars 2009 – Creative Commons Blog
(Traduction Framalang : Poupoul2)

Durant les dernières semaines, nous avons gardé un oeil attentif sur le nombre de photos de Flickr placées sous licence Creative Commons. Nos calculs nous montrent que Flickr a dépassé le cap des 100 millions de photos sous licences CC quelque part pendant la journée du samedi 21 mars 2009. A la date de lundi (NdT : 23 mars 2009), 100 191 085 photos sous licence CC étaient recensées.

Ces photos ont été utilisées dans des centaines de milliers d’articles de Wikipédia, de messages postés sur des blogs, et même dans des articles de presse traditionnelle; autant d’exemples de créations nouvelles qui n’auraient autrement pas vu le jour sans nos licences publiques standardisées. L’intégration des licences CC dans Flickr est à la fois l’une des premières et l’une des meilleures, non seulement elle permet aux utilisateurs d’associer chaque photo à une licence différente, mais Flickr propose une incroyable page de découverte par licence CC, qui répartit les recherches de matériel licencié CC par licence. Vous pourrez par exemple visualiser toutes les photos de New York sous licence CC Paternité, triées par niveau d’intérêt.

Afin de fêter dignement ce jalon historique de Flickr, nous offrons à douze de nos donateurs à 100$ une copie du livre Free Souls de Joi Ito (président de Creative Commons). Toutes les photos de Joi ne sont pas placées sous la plus permissive de nos licences, Paternité, mais elles sont également disponibles au téléchargement sur Flickr. En donnant à Creative Commons aujourd’hui, vous apportez votre support au travail que nous réalisons et vous recevrez l’une des 1024 copies du livre de Joi en édition limitée.

Notes

[1] Crédit Photo : Joi Ito (Creative Commons By)




Nous sommes tous des gus dans un garage

Shym0n - CC by« Nous sommes tous des juifs allemands » est l’une des citations célèbres de mai 68, proclamée par la jeunesse en signe de solidarité à Daniel Cohn-Bendit, alors interdit de séjour en France.

Ce soir, la Quadrature du Net peut compter sur « un gus de plus dans son garage », suite à la rocambolesque affaire de la dépêche AFP modifiée que nous relate le site PC INpact.

Ce dimanche 8 mars à 8h13, la dépêche AFP, titrée « Internet : texte antipiratage à l’Assemblée pour la défense de la création », se terminait ainsi :

Un collectif de citoyens, la Quadrature du Net, encourage les internautes à abreuver les députés de mails hostiles à cette loi. « Ce sont cinq gus dans un garage qui font des mails à la chaîne », relativise le cabinet de Mme Albanel.

Une « pointe » de mépris que ne manquât pas de relever PC INpact dans son premier article La Quadrature ? « 5 gus dans un garage » pour le cabinet d’Albanel.

Consciencieux, PC INpact nous a alors pondu un deuxième article : Réaction de la Quadrature du Net aux propos du ministère dont voici un large extrait :

Jérémie Zimmermann : « Nous sommes flattés de tant d’attention de la part du ministère ! Cela prouve que l’action des nombreux citoyens épris de liberté qui contactent leurs députés commence à porter ses fruits. Cela révèle la peur de la ministre de se retrouver confrontée aux réalités techniques et à l’opinion des citoyens. Quelque chose nous dit qu’elle n’a pas fini de nous faire rire !

Internet et les technologies numériques, dont le cabinet de la ministre démontre sa méconnaissance totale dans cette loi imbécile, ont été en grande partie inventés par des gus dans des garages ! C’est peut-être un juste retour des choses : l’arrivée dans le débat des gus dans les garages après des années de lobbyistes dans les cabinets ministériels.

Il faut continuer à informer ses députés, en prenant bien soin d’envoyer des mails personnalisés, et surtout en téléphonant et sollicitant des entretiens ! »

Un peu plus tard dans la journée, troisième épisode et coup de théâtre : la dépêche originale de l’AFP a été « mise à jour » et ne figure alors plus la mention des « gus dans leur garage » !

Le problème c’est qu’il est assez difficile de jouer les cachottiers sur Internet[1]. Toujours aussi consciencieux, PC INpact a en effet gardé une copie écran de la première version de la dépêche dans ce dernier article intitulé La communication autour de la loi antipiratage commence mal.

Vous voulez que je vous dise… je crois que nous nous sommes trouvés un beau slogan !

Merci l’AFP, Mme Albanel et son cabinet.

Notes

[1] Crédit photo : Shym0n (Creative Commons By)




De l’efficacité des agités du bocal Internet

Grégoire Lannoy - CC byNumerama et le Framablog ont une intersection de lecteurs non vide mais une réunion non confondue. Lorsque l’excellent Guillaume Champeau a mis en ligne l’article que je vous propose reproduit ci-dessous, je lui ai de suite envoyé un mail pour le féliciter et lui dire qu’il me dispensait alors d’écrire un billet similaire qui me trottait dans la tête depuis un petit bout de temps (oui, je sais, ça mange pas de pain, et ça fonctionne avec tout le monde : bonjour Mr Kant, merci pour votre Critique de la raison pure, que j’avais justement pour projet de rédiger…).

Comment se fait-il qu’on se retrouve avec un projet de loi Hadopi qui fait quasiment l’unanimité contre lui sur le Net mais qui se heurte à l’indifférence de Mme Michu ? La faute aux grands médias ? Non, la faute aux internautes qui se complaisent à penser qu’en restant assis le cul derrière leur chaise à parer leur site de noir, il vont faire pencher la balance du bon côté. Telle serait, en (très) gros, la problématique posée par l’article.

Bon, il faut dire aussi que l’on n’est pas forcément aidé par nos représentants publiques, à commencer par certains partis politiques[1] traditionnels qui se distinguent par leur… atonie ! Le parti Chasse, pêche, nature et traditions défend des intérêts bien identifiés, faudra-t-il en venir à la création d’un équivalent du Parti pirate suédois ?

En apparté : Même si de gros progrès ont eu lieu ces derniers temps sous l’impulsion de nombreux acteurs de terrain, on est assez proche de la même situation pour ce qui concerne Mme Michu et les logiciels libres : il y a bien un moment où il faut descendre dans l’arène si on veut réellement être efficace et rassembleur (on en parlait hier justement).

Riposte graduée : pourquoi la contestation s’arrête aux frontières du net ?

URL d’origine du document

Guillaume Champeau – 5 mars 2009 – Numerama.com
Licence Creative Common By-Nc-Nd

A moins d’une semaine de l’examen du projet de loi Création et Internet, le débat sur la riposte graduée et ses implications sur la société tout entière n’a pas émergé. Pas en dehors du net, où les voix, pourtant extrêmement nombreuses et majoritaires, ne se font pas entendre. Pourquoi ?

Le débat sur la loi Création et Internet et la riposte graduée doit débuter mardi à l’Assemblée Nationale. Et Madame Michu l’ignore.

Elle ignore que le texte présenté par le gouvernement prévoit de l’obliger à sécuriser sa connexion à Internet, et qu’elle n’aura ni les moyens juridiques ni les moyens matériels de se défendre si, par malheur, elle était accusée par l’Hadopi d’avoir téléchargé le dernier single de P. Diddy. Laurence Ferrari ne l’a pas prévenue.

Elle ignore, aussi, que le texte pose la première pierre d’une obligation générale de filtrage qui, sans qu’un juge n’ait son mot à dire, aboutira à limiter la liberté d’expression de ses concitoyens, au bon vouloir du gouvernement. David Pujadas n’en a rien dit.

Elle ignore enfin, que le paysage dévasté par le piratage que décrit Nicolas Sarkozy a été dessiné par les lobbys qui ont intérêt à voir la loi s’appliquer, alors qu’il est en fait riche de mille fleurs et n’a jamais été aussi prolifique. Le Président l’a dit dans sa dernière interview : « on m’a fait beaucoup de reproches dans ma vie politique, pas de mentir ». Comment Madame Michu pourrait-elle en douter ?

Comment Madame Michu pourrait-elle savoir que le projet de loi anti-piratage qu’on lui présente comme un texte de pédagogie et de méthode douce favorable aux artistes vise en réalité à contourner la justice au bénéfice de quelques intérêts privés et à imposer à tous les internautes des outils de filtrage qui pourront être employés, à des fins politiques, pour censurer tel ou tel site Internet gênant. Ou, de manière plus subtile et en apparence plus démocratique, pour favoriser les sites d’information sponsorisés par l’Etat qui recevront un label de qualité pris en compte par les filtres imposés par l’Hadopi ?

La loi Création et Internet n’est pas une loi sur le piratage, c’est une loi sur la liberté d’expression, qui concerne tout le monde.

L’opposition, sur Internet, existe. Elle est même très vive. Il est difficile, voire impossible, de trouver des communautés favorables à la loi, y compris dans les rangs de l’UMP. Mais comme au moment de la loi DADVSI, le débat reste figé dans les frontières d’Internet. Les actions, qu’elles soient symboliques ou plus musclées, restent cloîtrées dans les mailles de fibres optiques, sans jamais atteindre le tube cathodique (ou la dalle LCD) de Madame Michu. Même François Bayrou, qui a fait de la défense des valeurs républicaines et d’Internet son cheval de bataille lors la dernière élection présidentielle, se désintéresse totalement de la loi Création et Internet alors qu’elle pourrait apporter au MoDem une vitrine précieuse à quelques mois des élections européennes. Les quelques députés du Parti Socialiste qui s’apprêtent à défendre avec force les internautes à l’hémicycle, le feront sans le soutien public de leur première secrétaire Martine Aubry, qui se garde bien de se mettre les artistes les plus populaires à dos, et surtout sans la force médiatique que peut offrir l’appareil lorsqu’il se met en marche pour attaquer le fichier Edvige ou le CPE.

Comme il y a trois ans avec la loi DADVSI, le débat sur la loi Création et Internet restera un débat de spécialistes, concentré sur les questions techniques et sur les dommages causés par le piratage, sans que les questions sociétales ne soient soulevées.

La faute aux médias ? Non, la faute aux internautes, incapables de porter leur opposition au delà des frontières du numérique.

Nicolas Vanbremeersch, plus connu sous le pseudonyme de Versac, tente une explication intéressante sur le site Slate.fr : « Les internautes sont incapables de s’organiser pour faire pression avec efficacité (…) Il existe un camp, en France, prêt à rassembler plusieurs centaines de milliers de signataires sur une pétition, plusieurs dizaines de milliers de relais actifs, mais incapable de transformer cette action dans la vraie vie (…) Le web manque d’acteurs qui ont un réel intérêt dans cette affaire. Pas de génération spontanée d’acteur fédérateur, militant, actif. »

« Cette absence de mobilisation est symptomatique, non de la déshérence des internautes, mais de l’atonie des corps constitués, des intermédiaires de représentation, des syndicats et associations, qui, pour la plupart, ne sont pas à la recherche de soutiens populaires, d’appels à mobilisations. C’est également symptomatique d’un corps politique également assez protégé de l’opinion, et attendant plus de son leader politique que des citoyens mobilisés. A force de blocages, de manque d’ouvertures, d’autisme, les corps constitués anéantissent l’espoir des citoyens que leurs mobilisations puissent parvenir à quelque chose. La lassitude est forte. »

« A travers le débat sur Hadopi, c’est en fait l’effritement d’un système médiatique et politique, ses failles, ses lambeaux de peinture, qui sont mis sous nos yeux, et la nécessité d’une forme de renouveau, qui peut venir du web, qui est, en creux, mise en exergue », estime Nicolas Vanbremeersch.

Le net, qui réinvente des modèles économiques parfois proches d’une forme de néo-communisme, porte peut-être en lui le germe d’une nouvelle démocratie qui ne voit pas l’utilité d’aller se faire entendre dans le champ traditionnel de la démocratie déclinante. On commence à voir apparaître, en Suède, toute une nouvelle génération d’électeurs prête à porter aux urnes une nouvelle forme de démocratie. Si les lois ne s’adaptent pas à Internet, les internautes les ignoreront, comme ils l’ont fait depuis 10 ans des lois anti-piratage. Chaque nouvelle législation qui tente de ramener Internet vers les lois historiques de la démocratie traditionnelle en ignorant les spécificités et la culture sociétales portées par Internet accentuent une tension entre deux mondes qui, un jour, explosera, sous une forme ou sous une autre.

Et vous, qu’en pensez-vous ? Pourquoi sommes nous incapables de lancer des chaussures contre le ministère de la culture, d’entourer le cercueil de la justice dans une longue procession funèbre de la place Vendôme jusqu’à la Bastille, ou de bloquer les trains gare du Nord ?

Notes

[1] Crédit photo : Grégoire Lannoy (Creative Commons)




Hadopi : le scénario catastrophe mais plausible de l’Isoc France

Karynsig - CC byIl n’y a pas que les « anarchistes du Net » et les « hacktivistes libristes » qui sont contre le projet de loi Internet et Création. Il y a aussi des « gens très sérieux » qui réfléchissent depuis longtemps à toutes ces questions.

Fondée en mars 1996 par une poignée de pionniers, l’Isoc France est le Chapitre Français de l’Isoc. Association internationale. Sa mission prioritaire est d’être l’un des « interlocuteurs privilégiés des pouvoirs publics et des entreprises sur l’ensemble des questions de gouvernance d’Internet, tant sur le plan technique que sociétal ».

Or l’Isoc France vient de nous pondre, sous la plume de Paul Guermonprez, un « article de prospective » de poids à verser au dossier : Loi Création et Internet « Le boomerang législatif » Janvier 2009 – Avril 2010, article qui tente d’anticiper les conséquences du projet de loi.

De la pure science-fiction ? Rien n’est moins sûr malheureusement !

Je vous invite vivement à le lire (13 pages). D’abord parce que, nonobstant le sentiment d’épouvante[1] qui nous étreint parfois, c’est fort instructif. Mais également parce qu’il s’agit en quelque sorte, et selon moi, du coup de grâce porté à la loi.

Ce document est résumé dans le communiqué de l’Isoc France que je me suis permis de reproduire ci-dessous.

Création & Internet : le boomerang législatif

URL d’origine

Isoc France – 24 février 2009 – Communiqué de Presse

Loin de provoquer un changement des mentalités sur le respect des droits des auteurs et de la distribution la loi Création et Internet, peu adaptée à la complexité du terrain numérique, va générer des tensions fortes et de nombreux problèmes d’application.

Le Chapitre Français de l’Internet Society remonte en ligne, à quelques jours de la soumission de la Loi devant l’Assemblée Nationale. Le débat est loin d’être clos.

Évolution des mentalités : Le conflit direct entre détenteurs de droits et le public sans intervention des forces de l’ordre et de la justice va créer une tension improductive et n’aura pas de portée éducative. De même que l’interdit bancaire n’a jamais appris à lutter contre l’endettement, le bannissement d’Internet ne sera pas utile pour éduquer sur le respect du droit d’auteur.

Pratique : Les internautes pirates vont continuer à télécharger par des méthodes techniquement différentes à l’abri des poursuites (P2P sans tracker, site d’archives, serveurs payants). L’échange de main à main se développera, provoquant un coming-out de leurs auteurs et une plus grande acceptation sociale.

Marché : Le monopole d’iTunes se renforcera et les inconvénients pour les producteurs d’un monopole apparaîtront plus clairement. La monétisation des œuvres prendra des formes plus variées (publicité/streaming, P2P légal). Les producteurs indépendants continueront leur évolution vers des offres directes fortement rémunératrices.

Effets collatéraux : Premièrement le réseau ne sera plus neutre – avec de nombreuses répercutions : déséquilibre entre compagnies productrices et entre opérateurs, frein au développement d’offres et services innovants. Les points d’accès non personnels (HotSpots publics, cafés internet…) seront fermés ou restreints à une liste blanche, notamment les réseaux WiMax dans les zones rurales, excluant d’Internet une partie des Français !

Politique : De neutre et universel, le réseau évoluera vers un intranet proposant l’offre d’un opérateur-producteur. De plus cette rupture provoquera une politisation involontaire du réseau, certains extrémistes allant jusqu’à saboter les infrastructures. D’un acte illégal et peu réfléchi, le piratage deviendra un acte politique de rébellion anti-majors et anti-Sarkozy.

Pour toutes ces raisons, l’Isoc France considère que cette loi « Création et Internet » est une bombe à retardement !

Une version de prospective 2009-2010 (13 pages) est disponible.

Notes

[1] Crédit photo : Karynsig (Creative Commons By)




Projet de loi Création et Internet : l’April s’insurge et appelle à la mobilisation

Qualifié, malheureusement à juste titre, de DADVSI 2, le projet de loi « Création et Internet » (ou Hadopi) vient de chauffer aux oreilles de l’April. Il faut dire qu’il y a de quoi et le rapporteur (et benjamin) de l’UMP Franck Riester d’en prendre pour son grade.

Je vous laisse, je dois contacter mon député…

Riposte graduée : le rapporteur s’oppose à l’interopérabilité, l’April appelle à la mobilisation

URL d’origine du document

APRIL – 23 février 2009 – Communiqué de presse

Trois ans après DADVSI, le gouvernement et la majorité semblent n’avoir rien retenu des débats sur l’interopérabilité[1] et le logiciel libre. Lors de l’examen du texte « Création et Internet » en commission des lois de l’Assemblée nationale, le rapporteur UMP Franck Riester s’est opposé à l’interopérabilité des moyens de sécurisation imposés par le projet de loi, au motif que l’interopérabilité empêcherait le libre choix de l’utilisateur ! L’April s’insurge et appelle chacun à contacter son député pour l’alerter.

Véritable DADVSI 2, le projet de loi « Création et Internet » déjà validé par le Sénat est actuellement programmé à l’ordre du jour de l’Assemblée nationale. Après un examen en commissions, le texte sera examiné en séance à partir du 10 mars 2009.

L’essentiel du projet de loi est bien d’échafauder une nouvelle autorité administrative – l’Hadopi[2] – qui aura pour but de faire une répression de masse sur la base de relevés informatiques. Mais il prévoit également d’imposer aux titulaires d’un accès à Internet des « moyens de sécurisation » visant à empêcher que leur connexion soit utilisée pour commettre des infractions.

« On ignore tout de la nature de ces moyens de sécurisation : on ne sait pas ce qu’ils font, ni où ils s’installent, et quelle est la maîtrise que l’utilisateur pourra en avoir, » déplore Alix Cazenave, responsable des affaires publiques de l’April. « Qu’ils ne fassent pas le jeu d’éditeurs pratiquant la vente liée serait un minimum ! » L’April a d’ailleurs été reçue par des députés de tous les groupes pour leur faire part de ses questions et de ses inquiétudes[3].

Pourtant sur la question précise de l’interopérabilité, les députés Jean Dionis du Séjour (Nouveau Centre) et Patrick Bloche (Socialiste, Radical et Citoyen) se sont heurtés à un refus catégorique du rapporteur, motivé par un argument que nul n’aurait imaginé : il est simplement défavorable à l’interopérabilité[4] ! Il s’est de même opposé à ce que l’abonné soit exonéré de sa responsabilité lorsqu’il n’existe pas de moyens de sécurisation adaptés à sa configuration. L’April avait pourtant, dès le 6 mars 2008[5], alerté le conseiller juridique de la ministre de la culture sur le risque que comporte ce genre de mesures pour l’interopérabilité et le logiciel libre. À l’époque déjà, aucune réponse n’avait été apportée quant à la nature de ces moyens de sécurisation, le conseiller Henrard se contentant d’affirmer que la loi créerait le marché (sic).

« Ce que Franck Riester ne comprend pas, c’est que l’interopérabilité est le libre choix des consommateurs. On se croirait de retour en 2006 avec le benjamin de l’époque, Laurent Wauquiez, qui avait au moins eu l’honnêteté de reconnaître son incompétence[6]. En 2005, la SACEM voulait nous faire changer nos licences[7] ; Franck Riester voudrait-il nous obliger à changer de système d’exploitation ?», s’interroge Frédéric Couchet, délégué général de l’April.

« Monsieur Riester est la preuve qu’il reste encore à l’Assemblée nationale des députés opposés à l’interopérabilité et au logiciel libre[8]. Il soutient un dispositif qui va, une fois de plus, pénaliser sans aucune justification les auteurs et utilisateurs de logiciels libres, les mettant dans une situation d’insécurité juridique absolument inacceptable. Le groupe UMP a décidément bien choisi son rapporteur : tout comme cette loi, il nie la réalité technique, protège des intérêts particuliers et souffre d’un archaïsme affligeant » s’insurge Benoît Sibaud, président de l’April.

Comme pour DADVSI, l’urgence est déclarée. Comme pour DADVSI, ce texte est annoncé comme le remède miracle contre le téléchargement non autorisé d’œuvres en peer-to-peer. Comme pour DADVSI, des mesures « techniques » de contrôle d’usage sont imposées. Comme pour DADVSI, l’interopérabilité est méprisée. Comme pour DADVSI, le logiciel libre est ignoré, et ses utilisateurs menacés.

C’est pourquoi, comme pour la loi DADVSI, l’April appelle tous les citoyens attachés au logiciel libre à contacter leurs députés[9] et à les alerter afin qu’ils s’opposent à cette nouvelle menace. Elle les invite également à écrire au rapporteur Riester pour lui demander de revenir sur ses positions inacceptables.

Notes

[1] rappelons au passage l’article 7, adopté le 16 mars en seconde délibération à l’unanimité, faisant de la France le premier pays d’Europe à véritablement défendre activement l’interopérabilité, première mondiale saluée Outre-Atlantique. Communiqué du 18 avril 2006 « Projet de loi "DADVSI" : à contre-courant, le Sénat rejette l’interopérabilité et prône la brevetabilité du logiciel ».

[2] Haute Autorité pour la diffusion et la protection des œuvres sur Internet, créée à partir de l’Autorité de régulation des mesures techniques de la loi DADVSI.

[3] Notamment les porte-paroles des groupes Nouveau Centre (NC), Socialiste, Radical et Citoyen (SRC), Gauche Démocratique et Républicaine (GDR), ainsi que par la rapporteure pour avis (UMP) de la commission des affaires culturelles. Elle doit également être auditionnée par le rapporteur pour avis (UMP) de la commission des affaires économiques.

[4] Extrait du compte-rendu n°28 de la réunion de la commission des lois, mercredi 18 février 2009, séance de 9h30 : — Art. L. 331-30 (nouveau) du code de la propriété intellectuelle : Liste des moyens de sécurisation efficaces : La Commission adopte un amendement du rapporteur précisant les consultations auxquelles la HADOPI devra procéder avant de rendre officielles les spécifications fonctionnelles des moyens de sécurisation et supprimant l’établissement d’une liste officielle de ces spécifications. Elle est ensuite saisie d’un amendement de M. Jean Dionis du Séjour précisant que les moyens de sécurisation devront être interopérables et mis à la disposition des consommateurs gratuitement. – M. le rapporteur : Les moyens de sécurisation mis en place ne sauraient être gratuits, à l’image des logiciels de contrôle parental, mis à la disposition des consommateurs à titre payant, même si leur prix est modique. – M. Jean Dionis du Séjour : J’accepte de supprimer de mon amendement la condition de gratuité. – M. le rapporteur : J’en viens au second objet de l’amendement : l’interopérabilité. Je n’y suis pas favorable. Il faut laisser au consommateur sa totale liberté de choix en fonction de son système d’exploitation. L’interopérabilité n’est pas nécessaire pour les consommateurs et elle est trop contraignante pour les éditeurs de logiciels. La Commission rejette l’amendement, puis adopte deux amendements du rapporteur, le premier visant à préciser que la HADOPI établit une liste labellisant les moyens de sécurisation, le second de nature rédactionnelle. Elle rejette ensuite, par cohérence, un amendement de M. Patrick Bloche précisant que les moyens de sécurisation devront être interopérables et mis à la disposition des consommateurs gratuitement.

[5] Voir le compte rendu de la réunion avec Laurent Ladouari et Olivier Henrard.

[6] « Nous devons reconnaître honnêtement les limites de nos compétences techniques – certains d’entre nous en ont apporté la preuve, moi le premier hier soir – sur des sujets extrêmement techniques comme le MP4 ou les fichiers MP3. » – Laurent Wauquiez, député UMP benjamin de l’AN sous la XIIème législature, porteur de la partie civile de l’amendement Vivendi, lors de l’examen du DADVSI. Franck Riester est « benjamin du groupe UMP et troisième plus jeune député de l’hémicycle » selon ce portrait.

[7] « Vendredi 18 novembre 2005, au ministère de la Culture, le SNEP et la SCPP déclarent aux auteurs de Logiciel Libre : « Vous allez changer vos licences. » La SACEM ajoute : « Vous allez arrêter de publier vos logiciels. » Et se déclare prête à « poursuivre les auteurs de logiciels libres continuant de divulguer leur code source » – Extrait du communiqué de presse de la FSF France du 25 novembre 2005.

[8] Contrairement au prédécesseur de Franck Riester sur la 5ème circonscription de Seine-et-Marne, Guy Drut, UMP lui aussi, qui a été un des questeurs à l’origine de la migration vers le logiciel libre du poste de travail des députés français.

[9] Pour une liste des députés, leurs fiches individuelles et leurs coordonnées, voir également le Mémoire Politique disponible sur le wiki de la Quadrature du Net.




Wikipédia et éducation : un exemple de réconciliation 1/6

Dossier Wikipédia - Étudiants de Jon Beasley-Murray - CC byTous les articles de l’encyclopédie libre Wikipédia possèdent un historique. Certains ont même une véritable histoire…

Il existe dans Wikipédia des articles qui possèdent le label « Article de Qualité » ou le label « Bon Article ». Il s’agit de « refléter la diversité et la richesse de l’encyclopédie ». Pour qu’un article puisse y prétendre, il doit répondre à certains critères parmi lesquels avant tout la qualité encyclopédique (clarté, exhaustivité, neutralité, pertinence, citation des sources…) mais aussi la qualité de finition (orthographe, syntaxe, mise en page, illustrations…) et le respect des licences. Tout contributeur peut y soumettre un article et tout contributeur peut participer au processus de vote.

Au moment où j’écris ces lignes, on trouve dans la version française de Wikipédia 527 « Articles de Qualité » et 529 « Bons Articles » sur un total de 765 360 articles. Moins de 0,1% des articles de l’encyclopédie sont des « Articles de Qualité » ou des « Bons Articles ».

La version anglaise de l’encyclopédie Wikipédia a pris l’habitude de mettre chaque jour en lumière sur sa page d’accueil un « Article de Qualité » fraîchement labellisé. Le 5 mai 2008, c’est l’article El Señor Presidente, traitant du roman éponyme du prix Nobel guatémaltèque Miguel Ángel Asturias, qui a connu ce petit honneur. C’est l’histoire pédagogiquement remarquable de cet article (et de quelques autres connexes) que nous vous proposons aujourd’hui dans ce mini-dossier de six pages.

Jon Beasley-Murray est professeur de littérature latino-américaine à l’Université de la Colombie Britannique (Vancouver – Canada). Ayant constaté que ce domaine était très faiblement couvert par la version anglaise de Wikipédia, il a décidé d’intégrer l’encyclopédie à l’un de ses cours en lançant le « défi » suivant à ses étudiants : quitte à les créer pour l’occasion, choisissons quelques articles afférents, répartissez-vous par groupes, et faisons en sorte qu’ils obtiennent tous le label « Article de Qualité » dans le temps imparti du semestre universitaire.

Le chemin fut semé d’embûches, certains écueils ne purent être évités et l’implication ne fut pas forcément la même pour tout le monde, mais globalement le succès aura été au rendez-vous. Succès pour les étudiants, pour leur professeur, mais aussi pour Wikipédia qui se retrouve non seulement avec des articles bonifiés mais également avec un exemple, décrit et analysé par ses acteurs, dont on peut dresser le bilan et s’interroger sur les conditions de sa reproductibilité.

Oscillant entre la tentation de l’interdiction et la préconisation sans précaution, le corps enseignant a souvent du mal à composer avec cet objet mutant qu’est Wikipédia, dont il ne peut que constater l’usage massif qu’en font, pas toujours à bon escient, leurs étudiants. Le malaise est latent, pour ne pas dire patent, et aboutit à ce que Wikipédia et monde éducatif se regardent parfois un peu en chien de faïence (cf notre page de liens connexes).

Ce projet pédagogique pose de nombreuses questions, apportent quelques réponses et permet en outre à tout lecteur non familier avec Wikipédia de mieux comprendre ce qu’est réellement l’encyclopédie et comment elle fonctionne « de l’intérieur ». C’est pourquoi il nous est apparu intéressant de l’étudier dans le détail en traduisant ces quelques articles qui sont autant de témoignages enrichissants. Pour ajouter modestement notre contribution au débat, lever éventuellement quelques malentendus, et, sait-on jamais, inciter certains collègues à se lancer eux-aussi dans une future et similaire aventure…

Dans la mesure où ce dossier est conséquent et qu’il est peut-être plus confortable de lire le tout sur papier imprimé, vous trouverez ci-dessous en annexe une version complète au format PDF (merci Garburst).

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008




Wikipédia et éducation : un exemple de réconciliation 2/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage de l’enseignant qui est ici présentée.

Copie d'écran - Wikipédia - Jon Beasley-Murray

Introduction de Wikipédia dans les salles de classe : le loup est-il dans la bergerie ?

Was introducing Wikipedia to the classroom an act of madness leading only to mayhem if not murder?

Jon Beasley-Murray – avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Réflexions sur l’utilisation de Wikipédia dans le cadre du cours SPAN312 à l’Université de la Colombie Britannique, « Murder, Madness, and Mayhem: Latin American Literature in Translation » (NdT : « Meurtre, Folie et Chaos : la littérature latino-américaine en mouvement »), printemps 2008.

Wikipédia : mal aimée mais omniprésente dans l’éducation

Tel un membre non invité, Wikipédia s’aventure aujourd’hui très près du monde universitaire. Les objectifs de Wikipédia sont éminemment académiques : l’encyclopédie se focalise sur la collecte, le traitement, l’enregistrement et la transmission du savoir. À en juger par le nombre d’articles et de lecteurs, elle a particulièrement bien réussi à encourager une culture de curiosité intellectuelle. Elle est pourtant régulièrement sujette aux critiques formulées par les universitaires eux-mêmes.

Et pourtant tout le monde en fait usage d’une manière ou d’une autre, même si c’est difficile à admettre. Et surtout, nos étudiants l’utilisent, ouvertement ou non (puisqu’on leur impose souvent de ne pas citer les articles de Wikipédia dans leurs travaux), mais sans nécessairement en connaître véritablement le fonctionnement. On leur dit que l’usage de Wikipédia n’est pas conseillé, mais on leur dit rarement pourquoi, alors qu’eux la voient comme une ressource incroyablement utile.

La consigne : créer un « Article de Qualité »

J’ai décidé de faire de Wikipédia un axe central d’une matière que j’enseignais, en pensant que c’est seulement en y contribuant activement que les élèves découvriraient ses points faibles et ses points forts. J’avais aussi en tête l’idée qu’ils pourraient par la même occasion améliorer les articles dans un domaine qui à mes yeux manquait cruellement de contenu, en l’occurrence la littérature latino-américaine.

Wikipédia devait être un point important du cours mais sans en être pour autant l’essentiel. Ce n’était pas un cours sur Wikipédia mais, comme mes autres cours, il devait plutôt se concentrer sur l’Amérique Latine ainsi que sur la lecture d’un corpus de textes littéraires d’Amérique Latine. Dans ce cours intitulé « Murder, Madness, and Mayhem » (NdT : Meurtre, Folie et Chaos), les textes choisis comportaient une série de romans sur la dictature de la période du dix-neuvième siècle avec l’argentin Domingo Faustino Sarmiento jusqu’à l’époque contemporaine avec certains des auteurs d’Amérique Latine les plus en vue comme Gabriel García Márquez et Mario Vargas Llosa. Ces livres n’étant ni simples ni courts, les étudiants devaient passer une bonne partie de leur temps personnel à la lecture, la majeure partie du temps en classe étant consacrée aux explications et à la discussion.

Wikipédia n’était que peu abordé durant les cours. La tâche qui leur était assignée était plutôt d’éditer (ou, dans deux cas, de créer), en groupe, les articles de Wikipédia se rapportant aux œuvres et aux auteurs étudiés. Au cours de la session ils devaient réussir à faire obtenir à ces articles ce qu’on nomme dans le jargon Wikipédia le grade d’Article de Qualité.

Lorsque je leur ai assigné cette tâche je ne réalisais pas à quel point c’était ambitieux. Wikipédia définit un Article de Qualité comme un article qui « représente ce que l’on peut de trouver de mieux, et qui répond à des standards professionnels d’écriture et de présentation ». Et ces standards placent de fait la barre très haut. C’est manifestement un des paradoxes de Wikipédia : ses standards sont irréprochables alors même que la majeure partie de son contenu en est fort éloigné. Pour vous donner une idée, moins de 0,1% des articles de Wikipédia possèdent le label Article de Qualité.

En effet, alors que Wikipédia a déjà fait l’objet de nombreux projets pédagogiques au sein d’universités aussi dispersées que celles de Sydney, Hong-Kong, Minnesota et Leiden, c’était à ma connaissance la première fois qu’on demandait explicitement à des étudiants de créer des Articles de Qualité.

Considérations initiales : les avantages de Wikipédia

En plus d’enseigner (même indirectement) aux étudiants les faiblesses et les forces de Wikipédia et en même temps (peut-être incidemment) d’améliorer le contenu de l’encyclopédie concernant l’Amérique Latine, d’autres raisons plus positives venaient étayer ce choix de travail.

L’idée que les étudiants se lançaient dans un projet concret ayant des effets tangibles et publics, à défaut d’être éternels, me plaisait. Après tout, une dissertation ou un examen est un parfait exemple de travail inutile : souvent rédigé à la hâte pour un lecteur unique, le professeur, et ensuite mis de côté.

Je trouve regrettable qu’à de rares exceptions près, comme par exemple dans les ateliers d’écriture, les étudiants ne soient pas plus encouragés à relire et à réfléchir à leur propre travail, où trop souvent ils ne font que jeter un coup d’œil aux commentaires que le professeur aura laborieusement griffonné. C’est compréhensible, puisqu’ayant à ce stade très peu de chances de pouvoir retravailler leur devoir, ils ne s’intéressent alors qu’à leur note et c’est tout. Les étudiants ne découvrent que rarement l’importance des corrections dans un bon travail d’écriture. Alors qu’au contraire, sur Wikipédia, les corrections font (presque) tout : les contributeurs sont appelés « éditeurs » justement parce que leurs écrits sont en permanence au stade de la correction.

De plus ils participeraient à l’élaboration de pages qui, pour certaines (l’article sur Gabriel García Márquez par exemple), reçoivent plus de 60 000 visiteurs par mois. Même les articles les moins visités sur lesquels ils travaillaient recevaient plusieurs centaines de visites par mois. Ici ils écrivaient des articles pour un lectorat ayant la possibilité rare de répondre, de ré-écrire et de commenter le contenu qu’ils produisaient. En effet, travailler sur Wikipédia ouvre la porte au travail collaboratif : les étudiants devaient non seulement collaborer entre eux, mais aussi avec d’autres éditeurs ou des wikipédiens qu’ils ne rencontraient que sur le wiki.

Pour finir, l’idée même que l’attribution de la note soit extérieure à la classe m’attirait. L’idée que le travail soit jaugé à l’aune de son impact et non par le jugement personnel d’un professeur (aussi professionnel soit-il) me plaisait. Dès le départ, j’ai établi avec eux que les groupes qui réussiraient à faire obtenir à leur article la mention Article de Qualité seraient notés A+, c’est aussi simple que ça. Ceux qui atteignaient la mention Bon Article (la barre est placée moins haut, mais les Bons Articles ne représentent tout de même que 0,15% de tous les articles de Wikipédia en anglais) recevraient un A. La note pour ce devoir, en d’autres termes, serait déterminée par l’appréciation collective et publique des autres auteurs.

Considérations initiales : pièges potentiels

J’avoue que je n’ai pas beaucoup pris en considération les écueils de ce plan. Je reconnais que c’était un peu une expérience, mais la tenter me rendait enthousiaste. Ce n’était de toute façon pas le seul point sur lequel le cours serait noté et l’évaluation ne reposerait pas entièrement dessus : les étudiants devaient également tenir à jour un blog hebdomadaire sur leurs lectures et rendre deux devoirs, un à mi-session et un autre à la fin.

(En fin de compte le devoir de fin de session a été abandonné à la majorité des 2/3 de la classe après un vote des étudiants à bulletin secret : 85% d’entre eux ont voté pour l’annulation du devoir final et pour un plus gros coefficient du travail sur Wikipédia.)

J’avais surtout peur que les étudiants soient pris dans une guerre d’édition non constructive et potentiellement décourageante. Une guerre d’édition est un débat sans fin entre des éditeurs qui n’arrivent pas à s’accorder sur le contenu de l’article. Comme dans beaucoup d’interactions en ligne, ces désaccords deviennent rapidement désagréables et provoquent l’intervention d’un administrateur de Wikipédia qui peut décider de « bloquer » l’un des individus impolis, voire les deux. Je n’étais que trop conscient de ce problème puisque dans mes tentatives d’exploration de Wikipédia quelques mois avant de donner ce cours, je me suis retrouvé (plutôt par inadvertance) pris dans de telles guerres, et je me suis fait bloquer pendant quelque temps.

C’est toujours un peu risqué d’amener les étudiants à interagir directement avec la sphère publique. Et, d’une certaine manière, nous devons veiller sur eux. C’est peut-être la raison pour laquelle tellement de technologies de l’éducation (dont WebCT est le meilleur exemple) sont hermétiquement isolées du « monde réel ». Et ça ne serait pas très productif si l’un de mes étudiants se retrouvait bloqué et ne pouvait pas poursuivre son travail ! J’ai donc croisé les doigts en espérant que cette éventualité ne se présente pas.

Premiers pas : « notre » projet se met en route

Wikipédia ne m’était pas totalement inconnue puisque j’avais déjà à mon actif de nombreuses éditions d’articles et même quelques créations (même si ces derniers n’étaient rien d’autre que des ébauches, des versions courtes et préliminaires). Mais jusque là je n’avais pas encore travaillé de manière durable sur un article de Wikipédia. Et bien que j’avais quand même un sentiment de familiarité ainsi qu’un certain sens de la culture Wikipédia, j’avoue que j’étais malgré tout (et le suis d’ailleurs toujours) perplexe devant certains des détails les plus impénétrables des techniques et procédures de ce qui est maintenant devenu une gigantesque et labyrinthique entreprise.

D’un autre côté, cela m’a permis de comprendre l’intimidation que les élèves ne manqueraient pas de ressentir devant la tâche qui se présentaient à eux. Seuls un ou deux étudiants avaient déjà fait des modifications sur Wikipédia et ils étaient peu nombreux à montrer des signes de familiarité avec les conventions du Web. Et ne parlons même pas du code spécifique à Wikipédia (même si celui-ci est simplifié). Je crois que je peux comprendre leur étonnement quand, ayant cliqué pour la première fois sur le bouton « Modifier », ils sont tombés sur une masse confuse de gribouillis caractéristiques des logiciels de wiki.

Pour poser les bases du projet et obtenir du soutien, j’ai enregistré le projet sur une page Wikipédia dédiée à ce genre de choses, j’ai fait apparaître sur tous les articles du projet qu’ils faisaient partie d’une tâche pédagogique, et j’ai démarré une « page projet » décrivant nos objectifs. J’ai aussi laissé des messages sur d’autres projets Wikipédia jugés connexes (principalement des groupes d’éditeurs de Wikipédia qui se concentrent sur un sujet particulier comme par exemple la littérature ou l’Amérique du Sud); j’ai même laissé un mot au journal maison de l’encyclopédie, le Wikipédia Signpost (NdT : le Wikimag en français). J’ai ensuite présenté le projet à la classe, demandé aux étudiants de se créer un compte sur Wikipédia et j’ai croisé les doigts pour que ça marche.

Vous avez peut-être remarqué que je parle de « notre » projet et de « nos » objectifs. J’essaie en général d’inclure tout le monde quand je parle en classe : « nous » lisons les textes « ensemble  », « nous » essayons de comprendre comment les interpréter. Mais ici la sensation était presque palpable : dès le départ je sentais que je faisais aussi partie du projet, sentiment qui n’ira qu’en s’amplifiant dans les semaines suivantes.

Leçon numéro 1 : « ceci pourra être effacé »

Assez rapidement, quand tout le monde fut censé s’être enregistré et avoir commencé à jouer un peu avec les modifications, j’ai apporté mon ordinateur en cours et j’ai présenté les bases aux étudiants. Raccordé à un vidéoprojecteur, je leur ai montré sur grand écran où se trouve l’onglet « Modifier », comment faire une modification mineure (en changeant un mot sur la page Wikipédia de notre université) et comment faire une modification majeure (en vaporisant un article associé à l’université qui était manifestement un plagiat d’un autre site Web).

Un élève m’a par la suite demandé de leur montrer comment créer une nouvelle page. Deux des articles sur lesquels ils travaillaient n’existaient pas alors et j’ai alors décidé de créer El Señor Presidente, dont le seul contenu initial était : « El Señor Presidente est le titre d’un roman de Miguel Ángel Asturias ». J’ai ensuite poursuivi sur d’autres pages avant de revenir à celle-ci quelques instants plus tard… et c’était tout pour la première leçon. Sauf que, à mon grand embarras (et devant la classe entière) j’ai découvert qu’en à peine une minute d’autres éditeurs de Wikipédia avaient déjà collé une énorme bannière rose sur notre tout frais nouvel article avec la mention suivante : « Cette page est susceptible de remplir les critères de Wikipédia pour suppression rapide ». « Les salauds ! » murmurai-je dans ma barbe et je me suis dépêché de modifier le contenu de l’article pour y afficher « El Señor Presidente est le titre du roman le plus important du romancier, lauréat du prix Nobel, Miguel Ángel Asturias », inquiet que notre petit projet se fasse torpiller à peine commencé.

Si j’avais voulu montrer aux étudiants que la modification de Wikipédia est un exercice de négociation avec l’entière communauté d’éditeurs et de lecteurs, je n’aurais pas pu mieux choisir mon exemple. J’ai découvert (depuis) que pour d’autres projets pédagogiques sur Wikipédia, les étudiants sont souvent encouragés à faire un brouillon de leurs articles à l’abri des regards et de les enregistrer sur les pages publiques uniquement lorsqu’ils sont prêts à affronter un examen général. Ici tout était exposé et ouvert dès le début. Mais je n’ai aucun regret. C’est en effet là que le projet a puisé certains de ses meilleurs atouts.

La FA-Team : synergies, du bon et du mauvais

Mais on a rapidement eu un gros coup de chance, alors même que les messages que j’avais envoyés aux différents projets Wikipédia pré-existants semblaient lettre morte (la plupart, d’après ce que j’ai pu voir, étant enterrés ou plus souvent simplement débordés). Il s’est en effet trouvé qu’un groupe d’éditeurs expérimentés de Wikipédia avait commencé à lancer des idées pour augmenter le nombre d’Articles de Qualité sur Wikipédia. Ils se sont baptisés la « FA-Team » (NdT : L’équipe des Articles de Qualité, FA pour Featured Articles) et cherchaient alors un projet auquel participer. Or ils « nous » ont repéré et nous ont écrit pour savoir si nous désirions un coup de main.

Est-ce que nous désirions un coup de main ? Évidemment !

La FA-Team s’est répartie les articles du projet, ils ont laissé des messages d’accueil sur la page de discussion de chaque étudiant (les pages personnelles spécifiques à chaque utilisateur enregistré de Wikipédia et qui fonctionnent comme des pages où les éditeurs peuvent entrer en contact directement avec l’utilisateur) et ils ont débuté leur mission d’encouragement, de conseil et de guide auprès de notre groupe afin de nous pousser à rédiger des articles de Wikipédia de haut niveau. Ce sont des gens très méticuleux, dévoués, et par dessus tout généreux.

Je réalise maintenant que la FA-Team nous a fait la démonstration de la plus grand force (et peut-être aussi la plus grande faiblesse) de Wikipédia : la synergie. Les éditeurs de Wikipédia sont attirés par l’activité. J’irai même plus loin : ils sont particulièrement attirés par l’activité qui aboutit à l’ajout de contenu nouveau à l’encyclopédie. Un bon exemple de cette attraction est l’avertissement que j’ai reçu après avoir créé une page : il existe un noyau de volontaires de Wikipédia qui scrute sans cesse la création de nouvelles pages, prêts à se jeter dessus si un sujet déplacé ou non-encyclopédique est proposé. N’importe qui peut créer une page Wikipédia, mais si vous en créez une sur vous, votre petit groupe de musique ou votre chat, attendez vous à la voir disparaître sans avoir le temps de dire ouf.

De même, beaucoup de personnes émettent des critiques à l’encontre de Wikipédia, la plus connue étant peut-être celle du comédien américain Stephen Colbert, justement parce que n’importe qui peut ajouter n’importe quelle bêtise à un article. Mais je crois que ces personnes ne réalisent pas que des équipes dévouées de wikipédiens surveillent les modifications récentes pour éliminer rapidement ces bêtises flagrantes.

Mais l’aspect vraiment constructif de la réactivité de Wikipédia s’est également manifesté quand, dans les deux jours suivants la création de la page El Señor Presidente, une petite armée d’éditeurs a apporté des modifications mineures qui, combinées, ont apporté des changements importants dans la mise en page. Un des étudiants a ensuite ajouté un fragment d’information qu’il avait trouvé sur un autre site Web. Un petit coup de mise en page réalisée par d’autres éditeurs et au cours suivant cet article ressemblait déjà aux autres pages Wikipédia. Un peu court peut-être, plutôt incomplet et avec quelques sources tirées un peu au hasard d’Internet, mais il apportait des informations sur le sujet aux lecteurs, au moins le minimum, et surtout il était intégré au grand vaisseau Wikipedia.

(Je devrais préciser ici que j’étais indifférent au fait que le travail final des étudiants pourrait ne pas être « entièrement leur travail ». Pour moi, réussir à persuader d’autres personnes de travailler avec eux, travailler en harmonie avec des inconnus faisait également partie du projet. On peut évidemment se dire qu’ils pouvaient tricher pour accomplir leur devoir, comme pour n’importe quel autre devoir, par exemple en payant une tierce personne pour écrire les articles à leur place. Mais en fait le logiciel wiki qui suit les contributions de chacun offre une transparence inégalée, on sait ce que les étudiants font, étape par étape, qui, quoi et quand.)

Ainsi, l’intervention de la FA-Team n’était donc pas exceptionnelle. Ce n’est qu’un exemple de ce principe de synergie porté à une échelle légèrement plus importante et développée. On peut énoncer le principe de synergie ainsi : plus vous contribuez à Wikipédia, plus votre activité résonne et est développée et multipliée par l’activité d’autres personnes. Certes, les guerres d’édition existent, mais d’après mon expérience elles n’affectent en général pas l’ajout de nouveaux contenus. Ce n’était pas juste de la chance, on était tombé sur l’un des principes de base du fonctionnement du wiki.

L’inconvénient de ce principe est que là où Wikipédia est moribond, il le demeure. Bien qu’en théorie l’activité sur Wikipédia bourdonne en continu, en pratique un coup d’œil à l’historique de quelques pages (une information à portée de clic) suffira à vous convaincre que ces pages sont en fait plutôt stables. Un mauvais article pourra le rester pendant une très longue période. Ainsi dans notre projet nous avions les exemples de deux articles plus anciens (et donc plus importants) : les entrées pour Gabriel García Márquez et Mario Vargas Llosa, restées presque inchangées pendant des années, mis à part un petit peaufinage ça ou là. Nous nous devions donc d’y remédier.

Chercher et… chercher encore

C’est alors devenu un travail de recherche. Les étudiants devaient trouver ce qui est appelé en jargon wikipédien des sources sûres. Une doctrine fondamentale de Wikipédia (même si cela peut sembler étrange voire paradoxal, particulièrement pour des universitaires) est qu’elle ne sert pas à la publication de résultats inédits. Une entrée encyclopédique n’est pas faite pour introduire un débat. C’est la différence principale entre dissertation traditionnelle et Wikipédia.

La FA-Team ayant pris en charge le travail de mise en page ainsi que les tâches routinières, les étudiants étaient libres de s’adonner entièrement à la recherche. Mais c’était sans compter un autre piège qui nous a beaucoup ralenti et que nous aurions dû pourtant anticiper puisque ses racines plongent au cœur même des règles de Wikipédia : le fait que les étudiants n’évaluent pas suffisamment leurs sources.

Il faut se rappeler que le problème à la base de ce projet est que les étudiants se fient trop à Wikipédia sans vraiment en considérer les risques et les inconvénients. Il n’était en fait guère étonnant de les voir reproduire les mêmes erreurs en cherchant des sources pour les articles qu’ils devaient rédiger. Ainsi, il n’était pas rare qu’ils ajoutent des informations non vérifiables ou mal documentées (et trop souvent plagiées) ou qu’ils usent et abusent de citations d’autres pages Web et encyclopédies en ligne.

Et pourtant c’est de là aussi qu’a été tirée l’une des meilleures leçons de ce travail. Parce que Wikipédia exige que chaque information soit étayée par une référence (ce que les membres de la FA-Team répétaient inlassablement), les étudiants se sont retrouvés forcés de citer leurs sources. Ces sources pas forcément fiables se sont donc retrouvées exposées, ce qui n’aurait pas nécessairement été le cas pour un examen de session. De plus, justement parce que la rédaction sur Wikipédia est un processus de révision permanente, il a été demandé à certains de reprendre leur travail de recherche pour ré-évaluer leurs sources, pour en trouver de plus fiables avant de reprendre la rédaction. Par la même occasion le problème des plagiats a été réglé simplement parce que plus personne ne recopiait de passages en les faisant passer pour un produit fini.

Pour résumer, ce travail a fait ressortir les faiblesses initiales des étudiants dans le domaine de la recherche, mais ces faiblesses étaient bien la raison d’être de ce devoir. Ils ont cependant appris que rechercher des informations (et les mettre en forme) est un processus, souvent long, où l’on commence avec des sources parfois douteuses (comme Wikipédia lui-même) pour progresser vers des éléments ou preuves toujours plus solides, jusqu’à découvrir de nouvelles informations occultées par les premières sources.

Autres observations : un travail professionnel

Au moment où j’écris ceci, l’accouchement sous péridurale du projet n’est toujours pas terminé. Un article, celui que j’avais ironiquement créé devant la classe, a passé sa première inspection avec succès, une inspection particulièrement rigoureuse d’ailleurs, ce qui lui vaut maintenant le grade de Bon Article. Mes étudiants sont donc à l’origine d’une partie des 0,15% de ce que Wikipédia a de meilleur à offrir et tout cela en partant de rien. De plus, parmi ces 0,15% ne figure aucun autre travail littéraire d’Amérique Latine. Ils (nous ?) ont toutes les raisons d’être fiers d’eux[1]. Pour autant que je sache, c’est le seul travail éducatif sur Wikipédia à avoir directement abouti à un Bon Article[2].

Évidemment tout ne s’est pas fait sans accroc. Deux articles n’ont pour le moment pas vraiment progressé. Le rêve de créer douze nouveaux Articles de Qualité ne restera sans doute qu’un rêve (signifiant par là-même que toute la classe aurait eu la note A+ à un devoir représentant désormais 40% de leur note finale). Mais je suis sûr qu’il en sortira encore une série de Bons Articles (deux autres sont en cours d’évaluation), et certains seront sûrement nominés pour le grade d’Article de Qualité.

Voici donc la résultante d’un travail rigoureux qui, parce qu’il avait pour cadre ce site Web tant décrié qu’est Wikipédia, était loin d’être une solution de facilité. C’était même plutôt le contraire.

Je ne suis toujours pas aveuglé par Wikipédia, loin s’en faut. Il faut bien se dire que c’est une encyclopédie dont seulement une infime fraction de ses articles sont considérés comme de « bons » articles, même par ses propres éditeurs. D’autres faiblesses de Wikipédia sont plus apparentes que jamais, on les retrouve même à un certain degré dans ce projet : un article moribond aura tendance à le rester, et certaines sources sont discutables et souvent plagiées.

Mais, pour la défense de Wikipédia, je dois dire que je n’avais jusqu’alors pas réalisé à quel point ses propres critères sont ambitieux et avec quelle rigueur ils sont appliqués, ni même remarqué l’efficacité du processus collaboratif… si vous êtes prêt à apporter votre contribution et surtout si vous êtes prêt à faire les recherches nécessaires à l’ajout d’informations vérifiables. Là encore je dois dire que nous avons été particulièrement chanceux dans les rencontres que nous avons faites, mais je pense aussi que d’autres bénéficieront de la même bonne fortune.

En ce qui concerne le travail, qui je le répète est loin d’être achevé… j’aimerais croire qu’il enseigne aux étudiants l’art de la recherche et de l’écriture dans un environnement proche du monde réel. Il leur a été assigné au début du semestre un but à moyen terme, voire à long terme, et il leur a été demandé de travailler en collaboration au sein de leurs propres groupes mais aussi avec des inconnus dans un environnement ouvert afin d’établir comment parvenir à ce but et comment le réaliser. Ce travail devait déboucher sur un résultat professionnel, visible par des milliers de personnes, une ressource qui dans la plupart des cas serait la première escale de chercheurs futurs, qu’ils soient étudiants comme eux ou qu’ils fassent simplement partie des millions de visiteurs de Wikipédia de par le monde. La plupart de ces articles sont en effet le premier résultat affiché (ou presque) lors d’une recherche sur Internet sur le sujet traité.

En comparaison, les dissertations et les examens classiques que nous donnons à nos étudiants paraissent plutôt anecdotiques.

Inutile ? Pas d’argumentation

Ce que les étudiants n’apprennent pas par contre à travers ce projet est le développement d’un argument. L’argumentation, la construction cohérente d’une série d’idées, la défense et l’étayement d’une thèse convaincante, est évidemment au cœur de l’enseignement académique. J’attache beaucoup d’importance à cette compétence.

Mais on peut également dire que dans la plupart des emplois qu’occuperont les étudiants après la fin de leur cursus, l’argumentation ne tiendra pas une place aussi importante que dans le monde académique. À l’opposé, la recherche d’informations, la présentation, l’exactitude, l’aptitude à travailler en équipe et la capacité à négocier avec la sphère publique leur seront bien plus utiles (même si ça me fait un peu mal de l’admettre).

De plus, l’écriture sur Wikipédia leur inculque la pensée critique, peut-être pas celle qui est en général abordée à l’université… mais peut-être le devrait-elle. Les éditeurs de Wikipédia sont sans cesse encouragés à faire preuve d’esprit critique vis-à-vis des informations qu’ils trouvent et également vis-à-vis de leurs propres écrits.

J’ai un peu peur d’avoir trop enjolivé la chose. Je le ferai différemment si je suis un jour amené à le refaire. Et je dois vous avouer que j’ai souvent eu l’impression de faire un numéro d’équilibriste, que tout pouvait s’écrouler à tout moment. D’ailleurs nous ne sommes toujours pas à l’abri. Mais si quelque chose tourne mal je pourrai toujours modifier ce texte…

Oh, et si ça vous dit, n’hésitez pas à donner un coup de main sur Murder, Madness, and Mayhem !

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 2/6 – Le projet vu par l’enseignant
    Présentation, chronique et analyse du projet par le professeur Jon Beasley-Murray (à lire en premier).
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

Notes

[1] Le 10 avril 2008, El Señor Presidente est devenu le 2000ème Article de Qualité de Wikipedia. Cet article apparaîtra sur la première page de Wikipédia le 5 mai. Au final, les étudiants ont porté deux autres articles au niveau d’exigence requis pour obtenir le grade d’Article de Qualité (Mario Vargas Llosa et The General in His Labyrinth) tandis que huit autres ont obtenu le grade de « Bon Article ». Les seuls autres articles portant sur la littérature Latino-américaine à ce niveau sont Mário de Andrade et Jorge Luis Borges (bien qu’aujourd’hui ils n’obtiendraient certainement plus cet honneur, il est en effet intéressant de noter que les critères de qualité de Wikipédia augmentent régulièrement avec le temps). Grâce à nous, le nombre d’Articles de Qualité sur la culture latino-américaine a donc très fortement augmenté

[2] Plus de détails ici.