Firefox 3.5 en vidéo 3 minutes chrono

Ce n’est pas peu dire qu’on attend avec impatience la sortie officielle (et désormais imminente) de la première version stable 3.5 du célèbre navigateur qui a changé la face du Web !

Vous voulez savoir pourquoi ? Alors jetez un coup d’œil sur cette vidéo présentée par Mike Beltzner, le boss du développement Firefox chez Mozilla.

Cela dure moins de trois minutes, mais c’est normal puisqu’on vous dit que cette version est rapide, rapide…

Un sous-titrage collectif de toute l’équipe Framalang qui souhaitait marquer le coup et participer elle aussi à l’évènement 😉

What’s new in Firefox 3.5 ?

URL d’origine de la vidéo

—> La vidéo au format webm




Stallman, il y a… 23 ans !

Sysfrog - CC by« Nous sommes actuellement dans une période où la situation qui a rendu le copyright inoffensif et acceptable est en train de se changer en situation où le copyright deviendra destructif et intolérable. Alors, ceux que l’on traite de « pirates » sont en fait des gens qui essayent de faire quelque chose d’utile, quelque chose dont ils n’avaient pas le droit. Les lois sur le copyright sont entièrement destinées à favoriser les gens à prendre un contrôle total sur l’utilisation d’une information pour leur propre bénéfice. Elles ne sont pas faites, au contraire, pour aider les gens désirant s’assurer que l’information est accessible au public ni empêcher que d’autres l’en dépossèdent. »

De qui est cette citation qui ouvre mon billet ? D’un commentateur critique de l’Hadopi ? Vous n’y êtes pas. Il s’agit de Richard Stallman en… 1986 !

En effet, en me promenant récemment sur le site GNU.org je suis tombé sur une très ancienne, pour ne pas dire antique, interview de Richard Stallman[1], donnée donc en juillet 1986 au magazine informatique américain Byte (qui d’ailleurs n’existe plus depuis). Elle a été traduite en français (merci Pierre-Yves Enderlin) mais n’a semble-t-il pas fait l’objet d’un grand intérêt sur la Toile, alors qu’elle le mérite assurément.

Pour tout vous dire, on a un peu l’impression de parcourir l’Histoire, en assistant quasiment en direct à la naissance de quelque chose dont on sait aujourd’hui ce qu’il en est advenu, j’ai nommé… le logiciel libre (pour demain, par contre, on ne sait pas encore très bien, si ce n’est que l’aventure est loin d’être terminée).

Or si le logiciel libre a bien eu lieu, il est également question d’une autre naissance qui elle n’aura jamais vu le jour, celle du fameux projet de système d’exploitation GNU. Ainsi quand les journalistes de Byte (David Betz et Jon Edwards) demandent :

Pourriez-vous prédire quand, vraisemblablement, vous seriez à même de distribuer un environnement fonctionnel qui, si nous l’installions dans nos ordinateurs ou stations de travail, effectuerait vraiment un travail correct, et cela sans utiliser autre chose que le code que vous distribuez ?

Stallman répond :

C’est vraiment difficile à dire. Cela pourrait arriver dans un an, mais bien entendu, cela pourrait prendre plus de temps. Ou moins, mais ce n’est pas probable non plus. Je pense finir le compilateur dans un mois ou deux. La seule grosse tâche à laquelle il faut que je m’attelle est le noyau.

On connait la suite… Cela a tant et si bien tardé qu’en 1991 est arrivé Linux, ou plutôt… GNU/Linux 😉

Cet entretien contient bien sûr quelques passages techniques difficiles, enfin pour le béotien que je suis, qu’il convient de replacer dans leur contexte (la puissance des machines, ces logiciels tellement gourmands qu’ils demandent plus de 1 Mo de mémoire disponible !). Mais GNU Emacs, le célèbre éditeur de texte créé par Stallman, lui est toujours là.

Et puis surtout il y a donc tout ce qui concerne le logiciel libre, cet objet nouveau non identifié qui intrigue les journalistes.

En voici quelques (larges) extraits.

Byte : Parlez-nous de votre schéma de distribution.

Stallman : Je ne mets pas les logiciels ou les manuels dans le domaine public ; la raison en est que je veux m’assurer que tous les utilisateurs aient la liberté de partager. Je ne veux pas que n’importe qui améliore un programme que j’aurais écrit et qu’il le distribue sous un format propriétaire. Je ne veux même pas qu’il soit possible que cela arrive. Je veux encourager les libres améliorations de ces programmes et le meilleur moyen d’y parvenir est de bannir toute tentation d’amélioration qui ne soit pas libre.

Byte : Et comment allez-vous faire pour le garantir ?

Stallman : Je le garantis en mettant un copyright sur ces programmes et en communiquant une notice donnant aux gens la permission explicite decopier le programme et de le modifier, mais seulement à la condition qu’il soit distribué sous les mêmes termes que ceux que j’utilise. Vous n’êtes pas obligé de distribuer les changements effectués sur un de mes programmes ; vous pouvez très bien les faire pour vous seul, sans avoir à les donner ou en parler à qui que ce soit. Mais effectivement si vous les donnez à quelqu’un d’autre, vous devez le faire sous les mêmes conditions que celles que j’utilise.

Puis, un peu plus loin :

Byte : Dans un sens, vous attirez les gens dans cette façon de penser en distribuant tous ces outils très intéressants qu’ils peuvent utiliser, mais seulement s’ils adhèrent à votre philosophie.

Stallman : Oui. Vous pouvez aussi le voir comme l’utilisation du système légal que les thésauriseurs de logiciels ont érigé contre eux. Je l’utilise pour protéger le public contre eux.

Byte : Étant donné que les constructeurs n’ont pas voulu financer le projet, à votre avis qui utilisera le système GNU quand il sera terminé ?

Stallman : Je n’en ai aucune idée, mais ce n’est pas une question importante. Mon but est de le rendre possible pour les gens, pour qu’ils rejettent les boulets traînés par les logiciels propriétaires. Je sais qu’il y a des gens qui veulent faire cela. Maintenant, il peut y en avoir qui ne s’en soucient guère, mais je ne m’en préoccupe pas. Je me sens un peu triste pour eux et pour les personnes qu’ils influencent. De nos jours, la personne qui perçoit le caractère déplaisant des conditions des logiciels propriétaires se sent pieds et poings liés et n’a d’autres alternatives que de ne pas utiliser d’ordinateur. Eh bien, à cette personne, je vais donner une alternative confortable. (…) C’est ce qui me pousse à croire que beaucoup de gens utiliseront le reste du système GNU à cause de ses avantages techniques. Mais je ferais un système GNU même si je ne savais pas comment le faire techniquement meilleur, parce que je le veux socialement meilleur. Le projet GNU est vraiment un projet social. Il utilise des aspects techniques pour opérer des changements dans la société.

Byte : Pour vous, c’est bel et bien important que les gens adoptent GNU. Il ne s’agit pas uniquement d’un exercice de style, produire des logiciels qu’on cède ensuite aux gens. Vous espérez que cela changera la façon de faire dans l’industrie du logiciel.

Stallman : Oui. Certains disent que personne ne l’utilisera jamais sous prétexte qu’il n’y a pas le logo d’une société séduisante dessus et d’autres pensent que c’est terriblement important et que tout le monde voudra l’utiliser. Je n’ai pas les moyens de savoir ce qui va vraiment arriver. Je ne connais pas d’autres moyens pour essayer de changer la laideur du milieu dans lequel je me trouve, alors c’est ce que j’ai à faire.

Et enfin :

Byte : Pouvez-vous en donner les implications ? Manifestement, vous pensez qu’il s’agit là de bases importantes, politiquement et socialement.

Stallman : C’est un changement. J’essaye de modifier l’approche qu’ont les gens de la connaissance et de l’information en général. Je pense qu’essayer de s’approprier le savoir, d’en contrôler son utilisation ou d’essayer d’en empêcher le partage est un sabotage. C’est une activité qui bénéficie à la personne qui le fait, au prix de l’appauvrissement de toute la société. Une personne gagne un dollar en en détruisant deux. Je pense qu’une personne ayant une conscience ne ferait pas ce genre de chose, à moins de vouloir mourir. Et bien entendu, ceux qui le font sont passablement riches ; ma seule conclusion est leur manque total de scrupules. J’aimerais voir des gens récompensés d’écrire des logiciels libres et d’en encourager d’autres à les utiliser. Je ne veux pas voir des gens être récompensés pour avoir écrit des logiciels propriétaires, parce que ce n’est vraiment pas une contribution à la société. Le principe du capitalisme réside dans l’idée que les gens peuvent faire de l’argent en produisant des choses et de fait, ils sont encouragés à faire ce qui est utile, automatiquement, si on peut dire. Mais ça ne marche pas quand il s’agit de posséder la connaissance. Ils sont encouragés à ne pas vraiment faire ce qui est utile et ce qui est réellement utile n’est pas encouragé. Je pense qu’il est important de dire que l’information diffère des objets matériels, comme une voiture ou une baguette de pain, car on peut la copier, la partager de son propre chef et si personne ne cherche à nous en empêcher, on peut la changer et la rendre meilleure pour nous-même. (…) Nous sommes actuellement dans une période où la situation qui a rendu le copyright inoffensif et acceptable est en train de se changer en situation où le copyright deviendra destructif et intolérable. Alors, ceux que l’on traite de « pirates » sont en fait des gens qui essayent de faire quelque chose d’utile, quelque chose dont ils n’avaient pas le droit. Les lois sur le copyright sont entièrement destinées à favoriser les gens à prendre un contrôle total sur l’utilisation d’une information pour leur propre bénéfice. Elles ne sont pas faites, au contraire, pour aider les gens désirant s’assurer que l’information est accessible au public ni empêcher que d’autres l’en dépossèdent.

La graine du logiciel libre était plantée.
La suite n’était plus qu’une question d’arrosage 😉

Pour lire l’interview dans son intégralité, rendez-vous sur GNU.org.

Notes

[1] Crédit photo : Sysfrog (Creative Commons By-Sa)




Démo Firefox 3.5 : le Rich Media collaboratif

Firefox 3.5 - Paul RougetLa sortie de Firefox 3.5 approche à grands pas. Les nouveautés au rendez-vous seront nombreuses (TraceMonkey, Canvas, CSS3, etc). Parmi ces dernières, on notera le fait de pouvoir afficher des vidéos directement dans le navigateur, sans avoir besoin d’utiliser de plugins propriétaires comme Flash. Bref, plein de bonnes nouvelles en perspective.

Là où cela devient encore plus intéressant, c’est lorsque l’on commence à mixer ces technologies. Ainsi, l’ami Paul Rouget avait déjà démontré qu’on pouvait mixer la vidéo avec Javascript (cobaye : Delphine), avec Canvas (cobaye : William), avec CSS3 (cobaye : Tristan). N’hésitez pas à télécharger Firefox 3.1/3.5 (actuellement en bêta) pour tester par vous même ces innovations qui, et c’est une excellente nouvelle pour le logiciel libre, reposent entièrement sur des technologies et des standards ouverts.

La dernière démo de Paul (cobaye : lui-même), bien planquée au fond de son dossier de geek, m’a enthousiasmée.

Il s’agit tout simplement de rajouter des sous-titres sur une vidéo. Techniquement, la démo parait moins impressionnante que les autres, mais elle permet de donner un caractère concret à ce qui relevait jusqu’à présent de la prouesse technologique.

D’abord, ces sous titres sont lus depuis un fichier texte on ne peut plus basique (Paul a retenu le format ouvert de sous-titres SRT, mais il aurait pu en choisir un autre), traités en Javascript, et affichés par dessus la vidéo. Les sous-titres ne sont pas incrustés, mais bien affichés au-dessus de la vidéo, tout en restant synchronisés avec celle-ci !

Ensuite, les sous-titres peuvent utiliser le HTML+CSS. Cela signifie qu’on peut y intégrer la police de son choix, des images, des liens hypertextes, etc. juste en modifiant le contenu (HTML) ou les CSS (mise en forme).

Enfin, puisqu’il s’agit de fichiers textes, on a besoin que d’une seule vidéo (sans sous-titres) et on peut donc passer d’une langue à l’autre à l’autre sans avoir besoin de recharger la vidéo (ni d’y réincruster les sous-titres, ce sont les amateurs de fansubs qui vont être contents). : Je vous laisse voir la démonstration originale (Firefox 3.1 obligatoire), ou regarder la vidéo ci-dessous.

—> La vidéo au format webm

Les perspectives de ces « vidéos enrichies » me semblent vraiment intéressantes. Parmi celles-ci, les esprits chagrins me citeront la possibilité d’insérer de la publicité dynamiques avec images et liens (y a un business les gars, foncez !), mais aussi un accès plus simple et plus ouvert a des technologies jusque là complexes ou lourdes à mettre en oeuvre.

Par exemple, dans l’éducation, la question du Rich Media est récurrente depuis des années, mais le SMIL n’a jamais vraiment perçé (même dans sa version 2). Là, il sera vraiment très simple de synchroniser une vidéo (de l’enseignant, par exemple) associée à des documents (graphiques, par exemple), le tout éventuellement sous-titré ou avec une explication avec texte et liens hypertextes sous la vidéo.

Enfin, en se basant sur des standards ouverts, Mozilla ouvre aussi la porte au travail communautaire. Ainsi, dans la démonstration ci-dessus, je termine par un exemple de sous-titrage collaboratif. En effet, si le fichier texte contenant les sous-titres est dans un fichier local, alors ce dernier pourrait très bien se trouver dans un wiki distant ! J’ai donc modifié (très) légèrement l’exemple de Paul Rouget, en pointant vers une page de wiki[1]. Lorsque cette dernière est modifiée, les sous-titres le sont immédiatement. Par conséquent, et sans avoir de boule de cristal, je pense que l’on tient là un excellent moyen d’avoir des sous-titres pouvant être créés, modifiés, corrigés ou traduits par des non-informaticiens ou non-vidéastes. Parmi les premiers à en profiter, on pourra sans doute compter sur Wikipedia, dont le projet Commons contient déjà de nombreuses vidéos libres prêtes à être intégrée dans Firefox 3.5 (ou tout autre navigateur implémentant ces standards ouverts).

Firefox, à vous d’inventer le web qui va avec !

Paul, je te devais déjà une Chouffe, tu viens de doubler ton score 🙂

Notes

[1] Au lieu d’un fichier .srt, j’ai utilisé un petit fichier PHP qui va lire le contenu de la page du Wiki, élimine le superflu pour ne garder que la partie sous-titre.




3 000 jours de retard pour Hadopi

Inocuo - CC byIl y a une semaine, Sylvain Zimmer, l’un des fondateurs de la plate-forme de musique « libre, légale et illimitée » Jamendo, faisait paraître un intéressant article témoignage dans la presse (en l’occurrence Le Monde), que nous avons choisi de reproduire ici avec son autorisation (oui, je sais, c’est sous licence Creative Commons, donc il n’y a pas besoin d’autorisation, mais rien n’empêche l’élégance et la courtoisie).

3 000 jours de retard, ça nous ramène directement à l’époque de l’apogée de Napster, où il n’était quand même pas si compliqué de comprendre que nous étions à l’aube de grands bouleversements[1] dans le monde musical…

3 000 jours de retard pour HADOPI

Sylvain Zimmer – 12 avril 2009 – Jamendo
Paru initialement dans le supplément TV du Monde
Licence Creative Commons By-Sa

Pour comprendre pour quel Internet a été pensée la loi Hadopi, il faut revenir seulement 3 000 jours en arrière. Un disque dur de 15 Go coûtait 100 euros. Les réseaux peer-to-peer n’étaient pas encore cryptés, on pouvait rêver de les contrôler un jour. Je n’avais que 16 ans à l’époque, mais je me souviens encore du peu de gens dans la rue qui portaient des écouteurs. Forcément, l’iPod n’existait pas. Wikipédia, Facebook et YouTube non plus. Trois des sept sites les plus fréquentés aujourd’hui, tous gratuits.

Que s’est-il passé entre-temps qui a manifestement échappé aux douze députés ayant voté pour la loi Hadopi ? L’innovation. Des géants sont nés dans les garages de quelques auto-entrepreneurs et ont révolutionné l’accès à la culture en la rendant gratuite pour tous. On peut les accuser d’avoir fait chuter les ventes de CD, mais déjà à 16 ans je savais que je n’en achèterai aucun de ma vie. Cela ne m’a pas empêché de dépenser plus de 8 000 euros, depuis, en places de concert. Le marché de la musique se transforme, mais globalement ne cesse de grossir. Nous passons d’une économie de stock où le mélomane était limité par son budget CD à une économie de flux où la valeur ne se situe plus dans la musique elle-même (car elle est numérique, donc illimitée, donc gratuite), mais dans ce qu’elle représente : la relation entre un artiste et ses fans.

En 2008, la meilleure vente de musique en ligne sur Amazon a été un album de Nine Inch Nails, un groupe qui distribue pourtant sa musique gratuitement et légalement par ailleurs. Qu’ont donc acheté ces gens ? Certainement pas la musique elle-même. Comme les millions d’autres qui l’ont écoutée gratuitement, ils sont devenus fans, l’ont « streamée », partagée sur Facebook ou ailleurs, l’ont recommandée à leurs amis qui, à leur tour, ont acheté places de concert, coffrets collectors et autres produits ou services dérivés.

Tous les jours, des milliers d’artistes comprennent ce qu’ils ont à gagner dans la diffusion gratuite. La fidélité accrue de leurs fans crée de la valeur. Soyons cyniques : peut-être que la loi Hadopi servira à accélérer cette transformation de l’économie culturelle, cette éducation des artistes au monde numérique. Quand arriveront les premières lettres recommandées, les premières coupures d’Internet, quel cadeau pour le gratuit et légal ! Quelle remise en question pour l’artiste constatant que ses fans, punis, n’ont plus accès à Wikipédia !

Plus concrètement, comme les lois LCEN et DADVSI qui l’ont précédée, on se souviendra (ou pas) d’Hadopi comme d’une loi inapplicable dès son premier jour, imaginée pour une économie et des technologies déjà dépassées. Un gaspillage de temps et d’argent que le gouvernement aurait certainement mieux fait de consacrer à des lois plus pertinentes en faveur de l’environnement ou des auto-entrepreneurs. Car ce sont eux qui aujourd’hui innovent et préparent ce que sera Internet dans 3 000 jours. Quand l’industrie musicale existera toujours, mais ne vendra plus de disques. Quand télécharger un film prendra moins d’une seconde. Quand 200 ans de musique tiendront dans la poche. Quand une nouvelle génération d’artistes n’aura ni e-mail ni ADSL, mais un compte Facebook et une connexion Internet sans fil permanente. C’est pour ce siècle-là, pas pour le précédent, que nous devons penser la culture.

Notes

[1] Crédit photo : Inocuo (Creative Commons By)




GroundOS : et si l’Hadopi faisait émerger le web 3.0 ?

Josef Grunig - CC by-saComme vous le savez, la loi Création et Internet a été votée en catimini par 16 gus dans un hémicycle. Je ne reviens pas sur le fait que cette loi pose de nombreux problèmes (démocratiques) et paradoxes (techniques). D’autres s’en sont déjà chargés.

Parmi les des effets de bord, il parait évident que cette loi va pousser l’internaute moyen vers des solutions de sécurisation de ses communications toujours plus poussées. On va voir se multiplier les réseaux chiffrés (bien), sans compter probablement les mails avec des groooosses pièces jointes (pas bien, mais inévitable).

Reste que tant qu’on reste sur du Minitel 2.0, on participe à un système où l’on ne contrôle pas ses propres données. Si je dépose une video sur Youtube, Youtube saura dire qui l’a déposée (adresse IP, email, date et heure précise). Et si je télécharge une vidéo depuis ce même site, non seulement Youtube, mais aussi mon fournisseur d’accès internet, et bientôt la Haute Autorité bidule[1] pourront me tomber sur le dos : « Ha, mon bon Monsieur, vous avez écouté une reprise de Petit Papa Noël par une enfant de 15 ans, ce qui lui aura couté 300 000€ d’amende. Mais vous, passez directement par la case courrier recommandé[2] avant qu’on ne vous coupe votre accès internet. Cela vous met au chômage technique ? Tant pis, fallait pas encourager la subversion et la contrefaçon. ». Bienvenue en Chine à Pionyang au Brésil.

Par contre, si j’héberge moi-même mes données, et si je les partage en les chiffrant, je reprends le contrôle de mes données.

Le problème, c’est que c’est quand même un « truc d’informaticien » de s’héberger soi-même. Si, si. Moi dont c’est le métier, quand je dis aux gens qui veulent quitter Gmail, Hotmail & co : « Prends-toi donc un hébergement à l’APINC ou chez Gandi, pour 15€ par an, tu seras tranquille ». Ce n’est pas le prix qui les arrête, mais le jargon, le nombre de pages de contrat, le fait de saisir un numéro de CB sur le web, etc.

Mais cela pourrait changer[3].

Prenez le buzz du moment : GroundOS.
Pour le dire rapidement, GroundOS est une application web qui vous permet de partager facilement votre musique, vos films, vos photos, vos documents (déposés dans groundOS ou rédigés directement dans groundOS, sur le principe de Google Docs).
En tant que tel, rien de bien nouveau, si ce n’est que ça a l’air particulièrement bien intégré (alors que pour arriver au même résultat aujourd’hui, il faut de nombreuses applications différentes). Et d’ailleurs, GroundOS n’est peut être qu’un « fake », on sera fixé le premier mai, mais peu importe.

En utilisant GroundOS (ou autre application similaire), j’héberge moi même mes données, je les partage avec qui je veux, et je les chiffre si je veux. Et je souhaite bien du courage à l’Hadopi pour savoir si ce qui transite dans mes tuyaux c’est le dernier album de Johnny, ou la vidéo de l’anniversaire de mon petit neveu.

Maintenant, il reste encore un problème : comment Tata Jeannine va-t-elle pouvoir utiliser GroundOS ? Certes, elle pourrait utiliser la version installée par son entreprise, par l’école de sa fille, ou par l’association du coin. Mais c’est remettre de la centralisation là où l’on veut décentraliser.
Elle pourrait aussi l’utiliser sous forme d’une WebApp ( de préférence made by Framasoft). Mais à l’extinction de son ordinateur, ce serait fermer le partage de données.

Reste une voie intéressante : celle des boxes internet.
Par exemple, on estime le nombre d’abonnés ADSL de Free à 3 500 000. Une grande partie d’entre eux ont une Freebox équipée d’un disque dur (qui sert notamment de magnétoscope). Imaginons que Free livre ses Freebox prééquipées d’un GroundOS (qu’on ne me dise pas qu’installer un serveur web sur des box internet est impossible). Pour le même prix, Tata Jeannine aurait : (Internet+téléphone+TV) + « son petit coin d’internet à elle ». Accessible facilement (tatajeannine.free.fr) 24h/24, 365 jours par an.

Évidemment, cela soulève des questions, notamment en terme de sécurité. Se faire hacker sa connexion internet, ce serait potentiellement donner accès à toute votre vie numérique. En terme technique, le premier geek poilu venu me rétorquera « en terme de QOS on a vu mieux », que le « MTBF des HDD des boxes c’est pas top », que « Free sapusaipalibre », que « le A de ADSL limite les usages », voire qu’il fait ça (de l’autohébergement) « depuis 6 ans avec un vieux 486 sous Debian planqué sous l’évier ».

Mais quand même. Là il s’agit de Tata Jeannine ! Et juste d’activer une fonctionnalité qui lui permettrait de partager facilement ses photos, d’écouter sa musique (achetée légalement) d’où qu’elle soit, de pouvoir blogguer sans pub sans craindre le dépôt de bilan de l’hébergeur, de pouvoir regarder la fin du film qu’elle a enregistré sur sa box à Lyon depuis sa maison de campagne à Sainte-Ménehould, de pouvoir stocker tout ou partie de son courrier sur sa MachinBox internet (plutôt qu’on ne sait où sur le web). Bref, d’avoir un petit bout d’internet comme on a un petit bout de jardin, plutôt que d’aller systématiquement au parc du coin. Et tout ça depuis son Firefox préféré.

Après l’ère de la diffusion de l’information, après celle de la participation, peut être allons nous vers celle de la décentralisation ?

Ou, autrement formulé, « et si on redonnait internet aux internautes ? »

Notes

[1] C’est à dire Vivendi & co – qui nous aura plus ou moins forcé à installer leur logiciel espion puisque si je refuse d’être observé en permanence, c’est donc que je suis coupable !

[2] Ben oui, je ne lis pas les mails de mon FAI.

[3] Crédit photo : Josef Grunig (Creative Commons By-Sa)




Quand l’Allemagne offre 350 000 photos à Wikipédia

Eugen Nosko - Deutsche Fotothek - CC by-saPrésenter les choses ainsi est sujet à caution, mais pendant qu’en France on met en place l’Hadopi, de l’autres côté du Rhin on participe aux biens communs.

En effet après le don de 100 000 images, sous licence libre Creative Commons By-Sa, des Archives Fédérales Allemandes en décembre dernier, c’est au tour de la Bibliothèque Universitaire et Fédérale du territoire de Saxe d’en faire de même en offrant un fond de 250 000 photographies à Wikimedia Commons[1], la médiathèque en ligne de tous les projets Wikimedia (dont Wikipédia).

Question d’état d’esprit sans doute…

Une donation de 250 000 images à la communauté

250,000 Images Donated to the Commons

Michelle Thorne – 2 avril 2009 – Creative Commons Blog
(Traduction Framalang : Poupoul2 et Xavier)

Comme nous ne souhaitions pas que le 1er avril éclipse cette annonce, c’est aujourd’hui que nous vous informons du don récent de 250 000 images données au petit frère de Wikipedia, Wikimedia.

Ces images font partie de la Collection Photo Allemande de la Bibliothèque Universitaire et Fédérale du territoire de Saxe. Elles sont en cours de traitement, accompagnées des légendes et metadata correspondantes. Des volontaires se chargeront alors d’assurer le lien entre ces photos, toutes disponibles sous la déclinaison allemande de la licence Creative Commons BY-SA 3.0 ou dans le domaine public, avec les données d’identification et les articles pertinents de Wikipedia. Cette collection représente des scènes de l’Histoire de l’Allemagne et des scènes de vie quotidienne.

En cadeau pour la bibliothèque bienfaitrice, les metadata fournies par la Collection Photo Allemande seront enrichies et annotées par les utilisateurs de Wikipedia puis reversées dans la base de données de la collection.

Cette donation marque la première étape dans la collaboration entre la Bibliothèque Universitaire et Fédérale et Wikimedia Allemagne e.V., section pionnière de Wikimedia, qui a rendu possible, en décembre dernier, un don similaire de 100 000 images par les Archives Fédérales Allemandes.

Notes

[1] Crédit photo : Eugen Nosko – Deutsche Fotothek (Creative Commons By-Sa)




Largage de liens en vrac #13

Tony the Misfit - CC byUne nouvelle version de nos liens logiciels en vrac d’assez bonne facture ma foi.

Comme pour les éditions précédentes, vous êtes cordialement invité à nous en dire plus dans les commentaires si vous connaissez ou avez testé les logiciels en question[1].

  • Cofundos : Ce n’est pas un logiciel mais un nouveau service web que l’on pourrait définir comme une sorte de place de marché pour les projets de logiciels libres. Structuré en réseau social, il aide à développer de nouvelles idées en regroupant ceux qui en ont besoin avec les développeurs qui sont prêts à les réaliser, moyennant finances (ou non).
  • Mediafox : Lu sur Lifehacker, Mediafox est une assez impressionnante version customisée de Firefox (thème + de nombreuses extensions) portable dédiée au multimédia. C’est aussi une belle démonstration de ce qu’il est possible de faire avec Firefox et ses extensions. Uniquement pour Windows (et en anglais).
  • PhoneGap : Un prometteur environnement JavaScript pour votre téléphone (Android, iPhone, Blackberry) limité pour le moment à quelques fonctionnalités (géolocalisation, vibreur…) pour développer dans le futurs de jolies WebApps.
  • Zekr : Une application Java multilangues destinée à l’étude du Coran.
  • Un livre blanc sur les CMS : Rédigé par Smile, un livre blanc sur les CMS Open Source : Spip, Joomla, Typo3, Drupal, etc. Utile pour faire le bon choix au lancement d’un projet Web (dommage que la licence soit un full copyright).
  • Songbird 1.1 : Nouvelle version majeure pour ce concurrent libre d’iTunes qui a le vent en poupe.
  • Simile Widgets : En JavaScript Ajax, quatre modules pour créer de riches applications web (frise chronologique, géolocalisation, graphiques, et défilement d’images à la sauce Apple),
  • AjaXplorer : Un esthétique gestionnaire de fichiers en ligne en Ajax qui témoigne lui aussi des avancées des applications web (les photos s’affichent, le mp3 et les flv se lisent, etc.).
  • Mixwidget.org : Une vieille K7 qui lit en flash votre playlist mp3. On est loin des formats ouverts mais c’est là encore très joliment réalisé.
  • OpenWith.org : L’un des plus intéressants de la série, à ceci près que ce n’est pas du libre et que c’est que pour Windows, ce qui fait deux lourds handicaps j’en conviens ! C’est aussi bien un service web qu’une application qui associe à tout format de fichier un logiciel libre et/ou gratuit permettant de le lire. Si vous tapez DOC par exemple, le logiciel vous proposera OpenOffice.org pour le lire avec un bouton direct pour le téléchargement. Pas forcément très pertinent avec MP3 (pourquoi Picasa en premier ?) ou PDF (il manque Sumatra !) mais l’idée est plutôt bonne, surtout pour aider votre belle-mère qui vient de vous envoyer un mail vous expliquant qu’elle ne comprend pas pourquoi elle n’arrive pas ouvrir sa pièce jointe en double-cliquant dessus ! Si l’application avait été libre et multi-OS et si les choix proposés se restreignaient au logiciel libre, on aurait obtenu un super service (quand bien même, oui je sais, proposer du freeware rend service à Mme Michu).
  • Creative Commons pour MS Office : Pour ceux qui, pour x raisons, travaillent encore avec la suite bureautique Microsoft MS Office (en particulier chez mes collègues profs) je signale que le plugin permettant de placer facilement son document sous licence Creative Commons, déjà disponible pour MS Office 2003, vient de sortir pour MS Office 2007.
  • 6zap : Une application Ajax-Web très ambitieuse puisqu’elle vous propose sur une même page une messagerie, un calendrier, un gestionnaire de fichiers et de contacts. On aurait donc à faire avec une sorte de groupware capable de potentiellement concurrencer Google, rien que ça ! (la FermeDuWeb en fait un rapide survol).
  • pHash : Un système de marquage (empreinte digitale numérique) qui contrairement à la cryptographie classique se base sur le contenu même du fichier pour son algorithme. Ainsi, à ce que j’en ai compris, le même fichier un peu modifié verra son marquage un peu modifié lui aussi, permettant de retrouver et associer facilement les deux fichiers en question.
  • Shutter : Linux only, et la copie d’écran devint un jeu d’enfants.
  • Qimo 4 Kids : Une distribution Ubuntu totalement orientée enfants avec plein de petites applications dédiées pré-installées. Une fois francisée cela pourrait bien intéresser nos écoles primaires.
  • TurnKey Linux : Basé sur Ubuntu, un système silimaire à Bitnami permettant de faire tourner de manière autonome (disque dur, clé USB, live CD, virtualisation…) des applications web (Drupal, Mediwiki, Joomla…) clé en main puisqu’il embarque le trio LAMP à chaque fois avec lui (du moins je crois). Pour ce qui concerne Windows, Pierre-Yves est en train d’y travailler avec la Framakey.
  • Frescobaldi : Pour faire simple, Frescobaldi est à LilyPond ce que Kile est à LaTeX : un front end graphique pour KDE4 (source LinuxFr).
  • DeskHedron : Le fameux cube 3D de Compiz (et de GNU/Linux) plongé dans l’univers Windows. Absolument aucune idée de ce que ça vaut concrètement.
  • Mahara : Je ne connaissais pas ce gestionnaire de portfolio orienté éducation. Comme ça sans l’avoir du tout testé, je la vois comme une sorte de mix entre un ENT et un Facebook (qui s’accouple bien avec Moodle qui plus est). Entre nous soit dit, les fameux ENT dont parle depuis plusieurs années notre chère Éducation Nationale sans réussir véritablement à les déployer massivement, vous ne trouvez pas qu’ils ont pris un coup de vieux avec l’avènement des réseaux sociaux ?
  • OneSwarm : Développé par des chercheurs de l’Université de Washington, ce logiciel ne fera pas plaisir à Christine Albanel puisqu’il permet d’échanger des fichiers en P2P mais de manière beaucoup plus sécurisé puisque l’on peut restreindre les informations transmises à un cercle d’amis dûment identifiés (du coup ils appellent cela le F2F, Friend-to-Friend). On pourra lire PC Inpact pour de plus amples informations.

Notes

[1] Crédit photo : Tony the Misfit (Creative Commons By)




Wikipédia et éducation : un exemple de réconciliation 3/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage d’un éditeur de Wikipédia ayant aidé les étudiants à atteindre leur objectif, à savoir la quête de l’Article de Qualité, qui est ici présentée.

Copie d'écran - Wikipédia - Témoignage wikipédien

Wikipédia et université : Murder, Madness and Mayhem ?

Wikipedia and academia: Murder, Madness and Mayhem?

EyeSerene – 14 avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Quand l’idée a été soulevée de mettre sur pied une équipe d’éditeurs spécifiquement dédiée à l’obtention du label Article de Qualité, nous sommes entrés en contact avec le Wikiprojet Murder, Madness and Mayhem (NdT : Meutre, Folie et Chaos, MMM) pour ce que nous pourrions appeler notre première mission. Deux réactions antagonistes sont alors nées en moi. Je me suis exclamé « magnifique ! » mais une voie plus sceptique murmurait « hum… pourquoi pas ». La première émane de ma foi dans « le rêve », la deuxième de mon expérience sur le terrain du travail sur Wikipédia.

Je crois avec ferveur en la vision de Wikipédia ainsi résumée « Imaginez un monde dans lequel chacun puisse avoir, partout sur la planète, libre accès à la somme de toutes les connaissances humaines. C’est ce que nous sommes en train de faire » (Jimmy Wales). Évidemment, certains avertissements sont de rigueur, peut-être que l’adjectif « vérifiable » devrait être ajouté ici !, mais derrière tous les articles de groupes de musique méconnus, d’écoles primaires et d’épisodes des Simpson, le rêve se poursuit. Les gens instruits sont des gens libres et autonomes et une longue route a été tracée depuis le temps où le savoir et l’éducation n’étaient réservés qu’à une petite élite… mais il nous reste encore beaucoup de chemin à parcourir.

Peut-être sommes nous de doux rêveurs à croire qu’une encyclopédie peut changer le monde, mais pour moi l’important n’est pas là. C’est le concept sous-jacent qui me motive. Et si les gens, indépendamment de leur race, de leur religion, de leur emplacement géographique ou quoi que ce soit d’autre pouvaient s’unir comme nous le faisons ici ? Et si ils pouvaient s’affranchir des frontières, des gouvernements et des contraintes sociales pour communiquer et collaborer les uns avec les autres de manière constructive et créer quelque chose qui est infiniment plus grand que la somme de ses parties ? Je pense alors qu’il serait très difficile de convaincre un public ainsi informé et lié que tel groupe ou telle nationalité est en fait leur ennemi, alors qu’une longue expérience personnelle leur affirme le contraire. Le fait que Wikipédia soit banni ou restreint dans certaines parties du monde et chez certains régimes politiques en dit long sur la peur que peut engendrer ce simple concept « d’information en accès libre ».

Évidemment, et quand bien même tous ceux qui comme moi tiennent à la crédibilité de notre encyclopédie aiment à penser que le savoir que nous mettons à disposition est vraiment utile, nous devons aussi tenir compte de tous ces articles de groupes de musique méconnus, d’écoles primaires ou d’épisodes des Simpson. Mais sous bien des aspects c’est ce qui fait la force de notre modèle.La force magnétomotrice, un article technique qui capte une audience relativement faible et spécialisée, est classé dans la catégorie des articles à étoffer même s’il existe dans l’encyclopédie depuis bientôt quatre ans. L’article Les Simpson fait quant à lui l’objet de modifications permanentes, il s’est largement étoffé et se décline aujourd’hui dans plus de soixante langues (alors qu’on ne trouve que six localisations de la force magnétomotrice). Si nous acceptons le fait que Wikipédia est plus qu’une encyclopédie, nos articles sur la pop-culture font clairement parti de notre succès. Ils participent à la collaboration et aux interactions sociales au-delà des continents et des océans et peut-être que ce sont ces articles qui reflètent le mieux la vision de Wikipédia.

La crédibilité culturelle de Wikipédia n’est plus à démontrer. Vous voulez savoir quel docteur a pris la suite de Patrick Troughton (NdT : dans la série TV Docteur Who) ? Vous voulez connaître le nom de la maison de Harry Potter ? Où irons-nous alors en priorité ? J’aimerais cependant que Wikipédia soit également reconnu comme une source académiquement acceptable. On sait bien désormais que Wikipédia constitue la première étape de n’importe quelle recherche pour la majorité des étudiants, et ce dès le secondaire. On peut débattre du bien-fondé de cette habitude, mais en tant qu’étudiant planchant en fin d’étude sur la diffractométrie de rayons X, j’aurais certainement apprécié en 1989 avoir cette ressource primaire, quand bien même l’article en lui même n’aurait évidemment pas été suffisant.

Wikipédia ne peut pas se substituer à une recherche bibliographique, vous devez quand même lire les bons articles et les bons journaux. Il ne peut pas vous enseigner une matière non plus, nos articles ne sont pas écrits dans cette optique, bien qu’ils soient assez complets pour qu’un lecteur néophyte puisse comprendre de quoi il en retourne. Si vous attendez ceci de Wikipédia (que tout le travail soit déjà fait ou qu’il vous enseigne une matière), vous vous trompez lourdement sur les buts de Wikipédia. Mais le fait est que notre encyclopédie a été, est et restera certainement toujours utilisée ainsi. Cependant combien d’étudiants comprennent véritablement la différence entre se rendre sur leur source d’information en ligne préférée pour vérifier la réponse à une question de quizz sur le nombre de test centuries que Andrew Strauss a inscrit (la réponse est 12 au fait) et citer cette information dans la biographie d’un joueur de cricket ?

C’est là, pour moi, la fascinante dichotomie du Wikiproject Murder Madness and Mayhem de Jbmurray. Il faut avouer qu’on a commencé à s’habituer à ce que notre encyclopédie ou nos articles soient tournés en ridicule par le monde universitaire et, même si ce n’est pas toujours de gaieté de cœur, il nous faut bien reconnaître que leurs critiques ne sont pas infondées. Wikipédia a la réputation de ne pas respecter l’expertise auto-proclamée et les arguments des experts sont rarement pris au sérieux. Du fait de l’anonymat des éditeurs et de l’impossibilité de vraiment connaître les références de la personne de l’autre côté du modem je ne vois pas comment il pourrait en être autrement… mais devoir étayer chaque affirmation par une source vérifiable a sans aucun doute repoussé des éditeurs qui autrement auraient apporté une contribution importante à notre effort.

De nombreux universitaires, indignés d’être traités de la sorte par des gens qu’ils ne connaissaient pas ou qu’ils ne respectaient pas (intellectuellement s’entend !), se sont retirés du projet avec dégoût, résolus à ne jamais plus employer Wikipédia et à ne plus jamais en encourager l’usage non plus.

J’ai également souvenir d’un incident où l’auteur d’un livre cité dans un article a tenté de corriger l’article, mais sa modification a été refusée par des éditeurs qui se sont servis de son propre livre pour justifier le rejet. Frustré, il répondit en substance « C’est moi l’auteur de ce foutu texte que vous citez à tort, je sais de quoi je parle ! », mais ça ne l’a pas beaucoup aidé. D’un autre côté, pourquoi en tant qu’éditeurs devrions-nous accepter aveuglément ce que nous dit un « expert » auto-proclamé ? N’est-ce pas ce qui fait en partie la vision de Wikipédia ? Nous ne nous contentons pas (ou nous ne devrions pas nous contenter) de donner les faits… idéalement nous fournissons aussi des sources afin que tout un chacun puisse vérifier ces faits. On retombe sur « l’accès libre à l’information » !

Mon enthousiasme pour le projet novateur de Jbmurray, l’espoir qu’il est possible non seulement d’améliorer notre encyclopédie (ce qui me tient à cœur) en aidant les élèves dans leurs études, mais aussi de renforcer sa crédibilité et peut-être même de recruter de nouveaux accrocs à Wikipédia éditeurs, a donc été quelque peu tempéré par les expériences qu’ont eu de nombreux universitaires avec nous. Évidemment, Jbmurray n’était pas exactement un novice sur Wikipédia et il était déjà au courant des particularismes, voire même parfois des absurdités, qui maintiennent notre effort sur de bons rails, mais cela ne préfigurait en rien du succès de son projet.

Côté technique, j’avais de gros doute qu’on puisse ne serait-ce qu’approcher le grade d’Article de Qualité pour chaque article du projet. Malgré ce que peuvent en dire les critiques, rédiger un Article de Qualité est un processus complexe et rigoureux qui demande une grande disponibilité, beaucoup d’énergie et, oserais-je le dire, de l’expertise (pas seulement sur le sujet de l’article mais aussi sur les critères strictes des Articles de Qualité). Le seul moyen d’atteindre ce but était que la FA-Team collabore étroitement avec Jbmurray et les éditeurs de MMM.

J’ai tiré de mon expérience sur Wikipédia la conclusion que pour certains éditeurs le principe de la collaboration restera à tout jamais un mystère. Et pourtant il n’y a rien de bien sorcier si tout le monde y met de la bonne volonté. C’est évident que si les éditeurs sont traités avec respect, approchés de manière ouverte et amicale, remerciés pour ce qu’ils font de bien et réprimandés (poliment !) lorsqu’ils se trompent, ils répondront alors positivement dans la plupart des cas. Que ce soit sur Internet ou dans la vraie vie, certains sembleront toujours génétiquement incapables de formuler des encouragements ou de recevoir des critiques, mais ces personnes poussent à bout la patience de la communauté et finalement abandonnent le navire.

Bien que nous baignons dans un monde virtuel, nous avons à faire avec des personnes bien réelles avec des émotions bien réelles au bout de la connexion, alors pourquoi devraient-elles être traitées plus durement que si nous les rencontrions dans notre bureau, notre salle de classe ou au bar… et au nom de quoi devrions nous fermer les yeux sur de tels agissements ? Wikipédia s’auto-gère assez bien, ce qui profite à la collaboration, et comme le note Jbmurray ceci peut déboucher sur une synergie qui vous permet de croire que notre vision est vraiment à notre portée. Il soulève ici un corolaire très intéressant, un corolaire qui touche à la critique universitaire. Lorsque la collaboration existe (et en déformant les paroles bibliques, lorsque deux éditeurs ou plus s’unissent au nom de Wikipédia…), de grandes choses peuvent se produire.

Mais lorsque l’on permet aux articles de se morfondre dans leur médiocrité, et cela arrive encore trop souvent pour des articles techniques, ésotériques ou académiques, c’est notre réputation qui s’en retrouve entachée. Au bout du compte, tout ce que l’on obtient alors est de l’antagonisme, qu’il représente aussi bien le « contraire de la synergie » que la « caractérisation de la réaction des personnes qui accèdent à ces articles ».

Grâce au soutien universitaire de Jbmurray, aux encouragement et aux conseils techniques de la FA-Team, les rédacteurs étudiants de MMM ont produit un impressionnant travail de fond, fait d’autant plus remarquable que beaucoup n’avaient jamais édité dans Wikipédia avant ce travail. Dans un certain sens nous poussons ici plus loin encore qu’à l’accoutumée les capacités de la communauté à travailler dans la même direction, puisque, contrairement à nous wikipédiens, les éditeurs de MMM ne sont pas ici de leur plein gré mais parce qu’ils y sont obligés, de leur succès dépendent leurs notes ! Voilà qui les pousse à collaborer encore davantage pour atteindre leur but, mais c’est une motivation autre que celle qui anime d’ordinaire nos éditeurs volontaires.

Je ne suis pas naïf au point d’imaginer que tous les wikipédiens adhèrent à l’idéal de Wales, chaque éditeur a sa propre motivation et certaines sont moins louables que d’autres. Quoiqu’il en soit, si on met de côté ceux qui sont là pour, par exemple, créer des articles vaniteux ou pour faire de la publicité pour leur commerce, le résultat final est le même et encore une fois, c’est la collaboration de tant de personnalités différentes pour aboutir à un but commun qui me donne espoir et qui me fait croire à la mission de Wikipédia.

La collaboration n’est pas toujours simple (si c’était le cas, des groupes comme le Comité d’Arbitrage et des pages comme l’Appel aux commentaires seraient largement superflus) et dès le début certains des éditeurs de MMM ont dû se frayer un chemin dans le méandre des révisions des articles, prenant alors potentiellement le risque de déclencher de nouvelles guerres d’édition ou pire encore. Ils y sont très bien parvenus grâce à leur propre envie d’apprendre et grâce à la bonne volonté dont ont fait preuve les éditeurs réguliers qui n’étaient pas familiers avec ce projet et ces objectifs, sachant que la différence entre le premier essai timide d’un nouvel éditeur et l’acte de vandalisme est parfois difficile à discerner.

Alors, sur quoi va déboucher cette expérience MMM ? On en aura évidemment une meilleure idée quand elle aura déjà un peu de vécu, mais on peut espérer que les étudiants la trouveront enrichissante et instructive, qu’ils en retiendront plus que juste les notes qu’ils recevront. Scolairement parlant, comme l’écrit Jbmurray, ils devraient en tirer une meilleure compréhension de la nécessité d’étayer leurs informations avec des sources vérifiables et ils devraient aussi mieux percevoir les limitations d’une encyclopédie en temps que ressource. Wikipédia ne peut être, même dans le meilleur des cas, que le point de départ d’une recherche approfondie. Le projet a peut-être aussi posé les bases d’un modèle qui aura du succès dans le monde universitaire.

Cela ne fait aucun doute, de nombreuses personnes parmi les éditeurs sont hautement qualifiées dans leur domaine et dans le partage de leurs connaissances dans ce domaine au sein même de l’encyclopédie, contribuant à améliorer le niveau global de Wikipédia. Mais la sempiternelle question de la couverture du sujet reste toujours en suspens dans la communauté (ou plutôt chez ceux qui s’intéressent plus particulièrement à la qualité des articles). Nous pouvons imposer des règles et des critères pour les Bons Articles ou pour les Articles de Qualité mais, en tant que non-experts, comment être surs qu’un article est complet et précis ? Nous pouvons utiliser les sources mentionnées et vérifier les références, mais sans un expert à disposition nous devons nous reposer sur l’article lui-même pour obtenir ces informations.

D’une manière générale notre travail est satisfaisant, car même en tant que non-experts quelques recherches nous permettent de juger de la profondeur (ou du manque de profondeur) de la couverture d’un article. Mais comme l’a prouvé cette expérience, les conseils d’experts sont inestimables. Pour résumer, nous avons besoin des universitaires car apparemment leurs étudiants ont besoin de nous.

Naturellement, des mises en garde sont de rigueur. Si certains experts ne voient en Wikipédia que frustration et antagonisme, c’est principalement car ils n’ont pas à l’esprit la spécificité de Wikipédia, à savoir sa communauté et ses lois. Même si la grande majorité des éditeurs supposera la bonne foi, le respect se gagne. C’est seulement en lisant les règles de Wikipédia et en faisant l’effort de vous y tenir que vous gagnerez ce respect qui donnera du poids à vos opinions et vos propositions. Quelle crédibilité peut-on accorder à universitaire étranger débarquant dans un séminaire en imposant ses propres pratiques et en faisant fi des convenances et traditions locales ?

Pourquoi devrions nous alors accepter ce genre de comportement ? Comme Jbmurray le fait remarquer, la capacité à développer une idée et de la défendre avec ardeur a moins de valeur sur Wikipédia que la capacité à négocier un consensus… et de se retirer avec élégance si ce consensus ne va pas dans notre sens, même lorsque les autres éditeurs ont ponctuellement clairement tort (ce qui arrive inévitablement avec une communauté de cette dimension). Mais à long terme, est-ce vraiment important ? Le consensus peut évoluer, et un article peut toujours être revu une semaine après, un mois après, une année après…

L’incapacité chronique de certains universitaires et experts à réaliser que Wikipédia n’est pas l’extension de leur faculté et qu’elle n’est pas par conséquent sous leur autorité, que notre mission est simplement de reproduire ce qui a déjà été publié par des sources vérifiables (vérifiabilité, pas vérité), et que leurs compétences dans un domaine ne les dote pas nécessairement de la capacité à bien faire dans d’autres domaines, a sans aucun doute affecté les relations dans les deux sens. Cependant le monde académique a beaucoup à y apporter, si l’on ne se trompe pas sur ce qu’est Wikipédia (et encore plus ce qu’elle n’est pas ou ce qu’elle ne prétend pas être). C’est ce que démontre le projet MMM de Jbmurray où tout le monde est au final gagnant.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.