1

Wikipédia et éducation : un exemple de réconciliation 5/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction d’un article qui part de notre exemple de projet pédagogique réussi pour effectuer une courte analyse des relations entre Wikipédia et l’éducation qui est ici présentée[1].

Copie d'écran - Wikipédia - Bilan et perspectives

Des écoles et des universités à l’origine de contenu de qualité

Featured content from schools and universities

Jbmurray et Tony1 – 9 mai 2008 – Wikipédia
(Traduction Framalang : Olivier et Jean)

Les relations entre Wikipédia et le système éducatif peuvent parfois être paradoxales. Les expériences récentes de deux projets universitaires aux destinées diamétralement opposées en sont le parfait exemple. Comme le relate le Signpost daté du 14 avril 2008, le projet MMM alias Murder, Madness, and Mayhem (NdT : Meurtre, Folie et Chaos) a fourni trois Articles de Qualité et huit Bons Articles au cours du semestre universitaire. Parmi ces articles se trouve le tout premier exemple de contenu de qualité créé dans le cadre d’un examen académique, un article sur le roman guatémaltèque El Señor Presidente qui a eu les honneurs de la page d’accueil du 5 mai 2008.

Dossier Wikipédia - College graduate students - CC byA l’opposé, ces derniers jours nous ont fourni un contre-exemple d’intégration de Wikipédia à un cursus universitaire. L’histoire a déjà fait couler beaucoup d’encre sur le forum des administrateurs : un professeur d’économie internationale (NdT : « Global Economics ») a demandé à ses étudiants d’envoyer leurs travaux sur Wikipédia, mais ils ont pour la plupart étaient rapidement effacés, fusionnés ou redirigés. Parmi les soixante-dix articles nouvellement créés, environ la moitié a été effacée et beaucoup ont été fusionnés ou redirigés, seuls sept ont à peu près survécu dans leur forme originale et un seul (sur le trafic d’organes) n’est pas affublé d’une étiquette demandant des changements. Reste maintenant à savoir si les projets futurs ressembleront à Murder, Madness and Mayhem et sauront éviter les écueils de la tentative de notre professeur de « Global Economics ».

Historique des projets pédagogiques sur Wikipédia

Ces deux extrêmes ne sont pas les premiers projets éducatifs dans Wikipedia. Au cours des cinq dernières années plus de soixante-dix initiatives semblables sont apparues sur la page Wikpedia:School and university projects. À leur origine, des institutions aussi diverses que l’université de Yale ou l’université de Tartu, en Estonie sur des sujets allant de l’immunologie à la Rome antique. Il est très probable que pour chaque projet déclaré, plusieurs autres ont lieu sans déclaration formelle. Il y a deux ans de cela, le Signpost titrait Nette augmentation des projets pédagogiques sur Wikipédia. En effet, de plus en plus d’universitaires et de professeurs valorisent les contributions de leurs étudiants à Wikipédia et on estime que ce mouvement est en augmentation. Les professeurs et les étudiants peuvent trouver des conseils et de l’aide sur la page WikiProject Classroom Coordination.

Tous ces projets ne visaient pas l’obtention du grade de contenu de qualité, Wikipédia peut contribuer à l’apprentissage des étudiants de bien d’autres manières. La structure et les buts des expériences d’apprentissage menées sur Wikipédia sont aussi nombreux et variés que les projets eux-mêmes, de l’écriture d’un article ou d’une série d’articles à la découverte « du chaos et de la joie de l’édition collaborative » (Université de Hong Kong) et « se familiariser avec Wikipédia en tant que communauté et comme puits de connaissances » (Université de l’Idaho).

Créer du contenu de qualité

Dossier Wikipédia - Students in computer lab - CC by-saQue peuvent apporter les écoles et les universités à Wikipédia ? L’un des objectifs de l’encyclopédie est de fournir des articles de qualité professionnelle et les Articles de Qualité sont définis comme « des exemples de ce que nous pouvons produire de mieux ». L’innovation qu’introduit Murder, Madness, and Mayhem repose sur son objectif revendiqué d’accroître le nombre d’Articles de Qualité. D’autres écoles ou d’autres universités peuvent-elle marcher dans les pas de ce projet ?

Il faudrait au moins trouver un moyen d’éviter que la débâcle des suppressions multiples se reproduise. Dans le cas du projet « Global Economics » on en est arrivé à envisager dans les discussions le blocage de pans entiers d’adresses IP appartenant aux universités. Comme le montrent de telle réactions radicales, lorsque la relation entre université et Wikipédia échoue, cela est perçu comme une perturbation dans Wikipedia, quant aux professeurs (et leurs étudiants) l’expérience doit être toute aussi frustrante. Même dans les cas plus favorables, on peut citer l’exemple de l’université de Washington-Bothell qui a eu les honneurs de CNN ainsi que d’autres média, la relation n’est pas toujours facile. Pour reprendre les mots d’un article d’ArsTechnica : Un professeur remplace les partiels par des contributions à Wikipédia, bonjour les dégâts !.

Les deux parties doivent y mettre du leur. À propos des évènements récents, l’éditeur Noble Story a déclaré : « Aucun projet pédagogique n’arrivera peut-être jamais à reproduire le succès du projet MMM, mais nous pouvons au moins les encourager à essayer ».

Les clés du succès

En tant que coordinateur de Murder, Madness, and Mayhem, je pense que la réussite du projet tient à plusieurs facteurs qui ne doivent pas être sorciers à reproduire. Il n’y a en effet aucune raison pour laquelle un projet futur ne pourrait pas imiter notre succès, et contribuer à des articles qui illustrent le meilleur de Wikipédia tout en fournissant aux étudiants une expérience d’apprentissage enrichissante. Il n’y a aucune raison pour laquelle un travail éducatif ne devrait pas conduire à la production d’un contenu de qualité. Voici quelques principes qui pourront améliorer vos chances de succès :

  • L’enseignant doit déjà avoir de l’expérience avec Wikipédia, nous parlons ici d’expérience en tant qu’éditeur, avec toutes les frustrations et récompenses qui vont avec, comme par exemple de voir vos modifications annulées ou de voir apparaître un bandeau « Cet article ou cette section doit être recyclé ».
  • L’enseignant doit être prêt à participer au travail sur Wikipédia au moins autant que ses étudiants, voire beaucoup plus. L’encyclopédie est un lieu d’interaction et de négociation permanentes, l’instigateur du projet ne peut pas simplement observer ce qui se passe et attendre que les étudiants s’adaptent.
  • Le projet doit être inscrit sur la page des projets pédagogiques et tous les Wikiprojets et bulletins communautaires concernés devraient en être informés. Nous vous recommandons fortement de démarrer un nouveau Wikiprojet pour votre propre projet afin que ses objectifs et ses méthodes soient totalement explicites et transparents.
  • Il faut donner du temps au projet, probablement un semestre entier. N’importe quel écrit sérieux est le fruit d’un processus dynamique et continu de ré-écriture. Et ceci est plus évident encore sur Wikipédia que partout ailleurs. Un Article de Qualité, voire juste un Bon Article, passera par de très nombreuses révisions, plusieurs centaines très probablement. Il faut que les étudiants soient témoins de ce processus, cela fait partie de leur apprentissage et pourrait les amener à modifier leur façon d’aborder la rédaction.
  • Les objectifs du travail universitaire à fournir doivent être bien définis et compatibles avec ceux de Wikipédia. Alors qu’on accorde une importance conséquente aux « travaux inédits » dans le milieu académique, Wikipédia fait la part belle aux capacités de recherche et de rédaction. Le projet devrait prendre en compte l’état des articles existant dans Wikipedia, et non dupliquer du contenu déjà présent.
  • Les étudiants doivent être prêts à travailler à partir de textes rédigés par d’autres, à éditer et retravailler des ébauches ou des articles incomplets plutôt que de croire que leur travail est de commencer à partir de rien.
  • Les étudiants doivent être prêts à voir leur texte modifié par d’autres personnes, à négocier avec ces mêmes personnes et à tirer profit de l’environnement collaboratif de l’encyclopédie.

Pour compléter ce dernier point : une idée plus controversée suggère que les étudiants débutent immédiatement dans l’arène (plutôt que de commencer à travailler leurs articles dans leur espace utilisateur, hors-ligne, en dehors du site ou sur un autre wiki), afin de s’imprégner tout de suite des conventions qui ont cours sur Wikipédia en profitant immédiatement des conseils (et peut-être des critiques) des autres éditeurs.

Viser l’Article de Qualité

Créer un Article de Qualité n’est pas chose aisée, il existe cependant différentes manières de simplifier une tâche complexe. Une classe devrait garder à l’esprit les points suivants pour avoir une chance raisonnable de réussir dans cette entreprise :

  • Commencez tôt. Commencer avec une page « Le saviez-vous… ? » (le sujet a été abordé dans le « Dispatches » de la semaine dernière) n’est pas forcément une mauvaise idée pour lancer la machine.
  • Commencez avec de bonnes sources. Il est tentant de commencer avec ce qui est facilement disponible. Mais toute information qui est issue d’uns source peu fiable devra être recherchée à nouveau, doublant ainsi le temps et l’effort nécessaires.
  • Utilisez la bibliothèque. Ne négligez pas le système de prêt entre bibliothèques. Wasted Time R ne plaisante qu’à moitié quand, dans ses conseils pour écrire un article sur l’Histoire il dit : « Trouvez des sources en dehors de Google, vous serez un pionnier ! ». Et cela ne s’applique pas qu’à l’Histoire.
  • Commencez avec des références précises. Chaque fois qu’une citation est ajoutée, elle devrait contenir tous les détails bibliographiques , avec numéros de pages, et on devrait pouvoir distinguer clairement ce qui est directement cité, et ce qui ne l’est pas. Chaque imprécision ou confusion qui se glisse devra être corrigée plus tard, ce qui fera plus que doubler le temps et les efforts nécessaires.

Murder, Madness, and Mayhem a eu beaucoup de chance en attirant très tôt l’attention de la FA-Team, une équipe d’éditeurs expérimentés dont le but est d’aider les nouveaux utilisateurs à améliorer leurs articles pour obtenir le grade d’Article de Qualité. Sans leur aide nous n’aurions jamais atteint notre ambitieux objectif. Mais, sans jeter le discrédit sur les efforts et l’implication de la FA-Team, ce n’est pas non plus leur rôle de s’assurer que n’importe quel groupe organisé et préparé aux efforts nécessaires de la recherche en amont, attirera l’attention d’autres collaborateurs qui apporteront leurs conseils sur le respect des conventions de style ou du droit d’auteur.

Même les articles issus du projet récent « Global Economics » ont reçu énormément d’attention et de contributions. L’énergie dépensée pour donner des avis et des conseils a été extraordinaire, sans parler des efforts d’édition et de mise en forme des articles eux-mêmes, pour tenter de sauver quelque chose de ce qui, globalement, demeure une expérience décevante.

Autre contenu de qualité

Dossier Wikipédia - Université de la Colombie Britannique - RosegardenLes contenus de qualité de Wikipedia s’étendent bien au delà des Articles de Qualité, pour englober des domaines qui sont utiles à des niveaux et sujets particuliers d’études. Les listes de qualité comprennent moins de texte d’explications, mais doivent être soigneusement étudiées et incluses dans le contenu existant dans l’encyclopédie. Les images de qualité peuvent être un projet idéal pour les étudiants en photographie. Et les étudiants en musique ou les étudiants ingénieurs du son pourront trouver dans la rigueur du processus de vérification des sons de qualité un test stimulant de leurs capacités.

L’avis des étudiants

Le 5 mai 2008, le travail des étudiants du projet MMM, Eecono, Katekonyk, Mfreud et de la FA-Team a eu les honneurs de la page d’accueil, ce qui leur a valu ce jour-ci la visite de dizaines de milliers de visiteurs du monde entier. Une belle récompense pour leur dur labeur comme le souligne Mfreud (Monica Freudenreich) :

J’ai investi tellement d’énergie dans la rédaction et l’amélioration de cet article que je suis vraiment fière du résultat final. Quand je le relis, j’ai même du mal à croire que j’y ai contribué. Les dissertations que je rends finissent en général dans un :classeur qui restera bien rangé sous mon lit ou alors dans un coin de mon disque dur pour ne jamais être ré-ouvertes. La page sur Wikipédia sera consultée et servira certainement à quelqu’un. Je dois dire que je suis quasi-certaine que la bibliographie référence quasiment tout ce qui a été publié en anglais sur le sujet. Si quelqu’un cherche à approfondir El Señor Presidente tout est là et je trouve que c’est vraiment incroyable !

Les éditeurs les plus actifs de Mario Vargas Llosa et de The General in His Labyrinth nourrissent également l’espoir qu’à terme leur article aura les honneurs de la page d’accueil. En réponse à des commentaires sur les pages du comité de relecture et des propositions d’Articles de Qualité, un étudiant a écrit « Le fait qu’ils aient obtenu le grade d’Article de Qualité me rend vraiment jaloux… mais ça me motive ! », après que ses camarades de classe aient atteint leur but. Nous espérons que tous ces Articles de Qualité réalisés par le projet MMM grâce aux efforts des étudiants, encourageront d’autres projets d’écoles et universités à leur emboiter le pas.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 5/6 – Le projet vu comme un bon exemple d’usage pédagogique de Wikipédia
    Au delà de cet exemple, quelles sont les clés de la réussite d’un projet éducatif intégrant Wikipédia.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



Wikipédia et éducation : un exemple de réconciliation 6/6

Cet article clôt le dossier Wikipédia et éducation : un exemple de réconciliation.

Il propose une sélections de liens pour informer, débattre et aller plus loin.

Liens francophones connexes

Revue de « presse » de ce dossier

  • Wikipédia comme support de travail universitaire ? – Adrienne Alix – Compteurdedit – 17 février 2009
    « Il va encore plus loin en se demandant s’il est plus formateur et plus utile à un étudiant de savoir argumenter sur un sujet donné (cadre d’une dissertation) ou de savoir présenter les connaissances liées à ce sujet, d’être capable de faire des recherches sur un sujet, de synthétiser des sources, de confronter son travail au regard des autres et de travailler en collaboration. C’est le genre de débat qui créerait immédiatement des hurlements dans une assemblée d’enseignants, mais je crois que c’est très intéressant si on se demande un peu ce que Wikipédia peut apporter à l’enseignement universitaire. Le volet argumentation pure, très académique, est une chose sans doute essentielle à maîtriser. Mais l’écriture collaborative, avec des exigences de qualité formelle et de sourçage, la synthétisation du savoir existant, la confrontation au regard des autres, toutes ces choses qui sont le principe même du fonctionnement de Wikipédia, je crois très sincèrement que c’est une part de pédagogie qui n’existe pas dans l’enseignement et qui serait pourtant très bonne pour l’esprit et très utile dans le monde professionnel, où on argumente rarement par dissertation. »
  • Une expérience canadienne réconcilie Wikipedia et éducation – Mathieu Grégoire-Racicot – Le Quotidien Jurassien – 20 février 2009
    « Avenir et partage de la connaissance pour les uns, royaume du plagiat et l’opinion mal formulée pour les autres, l’encyclopédie collaborative Wikipedia a une réputation controversée, sulfureuse, spécialement dans le monde de l’éducation. Or une petite histoire, rapportée par le très fouillé et très actif Framablog, tenu par un professeur de lycée français, montre à quel point des projets pédagogiques pourraient se trouver enrichis, encadrés et davantage formateurs en utilisant Wikipedia, non comme une source, mais comme aboutissement de travaux de recherche. »

Autour de l’éducation

  • Projets pédagogiques – Wikipédia
    « Si vous êtes un enseignant dans une école ou dans une université, nous vous encourageons à utiliser Wikipédia dans votre classe non seulement comme source d’information mais comme espace de rédaction et de construction de connaissances. »
  • Wikipédia : la rejeter ou la domestiquer ? – Eric Bruillard – Médialog 61 – mars 2007
    « Le phénomène Wikipédia interpelle le monde enseignant. Quelle confiance peut-on accorder à une encyclopédie rédigée par ses lecteurs et dont les articles sont modifiés en permanence ? Quelle place l’École peut-elle lui faire ? »
  • D’un Club Histoire à un Club Wikipédia – Sylvain Négrier – septembre 2008
    « Quels usages vos élèves font-ils de Wikipédia ? Wikipédia est visiblement une source d’information importante pour eux. Sa valorisation par les moteurs de ucation-a-education-exemple-projet-pedagogique-6exemple-projet-pedagogique-6recherche (dont Google) en fait un point de départ quasi obligé. C’est particulièrement net pour les TPE et l’ECJS. Le problème majeur, mais ce n’est pas une découverte, c’est le manque de recul (voire de compréhension) de certains élèves. Cela leur joue parfois des tours : lors d’une composition à faire à la maison (…) Ceci dit les élèves ne sont pas totalement naïfs, et je les invite à exercer leur esprit critique, y compris envers ce que je leur enseigne : je ne me considère pas comme infaillible. »
  • Wikipédia et le cours d’histoire – Les Clionautes – septembre 2008
    « L’encyclopédie en ligne est devenue un des pôles majeurs sur le web, et une référence de choix pour beaucoup d’élèves et enseignants. Elle fait néanmoins l’objet de réticences et a suscité des débats très vifs ces dernières années. Ce premier article, qui prolonge la page Wikipédia en débats, a pour objectif de revisiter les étapes et les enjeux d’un débat très médiatisé, sur fond de divergences quant à la vision de la société et de l’éducation. Une réflexion sur la place de Wikipedia à l’école invite à interroger nos pratiques, et à proposer des pistes pragmatiques, à court et à moyen terme. »
  • L’histoire peut-elle être Open Source ? Les historiens et Wikipedia – Roy Rosenzweig (traduction Clioweb) – juin 2006
    « L’histoire est un art (un métier ?) éminemment individualiste. Les travaux signés d’une seule personne sont la règle dans la profession (…) Cet individualisme qui caractérise la recherche en histoire est aussi très possessif. Afin de travailler honnêtement, et éviter les accusations de plagiat, nous autres historiens devons attribuer idées et expressions à ceux qui les ont émises (…) Il est donc presque impossible d’envisager dans notre culture professionnelle des travaux historiques dénués de propriétaire, effectués par une multitude d’auteurs anonymes. C’est pourtant la définition exacte de Wikipedia. »
  • Wikipédia tente de pénétrer le milieu éducatif – François Jarraud – Café Pédagogique – décembre 2005
    « Le problème c’est que Wikipédia n’est malheureusement plus un outil recommandable pour les enseignants. Le projet, fort sympathique au départ, sert des intérêts qui suscitent des interrogations (…) Tant que la clarté ne sera pas faite sur le fonctionnement de Wikipédia et le ménage dans ses articles, nous déconseillons aux enseignants de l’utiliser avec les élèves. »
  • Wikipédia, une encyclopédie sans auteurs ? – Serge Pouts-Lajus – Les dossiers de l’Ingénierie Educative n°58 – juin 2007
    « Wikipédia est un projet apparemment sympathique. Il possède des qualités qui ne peuvent lui être contestées et auxquelles je suis, comme tout le monde, sensible : l’encyclopédie libre est utile, gratuite et d’accès facile. Mais justement, lorsqu’il s’agit de savoirs, d’œuvres de l’esprit et de culture, les considérations utilitaristes ne suffisent pas. Tant que l’on reste attaché au principe de responsabilité des individus et des collectifs particuliers relativement aux œuvres qu’ils produisent, il n’est pas possible d’adhérer à un tel projet. »
  • De sévères critiques de Wikipédia – Alithia – Blog : Wikipédia ou le mythe de la neutralité – janvier 2007
    « Cet article et le suivant qui le complète, cite un très grand nombre de critiques faites à wikipedia, par des professionnels de l’enseignement, de la recherche et de l’éducation. »
  • L’édition de référence libre et collaborative : le cas de Wikipédia – INRP – mars 2006 (le dossier complet en pdf)
    « Selon Cormac Lawler, Wikipedia n’est pas simplement une encyclopédie, ni même un nouveau modèle éditorial : le projet présente en effet les caractéristiques d’une organisation apprenante tant dans sa structure que dans son fonctionnement. A la lumière des recherches sur les communautés virtuelles ou les communautés de pratique, il identifie les éléments de convergence suivants : Wikipedia est auto-gérée, auto-sélective et auto-évolutive. Le potentiel de la communauté réside selon lui dans la promotion d’une pédagogie de la découverte et dans le développement de l’esprit critique nécessaire à son fonctionnement. Le conflit est perçu comme un ingrédient nécessaire à la négociation car il requiert une mise en perspective des différents points de vue et une prise en compte des différences culturelles (…) La confrontation des partis-pris culturels est un signe d’action critique manifeste dans un contexte où l’adhésion à la règle de neutralité est partagée et où la convivialité est assumée comme essentielle. »
  • Le phénomène Wikipédia : une utopie en marche – Christian Vandendorpe – Le Débat, no 148 – janvier 2008
    « Au lieu d’élever un pare-feu autour de Wikipédia, l’École aurait donc tout intérêt à s’en servir comme d’un outil pédagogique. Outil d’éducation pour apprendre à respecter le bien public et à ne pas vandaliser des articles ; outil de formation à la lecture critique, surtout, afin d’apprendre à ne pas prendre pour argent comptant tout ce qui s’écrit : en vérifiant la présence de sources crédibles, en comparant divers états d’un article, en comparant la version française avec des versions rédigées dans d’autres langues, en faisant des recherches complémentaires dans d’autres sources, numériques ou imprimées. Une telle attitude critique est plus nécessaire que jamais, alors que le mensonge et la dissimulation s’épanouissent dans la culture anonyme du web et que les plus hautes sphères de l’administration de pays qui se présentent comme des modèles de démocratie pratiquent la désinformation à grande échelle, comme on l’a vu lors de la campagne qui a conduit les États-Unis à envahir l’Iraq. »
  • Wikipédia, un objet problème en information-documentation – Pascal Duplessis et Laure Endrizzi – mai 2008
    « En premier lieu, certainement, Wikipédia s’affiche en tant qu’objet documentaire, support de ressources informationnelles, et dont l’usage doit pouvoir être garanti : l’information offerte, même si elle est gratuite et facilement accessible, est-elle pour autant « consommable », c’est-à-dire sans risque de préjudice pour la santé intellectuelle ? Si de nombreux collègues de discipline ne s’offusquent pas de cette incertitude, sans doute par insuffisance d’expertise, le garant de l’information documentaire en circulation dans l’établissement, lui, s’en inquiète. Quel statut accorder à cet apport d’information au regard des autres ressources disponibles dans ou à partir du CDI ? Quelles précautions prendre ? Quel type d’accompagnement proposer aux élèves ? Quel discours tenir au sujet de Wikipédia ? »
  • Wikipédia – Une encyclopédie libre, gratuite et écrite coopérativement – Alain Caraco – BBF – août 2004
    « Wikipédia est-elle l’encyclopédie qu’attendaient les bibliothèques publiques françaises ? J’aurais tendance à répondre oui et non à la fois. Non dans son état actuel : trop de domaines sont insuffisamment couverts, trop d’articles sont encore à l’état d’une ébauche rédigée hâtivement. Mais, très certainement, oui dans un état futur (…) La Wikipédia en ligne ne peut être qu’en travaux permanents. C’est une sorte de chaudron bouillonnant, où l’on produit la matière première, toujours instable. Des éditions stabilisées, monolingues ou multilingues, sur cédérom, sur papier ou en ligne pourraient en être dérivées. Elles pourraient même être vendues par des éditeurs commerciaux, avec de la valeur ajoutée, notamment en matière de présentation ou d’illustration. Ce modèle économique existe déjà pour les logiciels libres : on peut télécharger Linux auprès de la communauté des développeurs, ou bien acheter une version commerciale, avec un mode d’emploi et une assistance téléphonique. »
  • C’est rien qu’à cause de Wikipédia si nos enfants échouent ! – Framablog – octobre 2008
    « Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens (…) Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ? »
  • Ceux qui disent non… à Wikipédia – Astrid Girardeau – Les Écrans – janvier 2008
    « Diaboliser et interdire des sites Internet sous prétexte que les étudiants n’utilisent pas assez leurs propres cerveaux et les contenus académiques, on a vu plus constructif et efficace. Quand on observe l’ergonomie ou la disponibilité des outils d’information académiques accessibles à l’université pour les étudiants, fait remarquer Ertzcheid, on comprend hélas très facilement pourquoi ils préfèrent utiliser Wikipédia ou Google. S’en désoler ne servira à rien. »
  • Wikipédia est un projet encyclopédique et un bien commun de l’humanité – Astrid Girardeau – Les Écrans – janvier 2008
    « Pour 1 enseignant ou 1 université interdisant d’utiliser Wikipédia, 100 autres forment les étudiants à son usage, les aident à décrypter ses contenus. Ce faux-procès en incompétence qui est de plus en plus souvent fait à Wikipédia est d’autant plus horripilant que Wikipédia affiche clairement sur sa page d’accueil le fait qu’elle ne doit pas être utilisée comme une source primaire d’information. »

Plus général

  • Wikipédia – Wikipédia
    « Comme l’indique la première ligne de sa page d’accueil, Wikipédia a pour slogan : Le projet d’encyclopédie librement distribuable que chacun peut améliorer. Ce projet est décrit par son cofondateur Jimmy Wales comme un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la terre dans sa langue maternelle (…) En revanche, Wikipédia n’a pas pour but de présenter des informations inédites. Comme pour les encyclopédies classiques, son ambition se limite à exposer des connaissances déjà établies et reconnues. Les travaux personnels ou originaux n’ont pas leur place dans Wikipédia. »
  • Critiques de Wikipédia – Wikipédia
    « Sébastien Blondeel, dans un livre sur Wikipédia, a écrit en 2006 : Wikipédia est un projet avec lequel il faudra compter. Et si les critiques commencent à se faire entendre, c’est paradoxalement plutôt bon signe : justifiées, elles permettent de prendre conscience des problèmes ; gratuites ou exagérées, elles confirment l’influence et le succès du projet. »
  • Wikipédia : constats et propositions – Nat Makarevitch – avril 2006
    « Ce document expose des problèmes et incohérences de Wikipedia, projet d’encyclopédie libre publiée sur le Web, dans le but de l’améliorer, non de dénigrer. Nous y montrons le caractère abusif de certaines actions menées par certains contributeurs. »
  • WikiGrill – Les articles de Wikipédia passés sur le gril de Books
    « Pour remarquable qu’elle soit, et globalement salutaire, l’entreprise Wikipédia invite à la critique. Si beaucoup d’articles de cette encyclopédie d’inspiration démocratique sont de grande qualité, d’autres ne résistent pas à un examen attentif. Soit parce que leur contenu est léger ou inconsistant, soit parce qu’il est manipulé, parfois avec une grande habileté, par des internautes ou des lobbies qui défendent un intérêt. Or, Wikipédia est devenu le premier mode d’accès au savoir pour les jeunes et les moins jeunes qui, sans avoir reçu de formation universitaire poussée, naviguent quotidiennement sur le web. Avec sa rubrique WikiGrill, Books souhaite attirer l’attention sur l’existence de biais qui influencent de manière plus ou moins cryptée la qualité ou l’objectivité de certains articles de Wikipédia. »
  • La réponse de Sylvain Négrier à l’initiative WikiGrill (décembre 2008) : Une lecture critique de Wikigrill
    « Les wikipédiens s’interrogent depuis longtemps sur ce qu’est un bon article. Ils ont défini progressivement deux labels, attribués après un vote des contributeurs, représentant chacun un palier dans le niveau des articles. Il s’agit du label Article de Qualité, le plus prestigieux, pour le moment décerné à un peu plus de 500 articles, et du label Bon Article, qui concerne près de 500 articles et qui récompense ceux qui sont satisfaisants mais qui paraissent encore améliorables. Les conditions d’attribution de ces labels se sont considérablement durcies ces derniers mois, au grand dam de certains wikipédiens, essentiellement pour que ces articles, proposés comme vitrine de Wikipédia (notamment en page d’accueil), puissent échapper aux critiques les plus évidentes. Cela ne constitue toutefois pas une garantie totale : ces articles ne sont que très rarement relus par d’authentiques spécialistes, et les discussions lors des votes se portent assez volontiers sur les aspects formels. Il aurait donc été particulièrement intéressant que les auteurs de Wikigrill™ s’attachent prioritairement à ces articles labellisés. Sont-ils réellement d’un bon niveau ? La procédure d’attribution des labels telle qu’elle existe est-elle à même de repérer les meilleurs articles ? Ne faudrait-il pas la remplacer par une relecture par un/des spécialiste(s) ? »
  • La réponse de Jean-Claude Guédon à l’initiative WikiGrill (janvier 2009) : Wikipedia ? Moi, j’aime plutôt bien
    « Wikipedia n’est pas un produit textuel fixe offert à la consommation; il s’agit d’un processus incessant qui nous convie à la table du plus grand banquet intellectuel jamais construit dans l’histoire de l’humanité. Déjà étonnamment utile, essayons d’imaginer ce que ce sera dans dix ou vingt ans. »
  • L’encyclopédie de non-référence – Denis Berger – février 2005
    « On sait que l’idée de Wikipedia, comme sa licence LGPL, viennent de l’univers du logiciel libre, tendance Stallman, et visent à reproduire dans le domaine de la connaissance ce qui a si bien réussi dans celui de l’informatique : l’élaboration d’un bien commun par la participation de tous, en fonction des moyens de chacun, puisque tout un chacun est présupposé dépositaire d’une parcelle de connaissance qui, si menue soit-elle, est susceptible d’intéresser l’ensemble. Mais la ressemblance entre un programme et une encyclopédie se limite au fait que, dans un cas comme dans l’autre, il faut commencer par les écrire ; le programme, lui, ensuite, s’exécute, et dispose donc de son propre système de correction d’erreurs, brutal mais efficace : s’il est mal écrit, il plante. Il offre donc, paradoxalement pour un logiciel libre par définition livré sans, une garantie quant à son fonctionnement, la disponibilité des sources comme des programmeurs permettant, de plus, en l’espèce, de résoudre rapidement les problèmes. Autrement dit, l’exportation de ce concept, tel qu’il est présenté, vers un projet encyclopédique se révèle privé de pertinence puisque, là, rien, en dehors d’une éventuelle relecture d’un participant qui pourra peut-être se trouver contredite un peu plus tard par un autre, ne garantit la qualité de l’information publiée ; ici, le mécanisme cumulatif et automatique qui permet l’amélioration continue du logiciel libre ne joue pas.  »
  • Inside Wikipédia – Camille Gévaudan – Les Écrans – juillet 2008
    « Ecrans.fr s’invite à l’intérieur de Wikipédia et vous propose d’aller voir comment un projet aussi pharaonique peut fonctionner au quotidien. »
  • Wikifeuilleton – Le Tigre
    « Les coulisses de l’encyclopédie collaborative Wikipedia. »
  • À propos de Wikipédia – Rui Nibau – Framasoft – mars 2006
    « Ici, je n’ai fait que voir un verre à moitié vide en n’abordant qu’un unique aspect des critiques formulées à l’encontre de Wikipédia. D’autres internautes peuvent – à juste titre – le voir à moitié plein. A un moment de son histoire où l’encyclopédie acquiert une visibilité croissante dans d’autres médias, et attire donc l’attention d’acteurs aux intérêts divergents, l’avenir proche nous dira si ce verre finira par se remplir ou par se briser. » (et la réponse de Nojhan : Wikipédia, l’encylopédie asymptotique)
  • Wikipédia : le refus du pouvoir – Mémoire de fin d’étude de Sylvain Firer-Blaess – Institut d’Etudes Politiques de Lyon – 2006/2007
    « Wikipédia refuse le pouvoir : elle refuse la possession de l’information aux plus fortuné, en rendant l’information libre. Elle refuse aussi la production du savoir par quelque uns, en donnant ce pouvoir à tous. Elle refuse dans son organisation les statuts spéciaux, elle refuse la centralisation de la surveillance et de la décision. Ainsi elle dissout le pouvoir et en donne une parcelle à chacun : le pouvoir de décider, le pouvoir de créer le savoir, le pouvoir de s’informer. Elle empêche ainsi fortement les processus de domination dans son organisation interne. Elle a aussi un impact sur le monde réel, impact certes minime, mais donner la possibilité aux personnes qui disposent d’une connexion internet de disposer d’un savoir libre et gratuit, c’est déjà quelque chose. »
  • D’Amour & de Neutralité : Ce(ux) qui résiste(nt) – Martin Erpicum – Mémoire universitaire – juillet 2005
    « L’objet empirique de ce mémoire est l’encyclopédie libre Wikipédia. De tout temps, les encyclopédies ont été un support à l’apprentissage d’un intérêt certain. L’apparition d’un type d’encyclopédie rédigée coopérativement par des pairs sur le réseau Internet a entraîné bon nombre de questionnements : critères de validation de la connaissance, contrôle des actes de vandalisme, régulation des contributeurs, etc. Afin d’éclairer en partie ces questionnements, le présent travail va tenter de décrire les pratiques de régulations inhérentes à la tâche de rédacteur encyclopédique, et de rendre compte des contraintes et normes émergentes qui encadrent l’activité des pairs. »

Succincte bibliographie

  • « Wikipédia, Découvrir, utiliser, contribuer » – Florence Devouard et Guillaume Paumier – Presses universitaires de Grenoble – janvier 2009
    « Ce livre vous guide à la découverte de cette gigantesque fourmilière et vous explique comment utiliser efficacement son contenu. Il vous incite ensuite à devenir acteur et à participer à la rédaction de l’encyclopédie, quels que soient votre âge et vos domaines de compétences. »
  • Wikipédia, Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste – Marc Foglia – FYP Éditions – novembre 2007
    « Cherchez n’importe quel mot sur Google… Les deux premières pages de résultat, celles qui comptent, renvoient presque invariablement à un article de Wikipédia. Comment cette encyclopédie d’un nouveau genre s’est-elle installée comme une source universelle de connaissance, et désormais comme un réflexe intellectuel ? L’origine de ce phénomène, son fonctionnement et son évolution fulgurante sont autant d’appels à la réflexion.Wikipédia c’est la dématérialisation de la connaissance et la progression de son accessibilité : peut-on parler d’un nouveau média ? d’une Toile dans la Toile ? Que devient la propriété intellectuelle dans ce partage gratuit de la connaissance ? Pourra-t-on parler d’une « génération Wikipedia » ? Quels sont les risques que fait courir l’encyclopédie libre à la connaissance, au jugement et à l’esprit critique ? Ces interrogations nous permettent d’éclairer d’autres phénomènes contemporains comme le travail collaboratif en réseau, la frontière entre biens marchands et biens non-marchands, la frontière entre travail et bénévolat, la démocratie à l’ère du numérique, etc. Par une approche critique, philosophique et sociologique, l’ouvrage analyse en profondeur cette « l’encyclopédie collaborative » comme un phénomène émergent, comme expression de tendances de fond de la modernité au XXIe siècle, et une innovation remarquable susceptible d’éclairer d’autres évolutions de la société contemporaine. »
  • Wikipédia – Comprendre et participer – Sébastien Blondeel – Eyrolles – avril 2006
    « Qui n’a entendu parler de Wikipédia, l’encyclopédie collaborative de l’Internet la plus vaste et la plus consultée ? Qui ne connaît ce projet international auquel des experts de tous domaines contribuent ? Née en 2001, Wikipédia compte plus de trois millions d’articles début 2006, 120 langues actives, un million d’articles en anglais, 250 000 en français. Ce livre explique comment l’explorer et y participer, dans quelles limites réutiliser son contenu et quels sont ses secrets de fonctionnement (financement, contexte politique). »

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



Quand Serge Soudoplatoff nous parle d’Internet

Quand Serge Soudoplatoff nous parle d’Internet (et des mutations organisationnelles qu’il engendre) c’est non seulement accessible au grand public mais c’est surtout tout à fait passionnant.

Très à l’aise devant son auditoire, Serge Soudoplatoff réussit la gageure de partir un peu dans tous les sens (avec exemples, citations et anecdotes à l’appui) tout en restant cohérent avec sa ligne directrice.

Une intervention de 45 minutes donnée le 4 juillet 2008 au CEDAP et intitulée : « Comment Internet change nos organisations »

—> La vidéo au format webm

Pour en savoir plus sur l’auteur, rendez-vous sur son blog et en attendant voici une courte et caustique présentation telle qu’elle apparait sur AgoraVox.

Serge Soudoplatoff est vraiment né le 27 décembre 1954 par une longue nuit d’hiver. Les loups hurlaient dans la steppe. Sa mère, bretonne, lui apporta le goût du beurre et son père, russe, celui de la vodka. Cela perdure.

Après des études très primaires, qui devinrent vite secondaires, c’est en passant à Paris dans la rue de la Montagne Ste Geneviève en septembre 1973 que, la porte étant ouverte, il entra par hasard dans une prestigieuse école française. A sa sortie, trois ans plus tard, il se dirigea vers la cartographie, confondant dessiner le monde et le changer. Après 5 ans de recherches et de voyages à l’Institut Géographique National, il décida de quitter le traitement de l’image pour s’intéresser à celui de la parole dans un centre de recherche français, et américain, d’un grand constructeur d’ordinateurs. Après 5 ans de voyages et de recherches à IBM, il décida que la parole à une dimension ne valait pas mieux que l’image à deux, et se résigna à ne plus traiter que des problèmes ponctuels, en devenant directeur d’un centre de recherche en informatique dans une grande SSII. Après 5 ans à Cap Gemini Innovation, il alla mettre en réseau le monde de la recherche et celui des entreprises dans une association, le Cercle pour les projets Innovants en Informatique. C’est là qu’il comprit le passage de l’information à l’innovation, l’articulation entre l’informatique et la sociologie et la psychologie.

Ceci le fit bizarrement atterrir à la direction de l’innovation de France Telecom, où il s’est employé pendant trois ans à rendre concrètes les profondes mutations qu’engendre le monde Internet.

Il a finalement décidé de se muter lui-même en devenant fondateur d’une entreprise en essaimage de France Telecom, Highdeal, puis en créant Almatropie, dédiée à convaincre de l’importance d’Internet.




Vivre sa vie ou l’enregistrer ? Telle est la question !

Put the camera down - SoupPour une fois ce n’est pas le couple Obama qui impressione sur la photo ci-contre[1]. Cliquez dessus pour voir… et vous constaterez peut-être avec moi que « quelque chose ne va pas ».

Qu’est-ce qui pousse tous ces gens à vivre les moments forts de leur vie à travers le prisme de leurs écrans ? Quelles conséquences cela peut-il bien avoir sur l’évènement fort en lui-même mais également à long terme sur la perception et les émotions de nos propres vies ? C’est le sujet du jour qui fait écho à l’émission radio Place de la Toile (France-Culture) du 23 janvier dernier intitulée Et si on se déconnectait ? dont je vous suggère la synthèse réalisée par Hubert Guillaud sur InternetActu.

Il est soudainement loin le temps où l’on se moquait gentiment des touristes japonais rivés à leur appareil photo…

La technologie, c’est formidable, mais n’en oublie-t-on pas de vivre ?

Technology is Great, but Are We Forgetting to Live?

Sarah Perez – 22 janvier 2009 – ReadWriteWeb
(Traduction Framalang : Don Rico et aKa)

Imaginez, vous êtes à un concert où votre groupe préféré monte sur scène pour la dernière fois. Ou bien vous assistez à la prestation de serment du Président Obama. Ou alors vous êtes simplement assis en famille devant le sapin de Noël, à regarder vos enfants ouvrir leurs cadeaux. Qu’êtes-vous en train de faire dans tous ces cas de figure ? Si vous êtes comme la plupart de nos contemporains, vous êtes sans doute en train de filmer la scène avec un gadget électronique d’un genre ou d’un autre, smartphone, appareil photo numérique ou camescope. Il se peut même que vous partagiez ce moment avec d’autres sur Twitter, Facebook ou FriendFeed.

Nos vies sur support numérique

Grâce à la technologie, nous pouvons graver pour toujours chaque moment de notre vie. Nous pouvons prendre des photos, y ajouter un commentaire et les partager aussitôt. Nous pouvons les archiver pour la postérité sur le Web intemporel. Et peut-être qu’un jour, nos arrière-arrière-petits-enfants retrouveront nos profils de réseaux sociaux dans les pages en cache d’Internet Archive et découvriront tout ce que nous avons voulu faire savoir au monde à notre sujet.

D’accord, c’est génial. C’est vraiment dingue. Mais qu’en est-il de nous, et du temps que nous avons passé à enregistrer ces moments ? Ne sommes-nous pas passés à côté de notre vie à trop vouloir la consigner ?

La technologie a accompli des tels progrès que l’utiliser n’exige presque plus aucun effort et nous l’intégrons dans notre vie comme jamais auparavant. Finie l’époque où l’ordinateur était une machine qui vous connectait à un réseau de pages au temps de chargement interminable. Non, le Web d’aujourd’hui, notre cerveau universel, tient dans la poche et est accessible de partout[2].

On peut aujourd’hui transférer nos photos (et même nos vidéos) directement de l’appareil au Web grâce à d’ingénieuses inventions telles que les cartes SD sans fil d’Eye-Fi, technologie qui fait de notre vie un flux constant d’informations destiné à remplir les pages omniprésentes d’une Toile en expansion permanente. Une Toile dont la création constitue peut-être le symbole des efforts fournis par l’humanité pour comprendre le concept de l’Univers, car de quelle manière décrira-t-on le Web de demain ? Comme une entité qui n’a ni début[3] ni fin, un dépôt d’archives en expansion continue recueillant la totalité de nos vies numériques.

On en oublie de vivre

Durant notre bref passage sur Terre, à force de vouloir consigner les moindres instants de notre vie, il se peut que nous en oubliions, de temps à autre en tout cas, comment vraiment profiter de la vie. Et pour profiter de la vie, n’en déplaise à certains, il faut se déconnecter, ranger son appareil photo, et pour une fois savourer l’instant.

Jane Maynard, de l’association Silicon Valley Moms (NdT : Mamans de la Silicon Valley), nous rappelle que de nos jours c’est un travers répandu qui ne concerne plus seulement les fous de technologie. Prenant l’exemple d’un concert où elle allait voir ses enfants jouer, elle décrit ce qui lui pose problème : « Les caméras. Je suis en face d’un dilemme. En voulant consigner les moments fabuleux que l’on vit, on néglige parfois la vraie vie. Comme lorsqu’on assiste au récital de piano de son enfant via l’écran LCD de son appareil et non directement. C’est un équilibre délicat à trouver auquel, j’en suis sûre, nous réfléchissons tous et sommes tous confrontés, surtout à notre époque du tout-numérique. Je me force parfois à ne pas sortir ma caméra, même si j’ai très envie d’enregistrer une scène, de façon à la vivre pleinement au moment où elle se produit. Ces moments-là, je ne les regrette jamais… mais ces considérations m’ont poussée à me poser des questions. Combien de fois me suis-je tellement focalisée sur l’idée de prendre la photo parfaite de mes enfants que j’en ai oublié complètement de profiter du moment présent ? »

Et si on se déconnectait ?

Définir ce qui mérite d’être enregistré et ou pas n’a rien de compliqué. Nous estimons automatiquement que ce sont les moments les plus importants, les plus sensationnels et les plus incroyables qu’il faut enregistrer. Mais ce sont pourtant ces moments-là qu’il vaut mieux savourer pleinement, en leur accordant notre entière attention.

Selon Martin Kelly, blogueur axé sur la religion, « à certains moments, il est bien plus important d’être présent que d’enregistrer quoi que soit ». (Il venait de s’étonner lui-même en regardant les photos floues qu’il avait estimé nécessaire de prendre lors d’un mariage, alors que la mariée s’avançait vers l’autel. Avec le recul, il s’agissait précisément du genre d’instant dont il aurait pu se passer de photographier.)

« Cessez de vouloir vivre votre vie par procuration. Vous êtes déjà là. Vous n’avez rien à prouver », déclare Kat Orphanides en regardant des spectateurs enregistrer un concert au lieu de profiter de la musique. En réalité, c’est plus facile à dire qu’à faire. Si vous avez déjà ressenti une sensation de manque technologique quand vous vous déconnectez du Web (comment ne pas envoyer un tweet pour raconter ce que je viens de voir ? Il faut absolument que je prenne ça en photo !), c’est que vous êtes à deux doigts de ne faire plus qu’un avec la machine. Il est peut-être temps de vous rappeler que vivre se suffit à soi-même… du moins parfois. Vous n’aurez peut-être pas d’archive des moments tous plus extraordinaires les uns que les autres que vous aurez vécu, mais votre vie n’en sera que plus satisfaisante.

Notes

[1] Crédit photo : Put the camera down and enjoy a moment for once

[2] Bien évidemment, ces constatations s’appliquent aux parties du monde où la technologie moderne, comme les smartphones et le haut-débit, sont banals. On n’a pas accès à ces machins partout dans les monde, je le sais.

[3] La toute première page Web se trouve ici, mais elle n’est désignée comme page « Web » que parce que des liens hypertextes la relient à d’autres pages à l’aide de balises html. Alors, était-ce vraiment la première ? Ou est-elle soudain apparue en même temps que les autres ? Est-ce vraiment le point d’origine du Web ?




Écrire à l’ère de la distraction permanente

Joi - CC byLe Framablog et ses traducteurs aiment bien de temps en temps sortir des sentiers battus du Libre pour modestement apporter quelques éléments de réflexion autour des changements comportementaux induits par les nouvelles technologies et le monde connecté.

Après Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ? et Internet et Google vont-ils finir par nous abrutir ?, voici que nous vous proposons aujourd’hui un article de Cory Doctorow, que je tiens personnellement pour l’une des personnalités les plus intéressantes et influentes de la « culture libre », sur la difficulté non plus de lire mais d’écrire à l’aube de ce nouveau siècle.

En faire un peu tous les jours, savoir suspendre sa plume, ne pas effectuer de recherche, ne pas attendre les conditions parfaites, laisser tomber le traitement de texte, ne pas répondre aux sirènes des messageries instantanées (et autres réseaux sociaux), tels sont les conseils avisés de notre auteur[1] pour y remédier.

Que pensez-vous de ces quelques recommandations ? En apporteriez-vous d’autres ? Qu’est-ce qui nous permet d’échapper à la procrastination du travail rédactionnel qui s’éternise faute d’avoir su dire non aux sollicitations extérieures ? Les commentaires n’attendent que vous réponses… sauf si bien sûr, dans l’intervalle, vous avez le malheur de cliquer ailleurs 😉

Écrire à l’ère où tout est là pour nous distraire

Writing in the age of distraction

Cory Doctorow – 7 janvier 2008 – Locus Mag
(Traduction Framalang : Don Rico et Goofy)

Nous savons que nos lecteurs sont distraits, voire parfois submergés par les innombrables distractions qui se trouvent à portée de clic partout sur Internet, mais il va de soi que les rédacteurs sont tout autant confrontés à ce problème d’envergure, le monde foisonnant d’informations, de communication et de communautés tapis derrière notre écran, à portée des touches alt+tab de notre traitement de texte.

Le pire conseil sur l’écriture qu’on m’ait jamais donné était de me tenir à l’écart d’Internet, soi-disant que j’y perdrais du temps et que ça ne m’aiderait pas à écrire. C’était un conseil erroné du point de vue créatif, professionnel, artistique et personnel, mais je comprends bien ce qui avait incité cet écrivain à m’administrer une telle mise en garde. Régulièrement, quand je vois un site, un jeu ou un service nouveau, je ressens l’attraction irrésistible d’un trou noir de concentration : une activité chronophage prête à me prendre dans ses filets de distraction. Jeune papa impliqué qui écrit au moins un livre par an, une demi-douzaines d’articles par mois, au moins dix billets de blog par jour, auxquels s’ajoutent divers mini-romans, nouvelles et conférences, je suis bien placé pour savoir qu’on manque vite de temps et connaître les dangers de la distraction.

Mais l’Internet m’apporte beaucoup. Il nourrit ma créativité et mon esthétique, il me profite d’un point de vue professionnel et personnel, et pour chaque moment qu’il me vole, le plaisir que j’y prends me le rend au centuple. Je n’y renoncerai pas plus qu’à la littérature ou quelque autre vice délectable.

Je crois avoir réussi à trouver un équilibre grâce à quelques techniques simples que je perfectionne depuis des années. Il m’arrive toujours de me sentir lessivé et ivre d’infos, mais c’est rare. La plupart du temps, c’est moi qui ai la maîtrise de ma charge de travail et de ma muse. Voici comment je procède :

  • Des plages de travail courtes et régulières
    Lorsque je travaille à l’écriture d’une nouvelle ou d’un roman, je me fixe chaque jour un objectif modeste, en général une page ou deux, et je m’emploie à l’atteindre, ne faisant rien d’autre tant que je n’ai pas fini. Il n’est pas réaliste, ni souhaitable, de vouloir se couper du monde des heures durant, mais il est tout à fait possible de le faire pendant vingt minutes. En rédigeant une page par jour, je publie plus d’un livre par an, faites le calcul, et il est facile de trouver vingt minutes dans une journée, quelles que soient les circonstances. Vingt minutes, c’est un intervalle assez court pour être pris sur votre temps de sommeil ou votre pause déjeuner (même si cela ne doit pas devenir une habitude). Le secret, c’est de s’y astreindre tous les jours, week-end inclus, pour ne pas vous couper dans votre élan, et pour qu’entre deux séances de travail vos pensées puissent cheminer tranquillement jusqu’à la page du lendemain. Essayez de trouver un ou deux détails accrocheurs, ou un bon mot, à exploiter dans la page suivante, afin de savoir par où commencer lorsque vous vous installerez derrière votre clavier.
  • Ne vous arrêtez pas sur un travail fini
    Dès que vous atteignez votre objectif quotidien, arrêtez-vous. Même si vous êtes au beau milieu d’une phrase. Surtout si vous êtes au beau milieu d’une phrase, en fait. Ainsi, lorsque vous vous mettrez au travail le lendemain, vos cinq ou dix premiers mots seront déjà en place, ce qui vous donnera un petit coup de pouce pour vous lancer. Les tricoteuses laissent un bout de laine dépasser du dernier rang, afin de savoir où reprendre, une sorte de pense-bête. Les potiers, quant à eux, n’égalisent pas le pourtour de l’argile humide avant de la recouvrir de plastique pour la nuit, difficile de repartir sur une surface trop lisse.
  • N’effectuez aucune recherche
    Faire des recherches, ça n’est pas écrire, et vice-versa. Lorsque vous butez sur un point technique qu’une rapide recherche sur Google suffirait à éclaircir, abstenez-vous. Ne cédez pas à l’envie de chercher la longueur du pont de Brooklyn, le nombre d’habitants que compte de Rhode Island ou la distance qui sépare la Terre du Soleil. Ce serait alors la déconcentration assurée : une valse de clics sans fin qui transformerait vos vingt minutes de rédaction en une demi-journée à flâner sur le Web. Adoptez la méthode des journalistes (NdT : ces conseils s’adressent à des anglophones, pour le français il faudra bien sûr adapter) : tapez par exemple « TK » là où doit apparaître votre donnée, comme par exemple « Le pont de Brooklyn, d’un bout à l’autre de ses TK mètres, vacillait tel un cerf-volant." La graphie « TK » n’apparaissant que dans très peu de mots anglais (le seul sur lequel je sois tombé est « Atkins »), une recherche rapide de « TK » dans votre document suffira pour savoir si vous devez vérifier des détails techniques. Si vous en oubliez un, votre préparateur ou correcteur le repérera et vous le signalera.
  • Ne soyez pas trop à cheval sur vos conditions de travail
    N’écoutez pas ceux qui conseillent de créer l’atmosphère idéale pour attirer votre muse dans la pièce. Les bougies, la musique, le silence, le fauteuil confortable, la cigarette, attendre d’avoir couché les enfants… laissez tomber tout ça. Certes, il est agréable de se sentir à l’aise pour travailler, mais si vous vous persuadez que vous ne pouvez écrire que dans un monde parfait, vous vous retrouvez devant une double difficulté : trouver à la fois vingt minutes de libre et l’environnement idéal. Lorsque vous avez le temps, mettez-vous à votre clavier et écrivez. Vous pouvez bien tolérer le bruit/le silence/les enfants/l’inconfort/la faim pendant vingt minutes.
  • Éteignez votre traitement de texte
    Word, Google Docs et OpenOffice.org sont bardés d’une panoplie déconcertante de paramètres de mise en forme et de complétion automatique avec lesquelles vous pouvez passer votre temps à faire mumuse. Laissez tomber. Tout ça, c’est de la distraction, et ce qu’il faut absolument éviter, c’est que votre outil essaie de deviner ce que vous avez en tête, corrige votre orthographe, ou critique la construction de votre phrase, etc. Les programmeurs qui ont conçu votre traitement de texte passent leur journée à taper, tous les jours, et ils ont les moyens d’acheter ou de se procurer n’importe quel outil imaginable servant à entrer du texte dans un ordinateur. Et pourtant ils n’utilisent pas Word pour créer leur logiciel. Il se servent d’un éditeur de texte, comme vi, Emacs, TextPad, BBEdit, Gedit, et bien d’autres encore. Il s’agit là des outils les plus puissants, vénérables et fiables de l’histoire du logiciel (car ils sont au cœur de tous les autres logiciels), et ils ne comportent quasi aucune fonctionnalité susceptible de vous distraire ; en revanche, ils possèdent des fonctions chercher/remplacer très puissantes. Le plus gros avantage, c’est qu’un modeste fichier .txt peut être lu par presque toutes les applications présentes sur votre ordinateur, ou collé directement dans un courriel, sans risque de transmettre un virus.
  • Les outils de communication instantanée : à proscrire
    Ce qui nuit le plus à la concentration, c’est la présence sur votre ordinateur d’un écosystème d’applications intrusives : messagerie instantanée, alertes e-mail, alertes RSS, appels Skype, etc. Toute application exigeant que vous attendiez une réponse, même inconsciemment, accapare votre attention. Tout ce qui surgit sur votre écran pour vous annoncer un fait nouveau l’accapare aussi. Plus vous habituerez vos proches et amis à préférer les courriels, les forums et les technologies similaires qui vous permettent de choisir la plage de temps à consacrer à vos conversations au lieu d’exiger votre attention immédiatement, plus vous réussirez à vous ménager vos vingt minutes. En cas de besoin, vous pouvez prévoir une conversation, par VoIP, texte ou vidéo, mais laisser votre messagerie instantanée allumée revient à vous mettre au travail avec sur votre bureau un panneau géant DÉCONCENTREZ-MOI, du genre qui brille au point d’être visible du monde entier.

Je ne prétends pas être l’inventeur de ces techniques, mais grâce à elles je peux profiter pleinement du XXIème siècle.

Notes

[1] Crédit photo : Joi (Creative Commons By)




Cloud computing, logiciel libre et service public

Per Ola Wiberg - CC byEn ce début d’investiture Obama, de nombreux internautes expriment souhaits et desiderata à la nouvelle administration.

Le vœu de William Hurley a retenu notre attention. « Je suggère que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités », nous dit-il. Nous n’en saurons pas vraiment plus car il n’est pas entré dans les détails mais nous avons néanmoins saisi la perche pour en faire un billet où nous pourrions nous interroger ensemble sur les relations entre l‘informatique dans les nuages, le logiciel libre et un éventuel rôle de la puissance publique.

Placer nos données personnelles, nos fichiers, nos liens, etc. sur le Grand Internet présente en effet de nombreux avantages pratiques à l’heure où l’on peut « quasiment » se connecter partout tout le temps. Mais ce n’est pas sans poser quelques questions pour ne pas dire quelques problèmes. Je pense par exemple à la mésaventure récente de ce pauvre Marc L***[1] que l’on pouvait suivre au jour le jour à la trace via Facebook et consorts. Je pense également à notre récent billet La tête dans les nuages mais les pieds sur terre. Je pense enfin à la toile tissée méthodiquement par Google avec tous ses services en ligne (Gmail, Reader, Maps, Earth, Picasa, Calendar, Docs, YouTube…) que nous sommes nombreux à utiliser au quotidien.

Et puisqu’il est question d’éducation supérieure et d’université[2], je dois bien vous avouer que, l’année dernière, lorsqu’il a été question de créer en deux-trois coups de cuillère à pot des adresses de messagerie (avec ou sans chat) pour tous les enseignants et étudiants de mon établissement scolaire, de se doter d’agendas partagés et d’une suite bureautique en ligne (fichiers tableurs et traitements de texte potentiellement accessibles en lecture écriture, selon les droits, à toute la communauté, et disponibles au format ODF), je me suis tourné vers… Google Apps Education sans avoir « malheureusement » à le regretter.

En tant que responsable TICE de mon lycée J’ai donc osé confier les données de mes élèves à Google ! Est-ce grave docteur ? Oui ça l’est ! J’en ai bien conscience et je compte bien un jour me soigner (quand bien même Google n’affiche bien entendu pas de publicités pour ce service spécifique au monde éducatif). Il faut tout de même dire, à ma décharge, que par rapport à ma problématique et à mes besoins (temps limité, budget nul et situation particulière d’un lycée à l’étranger) je ne pouvais raisonnablement pas m’appuyer sur un quelconque Espace Numérique de Travail (ENT) dont je doute de plus en plus de leur pertinence et efficience à mesure que le temps passe (surtout si l’on continue à s’obstiner à les développer académie par académie).

Les partisans du logiciel libre peuvent sensibiliser sur les risques encourus à confier nos documents et informations numériques à des services en ligne « gratuits » proposés par des sociétés commerciales « web 2.0 » qui n’offrent pas de garanties sur l’avenir et sont souvent opaques au niveau de nos droits et des formats. Ils peuvent pousser à ce que des licences plus adaptées et plus transparentes soient adoptées (telle la licence AGPL). Mais, contrairement à un Microsoft où il « suffisait » de proposer des alternatives logicielles libres, ils ne peuvent absolument pas concurrencer un Google sur son terrain, c’est-à-dire justement le cloud computing, qui nécessite des investissements très très lourds ne serait-ce que pour pour installer et maintenir les batteries de serveurs disséminés un peu partout sur le réseau. Et alors je crois effectivement que le politique et le secteur public (national ou supra-national) peuvent nous être d’un grand secours pour modifier la donne (si tant est que l’on juge que la donne mérite modification).

C’est certainement l’alliance « logiciel libre + secteur public » qui pourra faire en sorte de ne pas laisser le champ libre aux seules sociétés privées. Ne privatisons pas la totalité du cloud computing (surtout dans le domaine éducatif), voilà par extrapolation, le sujet du billet du jour. Un peu comme ce qu’a voulu faire le projet de bibliothèque numérique européenne Europeana pour contrarier Google Books avec pour le moment le succès que l’on sait

L’enseignement supérieur a besoin d’un nuage informatique national

Higher education needs a national computing cloud

William Hurley – 26 janvier 2009 – InfoWorld
(Traduction Framalang : Don Rico)

Le cloud computing (ou informatique dématérialisée ou informatique dans les nuages), est vital pour l’avenir de l’enseignement supérieur aux États-Unis, et j’invite le Président Obama à agir

Le 26 janvier 2009
M. le Président Barack Obama
La Maison Blanche
Washington, DC 20500-0001

M. le Président,

Je tiens à vous adresser mes plus sincères félicitations, Monsieur, pour votre récente investiture à la fonction de 44ème Président des États-Unis d’Amérique. Votre victoire est la preuve de la grandeur de notre démocratie, mais aussi de la capacité de transformation de cette même démocratie. Comme des millions de mes semblables du monde entier, j’ai regardé avec une grande fierté votre prestation de serment, lors de laquelle vous êtes devenu un exemple vivant de l’impact que peut avoir un seul citoyen américain.

Vous avez déclaré « Le monde change, et nous devons changer avec lui ». Je suis on ne peut plus d’accord, M. le Président, et je crois que la politique que mènera votre administration sera une fontaine d’innovation. Je sais que le vice-président et vous êtes profondément favorables au développement des initiatives de recherche dans les instituts d’enseignement supérieur qui sont au cœur de l’innovation américaine. Pour ces instituts, l’avenir est déjà là. Mais, comme l’a écrit William Gibson « il n’est pas encore tout à fait équitablement réparti ».

Nous avons laissé le coût de la technologie entraver notre capacité à innover. Les chercheurs ne sont plus limités par le manque d’idées ou de connaissances, mais plutôt par les moyens informatiques nécessaires pour conduire des expériences et en analyser les résultats.

Je suggère donc que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités. Une telle ressource aurait le mérite de niveler le terrain universitaire. Les chercheurs qui travaillent d’arrache-pied dans des milliers d’instituts de taille modeste auraient alors accès à une puissance informatique qui n’est pour l’instant accessible qu’à une poignée de privilégiés. Il nous est impossible de prédire d’où viendra la prochaine grande innovation, mais des ressources informatiques dématérialisées publiques amélioreraient de façon extraordinaire nos moyens de coopérer et d’innover au niveau national.

Les grandes avancées technologiques et sociales peuvent se produire presque simultanément. En septembre 1962, un jeune chercheur publiait ce qui donnerait naissance aux plus grandes avancées technologiques de notre temps, et au même moment, un autre jeune homme originaire de Kosciusko, dans le Missouri, amorçait un itinéraire personnel qui aboutirait à un moment charnière dans la lutte pour les droits civiques. D’aucuns peuvent y voir une coïncidence, mais en ce qui me concerne j’y vois la providence. Les recommandations de Paul Baran en faveur d’une structure nationale publique destinée à transporter des données informatiques et l’entrée de James Meredith à l’université du Mississipi ont, du point de vue technologique et social, changé les États-Unis en profondeur.

Votre administration, par sa connaissance des nouvelles technologies, tient l’occasion d’accomplir un autre grand bond en avant. On ne peut comparer ma lettre à l’article de Baran, mais j’espère suggérer cette idée au moment opportun. Une idée trop en avance sur son temps a aussi peu de valeur qu’une idée avancée après que des engagements ont déjà été pris. J’espère donc attirer votre attention maintenant, avant que vos projets de réformes pour l’éducation aient été élaborés, et tant qu’il reste du temps pour prévoir le financement d’un cloud computing ayant le potentiel de transformer des chercheurs dispersés et inégaux en une locomotive d’innovation la plus puissante du monde.

Encore une fois, M. le Président, je tiens à vous féliciter, votre équipe et vous, pour votre victoire grandiose acquise grâce aux nouvelles technologies, ainsi que pour votre investiture inattendue, exaltante et triomphante.

Notes

[1] J’en profite pour saluer ici le très libre curieux magazine curieux Le Tigre.

[2] Crédit photo : Per Ola Wiberg (Creative Commons By)




Quand Mozilla participe à la libération de la vidéo

Theilr - CC by-saEt si les vidéos en streaming Flash et le casse-tête actuel des formats (.mov, .wmv, .mpeg, .avi…) ne constituaient qu’une parenthèse dans l’histoire du multimédia numérique ?

Nous n’en sommes pas encore là (loin de là), mais merci à Mozilla, en pleine cohérence avec son manifeste, de contribuer grandement à tenter d’améliorer une situation qui évoluera d’autant plus favorablement que nous, utilisateurs, serons nombreux à lui emboiter le pas[1].

Et quelle satisfaction de voir Mozilla, Wikipédia et Xiph.org (Ogg Theora/Vorbis) s’associer pour construire le monde que nous voulons et non celui que nous avons !

Pourquoi libérer la vidéo ?

Why open video?

Christopher Blizzard – 26 janvier 2009
(Traduction FrenchMozilla : Goofy)

Chacun se rend bien compte que le Web ouvert devient de plus en plus important dans nos relations avec les autres. Nos applications, nos conversations et nos échanges tendent à se passer en ligne, et Mozilla se trouve de plus en plus au cœur même de ce phénomène, bien placée pour définir à la fois la technologie sous-jacente et la pratique des usagers du Web. C’est un rôle crucial, et c’est l’une des raisons pour lesquelles il est important de nous comporter comme une entreprise à but non-lucratif en pleine conscience de notre mission et de notre impact.

En prenant un peu de recul, on se rend compte que l’arrivée du Web ouvert comme plateforme technologique est un phénomène dont l’histoire donne peu d’exemples. L’imprimerie nous a permis de reproduire les connaissances facilement et à bas prix. La télévision et la radio ont abaissé le coût de diffusion des médias. Le Web a fait disparaître la centralisation par de grands médias de masse, et chacun peut maintenant produire et diffuser. Les coûts de reproduction, de diffusion et d’interactivité par des commentaires sont devenus presque négligeables.

Je pense quant à moi que c’est possible grâce aux choix technologiques qui ont été faits dès les premières années de l’évolution du Web. Des formats lisibles par l’être humain, des applications simples fournies avec leur code source et la possibilité pour chacun de publier et de créer. Il n’existait pas en ces temps reculés de tours d’ivoire ni de développeurs professionnels, aussi le processus de création devait-il être simple. La technologie du Web exigeait d’avoir une forme d’esprit très orientée vers la technique, mais vous n’aviez pas besoin d’un long apprentissage pour vous lancer. Si l’on ajoute à ça le principe du bout en bout avec Internet, et le fait que le premier venu pouvait installer un serveur ou un client, cela signifie que le Web n’a pas pris son envol grâce au soutien de grands acteurs, mais est devenu une immense ressource partagée, fondée sur les petits efforts de milliers d’individus.

Il en est résulté une explosion générale de créativité et d’investissements, depuis les simples particuliers jusqu’aux plus grandes entreprises. Chacun peut avoir une impact et chacun peut influencer la technologie du Web. Car quiconque parle la lingua franca (NdT : un langage de communication, comme le latin autrefois, ou l’anglais basique aujourd’hui) du Web peut construire ses propres outils sans demander la permission, vous pouvez trouver des outils pour faire absolument tout vous voulez. C’est véritablement une place de marché très animée.

Mais il existe une exception notable : la vidéo sur le Web. Bien que les vidéos soient disponibles en ligne sur des sites comme Youtube, elles ne bénéficient pas des caractéristiques d’accessibilité au plus grand nombre qui ont assuré au Web sa vitalité et sa diffusion. Et ça se voit. La centralisation a entraîné quelques problèmes intéressants dont les symptômes sont la censure après des violations de DMCA et la concentration excessive du public sur un petit nombre de sites qui ont les capacités et la technologie nécessaires pour héberger des vidéos. Je crois que des problèmes comme ceux que nous voyons autour de YouTube sont l’indice d’un problème bien plus important, celui de l’absence de déconcentration comme de compétition dans les technologies vidéos — ce qui est très éloigné de tout ce qui existe sur le Web d’aujourd’hui.

Selon moi il existe deux choses qui peuvent aider à mener cette décentralisation :

  • Il devrait être facile de comprendre comment passer d’un format de document lisible par un ordinateur à un contenu tel qu’il est présenté à l’utilisateur. Par exemple, convertir un fichier HTML en document, un fichier JPEG en image sur l’écran, ou pouvoir utiliser le protocole HTTP pour télécharger un fichier.
  • Il doit être possible d’implémenter et de distribuer cette technologie sans avoir à demander l’autorisation ou la licence de quiconque. En termes concrets cela veut dire qu’elle doit être disponible sans avoir à payer de droits et sans documentation accablante.

Dans le monde de la vidéo, on trouve des formats qui remplissent la première condition : certains formats sont bien documentés, identifiés et même largement répandus. Mais bien trop souvent ils sont soumis à des droits à payer à l’unité, ou de lourds tributs dès le départ, si bien que la création de contenus sous ces formats (pour les coder) est souvent chère au point d’être prohibitive pour tous, si ce n’est pour des firmes aux poches bien lestées et des startups les mieux dorées sur tranche. Et il existe bien peu de formats vidéo qui remplissent la seconde condition. Ce n’est pas ce genre de décentralisation qui profite au Web. Ce serait plutôt l’inverse.

Nous voilà donc dans cette histoire au moment où Mozilla joue son rôle : voici ce que nous allons faire.

  • Dans Firefox 3.1, nous ajoutons la prise en charge native du conteneur OGG avec les codecs audio et vidéo Vorbis et Theora, pour la balise <video>. Il s’agit d’une des rares associations de formats qui remplisse les deux conditions ci-dessus. Ce ne sont pas des formats parfaits, mais ils sont certainement d’une qualité amplement suffisante pour l’usage de la vidéo sur Internet de nos jours. Et ils vont aller en s’améliorant.
  • Nous assurons également le développement de la vidéo ouverte avec une subvention de 100 000 dollars qui sera gérée par la fondation Wikimedia pour soutenir et développer Theora. Vous pouvez espérer voir sortir de grandes choses de ce financement. Et ce travail finira par profiter tout autant à Firefox.
  • Encore une chose que nous pouvons accomplir : donner pleinement droit de cité à la vidéo sur le Web. Cela signifie que nous pouvons faire des choses avec la vidéo et la faire interagir avec d’autres types de contenus (SVG, Canvas, HTML) comme il était impossible de le faire jusqu’à présent. Nous espérons qu’en libérant la vidéo du carcan imposé par les plugins pour qu’elle puisse jouer en harmonie avec le reste, nous pourrons lancer une nouvelle vague de créativité autour de la vidéo. J’en dirai plus long dans un autre billet.

Nous n’espérons pas qu’en faisant cela nous allons tout changer du jour au lendemain. Loin de là — les changements de cet ordre prennent du temps. Mais nous pouvons certainement jouer notre rôle, du moins rendre possible le développement de ce genre de phénomènes. Nous voulons voir émerger un marché de la vidéo comme nous l’avons vu émerger pour le Web. Telle est notre contribution pour lancer le mouvement.

Notes

[1] Crédit photo : Theilr (Creative Commons By-Sa)




La tête dans les nuages mais les pieds sur terre

Nicholas T - CC byGMail, Google Apps, Zoho, Flickr, Del.icio.us, Box.net, Wuala, DropBox, Plaxo… Ça vous parle ? Vous savez, ces applications en ligne (ou Web Apps) pratiques et séduisantes qui poussent comme des champignons aux quatre coins de la Toile, souvent accompagnées de la mention beta pour faire hi-tech. On a même trouvé un terme pour englober tout ce petit monde, le très à la mode Cloud Computing, soit l’informatique dans les nuages ou dématérialisée[1].

Que celui qui n’a pas un compte chez l’un de ces services en ligne me jette la première pierre. Reconnaissons qu’il est fort commode, notamment pour qui travaille sur plusieurs postes ou de façon nomade, de pouvoir accéder à ses courriels, à ses documents et à certaines données depuis n’importe quel PC (voire téléphone mobile) à condition de disposer d’une connexion Internet.

Mais n’est-on pas en droit de s’inquiéter de savoir que tant de nos données se baladent on ne sait trop où dans l’espace virtuel ? Plaxo, par exemple, avait été critiqué à ses débuts car assez porté sur le spam et l’exploitation peu scrupuleuse des carnets d’adresses qu’on lui confiait (même si ce service a depuis redressé la barre). Quid des documents créés avec Google Docs, des fichiers conservés chez Box.net, des mails échangés avec GMail ? De plus en plus de grands groupes ou de start-ups se lancent sur ce marché apparemment juteux et se battent pour posséder nos données.

Il y a quelque temps déjà, plusieurs voix s’élevaient contre contre ces services en ligne : Larry Ellison, le fondateur d’Oracle, qualifiait le Cloud Computing de mode, et Richard Stallman, dans un entretien accordé au quotidien anglais The Guardian, allait plus loin en taxant ces services en ligne de pièges. Stallman mettait en garde les utilisateurs contre ces Web Apps et le stockage de données personnelles sur les serveurs d’entreprises commerciales : selon lui, confier ses données à de tels services revient à en perdre le contrôle et pose donc les mêmes problèmes que l’utilisation des logiciels propriétaires.

Stallman, qui n’a pas l’habitude de faire dans la nuance, recommandait donc de n’utiliser aucun de ses services et de leur préférer nos bonnes vieilles applis en dur sur lesquelles nous gardons tout contrôle. (Nul doute qu’il pensait par là à la Framakey…)

Tim O’Reilly, dans son blog, s’est lui aussi penché sur la question et a publié un billet assez fourni, dans lequel il estime qu’il faudrait appliquer au Cloud Computing les principes de l’Open Source et rappelle qu’il avait déjà mis en garde contre le verrouillage du Web, pourtant basé sur des programmes et outils Open Source, par des applications Web 2.0.

Cette question de la confidentialité, du contrôle des données et de l’indépendance de l’utilisateur face au logiciel concerne tous ceux qui ont un usage intensif du Web et de l’outil informatique, mais semble cruciale pour les adeptes du logiciel libre, très sensibles à ces questions. Comme dans le software classique, certains acteurs du Cloud Computing proposent des solutions libres. C’est le cas de Clipperz, qui a développé un gestionnaire de mots de passe et d’informations personnelles sous licence GPL.

Sur le blog de Clipperz , un des auteurs appelle les utilisateurs et les développeurs à agir pour préserver la liberté et la confidentialité dans les nuages, et propose quelques mesures pour que les applications Web 2.0 soient en accord avec les valeurs du libre, du point de vue des licences et du comportements des navigateurs Internet par exemple. On y retrouve par billet interposé Richard Stallman, avec qui l’auteur s’est entretenu et qui y va lui aussi de ses conseils.

Histoire de redescendre un peu sur terre après tant de temps passé dans les nuages, nous vous présentons donc la traduction de ce billet, réalisée par notre équipe Framalang.

Liberté et protection de la vie privée en ligne : agissez !

Freedom and Privacy in the Cloud – a call for action

Marco – 30 mai 2008 – Clipperz
(Traduction Framalang : Olivier, Burbumpa et Don Rico)

Ce message traite de la liberté. La liberté de posséder vos données et la liberté d’utiliser des logiciels libres. Vous devriez aussi pouvoir exiger ces libertés et en jouir quand vous utilisez des applications web.

Si vous soutenez le mouvement du logiciel libre, vous pouvez facilement opter pour Gimp au lieu de Photoshop, pour Firefox au lieu d’Internet Explorer. Vous pouvez également protéger le caractère privé de vos données en utilisant les outils de cryptage disponibles (GPG, TrueCrypt…). Mais dès qu’il s’agit d’applications web, tout se complique.

Les avantages des applications web – ou web apps – (accessibles partout et tout le temps, mises à jour transparentes, stockage fiable, …) sont nombreux, mais bien souvent les utilisateurs perdent la liberté d’étudier, de modifier et de discuter du code source qui fait tourner ces web apps.

De plus, nous sommes contraints de confier nos données aux fournisseurs de ces web apps (marque-pages, documents rédigés, copies des discussions, informations financières et désormais… dossiers médicaux) qui ne résident alors plus sur nos disques durs mais qui sont rangés quelque part dans les nuages. Ce n’est pas vraiment une situation confortable de devoir choisir entre aspect pratique et liberté.

Que l’on soit clair : les web apps sont formidables et je les adore. Mais je pense que le moment est venu de réclamer plus de liberté et de confidentialité. Voilà comment nous pouvons obtenir ces deux résultats en trois étapes.

1. Choisissez l’AGPL

Quelle est l’importance de l’AGPL ? Si vous êtes un fournisseur de services et que vos services s’appuient sur des logiciels placés sous licence AGPL, vous devez rendre le code source disponible à toute personne utilisant ce service. La FSF suggère dans ses directives de placer un lien Source qui renvoie à une archive contenant le code source directement dans l’interface de l’application web.

(Ne me demandez pas pourquoi la communauté des logiciels libres a mis tant de temps à réagir !)

Mesures
  • Aider Clipperz à mettre au point une suite AGPL : un ensemble d’applications web répondant aux besoins les plus courants.
  • Cette suite devrait comprendre : un traitement de texte, un logiciel de discussion, un gestionnaire de mots de passe, un carnet d’adresses, un pense-bête, un calendrier, un gestionnaire de marque-pages … Et chaque web app devra être soumise à la licence AGPL ! Vous pourrez alors oublier Google, del.icio.us, Plaxo, Meebo … à moins qu’ils ne se mettent à l’AGPL aussi.
  • Nous avons déjà deux candidats pour certains postes (Ajax Chat pour les discussions en ligne et, bien sûr, Clipperz pour le gestionnaire de mots de passe), mais la plupart des places sont encore à pourvoir !
  • Aider Clipperz à diffuser les bienfaits de l’AGPL auprès des développeurs de projets web open-source. Demandez-leur de se convertir à l’AGPL.

2. Ajoutez-y une pointe de divulgation nulle de données

Les développeurs Web, comme les utilisateurs, connaissent encore assez peu les possibilités offertes par le chiffrage via un navigateur pour rendre les applications web aussi sécurisées et confidentielles que les logiciels classiques.

Chez Clipperz, nous voulons apporter une nouvelle vision que nous appelons les web apps à divulgation nulle de données (description plus détaillée ici) qui associe l’idée d’un hébergement auquel même l’hébergeur n’a pas accès et un ensemble de règles basées sur le credo confidentialité absolue.

Ce nom est aussi bien un hommage au chiffrage (une garantie de divulgation nulle de données est un protocole de chiffrage standard) que la promesse d’une relation particulière entre l’utilisateur et le fournisseur d’application. Le serveur hébergeant la web app peut ne rien savoir sur ses utilisateurs, pas même leurs identifiants ! Clipperz applique cette vision pour mettre en œuvre son gestionnaire de mots de passe en ligne.

Mesures
  • Appliquer les techniques divulgation nulle de données à chaque composant de la suite AGPL. Convertir une application web à l’architecture divulgation nulle n’est pas simple, mais chez Clipperz nous avons développé un savoir-faire important et nous serons heureux de partager aussi bien ces connaissances que le code de base.

Nous pourrons ainsi finalement jouir d’un traitement de texte en ligne qui ne pourra pas lire nos documents, un logiciel de discussion qui n’enregistrera pas nos conversations, un wiki sur lequel on pourra conserver sans crainte des données importantes, etc.

  • Établir et maintenir à jour une liste des Fournisseurs de Service d’Application (NdT : ASP pour Application Service Provider en anglais) qui hébergent la suite complète sous AGPL. Cette référence sera utile à tous ceux qui attachent de l’importance aux logiciels libres et à la confidentialité mais ne possèdent pas les compétences et les ressources pour faire tourner des web apps sur leur propre serveur.

3. Créer un navigateur plus intelligent

On y est presque, mais il nous reste encore à fournir aux utilisateurs de web apps un environnement encore plus flexible et sécurisé. Dans la pratique, du fait de l’architecture des web apps à divulgation nulle de données, le serveur réalise de façon générale les tâches suivantes :

  • charger le code Javascript dans le navigateur de l’utilisateur (charger le programme) ;
  • authentifier l’utilisateur (optionnel et par un protocole à divulgation nulle de données)
  • rapatrier et stocker les données chiffrées demandées par le navigateur de l’utilisateur.

Logiciel libre est synonyme de contrôle total de ce qui se passe sur mon ordinateur. Se posent alors deux questions :

  • Comment faire tourner une version modifiée du code Javascript à la place de celui chargé par le serveur ?
  • Comment être alerté des modifications apportées au code Javascript que le serveur envoie à mon navigateur ?

J’ai récemment eu l’immense honneur d’échanger mes idées avec Richard Stallman lui-même au sujet de ces problèmes, et il a suggéré une solution futée pour les résoudre tous les deux.

Stallman propose d’ajouter une fonctionnalité au navigateur qui permette à l’utilisateur de dire : « Quand tu charges l’URL X, utilise le code Javascript de l’URL Y comme s’il venait de l’URL X ». Si l’utilisateur fait appel à cette fonctionnalité, il peut utiliser sa propre copie du code Javascript et peut toujours échanger des données avec le serveur hébergeant l’application web.

Un navigateur possédant cette capacité pourrait aussi facilement vérifier si le script Java de l’URL X est différent du script Java sauvegardé à l’URL Y. Si l’utilisateur fait confiance à la version courante du code Javascript de l’URL X, il peut en faire une copie à l’URL Y et sera ainsi alerté de tout changement. Cette solution protège l’utilisateur du code malveillant qu’il pourrait exécuter sans le savoir dans son navigateur, du code qui pourrait voler ses données et détruire l’architecture à divulgation nulle d’information.

Mesures :
  • Écrire des extensions pour les principaux navigateurs libres (Mozilla, Webkit, …) qui mettent en œuvre l’idée de Stallman.

Militer pour l’adjonction de la "suite AGPL" et des navigateurs améliorés pré-cités dans les distributions GNU/Linux.

  • Continuez à lire ce blog où je posterai de nouveaux articles régulièrement.
  • Faites-moi part de vos commentaires et suggestions.
  • Faites passez le message au travers de vos blogs, de vos messages sur les forums, …
  • Faites un don.

Et le meilleur pour la fin : comment nommeriez-vous cet ambitieux projet ? Faites-moi part de vos idées dans les commentaires !

Notes

[1] Crédit photo : Nicholas T (Creative Commons By)