Merci du signalement, ton bug peut attendre…

Magnus Manske est un développeur inconnu du grand public, on lui doit pourtant des contributions nombreuses et décisives pour le développement initial de Wikipédia, sa maintenance continue et son ingénierie, au point que les wikipédiens célèbrent chaque 25 janvier le Magnus Manske Day.

On imagine aisément à quel point ses journées sont bien remplies, d’autant qu’il donne son temps et son énergie pour le Libre sur son temps… libre !

Dans l’article dont nous vous proposons la traduction, il explique avec un brin de malice pourquoi les bugs apparemment les plus simples à traiter peuvent s’avérer les plus longs à régler… Deux minutes de lecture pour un petit article qui parlera à nos amis développeurs (ces indispensables travailleurs de l’ombre) comme il a parlé à Luc, notre tech warrior tout-terrain…

 

Non, je n’ai pas corrigé ton bogue, voici pourquoi

par Magnus Manske – article original : Why I didn’t fix your bug

Photo par Jason Krüger [CC BY-SA 4.0], via Wikimedia Commons
Beaucoup d’entre vous m’ont envoyé des rapports de bogue, des demandes de nouvelles fonctionnalités et signalé d’autres problèmes liés à mes outils dans le WikiVerse. Vous m’avez contacté via le BitBucket Issue tracker (et apparemment je suis aussi sur Phabricator maintenant), par Twitter, divers emails, des pages de discussion (les miennes, celles d’autres utilisateurs, via Wikitech, etc.), avec des applications de messagerie, et même en chair et en os.

Et je n’ai rien fait. Je n’ai même pas répondu.

Rien n’indique que j’ai vu le problème.

C’est frustrant, je sais. Tu veux juste que ce petit truc soit réparé. En tout cas, tu te figures que c’est un tout petit changement à opérer.

Voyons maintenant les ressources disponibles, ce qui, en l’occurrence, est mon temps. En commençant par les gros travaux (estimations générales, des variations saisonnières sont inévitables) :

Il y 24 h dans une journée

– 9 h de travail (y compris le trajet en voiture)

– 7 h de sommeil (j’espère en tout cas)

– 2 h de vie privée (manger, faire de l’exercice, prendre une douche, lire, passer du temps avec ma copine, etc.)

= il reste 6h

On ne peut pas discuter avec ça, n’est-ce pas ? Maintenant, 6h qui restent, c’est une estimation haute, évidemment ; le travail et la vie privée peuvent (et ça arrive) prendre bien plus de temps, sur une base quotidienne et très variable, comme c’est le cas pour chacun de nous.

Alors je peux régler ton problème, c’est ça ?

Voyons voir :

6h

– 1h de maintenance (redémarrage des outils, mise à jour des pages GLAM, ajout et correction des catalogues mix“n”match, etc.)

– 3h de développement/réécriture (parce que c’est de là que viennent les outils)

= il reste 2h

Deux heures par jour, ça fait beaucoup, non ? En réalité, c’est beaucoup moins, mais restons-en là pour l’instant. Quelques-uns de mes outils n’ont pas de problèmes, mais beaucoup en ont plusieurs en cours, donc supposons que chaque outil en a un :

2h = 120 min

/130 outils (estimation basse)1

= une moyenne de 55 secondes par outil

C’est assez de temps pour trouver et aborder le problème, ouvrir le(s) fichier(s) de code source, et… zut le temps s’est écoulé ! Désolé, problème suivant !

Donc, au lieu de tous les traiter, je m’occupe de l’un d’entre eux. Jusqu’à ce que ce soit réglé ou que j’abandonne. L’un ou l’autre peut prendre des minutes, des heures, voire des jours. Et pendant ce temps, je ne me penche pas sur les centaines d’autres problèmes. Parce que je ne peux rien faire pour eux à ce moment-là.

Alors, comment puis-je choisir un problème sur lequel travailler ? C’est une heuristique complexe calculée à partir des facteurs suivants :

  • Nombre d’utilisateurs concernés
  • Gravité (« problème de sécurité » vs « faute d’orthographe »)
  • Opportunité (ce qui signifie que je l’ai remarqué lorsqu’il a été déposé)
  • Disponibilité (est-ce que je me concentre sur autre chose lorsque je remarque le problème ?)
  • Plaisir possible et humeur du moment (eh oui, car je suis bénévole, ça vous dérange ?).

 

Aucun événement particulier n’a été à l’origine de la publication de ce billet. Je le garderai en référence pour en donner le lien, quand l’occasion se présentera.




Être un géant du mail, c’est faire la loi…

Google, Yahoo, Microsoft (Outlook.com & Hotmail) voient forcément vos emails. Que vous soyez chez eux ou pas, nombre de vos correspondant·e·s y sont (c’est mathématique !), ce qui fait que vos échanges finissent forcément par passer sur leurs serveurs. Mais ce n’est pas là le seul problème.

Quand les facteurs deviennent shérifs…

« Bonjour, c’est moi qui fais la loi ! »
Par Mennonite Church USA ArchivesAlta Hershey, Incoming Mail, 1957, No restrictions, Link

Ça, c’est côté public : « Tout le monde est chez eux, alors au final, que j’y sois ou pas, qu’est-ce que ça change ? ». En coulisses, côté serveurs justement, ça change tout. La concentration des utilisateurs est telle qu’ils peuvent de fait imposer des pratiques aux « petits » fournisseurs d’emails, de listes de diffusion, etc. Ben oui : si vous ne respectez pas les exigences de Gmail, les emails que vous enverrez vers tou·te·s leurs utilisateurs et utilisatrices peuvent passer en spam, voire être tout bonnement bloqués.

Comme pour Facebook, on se trouve face à un serpent qui se mord la queue : « Tous mes amis sont dessus, alors je peux pas aller sur un autre réseau… » (phrase entendue lors des début de Twitter, Instagram, Snapchat, et Framasphère*…). Sauf qu’en perdurant chez eux, on devient aussi une part de la masse qui leur confère un pouvoir sur la gouvernance – de fait – d’Internet !

Il n’y a pas de solutions idéale (et, s’il vous plaît, ne jugeons pas les personnes qui participent à ces silos… elles sont souvent pas très loin dans le miroir 😄) ; mais nous pensons que prendre conscience des enjeux, c’est faire avancer sa réflexion et sa démarche vers plus de libertés.

Nous reprenons donc ici un article de Luc, notre administrateur-système, qui a partagé sur son blog son expérience de « petit » serveur d’email (à savoir Framasoft, principalement pour Framalistes) face à ces Léviathans. Luc ayant placé son blog dans le domaine public, nous nous sommes permis de remixer cet article avec des précisions qu’il a faites en commentaires et des simplifications/explications sur les parties les plus techniques (à grands coups de notes intempestives 😜 ).

Le pouvoir de nuisance des silos de mail

Crédits : Illus­tra­tion de Vincent Van Gogh, Joseph Roulin assis

par Luc Didry, aka Framasky.

Quand on pense aux GAFAM, on pense surtout à leur vilaine habi­tude d’as­pi­rer les données de leurs utili­sa­teurs (et des autres aussi d’ailleurs) mais on ne pense pas souvent à leur poids déme­suré dans le domaine du mail.

Google, c’est gmail, Micro­soft, c’est hotmail, live, msn et je ne sais quels autres domaines, etc. [Outlook.com. On l’oublie souvent. – Note du Framablog]

Tout ça repré­sente un nombre plus que consé­quent d’uti­li­sa­teurs. Google reven­diquait en 2015 900 millions de comptes Gmail. Bon OK, il y en a une part qui ne doit servir qu’à avoir un compte pour son téléphone Android, mais quand même. C’est énorme.

Je n’ai pas de statis­tiques pour Micro­soft et Yahoo, mais c’est pareil : ils pèsent un certain poids dans les échanges mondiaux [nous, on en a trouvé : 1,6 milliard de comptes à eux trois en 2016 – NdF].

Ce qui nous ramène à une situa­tion des plus déplai­santes où un petit nombre d’ac­teurs peut en em***er une multi­tude.

WARNING : la liste à puce qui suit contient des exemples techniques un poil velus. Nos notes vous aideront à y survivre, mais vous avez le droit de la passer pour lire la suite des réflexions de Luc. Ah, et puis il a son franc-parler, le loustic. ^^ – NdF.

Petits exemples vécus :

  • Micro­soft bloque tout nouveau serveur mail qu’il ne connaît pas. C’est arrivé pour mon serveur perso, le serveur de mail de Frama­soft que j’ai mis en place, sa nouvelle IP [l’adresse qui permet d’indiquer où trouver un serveur – NdF] quand je l’ai migré, le serveur de listes de Frama­soft et sa nouvelle IP quand je l’ai migré. Ça me pétait une erreur 554 Message not allowed (de mémoire, je n’ai plus le message sous la main) [erreur qui fait que l’email est tout bonnement refusé – NdF]. Et pour trou­ver comment s’en débrouiller, bon courage : la page d’er­reur de Micro­soft n’in­diquait rien. Je n’ai même pas trouvé tout seul (et pour­tant j’ai cher­ché) : c’est un ami qui m’a trouvé la bonne adresse où se faire dé-black­lis­ter (notez au passage qu’il est impos­sible de faire dé-black­lis­ter une adresse ou un bloc d’adresses IPv6 [la nouvelle façon d’écrire les adresses IP, indispensable face à la croissance du nombre de machines connectées à Internet – NdF]).
  • Gmail qui, du jour au lende­main, décide de mettre tous les mails de mon domaine person­nel en spam. Ce qui ne serait pas trop gênant (hé, les faux posi­tifs, ça existe) si ce n’était pour une raison aber­rante (ou alors c’est une sacrée coïn­ci­dence) : ça s’est passé à partir du moment où j’ai activé DNSSEC [une façon de sécuriser les échanges avec les serveurs DNS [ces serveurs sont les annuaires qui font correspondre une adresse web avec l’adresse IP difficile à retenir pour les humains – NdF²]] sur mon domaine. Et ça s’est terminé dès que j’ai ajouté un enre­gis­tre­ment SPF [une vérification que les emails envoyés ne sont pas usurpés – NdF] à ce domaine. Or le DNSSEC et le SPF n’ont rien à voir ! Surtout pas dans cet ordre-là ! Qu’on ne fasse confiance à un enre­gis­tre­ment SPF que dès lors que le DNS est de confiance (grâce à DNSSEC), soit, mais pourquoi néces­si­ter du SPF si on a du DNSSEC ? [Oui, pourquoi ? – NdF qui laisse cette question aux spécialistes]
  • Yahoo. Ah, Yahoo. Yahoo a décidé de renfor­cer la lutte contre le spam (bien) mais a de fait cassé le fonc­tion­ne­ment des listes de diffu­sion tel qu’il était depuis des lustres (pas bien). En effet, quand vous envoyez un mail à une liste de diffu­sion, le mail arrive dans les boîtes des abon­nés avec votre adresse comme expé­di­teur, tout en étant envoyé par le serveur de listes [le serveur de listes se fait passer pour vous, puisque c’est bien vous qui l’avez envoyé par son intermédiaire… vous suivez ? – NdF]. Et Yahoo a publié un enre­gis­tre­ment DMARC [une sécurité de plus pour l’email… heureusement que Luc a mis des liens wikipédia, hein ? – NdF] indiquant que tout mail ayant pour expé­di­teur une adresse Yahoo doit impé­ra­ti­ve­ment prove­nir d’un serveur de Yahoo. C’est bien gentil, mais non seule­ment ça fout en l’air le fonc­tion­ne­ment des listes de diffu­sion, mais surtout ça met le bazar partout : les serveurs de mail qui respectent les enre­gis­tre­ments DMARC appliquent cette règle, pas que les serveurs de Yahoo. Notez qu’AOL fait la même chose.
  • Orange fait aussi son chieur à coup d’er­reurs Too many connections, slow down. OFR004_104 [104] [« trop de connexions, ralentissement », une erreur qui fait la joie des petits et des grands admin-sys – NdF]. C’est telle­ment connu que le moteur de recherche Google suggère de lui-même wanadoo quand on cherche Too many connections, slow down. Voici la solu­tion que j’ai utili­sée.

Pour s’en remettre, voici une image qui fait plaisir…

On peut le voir, le pouvoir de nuisance de ces silos est énorme. Et plus encore dans le cas de Yahoo qui n’im­pacte pas que les commu­ni­ca­tions entre ses serveurs et votre serveur de listes de diffu­sion, mais entre tous les serveurs et votre serveur de listes, pour peu que l’ex­pé­di­teur utilise une adresse Yahoo [on confirme : dès qu’une personne chez Yahoo utilisait Framalistes, ça devenait un beau bord… Bref, vous comprenez. Mais Luc a lutté et a fini par arranger tout cela. – NdF]. Et comme il y a encore pas mal de gens possé­dant une adresse Yahoo, il y a des chances que vous vous rencon­triez le problème un jour ou l’autre.

Je sais bien que c’est pour lutter contre le spam, et que la messagerie propre devient si compliquée que ça pourrait limite devenir un champ d’expertise à part entière, mais le problème est que quand un de ces gros acteurs tousse, ce sont tous les administrateurs de mail qui s’enrhument.

Si ces acteurs étaient de taille modeste, l’en­semble de la commu­nauté pour­rait soit leur dire d’ar­rê­ter leurs bêtises, soit les lais­ser crever dans leurs forte­resses injoi­gnables. Mais ce n’est malheu­reu­se­ment pas le cas. 🙁 « À grand pouvoir, grandes responsabilités »… Je crois avoir montré leur pouvoir de nuisance, j’aimerais qu’ils prennent leurs responsabilités.

Ils peuvent dicter leur loi, de la même façon qu’Internet Explorer 6 le faisait sur le web il y a des années et que Chrome le fait aujourd’hui (n’ayez pas peur, le titre de la vidéo est en anglais, mais la vidéo est en français). C’est surtout ça qui me dérange.

Une seule solu­tion pour faire cesser ce genre d’abus : la dégoo­gli­sa­tion ! Une décen­tra­li­sa­tion du net, le retour à un Inter­net d’avant, fait de petites briques et pas d’im­menses pans de béton.

 

PS : ne me lancez pas sur MailInB­lack, ça me donne des envies de meurtre.




Hé, en vrai, tu sais comment ça marche, toi, Wikipédia ?

Tout le monde connaît Wikipédia, chacun et chacune a son petit avis dessus, mais sait-on réellement comment cette encyclopédie collaborative fonctionne ?

Il y a 20 ans, lorsque, lors d’une soirée entre ami-e-s, on se posait une question du genre « Mais attends, comment on fait l’aspirine ? » le dialogue était souvent le même :

– Je sais pas, c’est pas avec de l’écorce de saule ?

– Oui mais ça doit être chimique, maintenant, non ?

– Je sais pas, t’as pas une encyclopédie ?

– Si, dans la bibliothèque, mais la raclette est prête.

– Bon, tant pis.

…et on en restait là. Aujourd’hui, on sort un ordiphone, on cherche la réponse sur Wikipédia, et on passe la raclette à se chamailler sur la fiabilité d’une encyclopédie où « tout le monde peut écrire n’importe quoi ».

(au fait, pour l’aspirine, on fait comme ça.)
Par NEUROtikerTravail personnel, Domaine public, Lien

En vrai, avez-vous déjà essayé d’écrire n’importe quoi sur Wikipédia… ? Savons-nous seulement comment ça marche ? Comment les articles sont-ils écrits, modifiés, corrigés, vérifiés, amendés… ?

Ça peut être impressionnant, la première fois qu’on se dit « tiens, et si moi aussi je participais à l’élaboration d’une encyclopédie ? » On peut se sentir un peu perdu·e, pas vraiment légitime, ou tout simplement ne pas savoir par quel bout commencer…

Heureusement, les membres de la communauté Wikipédia et Wikmédia France (l’association des contributeurs et contributrices à la Wikipédia francophone), ont créé un MOOC, un cours ouvert gratuit et en ligne, pour nous faire découvrir les rouages du cinquième site le plus visité au monde, et nous apprendre à nous en emparer.

L’an dernier plus de 6 000 personnes se sont inscrites à ce cours. Fort-e-s de cette expérience, l’équipe rempile pour une deuxième édition, l’occasion pour nous de les interroger et de découvrir ce que proposera ce cours.

By MarcBrouillon, DePlusJean. – Dérivé de File:Logo WikiMooc.jpg., CC BY-SA 4.0, Link

 

Bonjour, avant toute chose, est-ce que vous pourriez nous présenter Wikimédia France et vos personnes ?

Jules : Bonjour ! Wikimédia France est une association française à but non-lucratif dont l’objet est « de soutenir en France la diffusion libre de la connaissance, notamment l’encyclopédie Wikipédia. » Il y a souvent des confusions à ce sujet, alors clarifions : Wikipédia est totalement rédigée par des internautes bénévoles, qui s’organisent de manière autonome et déterminent les règles du site. L’association Wikimédia France soutient les contributeurs et l’encyclopédie, mais ne participe pas à la rédaction et n’a aucun pouvoir sur la communauté ; ce n’est d’ailleurs pas la seule association à soutenir l’encyclopédie. Natacha, Alexandre, Valentin et moi-même sommes des contributrices et contributeurs bénévoles de Wikipédia ; nous faisons partie de la douzaine de bénévoles qui conçoivent le WikiMOOC. Je suis par ailleurs salarié de Wikimédia France, qui soutient l’initiative.

Une des missions de Wikimédia France, c’est justement d’inciter qui le veut à contribuer à la Wikipédia francophone… C’est pour cela que vous proposez ce MOOC ? Les cours massivement ouverts et en ligne sont un bon moyen d’inciter aux apports ?

Jules : Oui, les MOOC cumulent plusieurs avantages : bien souvent gratuits, ils sont en ligne et permettent donc de toucher un public plus nombreux qu’avec des formations en présentiel, mais aussi plus diversifié. Le MOOC s’adresse d’ailleurs à toute la francophonie, et près de la moitié des inscrits ne sont pas français.

Alexandre: Le WikiMOOC est effectivement réalisé de manière à donner envie de contribuer. Petit à petit, l’apprenant est guidé vers la rédaction d’un article. Mais il y a des façons très diverses de contribuer : ajouter des sources, des photos, corriger la mise en page, linkifier, améliorer des ébauches d’articles… Une des nouveautés de la deuxième session du WikiMOOC est de présenter des témoignages de contributeurs pour qu’ils racontent ce qu’ils font. Il est aussi plus aisé de contribuer si on ne se sent pas un étranger dans le monde de Wikipédia. Le but du WikiMOOC est aussi de faire mieux connaître ce monde aux apprenant-e-s.

Si je crains que « n’importe qui puisse écrire n’importe quoi dans Wikipédia », ce MOOC me rassurera-t-il ?

Jules : Nous l’espérons, car les choses ne sont pas aussi simples ! L’affirmation initiale, néanmoins, est exacte : n’importe qui peut écrire n’importe quoi sur Wikipédia. Mais le n’importe quoi a de fortes probabilités de ne rester sur Wikipédia qu’une vingtaine de secondes tout au plus. Car il faut étayer toute affirmation par des sources, et des sources de qualité, dont on sait qu’elles sont fiables (pas un obscur blog anonyme, donc). Pour vérifier que cette règle est bien respectée, il y a notamment un groupe de contributrices et contributeurs qui surveillent en temps réel les modifications effectuées sur les 1,8 million d’articles de Wikipédia : on les appelle avec un brin d’humour « les patrouilleurs ». C’est à ce stade que sont annulés la plupart des canulars, « vandalismes » (les dégradations volontaires d’articles) et ajouts d’opinions personnelles (totalement proscrits : on ne donne jamais son avis personnel dans un article). Certaines modifications passent évidemment entre les mailles du filet et ne seront annulées que plusieurs heures ou plusieurs jours après, par d’autres contributeurs – on manque de bras pour tout vérifier !

Finalement, à qui s’adresse ce MOOC ? Aux personnes qui veulent juste en savoir plus ? À celles qui veulent contribuer activement mais ne savent pas comment ?

Valentin : À tout le monde ! On peut effectivement s’inscrire juste pour comprendre comment Wikipédia fonctionne. Mais ce MOOC est surtout un outil permettant en quelques semaines d’assimiler l’essentiel de ce qu’il faut pour contribuer correctement. Nous voulons que de nombreuses personnes s’emparent de cet outil pour désacraliser la contribution à Wikipédia. Tout le monde utilise Wikipédia en tant que consommateur, mais trop peu de personnes viennent contribuer.

Jules : On peut se sentir un peu perdu quand on commence sur Wikipédia, seul⋅e. Le WikiMOOC est justement parfait pour être guidé dans sa découverte de l’encyclopédie, de son fonctionnement et de sa communauté.

Alexandre : Pour moi qui suis aussi universitaire, le WikiMOOC est un fabuleux point d’entrée pour un cours de Wikipédia. J’essaye donc de synchroniser mes cours avec le WikiMOOC ce semestre pour y inscrire mes étudiant-e-s, et j’encourage les collègues à faire de même !

Comme Framasoft, Wikimédia France est une association qui vit du don… Or créer un MOOC coûte cher… Comment avez-vous pu réussir ce tour de force ?

Jules : La création d’un MOOC, pour une université, se compte toujours en dizaines de milliers d’euros. Nous n’en avons dépensé « que » (ça nous paraît énorme, à vrai dire) 7 500 pour la première édition : 2 500 pour la plateforme, FUN, et 5 000 pour la réalisation des vidéos, via une association de vidéastes amateurs, beaucoup moins cher qu’avec un professionnel ! Et moitié moins pour cette seconde édition. Notre force, c’est qu’il y a une douzaine de bénévoles, contributeurs et contributrices francophones, qui bossent sur le projet ; c’est cet investissement bénévole, en temps, qui nous permet de ne pas dépenser trop. Nous réalisons nous-mêmes beaucoup de tâches (créer des visuels, tourner certaines vidéos, concevoir des tutoriels interactifs…) qui dans une université seraient sous-traitées. Nous bénéficions tout de même d’une partie importante de mon temps salarié chez Wikimédia France, même si je m’investis aussi sur du temps bénévole.

Quand il y a une personne face caméra, il y en a souvent plein en coulisses 😉
By English: Credits to Habib M’henni / Wikimedia Commons – Own work, CC BY-SA 4.0, Link

En passant, on lit de l’équipe pédagogique que « Ces trois présentateurs et présentatrices font partie d’une équipe pédagogique plus large, riche de treize wikipédiens et wikipédiennes expérimenté·e·s ». Le langage épicène, qui permet d’éviter la discrimination d’un genre, vous tient à cœur pour la wikipédia francophone ?

Natacha : Le langage épicène (ou langage non sexiste) est un langage inclusif qui tente de ne pas favoriser un genre par rapport à l’autre. Il est utilisé notamment en Suisse et au Québec, surtout dans la fonction publique. Par ailleurs, nous avons un fossé des genres sur Wikipédia – 75 000 articles sur des femmes contre 450 000 biographies d’hommes et moins de 20 % de personnes contribuant sont des femmes – ce qui introduit parfois des biais dans la façon dont les sujets sont traités. La fondation Wikimedia (qui participe au financement de Wikimédia France) en a fait un sujet de priorité depuis qu’un article du New York Times a relevé ce problème en 2011.

Par ailleurs le WikiMOOC cible toute la communauté francophone, et nommer explicitement le genre féminin peut avoir un impact sur la participation des femmes à ce dernier, alors même qu’on cherche à augmenter le nombre de contributrices ce détail peut avoir son importance !

Jules : Natacha a su nous convaincre d’utiliser le langage épicène dans le WikiMOOC ;-). Mais celui-ci n’est pas en usage systématique sur Wikipédia en français, notamment en raison de sa lourdeur visuelle, et car il n’est pas (encore ?) répandu dans les usages. Or Wikipédia a tendance (rien de systématique) à suivre les usages de la langue.

D’ailleurs, on peut parfois ne pas être d’accord avec les choix faits dans les règles que s’impose la communauté Wikipédia (éligibilité des articles, traitement des genres et des personnes trans, application du point de vue…). Quelle est la meilleure manière de faire évoluer ces positions ?

Jules : Le meilleur moyen de faire évoluer les règles de Wikipédia, ou bien les consensus qui ont émergé au coup par coup pour chaque article, c’est de s’investir dans la communauté. On voit souvent des internautes débarquer, parfois très bien intentionnés, mais très maladroits : ils arrivent et veulent tout changer. Or les contributeurs et contributrices sont souvent sur leurs gardes, notamment parce qu’il y a régulièrement des tentatives d’entrisme et de manipulation de Wikipédia à des fins idéologiques et politiques (en faveur d’une personnalité politique par exemple). Ce sont des internautes qui veulent utiliser la notoriété de Wikipédia pour faire et défaire les notoriétés, pour passer leurs idées… alors que ce n’est pas le lieu. Bref, quand on est bien intentionné, il est primordial dans un premier temps de se familiariser avec les règles ainsi que les us et usages relatifs qui guident le déroulement les discussions et les décisions. Cela évite les maladresses, et ça permet de parler le même langage que les autres contributeurs et contributrices bénévoles. Ça instaure une confiance mutuelle.

Wikipédia, c’est une encyclopédie, mais aussi nombre d’autres projets visant à partager le savoir collaborativement… vous en parlerez dans ce MOOC ?

Alexandre : Le mouvement Wikimedia contient de nombreux projets en plus de Wikipédia, comme Wikimedia Commons qui est l’endroit où les fichiers multimédia Wikipédia-compatibles sont déposés. Comment ajouter une photo est une question qui revient souvent donc le sujet est abordé. Au delà, Wikipédia et les projets « sœurs » sont une excellente école pour comprendre les enjeux du copyright et de ses abus, ce que sont les licences Creative Commons et ce qu’elles représentent politiquement. La famille des projets Wikimedia correspond au seul projet libre (libre comme dans libre discours, pas comme dans libre bière 🙂 ) accessible au et connu du grand public. À ce titre, il est une sorte de porte étendard et pour moi, le WikiMOOC a aussi pour vocation de le promouvoir.

Bon c’est bien gentil tout ça, mais ça va me demander quoi de participer à ce MOOC ? Des milliers d’heures de travail ? Un ordi surpuissant dernier cri ? Une connaissance infaillible de la calcification des hydrogénocarbonates ?

Alexandre : le point commun de tous les MOOC, c’est qu’on peut se sentir libre de les aborder à sa manière : regarder seulement les vidéos, faire les exercices ou pas, s’intéresser à une semaine mais pas à l’autre. Dans le WikiMOOC, des mécanismes pédagogiques sont prévus pour inciter les apprenant-e-s à aller le plus en profondeur possible mais tout le monde doit se sentir libre (sauf mes étudiant-e-s qui seront noté-e-s, évidemment !).

Jules : Pour rebondir sur votre question, pas besoin d’ordi surpuissant, un navigateur web à jour suffit amplement. Pour suivre la totalité du cours, il faut compter au moins trois heures de travail par semaine, mais c’est très variable d’une personne à une autre !

Du coup, si je suis convaincu, qu’est-ce que je dois faire pour m’inscrire ?

Valentin : Les inscriptions (gratuites évidemment) ont lieu sur fun-mooc.fr !

Et, comme d’habitude sur le Framablog, on vous laisse le mot de la fin !

Jules : Soyez nombreux et nombreuses à vous inscrire pour aider à donner accès à la connaissance au plus grand nombre !




Les bibliothèques, outils de (re-)décentralisation du Web

Installer un relais Tor dans une bibliothèque publique ? Voilà une initiative qui peut paraître surprenante au premier abord, mais c’est ce qu’a fait la bibliothèque de Lebanon aux États-Unis dans le cadre du Library Freedom Project, pour garantir l’anonymat des usagers qui se connectent à Internet dans ses emprises.

Le texte de Jason Griffey traduit ci-dessous explique en quoi cette démarche fait sens dans une bibliothèque et pourquoi il deviendra sans doute même de plus en plus important que les bibliothèques s’emparent des enjeux de la protection de la vie privée et de la décentralisation d’Internet.

Nous remercions Lionel Maurel, alias Calimaq, pour cette présentation et surtout pour ses commentaires qualifiés et éclairants que vous retrouverez à la fin de cet article.

Les bibliothèques peuvent éviter à l’Internet des objets de subir la centralisation du Web

par Jason Griffey

Source :  How libraries can save the Internet of Things from the Web’s centralized fate
Traduction Framalang : Benoit, Penguin, goofy, xi

jasonGriffeyTout le monde pense que les bibliothèques ont un rôle positif à jouer dans le monde, mais ce rôle diffère suivant que vous parliez à un bibliothécaire ou à leur tutelle. Demandez à un membre de leur tutelle ce que les bibliothèques ont en commun, et il répondra probablement : elles partagent les livres avec les gens. Les bibliothécaires auront une réponse différente : elles partagent un ensemble de valeurs. Il est temps pour les bibliothèques de défendre ces valeurs en soutenant l’accès à Internet et en menant le combat pour conserver un Internet ouvert, libre et sans propriétaire.

Le Code d’Éthique de l’association des bibliothèques américaines dit : « Nous avons une obligation particulière de garantir la libre circulation de l’information et des idées aux générations actuelles et futures. » (1)

Cette libre circulation de l’information sur Internet est en danger à cause du renforcement de la centralisation de ces vingt dernières années. Ce qui était alors un terrain ouvert où tous les participants pouvaient exprimer leurs idées et créer des outils et du contenu dépend maintenant de plus en plus de services propriétaires fournis par des entreprises comme Facebook, Amazon, Twitter et Google. Ce n’est pas le futur qu’envisageait John Perry Barlow en 1996 lorsqu’il a écrit sa Déclaration d’Indépendance du Cyberespace :

Je déclare l’espace social global que nous construisons naturellement indépendant des tyrannies que vous cherchez à nous imposer. Vous n’avez aucun droit moral de dicter chez nous votre loi et vous ne possédez aucun moyen de nous contraindre que nous ayons à redouter.

À l’époque, Barlow, comme beaucoup d’autres, pensait que la plus grande menace sur ce monde naissant provenait des gouvernements. C’est bien plutôt le commerce et le capitalisme qui ont permis à de grandes sociétés de dominer de façon quasi totale les services majeurs sur Internet. Les romans cyberpunks avaient tout compris.

D’un autre côté, la décentralisation est devenue la priorité dans les domaines où l’anonymat et la sécurité sont de mise. Par exemple, Bittorrent permet la distribution de contenu d’un utilisateur à l’autre sans que l’information ne réside sur un serveur. Tor (« le routeur oignon ») est un réseau de serveurs décentralisés qui rendent anonymes les moyens de communication. Le Bitcoin est une monnaie qui ne repose ni sur des banques ni sur des gouvernements, utilisant à la place un réseau distribué de « registres » pour garder trace des transactions. Le mouvement pour la re-décentralisation dépend souvent de la générosité d’inconnus qui offrent une partie de leur propre infrastructure au réseau en question : bande passante, cycles de calcul ou expertise technique — s’exposant ainsi parfois à des risques personnels et professionnels importants.

Les systèmes décentralisés vont fournir l’information et les services du prochain grand virage informatique : l’Internet des objets.
Ces « objets » seront décentralisés par essence, et cette décentralisation peut être protégée contre l’accaparement si nous préparons le terrain maintenant en créant des nœuds par lesquels ces micro-réseaux vont communiquer.

L’Internet décentralisé partage les valeurs traditionnelles des bibliothèques. Les systèmes décentralisés sont de solides remparts contre la censure, le contrôle ou les intérêts d’entreprises dirigées par leurs actionnaires. Les services distribués n’ont pas de point faible centralisé — pas de prise électrique unique à débrancher, pas de serveur unique qui puisse être assigné à comparaître — donc ces services ne peuvent pas être retirés à leurs utilisateurs finaux. Leurs intérêts sont directement alignés sur ceux de leurs utilisateurs qui n’auront pas à pâtir de maîtres indifférents.

La force des systèmes décentralisés est aussi leur faiblesse. La décentralisation signifie qu’il n’est pas possible de forcer ou soudoyer une entreprise pour modifier le système afin qu’il soit plus facile à contrôler ou à espionner, mais cela signifie aussi qu’il n’existe pas d’entité capable de lutter au tribunal ou au Congrès [NdT : pouvoir législatif américain] pour défendre le système lorsqu’il est attaqué.

Les bibliothèques peuvent soutenir un système décentralisé à la fois par leurs ressources informatiques et leur pouvoir de pression. Les combats qu’elles ont menés en faveur d’une infrastructure libre, juste et ouverte pour Internet montrent que nous avons de l’influence dans la sphère politique, ce qui a tout autant d’importance que les serveurs et la bande passante.

À quoi ressembleraient des services bâtis sur les valeurs et l’éthique des bibliothèques ? Ils ressembleraient à des bibliothèques : accès universel à la connaissance. Anonymat des demandes d’information. Un soin particulier apporté aux capacités de compréhension et à la qualité de l’information. Un fort engagement pour s’assurer que les services sont disponibles à tous les niveaux de pouvoir et de privilège.

Pour prendre un exemple, la bibliothèque Kilton, à Lebanon dans le New Hampshire, a installé un relais Tor. C’est l’aboutissement d’une longue bataille pour obtenir que les bibliothèques reconnaissent que leur infrastructure a un rôle important à jouer en faveur d’une grande idée : aider à protéger les communications du monde entier. Alison Macrina, la directrice du Library Freedom Project, et Nima Fatemi, la directrice technique, ont accompli un travail magnifique pour mener à son terme ce projet et démontrer qu’une bibliothèque peut servir aussi bien sa communauté locale que le vaste monde.

(manuscrit médiéval, banque d'images BNF)
Geek expliquant le fonctionnement du routeur oignon à une bibliothécaire (manuscrit médiéval, banque d’images BnF)

Ça n’a pas été facile, parce que la plupart des gens ne comprennent pas ce qu’est Tor ni pourquoi Tor est important dans le monde. C’est exactement pour ça que nous avons besoin que les bibliothèques montrent le chemin. Les bibliothèques devraient embrasser ce futur distribué et mettre à disposition leurs surplus de cycles et de bande passante pour mettre en œuvre les prochaines étapes de l’évolution vers un Internet décentralisé. Les bibliothèques sont l’endroit idéal pour développer ces services, car ils sont en phase avec l’éthique des bibliothèques, et celles-ci jouent ainsi pleinement leur rôle de membres de confiance au sein de leur communauté.

Tor est seulement un exemple. Les plus grande bibliothèques peuvent contribuer à l’hébergement de ressources et d’applications. Les associations de bibliothécaires peuvent parrainer des services décentralisés dans le but de les rendre accessibles, afin que les petites bibliothèques puissent les installer et les gérer facilement. Toutes les bibliothèques peuvent commencer à explorer ces possibilités, engager leurs communautés en tant qu’utilisateur de ces services, mais aussi en tant que contributeurs, par leurs compétences techniques et leurs connaissances.

Les bibliothèques — par leur position dans la communauté, leurs valeurs et leur longue expérience dans leur mission qui et de rendre l’information aisément accessible tout en protégeant les intérêts des utilisateurs — ont une position privilégiée pour nous guider sur le chemin de la re-décentralisation d’Internet. Les bibliothèques et les bibliothécaires ne peuvent pas se permettre de laisser passer cette occasion de nous emmener vers la prochaine étape. Ils doivent s’en emparer.

(Image: Tubes and Wires, Eddie Welker, CC-BY)

(1) On consultera également avec intérêt la charte UNESCO sur le rôle des bibliothèques

* * * * * * *

220px-Lionel_Maurel_Journee_domaine_public_2012Les bibliothèques ne sont pas seulement des points d’accès à des contenus culturels ou scientifiques. Ce sont aussi depuis longtemps des lieux d’apprentissage du rapport à l’information, des espaces d’exercice de la liberté d’expression et plus généralement, du vivre-ensemble et de la citoyenneté. Les bibliothécaires américains ont été sensibilisés plus tôt à la question de la protection de la vie privée, notamment parce qu’ils ont été frappés de plein fouet par le Patriot Act après les attentats de 2001. Le texte initial prévoyait en effet la possibilité pour le FBI d’accéder aux fichiers des usagers des bibliothèques pour connaître la teneur de leurs lectures.

Les bibliothécaires américains (et notamment la puissante ALA – American Library Association) ont agi pendant de nombreuses années pour contester cette dérive et ériger la défense de la privacy (confidentialité) comme valeur majeure pour leur profession. Par extension, la liberté d’accès à Internet en bibliothèque a fait l’objet également d’une attention particulière,  notamment pour permettre aux usagers d’accéder à un internet sans filtrage au nom de l’Intellectual Freedom de la même manière que les bibliothèques sont censées ne pas exercer de censure sur les ouvrages acquis pour leurs collections.

Ces questions prennent de plus en plus d’importance à mesure que la surveillance de masse de la population se déploie et se renforce, sous l’action conjuguée des États et des grandes entreprises du Web. En 2014, à l’occasion de son congrès annuel qui se tenait à Lyon, l’IFLA — l’association internationale des bibliothécaires — a apporté son soutien aux 13 principes contre la surveillance de masse portés par EFF. Dans le contexte des révélations d’Edward Snowden, c’était un symbole fort qui marquait un tournant dans l’implication des bibliothécaires sur ces questions.

Malgré le cortège de lois sécuritaires adoptées en France depuis trois ans, les bibliothécaires français restent moins en pointe que leurs homologues américains dans ces débats. Néanmoins, leur implication évolue également dans un sens similaire. L’Association des Bibliothécaires de France (ABF) a adopté en 2015 une charte Bib’Lib en faveur de « l’accès libre à l’information et aux savoirs ». Ce texte est associé à un label et  préconise de garantir l’accès à un internet libre et ouvert, « sans contraintes d’identification autre que ce que prévoit la loi » et dans le respect des données personnelles des usagers. Certains établissements, comme la BULAC à Paris , agissent comme des pionniers pour définir des bonnes pratiques en termes de conservation des données de connexion et d’accès à Internet. Et on commence peu à peu à voir des établissements français comme la bibliothèque de l’INSA qui organisent des crypto-parties.

L’un des intérêts du texte de Jason Griffey est d’établir le lien entre les enjeux de protection de la vie privée et de décentralisation d’Internet. Les bibliothèques peuvent en effet jouer un rôle important dans la formation des usagers à l’utilisation des outils et au développement de la « littératie numérique ». On espère que des passerelles pourront d’ailleurs se créer entre les bibliothèques françaises et le projet CHATONS de Framasoft, qui fait la promotion d’alternatives libres et décentralisées aux services proposés par les GAFAM.

Il est d’autant plus important que les bibliothèques jouent ce rôle citoyen que la pression sécuritaire monte en France. Suite aux attentats de novembre dernier, le gouvernement avait annoncé un temps son intention de bloquer le WiFi public et d’interdire l’usage du réseau tor en France. Si ce genre de projets venaient à être mis à exécution, non seulement les bibliothèques françaises seraient directement impactées, mais une initiative comme le Library Freedom Project deviendrait impossible dans notre pays…




Il a choisi Linux et s’en félicite

Dan Gillmor, qui avait l’an dernier expliqué pourquoi il disait au revoir à google, Microsoft et Apple dans un article que nous avons publié, fait aujourd’hui le point sur ses choix et constate qu’il ne regrette rien. D’autres bonnes raisons de migrer sont apparues, comme l’accélération de la re-centralisation du Web, l’hégémonie croissante des grands acteurs et bien sûr la surveillance généralisée.

Dan Gillmor évoque avec précision les matériels et logiciels qu’il a adoptés progressivement, fait état également sans à priori des avancées et des faiblesses des produits open source. Il reconnaît la difficulté relative du passage au Libre intégral (il peine encore à se dégoogliser 😉 ) mais les valeurs qu’il défend sont celles de l’indépendance, du choix libre pour l’utilisateur de ses usages et de ses produits…

Je suis passé à Linux et c’est encore mieux que ce que j’espérais

Dire adieu à Microsoft et Apple n’a jamais été aussi facile, ni aussi satisfaisant

par Dan Gillmor

Article original sur Medium : I Moved to Linux and It’s Even Better Than I Expected
Traduction Framalang : line, goofy, Sphinx, r0u, david_m, Manegiste, sebastien, teromene, galadas, roptat, Omegax, didimo

danGillmorUn beau jour du printemps 2012, j’ai refermé mon MacBookAir pour la dernière fois. À partir de ce moment, mon environnement informatique (en tout cas, en ce qui concerne mon portable) était GNU/Linux. J’ai abandonné, autant que possible, les environnements propriétaires et obsédés du contrôle qu’Apple et Microsoft ont de plus en plus imposés aux utilisateurs d’ordinateurs personnels.

Presque quatre ans plus tard, me voici, et j’écris cet article sur un portable qui tourne sous le système d’exploitation Linux, avec LibreOffice Writer, et non sur une machine Mac ou Windows avec Microsoft Word. Tout va bien.

Non, c’est même mieux que ça, tout est sensationnel.

Je recommanderais ce changement à beaucoup de personnes (pas à tout le monde, ni à n’importe quel prix, mais à quiconque n’est pas effrayé à l’idée de poser une question à l’occasion, et plus particulièrement quiconque réfléchit à la trajectoire prise par la technologie et la communication au 21ème siècle). Plus que tout, aux gens qui se soucient de leur liberté.

Ils nous ont donné plus de confort, et nous avons dit collectivement : « Génial ! »

L’informatique personnelle remonte à la fin des années 1970. Elle a défini une ère de la technologie où les utilisateurs pouvaient adapter ce qu’ils achetaient de toutes sortes de manières. Lorsque l’informatique mobile est arrivée sous la forme de smartphones, la tendance s’est inversée. Les constructeurs, en particulier Apple, ont gardé bien plus de contrôle. Ils nous ont donné plus de confort, et nous avons dit collectivement : « Génial ! ».

Il y a quelques mois, lorsque Apple a annoncé son iPad Pro, une grande tablette avec un clavier, son président Tim Cook l’a appelée « la plus claire expression de notre vision pour le futur de l’informatique personnelle ». « Ouh là, ça craint » me suis-je dit à ce moment-là. Entre autres, dans l’écosystème iOS, les utilisateurs ne peuvent obtenir leurs logiciels que sur l’Apple store, et les développeurs sont obligés de les vendre au même endroit seulement. C’est peut-être la définition de l’informatique personnelle pour Apple, mais pas pour moi.

Pendant ce temps-là, Windows 10 de Microsoft (sur presque tous les points, une grande avancée en termes de facilité d’utilisation par rapport à Windows 8) ressemble de plus en plus à un logiciel espion déguisé en système d’exploitation (une appellation qui pourrait être injuste, mais pas de beaucoup). Oui, la mise à jour depuis les versions précédentes, extrêmement répandues, est gratuite, mais elle prend des libertés extraordinaires avec les données des utilisateurs et le contrôle de ceux-ci, d’après ceux qui en ont analysé le fonctionnement interne.

Ce n’est pas exactement un duopole commercial. Le système d’exploitation Chrome OS de Google fait tourner un nouvel arrivant : le Chromebook, vendu par différents constructeurs. Mais il comporte plus de limites et oblige ses utilisateurs à être totalement à l’aise (je ne le suis pas) sous l’emprise d’une entreprise qui repose sur la surveillance pour soutenir son modèle économique basé sur la publicité.

Ainsi, pour ceux qui ont le moindre intérêt à garder une indépendance substantielle dans l’informatique mobile ou de bureau, Linux semble être le dernier refuge. Sur toute une gamme de machines, des super-ordinateurs aux serveurs, en passant par les téléphones portables et les systèmes embarqués, Linux est déjà incontournable. Je suis content d’avoir franchi le pas.

Avant d’expliquer le comment, il est vital de comprendre le contexte de ma petite rébellion. La re-centralisation est la nouvelle norme dans les technologies et les communications, une tendance qui m’a préoccupé il y a quelque temps sur ce site, quand je décrivais de manière plus générale mes efforts pour me sevrer des produits et services d’entreprises fournis par Apple (c’est fait), Microsoft (fait en grande partie) et Google (encore difficile). Le gain en confort, comme je le disais à l’époque, ne vaut pas les compromis que nous concédons.

Un duopole mobile ?

Comme j’en discuterai plus bas, je dois me demander à quel point il est pertinent de déclarer son indépendance sur son ordinateur personnel, puisque l’informatique évolue de plus en plus vers les appareils mobiles. Qu’on le veuille ou non, Apple et Google en ont plus ou moins pris le contrôle avec iOS et Android. Apple, comme je l’ai dit, est un maniaque obsédé du contrôle. Même si Google distribue gratuitement une version ouverte d’Android, de plus en plus de pièces essentielles de ce système d’exploitation sont intégrées en un amas logiciel terriblement verrouillé qui emprisonne les utilisateurs dans le monde de Google contrôlé par la publicité. Peut-on parler de « duopole » mobile ?

La re-centralisation est particulièrement terrifiante au vu du pouvoir croissant de l’industrie des télécommunications, qui se bat bec et ongles pour contrôler ce que vous et moi faisons des connexions que nous payons, malgré le jugement bienvenu de la FCC (commission fédérale des communications aux États-Unis) en faveur de la « neutralité du net » en 2015. Comcast détient le monopole du véritable haut débit sur la vaste majorité de son territoire, même si l’on distingue quelques concurrents ici et là. Les fournisseurs d’accès par câble avancent rapidement pour imposer des limites d’utilisation qui n’ont rien à voir avec la capacité disponible et tout à voir avec l’extension de leur pouvoir et de leurs profits, comme l’expliquait en détail Susan Crawford. Et les fournisseurs de téléphonie mobile piétinent allègrement la neutralité du net avec leurs services « zero-rated » (où l’accès à certains services spécifiques n’est pas décompté du volume de données du forfait), que la FCC considère de manière incompréhensible comme innovants.

Pendant ce temps, pour la simple et bonne raison que les utilisateurs préfèrent souvent le confort et la simplicité apparente d’un outil à la garantie de leurs libertés, des acteurs centralisés comme Facebook se constituent des monopoles sans précédents. Comme pour Google et son outil de recherche, ils recueillent les bénéfices grandissants des effets du réseau, que des concurrents vont trouver difficile sinon impossible à défier.

Goulets d’étranglement

N’oublions pas le gouvernement, qui a horreur de la décentralisation. Les services centralisés créent des goulots d’étranglement et rendent le travail facile aux services de police, espions, contrôleurs et service des impôts. L’état de surveillance raffole de la collecte de données sur ces goulots d’étranglement, ce qui met finalement en danger les communications et libertés de tous.

Les goulots d’étranglement permettent aussi de soutenir des modèles économiques qui génèrent beaucoup d’argent pour les campagnes politiques. Hollywood en est un excellent exemple ; la quasi prise de contrôle du Congrès par les lobbies du copyright a conduit à l’adoption de lois profondément restrictives comme dans le système du copyright en vigueur.

Les droits d’auteur sont la clé de ce que mon ami Cory Doctorow appelle « la prochaine guerre civile dans l’informatique générique », une campagne, parfois agressive, pour empêcher les gens qui achètent du matériel (vous et moi, de manière individuelle et dans nos écoles, entreprises et autres organisations) de réellement en être propriétaires. Les lois sur le droit d’auteur sont l’arme des maniaques du contrôle, puisqu’elles les autorisent à nous empêcher par des moyens légaux de bricoler (ils diraient trafiquer) les produits qu’ils vendent.

Les perspectives ne sont pas toutes aussi sombres. Le mouvement des makers ces dernières années est l’un des antidotes à cette maladie du contrôle total. Il en est de même avec les composantes-clés de la plupart des projets de makers : les projets de logiciel libre et open source dont les utilisateurs sont explicitement encouragés à modifier et copier le code.

linuxpenguinFighter

Image par Ian Burt via Flickr | CC BY 2.0

C’est là que Linux entre en scène. Même si nous nous servons davantage de nos appareils mobiles, des centaines de millions d’entre nous travaillent encore beaucoup avec leurs ordinateurs mobiles et de bureau. Linux et les autres logiciels développés par la communauté ne représentent peut-être qu’une solution partielle, mais clairement utile. Il vaut mieux commencer avec quelque chose et l’améliorer, que d’abandonner directement.

J’ai installé Linux un bon nombre de fois au cours des dernières années, depuis qu’il est devenu un véritable système d’exploitation. Mais je suis toujours retourné sous Windows ou Mac, en fonction de mon système principal de l’époque. Pourquoi ? Il restait encore trop d’aspérités et, pendant longtemps, Linux n’avait pas assez d’applications pour réaliser ce dont j’avais besoin. Les inconvénients étaient trop importants pour ma patience limitée, en utilisation quotidienne.

Mais cela s’est progressivement amélioré et, en 2012, j’ai décidé qu’il était temps. J’ai demandé à Cory Doctorow quelle version de Linux il utilisait. C’était une question fondamentale, car Linux se décline en de nombreuses variantes. Les développeurs ont pris le noyau essentiel du code et ont créé différentes versions, adaptées aux divers besoins, goûts et genres d’informatique. Bien que tous utilisent les composants essentiels, sur le modèle du logiciel libre, certains ajoutent du code propriétaire, comme Flash, pour mieux s’adapter aux pratiques informatiques des utilisateurs. Le matériel représentait également une question cruciale, car les ordinateurs ne sont pas tous gérés de manière fiable par Linux, à cause des incompatibilités matérielles.

Cory m’a dit qu’il utilisait Ubuntu sur un Lenovo ThinkPad. J’étais déjà convaincu par les ThinkPads, grâce à la fiabilité du matériel et le bon service après-vente du constructeur, sans oublier la possibilité de mettre à jour les composants matériels internes. Comme j’ai tendance à acheter des modèles récents, je rencontre parfois des problèmes de compatibilité avec le matériel Lenovo le plus récent. J’ai bricolé mon modèle actuel, un T450s, par tous les moyens, en remplaçant le disque dur mécanique par un disque SSD rapide et en ajoutant autant de mémoire vive (RAM) que j’ai pu.

Je penchais également pour Ubuntu, une version de Linux créée par une entreprise appelée Canonical, avec à sa tête un ancien entrepreneur informatique du nom de Mark Shuttleworth, que je connais aussi depuis longtemps. Ubuntu est connu pour son excellente gestion des ThinkPads, surtout s’ils ne sont pas flambants neufs. J’ai utilisé Ubuntu sur quatre ThinkPads différents depuis ma conversion. On apprécie Ubuntu à l’usage parce que Canonical a une vision bien définie de la façon dont les choses doivent fonctionner.

Libre à vous de tester une autre « distribution » Linux, comme on appelle les différentes versions. Il y en a trop pour les nommer toutes, ce qui est à la fois le meilleur et le pire atout de l’écosystème Linux. Les nouveaux utilisateurs devraient presque toujours essayer une des distributions les plus populaires, qui aura été testée de manière plus poussée et offrira la meilleure assistance de la part de la communauté ou de l’entreprise qui l’a créée.

linuxMint

L’une de ces distributions est Linux Mint. Elle est basée sur Ubuntu (qui est elle-même basée sur Debian, une version encore plus proche de la version de base de Linux). Mint m’est apparue comme à beaucoup d’autres personnes comme probablement la meilleure distribution Linux pour ceux qui ont utilisé des systèmes propriétaires et souhaitent la transition la plus simple possible. Je suis parfois tenté de changer moi-même, mais je vais garder Ubuntu, à moins que Canonical ne le foire complètement, ce que je n’espère pas.

Avant de faire le grand saut, j’ai demandé à bon nombre de personnes des conseils sur la façon migrer au mieux mes usages informatiques depuis des programmes propriétaires vers des programmes open source. Plusieurs m’ont suggéré ce qui s’est avéré être un bon conseil : j’ai cessé d’utiliser l’application Mail d’Apple et j’ai installé Thunderbird de Mozilla sur mon Mac, et après un mois, je me suis tellement habitué à cette manière différente (pas si différente non plus) de gérer mon courrier électronique (non, je n’utilise pas Gmail, sauf pour un compte de secours). J’ai aussi installé LibreOffice, une sorte de clone open source de Microsoft Office, qui est moins courant mais adéquat pour arriver à ses fins dans la plupart des cas.

Comme la plupart des gens qui utilisent un ordinateur personnel, je passe mon temps presque exclusivement sur tout petit nombre d’applications : navigateur internet, client courriel, traitement de texte. Sous Linux, j’ai installé Firefox et Chromium, une variante open source du Chrome de Google. Comme déjà mentionné, Thunderbird faisait bien son job pour gérer mes courriels, et LibreOffice était satisfaisant en tant que logiciel de traitement de texte.

Mais j’avais encore besoin d’utiliser Windows pour certaines choses. En particulier, le logiciel de cours en ligne que j’utilisais à mon université refusait de fonctionner sous Linux, quel que soit le navigateur utilisé. J’ai donc installé Windows dans une machine virtuelle, afin de faire tourner Windows et ses programmes à l’intérieur de Linux. J’ai aussi installé Windows sur une partition séparée de mon disque dur pour les occasions encore plus rares où j’aurais besoin d’utiliser un Windows natif, contrairement à un Windows virtuel ce qui réduit les performances.

Aujourd’hui je n’ai presque plus jamais besoin de Windows. LibreOffice s’est énormément amélioré. Pour l’édition collaborative, Google Docs (hum… j’ai déjà dit que se passer de Google est difficile, hein ?) est difficile à battre, mais LibreOffice progresse. Le logiciel utilisé dans mon université pour les cours en ligne fonctionne maintenant avec Linux. Le seul programme pour lequel j’ai encore besoin de Windows est Camtasia, pour le « screencasting » – enregistrer (et diffuser) ce qu’affiche l’écran, ainsi que le son. Plusieurs programmes de screencasting existent sous Linux, mais ils sont limités. Et parfois, je suis obligé d’utiliser MS PowerPoint pour lire les rares diaporamas qui hoquètent avec le logiciel de présentations de LibreOffice (Impress).

Étrangement, le plus compliqué, dans cette transition, fut de m’adapter aux différentes conventions utilisées pour les claviers : désapprendre le style Apple et réapprendre les combinaisons Windows, équivalentes pour la plupart à celles utilisées par Linux. Au bout de quelques mois, tout était rentré dans l’ordre.

La fréquence de mise à jour des logiciels est un des aspects que je préfère avec Linux. Ubuntu et de nombreuses autres versions proposent régulièrement des mises à jour même si je préfère choisir les versions qui disposent d’un support étendu (aussi appelées versions « LTS » soit Long Term Support en anglais). Ils corrigent rapidement les failles de sécurité qui sont trouvées et il se passe souvent moins d’une semaine entre deux mises à jour, un rythme beaucoup plus élevé que celui auquel j’étais habitué avec Apple.

migrationSimple

Ce que j’aime le moins avec Linux, c’est qu’il faut parfois faire quelque chose qui pourrait paraître intimidant pour un nouvel utilisateur. Personne ne devrait avoir à ouvrir une interface en ligne de commande pour saisir sudo apt-get update ou autre. Personne ne devrait avoir à faire face à un avertissement indiquant que l’espace disque est insuffisant pour que la mise à jour du système puisse être appliquée (ce qui nécessitera alors de retirer les composants obsolètes du système d’exploitation, une opération qui n’est pas à la portée de tout le monde). Personne ne devrait découvrir, après une mise à jour, qu’un composant matériel a cessé de fonctionner, ce qui m’est arrivé avec mon trackpad, inutilisable jusqu’à ce que je trouve une solution grâce à un forum (oui, cela peut arriver avec Windows mais les fabricants testent beaucoup plus le fonctionnement de leur matériel avec les logiciels Microsoft. Quant à Apple, ça arrive également, mais il a l’avantage de produire du matériel et des logiciels qui sont associés de façon harmonieuse).

gillmordesktop

Le bureau de Dan Gillmor sous Ubuntu

Lorsqu’il y a un problème, les communautés apparues autour du logiciel libre et open source s’avèrent incroyablement utiles. Poussant toujours un peu les limites pour adopter ce système, je demande souvent de l’aide. Je reçois toujours des réponses. Certains experts super pointus de ces forums peuvent être condescendants voire irrespectueux si on ose poser une question qui leur semblera simplissime ou qui a déjà reçu une réponse par ailleurs. On trouve également cette aide précieuse (et cette éventuelle intempérance) pour Windows, Mac et les autres systèmes mobiles (certains fanatiques d’Apple sont parfois étonnamment violents avec les hérétiques) mais il existe une atmosphère unique lorsqu’il s’agit de personnes œuvrant sur des technologies ouvertes, pour tous.

Si vous souhaitez essayer Linux sur votre ordinateur, c’est plutôt simple. Ubuntu, ainsi que d’autres distributions, vous permettent de créer un DVD ou une clé USB contenant le système d’exploitation et de nombreuses applications et vous pouvez démarrer votre ordinateur en utilisant ce support de test. C’est une bonne technique pour savoir si le matériel que vous avez à votre disposition fonctionnera avec. Ce sera vraisemblablement le cas si vous n’utilisez pas un ordinateur flambant neuf. Linux brille particulièrement par son support des ordinateurs déjà anciens.

Pour éviter les soucis d’installation de Linux, on peut acheter un ordinateur avec le système d’exploitation pré-installé et obtenir des mises à jour régulières, adaptées au matériel. J’ai réfléchi à différents modèles fabriqués par des entreprises comme Dell, System76, ZaReason entre autres. Je viens de visiter une entreprise appelée Purism, qui vend des ordinateurs portables construits uniquement avec du matériel et du logiciel non-propriétaire, du moins autant qu’il est possible à l’heure actuelle. Le modèle Librem 13 est impressionnant, Purism a adapté Linux pour ce matériel ergonomique et j’ai hâte de l’essayer.

Je voyage beaucoup et penche plutôt en faveur d’une entreprise qui dispose de point de dépôt dans différents pays et qui (avec le coût que ça implique) pourra dépêcher un technicien chez moi, à mon bureau ou à mon hôtel si ma machine tombe en panne. Si je dois abandonner Lenovo (et les dernières affaires à leur sujet me font douter), je me dirigerai probablement vers les machines Dell fournies avec Linux.

Vous avez pu remarquer que je n’ai presque pas abordé la question du coût. Pour le système d’exploitation, ce n’est plus nécessaire car Microsoft et Apple ont fait fondre le prix apparent de leur système d’exploitation et il apparaît comme nul. Bien entendu, vous le payez toujours quand vous achetez un ordinateur. Cela dit, même les mises à jour importantes sont devenues gratuites, un changement fondamental si on regarde en arrière. Cependant, en ce qui concerne Microsoft, la « gratuité » semble exister au détriment de la collecte intrusive des données.

En revanche, pour les applications, c’est une autre histoire. Vous pouvez économiser beaucoup d’argent en utilisant des logiciels libres et open source. Comparé à LibreOffice, Microsoft Office reste cher même si les versions de base « Famille et Étudiant » sont abordables et que beaucoup de personnes utilisent MS Office grâce à la version fournie par leur école ou leur entreprise.

Mais voilà, j’apprécie de payer pour certains logiciels, car je veux être sûr, autant que possible, que j’aurai de l’aide si besoin et que les développeurs auront une source de motivation pour continuer à corriger et à améliorer le logiciel. Je serais heureux de pouvoir payer pour des versions de Camtasia et Scrivener sur Linux (ce dernier possède une version communautaire pour Linux). En attendant, je fais des dons à différents projets dont j’utilise les logiciels régulièrement, qu’ils soient créés par des entreprises ou intégralement développés par des bénévoles. Ubuntu a beau être une entreprise qui gagne de l’argent en fournissant des services (une approche populaire et éprouvée dans le monde du logiciel libre et open source), je continue d’y donner. Avec moi, LibreOffice a gagné un utilisateur, mais aussi un donateur. Il en va de même pour d’autres projets.

Linux reste en arrière, enfin « officiellement », quand il s’agit de lire des DVD. Il faut installer certains logiciels jugés illégaux par le cartel du divertissement afin de pouvoir lire les disques que vous avez achetés (Apple a l’air d’un parangon de liberté par rapport à Hollywood). L’utilisation de services de streaming comme Netflix ou Amazon peut également être source d’ennuis. Enfin ça devient plus simple grâce à… humpf l’ajout de verrous numériques (NdT : DRM ou Digital Rights Management) dans certains navigateurs.

Est-ce que tous ces ajustements en valent la peine ? Je dirais que oui. Tout ce qui améliore ou préserve notre capacité à utiliser les technologies comme nous l’entendons en vaut la chandelle par rapport aux voies imposées par des pouvoirs centralisés. Et si nous ne sommes pas plus nombreux à essayer, ces monstres du contrôle verront leur victoire assurée.

Il est probablement presque trop tard pour que Linux devienne un système d’exploitation extrêmement populaire, dans les pays développés tout au moins. Mais il n’est pas trop tard pour que suffisamment d’entre nous l’utilisent afin de garantir des libertés informatiques pour ceux qui les veulent.

Que pouvons-nous faire à propos des écosystèmes mobiles, si nous ne voulons pas leur laisser l’hégémonie sur toute l’informatique personnelle, voilà bien le problème. Des versions tierces d’Android ont émergé au travers de communautés dynamiques telles que XDA Developers, qui veulent plus de liberté. Ubuntu travaille sur un système d’exploitation mobile parmi d’autres nombreux acteurs de la communauté open source ; des années ont été dédiées à tendre vers un système d’exploitation qui puisse fonctionner sur tous les appareils. Mais la domination d’Apple et Google sur le monde mobile en intimide plus d’un.

nous avons vraiment le choix

J’essaie en ce moment beaucoup d’options parmi les appareils possibles dans l’espoir que j’en trouverai un qui soit suffisamment bon pour une utilisation au quotidien, même s’il devait ne pas être aussi pratique que les propriétés privées bien gardées des géants de l’internet (un de mes téléphones est actuellement sous un système d’exploitation appelé Cyanogenmod). Bientôt, je vous en dirai plus sur la façon dont ça se passe.

En attendant, souvenez-vous : nous avons vraiment le choix – nous pouvons faire des choix qui repoussent les limites des libertés technologiques. Récemment, mon choix a consisté à me détacher libérer de l’emprise de ceux qui veulent tout contrôler. J’espère vous donner à réfléchir pour faire de même. En fonction de ce que nous choisissons, nous avons beaucoup à gagner, et à perdre.

(1) Même si cela va vexer certaines personnes, j’ai fait référence à GNU/Linux par son nom de loin le plus couramment utilisé – Linux, tout simplement – après la première occurrence. Pour en savoir plus à ce propos, les Wikipédiens ont rassemblé tout un tas de sources pertinentes.

Merci à Evan Hansen et Steven Levy.

Biographie et plus d’informations : http://dangillmor.com/about (Photo par Joi Ito)




Menaces sur les œuvres du domaine public

La numérisation des collections patrimoniales des musées devrait constituer une chance pour la diffusion de la culture. Trop souvent hélas, ce n’est pas le cas, à cause du copyfraud auquel se livrent les institutions. Comme l’a dit très justement Pier-Carl Langlais, le copyfraud est l’inverse du piratage : une revendication abusive de droits sur le domaine public pour en restreindre la réutilisation.

Les exemples de copyfraud ne manquaient déjà pas, mais le Reiss Engelhorn Museum de Mannheim en Allemagne a franchi cette semaine une ligne rouge en la matière. L’établissement a en effet décidé d’attaquer en justice la Wikimedia Foundation et Wikimedia Deuschland, pour la diffusion de 17 images d’œuvres du domaine public sur Wikimedia Commons. Depuis 2008, la Wikimedia Foundation a défini une position très claire à propos du copyfraud, en indiquant qu’elle ne reconnaissait pas la légitimité des restrictions rajoutées sur la réutilisation d’images en deux dimensions d’œuvres du domaine public. L’année suivante, une alerte sérieuse s’était produite lorsque le wikimédien Derrick Coetzee avait téléversé sur Wikimedia Commons plusieurs milliers d’images extraites du site de la National Portrait Gallery de Londres. Son geste dénonçait le fait qu’elle portait un copyright alors qu’elles correspondaient à des œuvres du domaine public . La National Portait Gallery avait alors agité la menace d’un procès, sans la mettre à exécution à la différence cette fois du musée Reiss Engelhorn.

Si l’on peut déplorer un tel comportement de la part d’une institution patrimoniale, ce sera peut-être aussi l’occasion pour un tribunal de se prononcer sur la légalité des pratiques de copyfraud. Comme le dit la fondation Wikimedia dans sa réponse au musée, la reproduction fidèle de tableaux ne crée pas une « nouvelle œuvre » et il est improbable que ces photographies satisfassent au critère de l’originalité, impliquant que le créateur imprime « l’empreinte de sa personnalité » dans son œuvre pour bénéficier d’une protection.

En France également, nombreux sont les établissements culturels se livrant à des pratiques de copyfraud. Le site Images d’art, lancé récemment par la Réunion des Musées Nationaux, comporte plus de 500 000 œuvres numérisées provenant de nombreux musées français. Mais toutes ces images portent le copyright du photographe les ayant réalisées, ce qui en interdit la réutilisation. Quelques institutions choisissent pourtant au contraire de diffuser librement leurs images et certaines comme le Musée des Augustins à Toulouse ou le Musée des Beaux Arts de Lyon ont engagé des partenariats avec Wikimedia France pour diffuser leurs images sur Wikipédia . Mais elles restent encore minoritaires.

Le plus inquiétant, c’est que la loi française risque bientôt d’évoluer pour légaliser les pratiques de copyfraud. Le recours au droit d’auteur par le musée Reiss Engelhorn reste juridiquement très fragile et la fondation Wikimédia peut encore affronter un procès avec des chances sérieuses de l’emporter. Mais la loi Valter, actuellement en cours d’adoption, s’apprête à consacrer la possibilité pour les établissements culturels de fixer des redevances de réutilisation sur les reproductions d’œuvres qu’elles produisent — y compris à partir des œuvres du domaine public —  en les assimilant à des données publiques.

Là où devant la justice allemande, on peut encore revendiquer le droit de réutiliser le domaine public librement, ce ne sera peut-être bientôt plus possible en France.

Lionel Maurel (Calimaq)

*  *  *  *  *

Wikimedia Foundation et Wikimedia Deutschland invitent instamment le musée Reiss Engelhorn à abandonner ses poursuites concernant des œuvres d’art du domaine public.

source : cet article du blog de Wikimedia
Traduction Framalang : KoS, goofy, Bromind, sebastien, r0u

Le 28 octobre, le musée Reiss Engelhorn de Mannheim, en Allemagne, a intenté un procès à la Wikimedia Foundation et ensuite à Wikimedia Deutschland, la branche allemande du mouvement international Wikimedia. L’objet en est une plainte pour copyright concernant 17 images d’œuvres d’art du musée qui relèvent du domaine public et qui ont été mises en ligne sur Wikimedia Commons. Wikimedia Foundation et Wikimedia Deutschland examinent la plainte et feront une réponse commune avant l’échéance fixée en décembre.

La Wikimedia Foundation et Wikimedia Deutschland maintiennent fermement leur engagement à rendre les œuvres publiques gratuites et libres d’accès. Les institutions publiques telles que les galeries et musées ont la même mission, et ont été des alliées historiques pour rendre accessibles à tous les connaissances du monde entier. Avec ce procès, le musée Reiss Engelhorn limite l’accès public à d’importantes œuvres culturelles qui seraient inaccessibles autrement pour le reste du monde.

Les peintures, portraits et autres œuvres d’art concernés par ce procès sont exposés au sein du musée Reiss Engelhorn, mais sont déjà présents dans le domaine public. Quoi qu’il en soit, la loi allemande sur le droit d’auteur peut s’appliquer aux photographies des œuvres qui appartiennent au domaine public, selon différents critères incluant l’artiste créateur de l’œuvre lui-même, la compétence et les efforts qui ont été mis dans la photographie, la créativité et l’originalité, et enfin l’art en tant que tel. Le musée Reiss Engelhorn prétend que ces images sont soumises au droit d’auteur car le musée a rémunéré le photographe qui a pris certaines d’entre elles, ce qui lui a demandé du temps, de la compétence et des efforts pour les prendre. Le Musée Reiss Engelhorn affirme encore que, à  cause de ce droit d’auteur, les images des œuvres d’art ne peuvent pas être partagées au travers des Wikimedia Commons.

635px-Hendrick_Goltzius_Cadmus_Statens_Museum_for_Kunst_1183Les œuvres du domaine public affrontant l’hydre du droit d’auteur (allégorie)

(Hendrick Goltzius, Cadmus (Statens Museum for Kunst). Licence Domaine public via Commons)

La Wikimedia Foundation et Wikimedia Deutschland estiment que le point de vue du musée Reiss Engelhorn est erroné. Les lois sur le droit d’auteur ne doivent pas être utilisées à mauvais escient dans le but de contrôler la dissémination d’œuvres d’art appartenant au domaine public depuis longtemps, telles que les peintures exposées au musée Reiss Engelhorn. Le but du droit d’auteur est de récompenser la créativité et l’originalité, et non de créer de nouveaux droits limitant le partage en ligne d’images d’œuvres du domaine public. De plus, même si la loi allemande accorde quelques droits sur ces images, nous pensons qu’utiliser ces droits dans le but d’empêcher le partage des travaux du domaine public va à l’encontre de la mission du musée Reiss Engelhorn et de la ville de Mannheim et appauvrit l’héritage culturel mondial.

De nombreuses institutions se sont donné pour mission de rendre leurs collections le plus accessible possible pour le monde entier. En octobre, le musée des Arts et Métiers d’Hambourg, en Allemagne, a rendu sa collection accessible librement en ligne. Le Rijksmuseum d’Amsterdam a fourni un accès en ligne à toutes ses peintures, y compris la possibilité de les télécharger et d’utiliser les reproductions sous licence domaine public CC0. Au Danemark, SMK (Statens Museum for Kunst, la Galerie Nationale du Danemark) a rendu publiques ses images et vidéos numériques sous la licence CC-BY. La British Library [N.d.T : Bibliothèque de Grande-Bretagne, équivalent de la BNF] et le Japan Center for Asian Historical Records [N.d.T : le Centre japonais d’archives historiques asiatiques] ont conjointement libéré plus de 200 gravures japonaises et chinoises dans le domaine public.
Ces institutions culturelles conservent les valeurs du domaine public et protègent le droit de prendre part à notre héritage culturel. La tentative du musée Reiss Engelhorn de créer un nouveau copyright dans le domaine public va à l’encontre des principes européens sur le domaine public.

soldatsFrançaisL’armée française part en campagne contre le copyfraud

(image issue du catalogue en ligne de The British Library, aucune restriction de droit d’auteur connue – Voir tous les détails)

Dans un communiqué du 11 août 2008, la Commission européenne a écrit : « il faut souligner qu’il est essentiel que les œuvres qui sont dans le domaine public restent accessibles après un changement de format. En d’autres termes, les œuvres qui sont dans le domaine public devraient y rester une fois numérisées et être rendues accessibles par Internet ». Cela a été renforcé par la charte d’Europeana de 2010 qui stipule : « Aucun autre droit sur la propriété intellectuelle ne doit être utilisé pour rétablir une exclusivité sur des matériaux du domaine public. Le domaine public fait partie intégrante de l’équilibre interne du système de droit d’auteur. Cet équilibre interne ne doit pas être rompu par des tentatives pour obtenir ou rétablir un contrôle exclusif via des règles extérieures au droit d’auteur. »

Ces dernières années, le mouvement Wikimédia a bénéficié de partenariats fructueux avec des musées et des galeries à travers le monde grâce à l’initiative GLAM-Wiki, qui aide des institutions culturelles à partager leurs ressources avec le monde entier par le biais de projets de collaboration avec des éditeurs expérimentés de Wikipédia. Ces partenariats ont permis à des millions de personnes de découvrir et d’apprécier des collections situées dans des endroits qu’ils ne pourront jamais visiter. Wikimédia Deutschland, seule, a travaillé avec plus de 30 musées en Allemagne pour rendre leurs collections accessibles gratuitement à n’importe qui n’importe où, au travers des projets Wikimédia. Ces partenariats font partie d’un effort indispensable qui permet aux institutions culturelles et à Wikimédia d’accomplir leur mission de libération de la connaissance et de partage de la culture.

Partout dans le monde des gens utilisent Wikipédia pour découvrir et comprendre le monde qui les entoure. Grâce à Internet, de nombreux obstacles traditionnels à la connaissance et à l’apprentissage ont disparu. Refuser l’accès en ligne à des images du domaine public empêche les gens d’explorer et de partager notre patrimoine culturel mondial. Nous exhortons le musée Reiss Engelhorn à reconsidérer sa position et à travailler avec la communauté Wikimédia pour rendre encore plus accessibles leurs œuvres élevées dans le domaine public.

Michelle Paulson, Legal Director
Geoff Brigham, General Counsel
Wikimedia Foundation




Ne plus supporter la pub sur le Web

C’est un débat déjà ancien et qu’on croyait devenu de basse intensité, mais qui prend ces derniers temps une acuité nouvelle : la publicité sur le Web, toujours plus intrusive, toujours plus vorace, toujours plus dévoreuse de notre confidentialité, est-elle une sorte de mal nécessaire ou une pure nuisance à éradiquer ?

La publicité est le plus souvent justifiée par son pouvoir économique. Publier sur le Web n’est pas gratuit, que ce soit pour les médias d’envergure, les associations ou les particuliers. La tentation est donc grande de disposer sur les pages web avec une discrétion variable des bandeaux publicitaires, des annonces adsense, des calamités visuelles de toutes sortes… car l’inventivité des agences de pub est illimitée.

Rien d’étonnant que de nombreux internautes installent systématiquement un bloqueur de pub, en une course elle aussi perpétuelle pour remplacer Adblock Plus par Adblock Edge puis par uBlock puis par uBlock origin (et puis je vous mets une pincée de Ghostery ?) et puis… mesures et contre-mesures se succèdent dans un paysage visuel qui ressemble à un champ de bataille : des sites demandent gentiment — ou intiment l’ordre — de désactiver les bloqueurs, tandis que le petit peuple du Libre échange frénétiquement les adresses des adbloqueurs les plus efficaces.

Faut-il se résigner à cette guerre fastidieuse et accepter qu’une part au moins du web, puisse dépendre de la publicité comme le suggère Tristan Nitot dans un article récent ? Ou bien faut-il faire table rase de tout argument en faveur de la publicité sur le web,  comme Clochix dans le « coup de gueule » qu’il publie sur son blog en réponse à Tristan ?

C’est la diatribe de Clochix que nous reproduisons ici, non pour attiser une polémique (car les contradicteurs se connaissent bien et s’apprécient) mais pour permettre un échange dans nos colonnes et en commentaires.

Deux précisions importantes :

  • Clochix après le petit buzz qu’il a créé reconnaît volontiers que son article n’est pas complet, en particulier parce qu’il n’a a pas pris le temps d’aborder les modes de monétisation alternatifs. S’il désire ajouter des éléments, nos colonnes lui seront ouvertes. [MISE À JOUR] Nous avons à peine le temps de publier que déjà Clochix vient de compléter avec un nouvel article : Comment se protéger, comment participer.
  • Tristan quant à lui a reconnu qu’il aurait dû préciser que sa défense (relative) de la publicité concernait essentiellement les grands sites de médias, la presse en ligne. Il va sans dire que ses commentaires et réactions sont bienvenus ici ou naturellement sur son blog.

— mais c’est surtout vous lecteurs du Framablog dont nous attendons que vous participiez à ce débat : bloquez-vous tout ou partie des publicités, pourquoi ? Avez-vous recours au financement par la publicité de votre présence sur le Web ? Avez-vous trouvé des modes de financement alternatifs qui vous permettent de vous dégoogliser ?

Nous vous rappelons que le Framablog ainsi que tous le services de Framasoft vous sont proposés débarrassés de toute pollution publicitaire, grâce aux donateurs qui sont l’unique ressource de l’association. Merci de votre soutien !

 

Faut-il bloquer les publicités ?

par Clochix

clochix_himselfJ’ai été si outré par quelques phrases portées à ma connaissance cette semaine que je reprends le clavier le temps d’un rapide coup de gueule. Dans le 28e chapitre de son prochain livre, qu’il prépublie sur son carnet, Tristan conseille de ne pas bloquer la réclame dans son navigateur. Une fois n’est pas coutume, je ne peux pas être moins d’accord avec lui, surtout au vu de ses arguments.

J’encourage pour ma part tou·te·s les internautes à bloquer par tous les moyens les publicités qui envahissent certains sites. Quelques raisons en vrac de refuser la réclame sur le Web :

  • la publicité est bien plus efficace si elle est ciblée. De ce fait, nombre de régies publicitaires ne se contentent pas d’afficher des bandeaux colorés, mais tracent toutes vos habitudes, afin de cerner votre profil et d’augmenter la probabilité que vous cliquiez sur leurs affiches. Par exemple en vous bombardant de réclames pour des régimes si elles détectent que vous complexez sur votre poids. Les publicités espionnent ce que vous faites, vous traquent de site en site. Pour préserver votre intimité, bloquez les publicités !
  • grâce à ces profils, les publicités créent des envies, déclenchent des actes (des achats par exemple) que vous n’aviez pas décidés consciemment. C’est une forme de manipulation, de viol de votre libre-arbitre. Pour conserver votre libre-arbitre, bloquez les publicités !
  • les publicités rendent la navigation sur de nombreux sites désagréables. Leur poids ralentit considérablement le chargement, leurs couleurs criardes, voire leurs animations, distraient l’œil de sa lecture. Parfois une publicité apparue soudainement intercepte un de vos clics et vous entraîne sur un site que vous ne souhaitiez pas visiter. Lorsque votre connexion internet est de faible qualité, par exemple sur un ordiphone, la publicité rend la navigation particulièrement désagréable. Pour votre confort, bloquez la publicité !
  • le poids de publicité ralentit le chargement des pages, mais augmente aussi la quantité de données téléchargées. Si vous n’avez pas une connexion illimitée (sur mobile), vous risquez de payer pour le chargement des publicités. Et même si vous avez une connexion illimitée, ces publicités pèsent dans le trafic réseau de votre opérateur, consomment beaucoup de bande passante, qu’à un moment ou un autre il faut bien payer. Pour le bien-être de votre porte-monnaie, bloquez la publicité ! (et pour les ours polaires, car afficher les bannières Flash consomme de l’électricité, donc contribue au réchauffement de la planète) ;
  • la publicité affiche sur des sites auxquels vous faites confiance des contenus créés par des tiers qui eux ne sont pas forcément de confiance. Des ordinateurs sont régulièrement infectés par des logiciels malveillants diffusés via des publicités piégées affichés sur des sites anodins. Récemment encore, des sites de Yahoo ont diffusé à leur insu de tels logiciels malveillants. Bloquer Flash réduit considérablement la menace, mais pas totalement. Pour votre sécurité, bloquez la publicité !
  • TF1 est une entreprise qui vend à des annonceurs du temps de cerveau de ses téléspectateurs. Dans un modèle économique basé sur la publicité, vous devenez le produit dont le site fait commerce. Si un site vit essentiellement de la publicité, alors c’est que vous êtes la marchandise qu’il vend. (un célèbre évangéliste francophone utilise une métaphore porcine pour rappeler ce fait et encourager les internautes à payer les services qu’ils utilisent) Pour ne pas être une marchandise, bloquez la publicité !
  • certains médias dépendent de la publicité. Leur but est donc de maximiser le nombre de lecteurs de leurs articles. Quitte à recourir à des méthodes putassières, comme les titres sensationnalistes sans rapport avec le fond de l’article. Parfois, la rémunération des auteurs dépend du nombre de lecteurs de leurs articles. Dans certains médias, les journalistes sont donc encouragés à écrire des articles générant le plus de vues possibles. La qualité ne payant pas toujours, c’est le plus souvent un encouragement au sensationnalisme, aux approximations, à la création et monté en épingle de polémiques… À terme, tout cela décrédibilise les sites d’information et les journalistes dans leur ensemble. Un journaliste ne devrait pas être évalué sur sa capacité à faire gagner de l’argent aux annonceurs. On a vu également que certains annonceurs influent sur la ligne éditoriale des médias. Apple par exemple ne veut pas que ses publicités soient à côté d’informations tragiques. Va-t-on arrêter d’informer sur les guerres et autres catastrophes pour faire plaisir aux annonceurs ? Pour la survie du journalisme, bloquez la publicité !
  • un des gros problèmes du Web est la difficulté à rémunérer les auteurs qui le souhaitent. Il n’existe toujours pas de mécanisme simple, universel, respectueux de la vie privée, largement déployé, permettant de rémunérer l’auteur d’un article. Je suis persuadé que c’est une des plus grandes faiblesses actuelles du Web. Elle perdure notamment parce que le besoin n’est pas criant : la publicité joue ce rôle pour de nombreux sites, donc ils n’ont pas besoin d’inventer un meilleur système. Si de nombreux internautes bloquaient les réclames, le besoin d’inventer de nouveaux modèles économiques se ferait plus pressant. Et j’espère que ces modèles seraient plus vertueux. Pour encourager le Web à évoluer, bloquez la publicité !
  • je vous épargne le couplet politique rappelant que la publicité est un moyen de propagande pour un modèle de société suicidaire et encourage les discriminations en véhiculant d’innombrables clichés. Si vous avez du cœur, bloquez la publicité !

stoplapub

Je trouve par ailleurs discutables les arguments de Tristan pour encourager ses lecteurs et lectrices à ne pas remettre en question les modèles économiques fondés sur la vente de l’attention des citoyens :

« En effet, la publicité est la principale si ce n’est l’unique façon pour l’immense majorité des sites Web de se rémunérer »

Je brandis aussitôt ma pancarte pour demander les chiffres permettant d’affirmer que « l’immense majorité des sites Web » se rémunère grâce à la réclame. Wikipédia ne fait à ma connaissance pas appel à la publicité, pas plus que des millions de sites personnels, les sites vitrines qui présentent une entreprise, une association ou autre. Je ne suis pas sûr que l’existence de la majorité des sites Web dépende de la réclame. Le Web ne mourra pas si demain nous bloquons toutes et tous les réclames. Si j’ai bonne mémoire, la publicité était absente des premiers sites qui m’ont fait aimer le Web, qui m’ont fait découvrir ses potentialités pour la liberté d’expression, le débat d’idée ou le partage de connaissances. Le Web peut parfaitement se passer de la publicité.

« En bloquant la publicité (…) les sites n’auront plus les moyens de publier du contenu original et de qualité ».

Je ne suis pas du tout sûr du lien entre la publication de contenu « original et de qualité » et les sites vivant de la vente de temps de cerveau disponible. Intuitivement (oui, ça n’est pas scientifique), j’aurais plutôt l’impression que les sites tirant l’essentiel de leurs revenus de la publicité sont plutôt des fermes à contenu, qui ne publient rien d’original mais pompent des informations publiées par d’autres en les affublant de titres putassiers pour « faire du clic ».

C’est d’autant plus gênant que l’histoire prouve que la presse indépendante est une condition essentielle pour avoir une démocratie en bonne santé…

Euh, quel est le rapport entre le financement de sites Web par la publicité, une presse indépendante, et la choucroute ? Le Canard enchainé, symbole de la presse indépendante française, a publié il y a quelques jours son bilan financier 2014. Le journal est toujours en excellente santé. Or, il ne me semble pas qu’il se rémunère en infligeant des placards publicitaires à ses lecteurs. Sur le Web, l’équivalent du Canard, Mediapart, est également résolument sans publicité, et n’a pas l’air de s’en porter plus mal. Tout comme des dizaines de médias indépendants qui enquêtent et informent, Basta, CQFD, Fakir, Politis et tant d’autres. Bien sûr, de nombreux sites de diffusion d’information, comme Le Figaro, Libération ou le Monde, affichent de la publicité, et en dépendent en partie. Mais peut-on qualifier ces entreprises, propriété d’oligarques, de médias indépendants essentiels à la démocratie ? Lorsqu’un marchand d’arme ou un quelconque affairiste s’achète des médias, le fait-il afin de garantir l’existence d’un des piliers indispensables de la démocratie, ou pour défendre ses intérêts ? Le ménage en cours dans les médias du groupe Bolloré n’est que le dernier exemple de l’indépendance toute relative des organes contrôlés par des financiers. Par ailleurs, bien conscients de l’importance des médias pour la démocratie, les citoyens français consacrent une partie de leurs impôts à financer la presse. D’après Wikipédia, nous avons versé en 2012 1.2 milliards d’aides à la presse. Le Figaro de Serge Dassault a été subventionné à hauteur de 18.2 millions d’euros. Nous participons donc déjà, via ces aides, via la redevance audio-visuelle, à la survie de la presse (et à l’enrichissement d’éditocrates qui nous crachent à la gueule à longueur de temps). Est-il indispensable, pour sauver la démocratie, de s’infliger également les encarts promotionnels qui débordent de leurs sites ?

Je m’égare un peu, et ne voudrais pas y passer toute la journée, donc, pour conclure, un dernier conseil : bloquez les publicités ! Merci de votre attention.




Action politique et biens communs en Catalogne

Le mois dernier, les médias ont abondamment montré et commenté la victoire électorale des militants de la mouvance « Indignés ». Ils ont en revanche plus parcimonieusement évoqué le programme, l’esprit et les convictions des responsables qui vont bientôt être aux commandes de Barcelone.
Le témoignage de l’universitaire Mayo Fuster Morell suggère que les valeurs et les pratiques du Libre ne sont pas étrangères à cette victoire, ce qui pourrait — rêvons un peu — servir d’exemple à d’autres pays européens confrontés à l’austérité. Ce relatif investissement du Libre dans le champ de la politique a de quoi nous réjouir : voilà longtemps que le Libre n’est pas seulement du code ou de l’art. Culture et objets libres gagnent aussi du terrain désormais. À Barcelone, on en est peut-être au libre citoyen.

Les communs à la conquête de Barcelone !

Une victoire de David sur Goliath

Par Mayo Fuster Morell
Article original : http://www.onlinecreation.info/archives/1135
Traduction Framalang : Piup, Obny, sebastienc, line, goofy, r0u

mayoFustellLe 24 mai, les candidats de la liste « Barcelone en commun » (Barcelona en Comú) ont remporté les élections municipales en réunissant sur leur nom un quart des suffrages exprimés. « Maintenant Madrid », une candidature aussi liée à l’éthique des communs, est devenue une force clé pour la gouvernance de la ville de Madrid. Ce ne sont que deux des nombreuses surprises survenues hier lors des élections municipales et régionales en Espagne. Ces villes pourraient donner le signal d’un changement politique plus vaste. Les résultats électoraux ont ouvert la voie à un scénario optimiste pour une chance de victoire aux élections nationales à la fin de cette année, ou même à un mandat plus ambitieux encore, une coalition européenne des pays du Sud contre l’austérité.

Irruption de candidatures citoyennes

Le Parti populaire et le Parti socialiste restent les principaux partis politiques, comme c’est le cas depuis la transition démocratique de la fin des années 70, mais le pouvoir politique habituel a encaissé une grosse claque. La part de ces deux formations a chuté de 65 % lors des précédentes élections il y a 4 ans à 52 % au niveau national. Le renouvellement ou plutôt le changement des forces politiques en présence a été provoqué […] par la création de nouveaux partis : tel est le cas pour les « Citoyens », qui se sont imposés avec force comme un nouveau protagoniste de poids dans la vie politique. Cette irruption des candidatures citoyennes a été aussi impressionnante que rapide. Elle a contribué à l’augmentation d’au moins 5 points de la participation au scrutin.

Seulement quatre ans après que les Indignés du mouvement du 15 mai se sont mobilisés pour « une vraie démocratie maintenant » en opposition aux hommes politiques « qui ne nous représentent pas » et à la « dictature des marchés », l’impact de leur mouvement est désormais si visible qu’il ne peut plus être démenti. Les listes de candidature sont pleines de personnes venant du réseau des mouvements sociaux. Pour en donner une idée, Ada Colau, militante connue pour ses actions contre l’expulsion des activistes et des squatters va être le prochain maire de Barcelone. C’est l’ironie de l’Histoire : une militante anti-expulsion « expulse » les politiciens traditionnels de la mairie. Si l’on regarde la trajectoire des leaders du mouvement, on peut également dire que le cycle a démarré avec le mouvement anti-mondialisation (l’origine de Colau ou de Pablo Iglesias, le leader de Podemos/Yes we can), mais qu’il a réussi à mobiliser une fois encore la génération qui s’est battue contre le régime de Franco pour ramener la démocratie en Espagne (c’est de là que vient Manuela Carmena de « Madrid maintenant », une juge en retraite et très probable future maire de Madrid).

En ce qui concerne leurs programmes, la première chose à souligner est la place centrale réservée aux plans d’urgence pour secourir les citoyens qui étouffent sous les politiques d’austérité, tels que la mise en œuvre de différentes variantes d’un revenu de base, et la révision de la privatisation des services publics. Un code d’éthique existe pour contrôler les personnels politique en ce qui concerne la transparence, la fin de leurs privilèges (par ex. une limitation des indemnités à 29 000 € par an) et leur engagement à soutenir les initiatives citoyennes.

Au-delà du poids politique, c’est fascinant d’un point de vue organisationnel. En moins d’un an et sans aucun lien avec les mondes politique, économique, judiciaire ni avec le pouvoir médiatique existant, des citoyens ordinaires joignant leurs forces ont été capables de conquérir des positions importantes dans le système politique. Une victoire de David contre Goliath. Pour cela, ils ont associé le financement participatif, les programmes collaboratifs, les assemblées de voisinage, et le vote en ligne. Ils ont aussi, comme le leader de Podemos, bâti leur succès sur la popularité obtenue par leur propre programme télé.

Que disait la chanson ? « Prenons d’abord Barcelone, puis nous prendrons Manhattan ? » En effet, certains travaillent là-dessus. Une délégation d’activistes de New-York a parcouru l’Espagne pendant la campagne afin d’apprendre de cette expérience et « d’exporter » un tel soulèvement du peuple dans leurs propres villes. Il y a de nombreuses leçons et idées à en tirer. Voici quelques sources d’inspiration que je vous suggère d’envisager, pour démarrer un processus similaire dans d’autres pays.

L’effet CC

Un des combats citoyens (surtout chez les jeunes) qui a précédé et ensuite nourri le mouvement du 15 mai a vu le jour en réaction contre une loi imposée par le gouvernement, réprimant le partage en ligne et la culture libre (Loi Sinde de décembre 2010). Dans une large mesure, ce mouvement de culture collaborative sur le Web a réagi comme le fit Lessig en 2008, qui est passé des « Creative Commons » à « Change Congress » (« Changeons le Congrès ») . Au départ concentré sur les politiques sectorielles en lien avec la propriété intellectuelle et la régulation d’Internet, il a évolué pour appréhender le fait que défendre ces libertés est nécessaire pour transformer le système politique dans son ensemble. Au cours de cette évolution, les modèles de la culture libre et du travail collaboratif sont devenus une voie à suivre pour organiser la protestation politique.

[…]

En somme, les secteurs ayant de l’expertise dans les méthodes de co-création et coopérant grâce aux ressources en ligne ont un grand potentiel politique.

 

Le modèle « d’innovation cachée » de Wikipédia

Même s’il existe de grandes innovations dans les structures, il faut que le discours soit « simple » voire « strict ». Mako Hill a étudié comment Wikipédia a pu réussir en 2001 alors que d’autres tentatives de création d’encyclopédie en ligne avaient échoué. Une de ses conclusions est que Wikipédia a adopté un concept très simple à comprendre, tout en étant très innovant dans son fonctionnement. Il s’est fermement accroché à la notion traditionnelle d’encyclopédie : une idée vieille de plusieurs siècles qui est simple à comprendre. De la même façon, on peut dire la même chose ici. Le discours qui a pu faire grossir les votes en faveur d’un profond changement politique en Espagne n’est ni avant-gardiste ni particulièrement innovant, mais il est populaire, compréhensible par chacun et relié aux besoins fondamentaux. Quelques points se rapprochent de la démocratie radicale proche de Laclau et Mouffe. C’est un « combat » de bon sens, pour obtenir une hégémonie. Pendant ce temps, des modèles plus avant-gardistes, comme les nouveaux partis ayant un discours « innovant » et une identité sur Internet tels le Parti pirate ou le Parti X, sont pertinents en terme de conception d’organisation mais ne parviennent pas à mobiliser les votes du grand public (aux dernières élections européennes, le parti X a recueilli 0,64 % des voix). En somme, il faut des méthodes innovantes associées à un discours pour le peuple, en lien avec un programme portant sur les besoins fondamentaux.

La base et le sommet

Ces principes d’organisation ne sont ni du sommet vers la base, ni de la base vers le sommet, ils sont « de la base et du sommet ». Pour être plus précis : « un sommet facilement identifiable travaillant pour une base disséminée ». Ces forces s’appuient sur des leaders forts, mais aussi sur le développement d’une base collaborative et libre d’agir. Un concept-clé est le « débordement ». Il se réfère à la capacité de perdre le contrôle du processus, et à la liberté d’agir laissée à ceux qui s’engagent dans le processus. L’augmentation de la créativité des actions et des soutiens hors du contrôle du « parti » semble être un des points pertinents dans le succès de ces méthodes (c’est le cas pour le mouvement de création graphique autour des candidatures). De plus, il n’existe pas de frontière précise entre qui est membre du « parti » et qui ne l’est pas, il n’y a pas de rituels pour dire qui est dedans et qui n’y est pas, c’est l’implication personnelle au travers de l’action qui permet d’être membre. Les leaders ont tout de même une présence forte, leurs visages sont devenus des symboles-clé du processus (c’est-à-dire que sur le bulletin de vote ne figure pas le logo du parti mais la photo du leader). Des symboles visuels sur un Internet visuel mais, même avec Internet, la télévision reste toujours un moyen-clé de communication. En particulier, l’association des leaders et de la télévision est un moyen-clé de communication vers les milieux populaires, ceux qui ne sont pas touchés par les mouvements sociaux de la classe moyenne relayés par Internet. La crédibilité des leaders se construit sur leur capacité à communiquer et sur un engagement social de longue date. Les candidatures féminines – peu importe leur âge – (les femmes sont en tête de liste dans des villes comme Barcelone, Madrid et Valence) ont une plus grande capacité à augmenter les votes car elles transmettent l’idée de changement et dirigent de façon plus démocratique. Comme le dit le prochain maire de Barcelone, Ada Colau (une Zapatiste d’origine) : « conduite par l’obéissance aux ordres du peuple ». La position du leader est construite « pour » la base et non « au-dessus » d’elle. En somme, un leader social et très reconnaissable, mais une participation disséminée et non contrôlée.

Une fois encore, ce ne sont que trois visions « impressionnistes » du processus d’émancipation du peuple en Espagne. Il reste encore beaucoup à venir. 2015 est l’année du changement, cela continuera donc. En attendant, il est temps de fêter cela. Je vous laisse avec la rumba « run run » chantée par le prochain maire de Barcelone :

defendreBienCommun
Ci-dessus, Ada Colau, dans un clip de campagne très joyeux. Le refrain de la rumba dit : « défendre le bien commun ». Pour voir et entendre la vidéo sur YouTube : https://www.youtube.com/watch?v=wB6NDWKDyKg

 

Ce texte est diffusé avec la licence d’origine : CC BY-NC-SA 2.5 IT




Les universitaires ont intérêt à contribuer à Wikipédia — qui a intérêt à ce qu’ils contribuent…


présenté par Christophe Masutti

Le moins que l’on puisse dire, lorsqu’on fréquente les milieux universitaires, c’est que les enseignants-chercheurs partagent des avis très différents à propos de l’encyclopédie en ligne libre Wikipédia. Pour certains, c’est un non-sujet puisqu’il s’agit seulement de permettre à n’importe qui d’écrire n’importe quoi. Pour d’autres, il faut savoir y contribuer parfois pour corriger des erreurs, parfois parce qu’il est aussi du devoir du chercheur que de partager ses connaissances, et pour d’autres encore la pertinence de Wikipédia ne saurait être valide à cause de l’anonymat des contributeurs et de l’absence d’un comité éditorial dans les règles de l’art des revues universitaires classiques.

Une quatrième catégorie, en revanche, prend du recul par rapport aux régimes de publication académiques et considère que ce n’est pas parce que les règles de publications sont universitaires qu’elles doivent être universelles. Ceux-là proposent de contribuer activement à Wikipédia mais en tâchant d’opérer la distinction entre les objectifs et les normes de Wikipédia et les attentes habituelles des publications académiques.

L’American Historical Association est l’une des plus anciennes sociétés savantes aux États-Unis. L’une de ses publications mensuelles, Perspectives on History, a 50 ans d’existence et reste l’une des revues historiques les plus lues au niveau mondial. Stephen W. Campbell, un jeune chercheur, vient d’y publier un article-témoignage dont nous vous proposons ci-dessous une traduction. Il y synthétise rapidement l’attitude classique des historiens vis-à-vis de Wikipédia et propose justement de prendre un peu de recul par rapport aux questions épistémologiques de la neutralité et de l’objectivité.

Certains arguments sont bien entendus discutables, mais le plus important est que, en publiant ce témoignage dans une telle revue, on assiste certainement à une déclaration d’intérêt. Cela montre aussi que l’attitude des chercheurs par rapport à Wikipédia n’est pas un phénomène générationnel. William Cronon, le président de l’AHA en 2012, y est cité comme ayant encouragé la participation à Wikipédia.

La question est plutôt à entrevoir du point de vue de la participation active et volontaire : il y a une vie au-delà du régime de l’évaluation permanente et épuisante des instances de “valorisation” de la recherche académique…


Améliorer Wikipédia : Notes d’un sceptique éclairé

Source : Stephen W. Campbell, Improving Wikipedia: Notes from an Informed Skeptic, dans la revue : Perspectives on History, American Historical Association, mai 2014

Traduction Framalang : hack, r0u, KoS, Amargein, Gilles, Asta, Fchaix, goofy

En tant qu’historien américain qui étudie l’économie politique de la période d’avant la guerre de Sécession, j’ai toujours été fasciné par le mouvement de panique de 1837 – un cataclysme financier qui mérite son nom de « première grande dépression américaine », suivant l’expression employée dans un livre récent. Pendant les congés d’hiver 2012-1013, j’ai cherché « Crise de 1837 » sur Wikipédia et n’ai trouvé qu’une entrée assez décousue qui ne pointait que sur bien peu de sources secondaires. C’était fâcheux, c’est le moins qu’on puisse dire. Les rédacteurs de Wikipédia avaient marqué l’article comme partial ou incomplet et demandaient à un « spécialiste » de l’histoire des États-Unis de l’améliorer.

J’ai pris la décision d’améliorer l’entrée, et dans ce processus j’ai découvert des détails importants concernant les règles de Neutralité du point de vue de Wikipédia, les sous-cultures idéologiquement chargées qui, souvent, altèrent et falsifient ces entrées et une explication probable de mon aptitude à réhabiliter l’entrée avec succès. Depuis deux ans et jusque très récemment, j’ai été un critique véhément à l’encontre de Wikipédia, étant frustré par de trop nombreuses réponses dérivées de Wikipédia aux examens. Mais comme je vais le montrer plus loin, je suis devenu plus optimiste concernant la mission de Wikipédia et je crois qu’elle incarne de nombreuses valeurs auxquelles sont très attachés les universitaires.

Parmi ces derniers on trouve un large éventail d’opinions sur l’utilité de Wikipédia. L’ancien président de l’AHA William Cronon ne voyait que des avantages au fait d’encourager les historiens à contribuer davantage à Wikipédia, tandis que Timothy Messer-Kruse émet un jugement sévère en soulignant les écueils d’un site web qui ne fait pas la différence entre les opinions d’un expert et celles d’un profane, et dont la politique de vérification exclut les contenus seulement fondés sur des sources primaires inaccessibles – ce qui fait de lui un critique virulent de Wikipédia(1). Ma position se situe quelque part entre les deux.

En examinant de plus près cet article sur la Crise de 1837, j’ai remarqué que pratiquement tous les auteurs cités dans les références étaient des libertariens radicaux. La seule « référence externe » était un article écrit de façon informelle, aux sources sélectives, écrit par un obscur historien ne citant pas ses références, et rendu publique lors d’une conférence au Ludwig Von Mises Institute (LVMI), un think-tank d’Alabama qui n’est rattaché à aucune université ni soumis à un système de révision par des pairs.

Tenant son nom de l’économiste autrichien Ludwig Von Mises (1881-1973), l’organisation sponsorise des chercheurs prônant le « laissez-faire » économique et les théories du cycle économique de Friedrich Hayek. Certains LVMIstes (« membres » du LVMI) ont réduit à néant Abraham Lincoln, promu l’étalon-or, et donné une vision romantique du Vieux Sud en omettant l’esclavage. Le groupe rejette catégoriquement, d’après son site web, toute forme de régulation par l’État comme dangereuse pour « la science de la liberté ». Cela semble simpliste. La plupart des historiens reconnaissent que le terme « liberté » a plusieurs significations. L’accès à une assurance-maladie, la protection de l’environnement, ou celle des droits civiques, relèvent de la « liberté », mais nécessitent l’intervention de l’État

J’ai passé plusieurs jours de mes congés d’hiver à ajouter du contenu et des références sur le site, et les éditeurs de Wikipédia, vraisemblablement après avoir approuvé mes modifications, ont supprimé la mention qui fait référence à des informations partiales et incomplètes. Quant à savoir pourquoi cette expérience a été un succès, la réponse pourrait se trouver dans la politique de Wikipédia sur la neutralité de point de vue : les contributeurs doivent s’efforcer de « ne pas donner une fausse impression de parité, ni ne donner trop de poids à un point de vue particulier »(2). Tout économiste chevronné qu’ait été Hayek, l’interprétation de Von Mises était encore en minorité.

La façon dont j’ai édité pourrait expliquer pourquoi je ne me suis pas retrouvé dans une guerre d’édition chronophage. J’ai plus que doublé le nombre de références monographiques et d’articles de journaux révisés par des pairs tout en supprimant très peu du texte préexistant même si je le jugeais suspect. J’ai plutôt restructuré la prose pour la rendre plus lisible. Cette formule ne fonctionne peut être pas toujours, mais les historiens devraient essayer d’écrire autant que possible d’une manière descriptive sur Wikipédia et non de façon analytique, bien que cela puisse être contre-intuitif par rapport à notre formation et que la frontière entre description et analyse soit incertaine.

Les détracteurs de Wikipédia ont beaucoup d’objections valides. Il n’y a pas de rédacteur en chef ayant le dernier mot sur le contenu. La sagesse collective peut renforcer certains préjugés innés ou se révéler erronée au cours du temps. C’est le problème que Messer-Kruse a judicieusement mis en exergue dans ses recherches approfondies sur l’attentat de Haymarket Square – même lorsqu’un contributeur-expert, comme Messer-Kruse, élabore un argumentaire basé sur de solides preuves, les éditeurs bénévoles de Wikipédia peuvent tergiverser ou amoindrir le nouveau point de vue « minoritaire ». Enfin, il existe une possibilité pour que l’existence même de Wikipédia dévalue l’art et le travail d’enseigner et publier. Il y a quelques années, j’ai rédigé un article pour un projet d’encyclopédie sur l’esclavage américain d’un éditeur de référence bien connu. L’éditeur m’informa, après que j’eus fini mon article, que le projet serait interrompu pour une durée indéterminée, en partie en raison de la concurrence avec Wikipédia.

Il n’y a peut-être aucun sujet qui mène autant à la controverse que la pierre fondatrice de Wikipédia sur la neutralité. Les détracteurs se demandent si cet objectif peut être atteint ou même s’il est désirable(3). En décrivant ses règles qui mettent l’accent sur le double verrou de la « vérifiabilité » et du refus des « travaux inédits », Wikipédia indique qu’il vise à décrire les débats, mais pas à s’y engager. C’est cela qui fait hésiter les historiens. À partir du moment où nous sélectionnons un sujet de recherche et que nous collationnons des faits dans un ordre particulier, nous nous engageons involontairement dans un débat. Ajoutons à cela que les faits ne sont jamais vraiment neutres puisque ils sont toujours compris à l’intérieur d’un contexte idéologique plus vaste(4).

De plus, le plus surprenant parmi les règles de Wikipédia est la façon dont le site gère les approches complexes de ces nombreux problèmes philosophiques. Les contributeurs de Wikipédia insistent sur le fait que la neutralité n’est pas la même chose que l’objectivité. Le site évite de traiter les peudo-sciences, les fausses équivalences et soutient les principes de la revue par les pairs. Pour valider des arguments contradictoires, il donne la primauté à l’argument dans les publications érudites, et non à la validation par le grand public. Le règlement de Wikipédia reconnaît même que l’on ne peut pas considérer le principe de neutralité au sens le plus strict car les tentatives d’élimination de toute partialité peuvent se faire au détriment de la signification(5). Ce sont toutes ces normes que les universitaires devraient applaudir. Les rédacteurs de Wikipédia ont sans doute répondu aux critiques de Messer-Kruse, et bien qu’il n’incorporera jamais correctement des informations trop innovantes et récentes uniquement connues dans les milieux scientifiques, la beauté du site est qu’il contient les outils de ses propres améliorations.

Ayant conscience que certains de ces problèmes ne trouveront jamais vraiment de solution, j’en appelle aux historiens pour qu’ils consacrent quelques heures de leur précieux temps libre à l’amélioration de Wikipédia ; à titre d’encouragement, je demande aux administrateurs d’intégrer les contributions à Wikipédia dans leurs exigences de publication concernant l’attribution de poste de professeurs. Les docteurs récemment diplômés font face actuellement à une terrible crise de l’emploi et l’objectif tant convoité d’obtenir un poste de professeur à temps plein s’avère de plus en plus difficile à atteindre. Les contributions à Wikipédia pourraient être un bon moyen de valoriser leur CV en prévision d’un prochain entretien d’embauche. Les détails pour y parvenir restent probablement à régler.

Photo par mikedesign, licence CC BY-2.0 

Peut-être des historiens pourraient-ils s’identifier publiquement sur Wikipédia, sauvegarder leurs contributions, et être crédités si Wikipédia conserve leurs corrections. Publier ouvertement peut réduire le risque de troll, l’anonymat protégeant souvent les internautes des répercussions de commentaires indésirables. Les articles Wikipédia doivent venir en complément, et non en substitution, des articles traditionnels (dans des revues) et monographies, et les comités de validation devraient prendre en compte un certain quota d’articles en ligne par rapport aux articles traditionnels – peut-être quatre ou cinq entrées validées dans Wikipédia pour chaque article dans un journal traditionnel spécialisé.

Une des critiques récurrentes à l’égard des monographies est qu’elles conviennent seulement à un public spécialisé et limité, et finissent par s’empoussiérer sur des étagères de bibliothèques endormies. Peut-être que Wikipédia est le lieu idéal pour diffuser nos propres recherches et expertises à destination d’un public plus vaste, ce qui, théoriquement, permettrait d’améliorer la conception de l’histoire qu’a le public et la façon dont on en parle. Nombreux sont les représentants des sciences dures qui ont déjà pris en compte la publication électronique et comme d’autres l’ont souligné, nous risquons d’être marginalisés comme discipline si nous ne nous joignons pas à ce mouvement(6).

Au moment où j’écris ceci, environ un tiers du texte et la moitié des citations de l’article sur la crise de 1837 sont de ma main. J’ai dû mettre de côté ce précieux projet parce que le nouveau semestre venait de commencer, ce qui est bien regrettable parce que la page pouvait encore être améliorée, du moins ai-je procuré les lignes directrices aux autres spécialistes. Le site compte cinquante-huit « abonnés à cette page » et la section « Historique » affiche un grand nombre de suppressions qui ont été réintroduites – ce qui est peut-être l’indice de l’incorrigible obstination des partisans de Wikipédia. Les étudiants, les passionnés d’économie politique et le grand public disposeront toutefois de meilleures informations historiques, du moins je l’espère, à mesure que Wikipédia s’améliorera de façon continue.

Stephen W. Campbell est maître de conférence au Pasadena City College. Sa thèse de doctorat, terminée en 2013 à l’Université de Santa Barbara, analyse l’interaction entre les journaux, les institutions financières et le renforcement de l’État avant la guerre de Sécession.

Notes (Les ouvrages référencés en liens sont en anglais)

1.  William Cronon, « Scholarly Authority in a Wikified World », Perspectives on History, février 2012, http://www. historians.org/perspectives/issues/2012/1202/Scholarly-Authority-in-a-Wikified-World.cfm (consulté le 23 avril 2013). « The Professor Versus Wikipedia », On The Media, 9 mars 2012, http://www.onthemedia.org/story/191440-professor-versus-wikipedia/transcript/ (consulté le 27 février 2014).

2. Wikipédia : Neutralité du point de vue, http://en.wikipedia. org/wiki/Wikipedia:Neutral_point_of_view (consulté le 26 décembre 2013).

3. Jeremy Brown et Benedicte Melanie Olsen, « Using Wikipedia in the Undergraduate Classroom to Learn How to Write about Recent History », Perspectives on History, 50, Avril 2012 (consulté le 23 avril 2013).

4. Martha Nichols et Lorraine Berry, « What Should We Do About Wikipedia ? », Talking on Writing, 20 mai 2013, http://talkingwriting.com/what-should-we-do-about-wikipedia (consulté le 27 décembre 2013).

5. Wikipédia : Neutralité du point de vue.

6. Lori Byrd Phillips et Dominic McDevitt-Parks, « Historians in Wikipedia : Building an Open, Collaborative History », Perspectives on History, décembre 2012, http://www.historians.org/perspectives/issues/2012/1212/Historians-in-Wikipedia. cfm (consulté le 26 avril 2013).

* Ce travail est sous licence Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International.




Entretien avec le fondateur de Vikidia, l’encyclopédie libre pour les enfants

Vikidia, dans sa présentation la plus simple, est l’équivalent de Wikipédia pour les enfants. Ouvert depuis 7 ans, ce wiki réunit maintenant 16 000 articles et reçoit 600 000 visiteurs uniques par mois pour sa version première en français. Vikidia est détenu par l’association du même nom, avec le soutien de Wikimédia France et est hébergé par Tuxfamily. Des versions ont été ouvertes en espagnol, en italien et en russe.

Ses objectifs, ses bases et son fonctionnement très proches de ceux de sa grande sœur comprennent l’ouverture à la participation des enfants et adolescents pour sa construction et dans la plupart des aspects de son fonctionnement. C’est ce qui se passe effectivement avec une distribution très intergénérationnelle des contributeurs.

Orikrin1998, actif sur ces deux wikis a conduit cette interview d’Astirmays (Mathias Damour), le fondateur de Vikidia et également wikipédien. Celle-là a été complétée et actualisée pour être publiée sur le Framablog.

Vikidia

Entretien avec Astirmays (Mathias Damour)

Orikrin1998 : Bonjour Astirmays, et merci de m’avoir accordé le plaisir de t’interviewer.

Astirmays : Bonjour !

Orikrin1998 : Avant tout, peux-tu te définir tel que tu es dans la vie réelle, ce que tu fais, tes passions …?

Astirmays : J’habite à Annecy, je travaille dans un service chargé de l’application de la réglementation sur l’environnement, et les cours d’eau en particulier. Je profite du lac où je vais me baigner une bonne partie de l’année. Mon travail n’a donc pas de lien avec l’éducation, mais je me suis intéressé à ces questions à la fin et suite à ma propre scolarité.

Orikrin1998 : Comment as-tu découvert Wikipédia et eu envie d’y participer ?

Astirmays : Je me souviens qu’à l’été 2005, j’ai appris ce que sont les bases de fonctionnement de Wikipédia (ouvert à tous) et ça m’a tout de suite paru intéressant. Quelques mois plus tard, j’ai fait quelques modifications sous IP, et je me suis inscrit en janvier 2006, quand j’ai eu l’ADSL, en fait avec tout de suite l’intention d’y participer, peut-être pas massivement, mais disons sérieusement.

Orikrin1998 : Tu es le fondateur de Vikidia ; comment t’es venue l’idée de créer un tel site, et pourquoi ?

Astirmays : J’ai eu connaissance du projet Wikipédia Junior, sans m’y pencher plus que ça en premier abord, je participais à la discussion qui a mené à la création du label “bon article” comme variante d‘“Article de qualité”. En relisant les discussions de Wikipédia Junior et en commençant à y participer, j’ai vu rapidement que le projet n’était pas ce que j’avais imaginé d’abord, et qu’il y avait lieu de créer un wiki “junior” qui ait sa vie propre plutôt qu’une simple sélection d’articles. Certaines références en matière de pédagogie me permettaient de voir en quoi c’était possible de plusieurs points de vue : production de contenu, mode de gouvernance wiki. Un Wikipédia pour enfants pouvait être rapproché de certaines pratiques de classes ou d’écoles plus ou moins répandues, mais qui ont néanmoins fait leurs preuves, comme l’élaboration de ressources documentaires en pédagogie Freinet, l’école de Summerhill en Angleterre, qui fonctionne depuis 90 ans : les élèves et le personnel y tiennent une assemblée chaque semaine où peuvent être votées de nouvelles règles pour l’établissement. Je me suis aperçu par ailleurs que l’idée d’un tel wiki avait déjà été émise, et même mise en œuvre en néerlandais (WikiKids.nl ouvert début 2006) mais que personne ne semblait déterminé à mener un tel projet en Français ou comme projet international au sein du mouvement Wikimédia. Ayant une bonne représentation de ce qu’un tel projet pouvait être, j’ai alors décidé de l’ouvrir sans plus attendre !

Orikrin1998 : Cela a-t-il été dur ? Étais-tu seul au tout début, ou bien des proches ou des futurs vikidiens t’aidaient-ils déjà ?

Astirmays : Du temps, du travail certainement, mais dur, non. Le projet a été investi dès son lancement par un groupe de Wikipédiens, et on a eu la chance qu’ils s’impliquent comme ça, adhérant largement au projet, avec quelques tâtonnements et interrogations au début mais surtout beaucoup d’initiatives. Le lancement de Vikidia a certainement bénéficié de la dynamique du projet auquel il succédait : Wikipédia Junior, et en pratique c’était même pendant quelques mois un bandeau d’évaluation sur la page de discussion de près de 2000 articles de Wikipédia qui permettait d’annoncer ce wiki. On a eu de la chance également que les contributeurs se succèdent sans “trou d’air” important, jusqu’à aujourd’hui.

Orikrin1998 : T’attendais-tu à ce que Vikidia devienne ce qu’il est aujourd’hui ?

Astirmays : Je n’étais pas du tout certain que ça fonctionne, mais je l’espérais à peu près comme ce à quoi il ressemble maintenant, pas dans les détails bien sûr ! S’il y a un décalage par rapport à ce que j’imaginais dans le meilleur des cas, c’est d’une part que du côté participation, c’est régulier mais loin d’être massif, les contributeurs forment une communauté limitée. À l’inverse, je ne pensais pas à la qualité du résultat telle qu’on peut la mesurer notamment à travers les appréciations des lecteurs sur le livre d’or, qui sont maintenant déposées régulièrement.

Orikrin1998 : En ressens-tu de la fierté ?

Astirmays : Certainement oui, comme j’en ai ressenti à mon premier (et seul) article de qualité sur Wikipédia, et comme j’espère qu’en ressentent beaucoup de contributeurs de Vikidia en voyant le produit de leur travail intégré dans cette ressource !

Orikrin1998 : Quelles ont été, quelles sont et quelles seront tes contributions sur Vikidia ? Tiens-tu toujours un rôle de « fondateur », ou bien la masse d’utilisateurs t’a-t-elle supplanté sur ce plan là ?

Astirmays : Je ne suis pas un très gros rédacteur, mais il y a quelques articles dont je suis fier aussi. Quant à mon rôle, la communauté n’est pas si importante qu’on s’y perde ! Chaque contributeur compte. Pour employer un mot que je ne connaissais pas au lancement du wiki, je suis de fait comme un gestionnaire de communauté (« community manager »).

Orikrin1998 : Quels sont les objectifs du site maintenant ? De quel œil vois-tu l’éventuelle insertion de Vikidia dans la fondation Wikimédia ? Les utilisateurs sont nettement partagés sur ce point de vue.

Astirmays : Concernant les objectifs du site, les commentaires laissés par les lecteurs sont assez éclairants, on a beau avoir rédigé une masse déjà considérable d’articles, ils veulent encore plus de contenu, plus de sujets traités !

Après avoir travaillé au projet d’adoption de Vikidia par la Wikimedia Foundation, plusieurs raisons nous ont fait changé notre fusil d’épaule. La communauté Wikimédia internationale était peu réactive sur ce projet, et j’ai vu passer au cours du temps des objections assez radicales, portant par exemple sur la capacité des enfants à une participation constructive ou sur les obstacles légaux et juridiques supposés. Ces objections auraient certainement émergé à nouveau en cas d’avancée de la proposition. Une part des vikidiens voyaient plutôt avec enthousiasme une éventuelle adoption de Vikidia par la fondation qui détient Wikipédia, mais le scepticisme montait également de la part de participants plutôt anciens qui y voyaient un risque de perte de certains aspects de notre fonctionnement, sans avantages décisif en face. Les avantages d’une fusion comme une meilleure visibilité paraissaient moins convaincants au stade de développement où nous en étions arrivés. Enfin la Wikimedia Foundation, quoiqu’elle respecte une autonomie poussée de la communauté de chaque wiki, a selon moi un fonctionnement très centralisé pour tout le reste. Peut-être les grosses organisations qui ont réussi ne sont pas les mieux placées pour développer les innovations suivantes ! On a donc interrompu la démarche de demande/offre d’adoption de Vikidia par la Wikimedia Foundation.

Un sujet annexe devait être pris en compte, c’est l’existence de la version de Wikipédia en Simple English, selon un modèle qui n’a été copié dans aucune autre langue : viser un niveau de langage plus simple tout en se défendant d’être destiné aux enfants, ou bien en maintenant l’ambiguïté sur ce point. Dans l’optique de l’adoption de Vikidia comme projet ayant une vocation multilingue, la présence de Simple English Wikipedia ne facilitait pas la tâche puisque chaque option imaginable avait ses inconvénients ou ses difficultés : par exemple réorienter l’objectif de Simple English Wikipedia (y a-t-il quelque chose de plus difficile que de faire changer d’avis ou même d’identité tout une communauté ?) ou reprendre son contenu qui aurait été une sorte de fork interne à l’organisation… Abandonner le projet d’être adopté par la WMF nous libère sur cet aspect et nous avons décidé simultanément d’ouvrir une version de Vikidia en anglais, qui sera lancée à la fin du mois de février !

Orikrin1998 : Merci d’avoir répondu à ces quelques questions, et bonne continuation sur Vikidia !

Astirmays : Merci à toi, bonne fin d’après-midi !