Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




Wikipedia a 10 ans : Un petit bilan en compagnie de Wired et de Sue Gardner

Lane Hartwell - Wikimedia Commons - CC by-saUn nouvel élément à ajouter à notre série d’articles sur Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Ici nous poursuivons avec Sue Gardner, la remarquable Executive Director de la Wikimedia Foundation, en procédant un peu à l’envers puisqu’après les perspectives vient le temps du bilan. On y évoque bien sûr la fiabilité mais aussi les récentes avancées, qui sont autant de projets, dans les milieux culturels et éducatifs.

Il est dit dans l’article que pour beaucoup de monde, Wikipedia concrétise à la perfection les premières promesses de l’Internet en proposant une « incarnation de ce que le Web peut offrir de mieux »[1]. Nous en faisons partie 😉

On y trouve également un passage qui devrait particulièrement intéresser les lecteurs du Framablog. Il s’agit d’une critique d’un ancien rédacteur en chef de l’encyclopédie Britannica. Vous me direz qu’il n’est pas forcément objectif mais l’argument avancé mérite à mon avis d’être commenté voire débattu :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Une décennie pour Wikipédia, le projet collaboratif emblématique

A decade of Wikipedia, the poster child for collaboration

Olivia Solon – 10 janvier 2011 -Wired UK
(Traduction Framalang : Goofy, Slystone, Marianne et Penguin)

À l’heure où Wikipédia fête son dixième anniversaire, Wired.co.uk s’entretient avec Sue Gardner, directrice de la Wikimedia Foundation, à propos du rôle de l’encyclopédie collaborative sur le Web et son plan de domination mondiale.

Wikipédia, beaucoup le considèrent encore comme un petit secret honteux. Un site que l’on consulte discrètement dès qu’une conversation au bureau dérive vers un domaine où l’on n’est pas spécialement à notre aise. Lorsqu’on y fait référence explicitement, c’est souvent en ajoutant bien vite qu’on connaît bien ses insuffisances. Nous avons tous l’habitude des sous-entendus sarcastiques qui accompagnent la phrase rituelle : « Si c’est dans Wikipédia, c’est que ça doit être vrai ». Mais ces sous-entendus ironiques se dissipent peu à peu à mesure que le système s’améliore et que consulter le site devient moins honteux et moins un secret chaque jour.

Exactement 10 ans après son lancement et 17 millions d’articles plus tard, la figure emblématique des projets collaboratifs fait désormais partie de la vie quotidienne du monde développé, avec de sérieuses percées en cours dans le reste du monde.

La personne chargée de mener à bien le développement de Wikipédia, c’est Sue Gardner, directrice de la Wikimédia Foundation. Ex-journaliste combative et directrice de CBC.ca, Mme Gardner a été recrutée en 2007 dans le but de développer une stratégie claire pour l’organisation à but non lucratif. Son principal défi était de s’assurer que la gigantesque communauté disparate de contributeurs du monde entier était bien en phase avec l’objectif commun. Selon le fondateur de Wikipédia Jimmy Wales, engager Mme Gardner a été « une des meilleures décisions que nous ayons prises ».

Les chiffres en témoignent : depuis l’embauche de cette brillante canadienne, les revenus ont en effet plus que triplé, et l’audience du site a augmenté de 85 %. Après une lecture approfondie des sources de revenus de la fondation et deux ans d’expériences diverses, elle s’est rendue compte que la meilleure stratégie consistait à cibler les dons privés d’un faible montant.

« Dans un monde à but non lucratif, on poursuit normalement deux objectifs bien distincts, la prise en charge des frais de service, et la production de revenus. Ces deux composantes sont généralement en déséquilibre. La plus grosse surprise en ce qui me concerne fut de découvrir que l’on pouvait harmoniser l’ensemble de manière à ce que les dons proviennent des mêmes personnes que celles à qui nous fournissons un service. »


En tant que cinquième site le plus visité dans le monde, son hébergement sur serveur a un coût conséquent. L’organisation à but non lucratif lance chaque année une opération de levée de fonds afin d’assurer le fonctionnement du site pour l’année suivante. La dernière campagne vient juste de se terminer, elle s’est soldée par la récolte de 16 millions de dollars donnés par 500 000 personnes.

Pour beaucoup de monde, Wikipedia concrétise à la perfection la vision des premières promesses de l’internet. Gardner s’aventure même à dire que c’est « l’incarnation de ce que le Web peut faire de mieux. »

« C’est la promesse que les gens vont travailler ensemble, c’est l’illustration de gens travaillant ensemble en confiance, c’est la démocratisation de l’information et de la liberté d’accès à l’information, malgré les nombreux et récurrents dangers qui la menacent. »

Joseph Reagle, auteur du livre The Good Faith Collaboration (NdT : La collaboration de bonne foi), et ancien étudiant à Harvard ajoute : « par défaut, l’interaction en ligne est faite pour ceux qui refusent de voir le pire chez les autres, même chez les nazis comme l’indique la loi de Godwin. Wikipedia au contraire, promeut et est dépendant de personnes collaborant ensemble en toute bonne foi. »

Quelles en sont les points faibles ? Gardner ne fait pas preuve de réserve : « c’est un travail qui progresse sans arrêt, on aura donc toujours besoin de faire mieux. Tous les aspects doivent être améliorés. »

Tandis que Wikipedia se concentre sur l’amélioration et l’expansion, le site est sous un feu constant de critiques de personnes qui l’accusent de ne pas être objectif, de ne pas être fiable, et de préférer, au cours du processus d’édition, le consensus plutôt que le mérite et les qualifications.

Robert McHenry, auteur et ancien rédacteur en chef de l’encyclopédie Britannica, résume ce qu’il décrit comme l’erreur fatale du modèle Wikipedia :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Il n’a certainement pas tort, il y a beaucoup d’exemples d’informations fausses, parfois diffamatoires, qui sont par exemple écrites sur des profils biographiques. Ainsi en 2005, John Seigenthaler Sr, assistant du ministre de la justice Robert Kennedy au début des années 60, journaliste reconnu et plus tard éditeur créateur de USA Today, fut la cible de vandalisme sur Wikipedia. Une fausse biographie de Wikipedia l’accusa d’être un suspect du meurtre de Kennedy. Et la notice resta en l’étant pendant 132 jours. Ceci illustre le biais systémique qui fait que les événements contemporains attirent bien plus l’attention (et le manque d’objectivité lié à l’absence de sources et de recul) que les événements plus anciens, et la culture pop bénéficie à ce titre d’une couverture disproportionnée.

Cela ne veut pas dire que les encyclopédies traditionnelles sont dépourvues d’erreurs. Il y a eu une série d’études comparant la fiabilité de Wikipedia avec d’autres encyclopédies (telle que l’enquête réalisée par Nature en 2006 comparant Wikipedia et Britannica), qui ont montré que la fiabilité de Wikipedia est en hausse. L’étude de Nature précitée révèle que les articles scientifiques de Wikipedia s’approchent du niveau d’exactitude de l’encyclopédie Britannica, et avait un taux équivalent « d’erreurs sérieuses ».

Gardner le concède : « En 2001, Wikipedia n’était pas une source d’information riche et complète, c’était très partiel. Mais chaque année et chaque jour, Wikipedia s’améliore. »

Elle décrit un changement d’attidude et de comportement dans le monde académique et les communautés culturelles. L’initiative GLAM (Galleries, Libraries, Archives, Museums) rapproche les utilisateurs de Wikipedia des membres des instituts culturels, y compris le British Museum, dans le but d’une part d’améliorer le contenu culturel de Wikipedia et d’autre part d’offrir aux institutions un espace pour exposer leurs collections.

Un événement à Londres en novembre dernier a réuni les représentants de quelques grands organismes culturels, afin de voir ensemble comment ils pouvaient contribuer davantage à Wikipedia (NdT : Un évènement similaire a également eu lieu en France).

Gardner dit : « c’était vraiment encourageant de voir les gardiens de la culture et du savoir considérer Wikipedia de plus en plus sérieusement. Cela ne serait pas arrivé cinq ans aupravant. »

Parallèlement s’est ouvert un programme de sensibilisation destiné au monde académique dans le but de contribuer à améliorer le contenu. Le Wikipedia Ambassador Program qui a débuté en 2010 implique et accompagne les enseignants qui veulent participer à Wikipedia à travers leurs cours. L’idée est d’agrandir la communauté des éditeurs tout en aidant les enseignants à avoir une utilisation plus aisée de Wikipedia.

Quand on lui demande si Wikipedia pourrait un jour être considéré comme une source crédible dans le monde académique, Gardner dit : « nous ne recommandons pas que les gens utilisent Wikipedia pour faire des citations dans leur travail, de même que nous ne recommandons pas qu’ils utilisent l’encyclopédie Britannica. Le but d’une encyclopédie est d’être un point de départ pour faire de la recherche. Vous pouvez apprendre les bases, et approfondir la lecture de l’article en regardant les références pour trouver et y suivre les sources originales. »

L’argument de la fiabilité, selon Gardner, passe à côté de la « véritable histoire » : l’accès à l’information a augmenté selon une courbe exponentielle. « Pour le lecteur d’information, le monde est radicalement meilleur qu’il ne l’était il y a 10 ans ou 20 ans. »

Quiconque âgé de plus de 20 ans se souvient du temps où, pour trouver des informations sur un obscur politicien, un artiste underground ou la dernière action militaire d’un pays en particulier, il fallait consulter une encyclopédie en 30 volumes, aller à la bibliothèque ou espérer qu’un adulte autour de vous ait la réponse.

Ayant épuisé ces possibilités, on s’était habitué au fait qu’on ne saurait probablement jamais. Ou en tout cas pas avant la sortie de la prochaine édition de l’encyclopédie et, même dans ce cas, sans la certitude que la question y serait traitée.

Aujourd’hui, tout le monde peut avoir un accés instantané et gratuit à la connaisance collective de centaines de milliers de personnes, mise à jour quotidiennement, et même, la plupart du temps, presque en temps réel. Dans ce contexte, le débat sur la fiabilité perd de son importance.

Notes

[1] Crédit photo : Lane Hartwell (Creative Commons By-Sa)




Promouvoir le logiciel libre dès la maternelle

Michelle Adcock - CC by-sa Il y a quelques temps nous recevions une question fort pertinente via le formulaire de contact du Framablog. Une question du genre de celles dont on n’improvise pas la réponse dans la foulée, et il arrive alors que les réponses se fassent attendre un moment. Toutefois, les réponses une fois construites peuvent valoir le coup d’être partagées… [1]

Le plus facile, en matière de réponses, est de demander à ceux qui savent. Et les forums sont là pour ça. Mais pour aider dans le processus, la piqûre de rappel est un instrument qui se révèle efficace, et ainsi, le jeune père d’élève dont émanait la question, croisé samedi dernier au cours de l’une des nombreuses manifestations d’opposition à la LOPPSI qui animèrent le pays, en usa avec talent…

Pour la petite histoire, c’est un candidat aux élections de parents d’élèves de son école qui posa la question et c’est entre autre à un élu que s’adresse cette réponse, avec toutes nos félicitations et nos encouragements.

La question se présentait de la manière suivante :

Bonjour

Je vais me présenter aux élections de parents d’élève pour ma fille de 3 ans, en maternelle des petits. J’ai souvent lu des articles très intéressants sur le libre à l’école dans le Framablog et je suis moi même pirate et libriste. Je me demande si vous pourriez me conseiller sur, au niveau maternelle des petits, quels sont les actions que je pourrais tenter et sensibilisations que je pourrais entreprendre au niveau de l’école et de la municipalité, depuis ce poste de représentant des parents d’élèves. […]

La réponse que nous avons à lui fournir, dans la droite lignée de la catégorie Éducation de ce blog, émane d’un directeur d’école et animateur TICE. Il l’a découpée en quatre volets que voici.

Des difficultés

À l’école, l’informatique pour les élèves ce sont les TICE (Technologie de l’Information et de la Communication à l’École) parfois appelées TUIC (« U » pour « usuelle »).

Eh bien les TICE, le matériel informatique, ne sont plus mentionnés pour le cycle maternel dans les programmes 2008 de l’Éducation Nationale. Pas interdits, mais pas mentionnés : même pas comme exemple de support d’écrit.

Le niveau de maîtrise de l’outil informatique est très inégal parmi les enseignant(e)s de maternelle.

La dotation en matériel, pour les écoles maternelles et élémentaires, est du ressort de la municipalité. Les écoles maternelles sont souvent les parents pauvres en matière d’équipement informatique : souvent un poste pour la direction d’école… et c’est tout. Les parents d’élèves peuvent apporter leur concours en trouvant du matériel de récupération.

Des aides

Une remarque préalable : les enseignant(e)s sont responsables de leur pédagogie. On peut les aider, voire les inciter, mais en aucun cas les contraindre à faire utiliser l’outil informatique par les élèves.

Le mode de fonctionnement de la plupart des classes maternelles (en ateliers à certains moments) est favorable à l’utilisation de postes, par petits groupes, parmi d’autres activités. Il est nécessaire que le matériel soit fiable, et que les logiciels soient adaptés pour permettre rapidement une autonomie des élèves à cet atelier.

Dans de nombreuses circonscriptions, il existe un animateur TICE : un enseignant partiellement détaché. Parmi ces missions, il doit apporter son concours aux enseignants désirant mettre en œuvre une pédagogie utilisant les TICE. Il serait judicieux de se rapprocher de lui.

Il existe des packs logiciels (regroupant système d’exploitation et logiciels ludo-éducatifs) très bien conçus, et utilisables dès la maternelle à l’école ou à la maison. Ils se présentent sous forme de live-CD (on fait démarrer la machine sur le lecteur de cédérom) et on est assuré que les données contenues sur le disque dur ne risquent rien. Pratique pour l’ordinateur familial. On peut aussi les copier sur une clé USB, et la rendre amorçable [2]. On peut enfin les copier sur le disque dur à la place du système d’exploitation déjà existant (intéressant dans le cas d’une vieille machine un peu à bout de souffle).

Des réalisations très intéressantes

Il existe aussi la version monoposte d’AbulEdu (notice Framasoft), l’excellent FramaDVD École (page projet) et enfin de très nombreuses applications pédagogiques libres fonctionnant sous Windows.

Une remarque pour finir

Il me semble très maladroit de se présenter comme «  pirate et libriste ». Ça ne peut que renforcer la confusion dans l’esprit de certains, qui assimilent les deux termes. Ça ne peut que rendre plus difficile votre démarche d’aide aux équipes enseignantes.

Soyons clairs : le piratage à l’école… on n’en veut pas.

Pour des raisons éthiques : nous avons une mission d’éducation civique et morale. Tricher, voler, utiliser des logiciels piratés est en contradiction totale avec une démarche éducative.

Item 2.3 du Brevet Informatique et Internet (B2i)
Si je souhaite récupérer un document, je vérifie que j’ai le droit de l’utiliser et à quelles conditions.

Pour des raisons militantes : on sait bien que les pirates de logiciels font le jeu des maisons d’édition en renforçant la présence de leurs produits, en les rendant plus utilisés, donc plus désirables.

Soyons fiers des logiciels libres !

Notes

[1] Crédit photo : Michelle Adcock Creative Commons By-Sa

[2] On devrait même dire : « amorçante »




Ce que pense Jimmy Wales des App Stores et de la Neutralité du Net

Joi Ito - CC byVoici une courte traduction qui fait en quelque sorte la jonction entre les 10 ans de Wikipédia et notre récent billet évoquant la difficile cohabitation entre l’App Store d’Apple et les logiciels libres.

Il n’y pas que les libristes qui critiquent ces plateformes et qui y voient un possible « nœud d’étranglement », il y a aussi le fondateur de Wikipédia[1].

Pour ce qui concerne la neutralité du Net, il se montre plus prudent en ne partageant pas l’alarmisme de certains, mais il reconnaît que son avis est « fluctuant » sur le sujet.

Jimmy Wales, de Wikipédia : les App stores, une menace claire et actuelle

Wikipedia’s Jimmy Wales: App stores a clear and present danger

John Lister – 13 janvier 2011 – Tech.Blorge
(Traduction Framalang : Olivier Rosseler)

Le modèle des plateforme de téléchargement d’application (NdT : ou App Stores, du nom de la plus célèbres d’entre elles, celle d’Apple) est une menace plus immédiate pour la liberté d’Internet que les entorses à la neutralité du Net. C’est l’opinion de Jimmy Wales, le boss de Wikipédia.

D’après Wales, qui a clairement insisté sur le fait qu’il parlait en son nom propre, les plateformes de téléchargement d’applications, comme l’App Store d’iTunes, peuvent devenir des « nœuds d’étranglements très dangereux. » D’après lui, il est temps d’évaluer si ce modèle est « une menace pour la variété et l’ouverture des écosystèmes » en avançant que « lorsque nous achetons un appareil, nous devrions en avoir le contrôle. »

Wales s’exprimait lors d’un évènement à Bristol, en Angleterre, à l’occasion de l’anniversaire des 10 ans de Wikipédia. Pour lui, les inquiétudes exprimées sur la neutralité du Net ne sont souvent qu’hypothétiques et ne représentent pas un danger immédiat. Il reconnaît cependant que le sujet est complexe et que sa propre opinion est « sujette aux fluctuations » (ce qui signifie apparemment qu’il ne suivrait pas aveuglément un principe strict quelle que soit la situation). Il trouve que les arguments de la campagne pour la neutralité du Net sont « largement alarmistes » et plus centrés sur des craintes que sur des faits.

Wales s’est livré à une session de questions/réponses après une présentation sur le passé, le présent et le futur de Wikipédia. Il y cite notamment le tweet d’un enseignant qui disait : « Hier, j’ai demandé à une de mes étudiantes si elle savait ce qu’est une encyclopédie et elle m’a répondu « Quelque chose comme Wikipédia ? ». » D’après Wales, de tels exemples montrent que « la qualité de Wikipédia est un enjeu culturel majeur. » Mais il insiste sur le fait que les étudiants ne devraient pas citer WIkipédia dans leurs essais ou leurs dissertations, ni aucune autre encyclopédie d’ailleurs.

Partant du constat que 87% des contributeurs de Wikipédia sont des hommes, d’âge moyen 26 ans, et que les docteurs sont deux fois plus représentés que dans la population globale, l’un des plus grands défis du site est, selon lui, de s’ouvrir à une population plus diverse de contributeurs. Une solution serait de simplifier le système d’édition, éliminer autant que possible tout ce qui fait appel aux codes. Il reconnaît en particulier que la création de tableaux est un véritable « cauchemar ».

Mais il insiste également sur le fait que Wikipédia ne déviera pas de son but premier. S’il concède que l’ajout de fonctionnalités comme les e-mails ou le chat pourrait attirer plus de visiteurs, ce qui est l’objectif de services commerciaux, cela ne profiterait pas nécessairement à la qualité du contenu de Wikipédia, qui, d’après lui, devrait « égaler celle de l’encyclopédie Britannica, voire faire mieux. »

Notes

[1] Crédit photo : Joi Ito (Creative Commons By)




Les 10 ans de Wikipédia : une occasion médiatique manquée pour le logiciel libre ?

Wikimedia Italia - CC by-saWikipédia célèbre ses dix ans et je me réjouis bien entendu d’observer que l’évènement bénéficie légitimement d’une large couverture médiatique.

En quantité mais aussi et surtout en qualité, car il semble définitivement révolu le temps de l’incompréhension voire d’une certaine hostilité de la grande presse vis-à-vis de l’encyclopédie. Avoir des articles dédiés (et éclairés) dans les versions papiers du Monde ou de Libération permet aussi de mesurer le chemin parcouru[1].

Vous me voyez cependant contraint ici de faire, l’espace d’un court instant, mon schtroumpf grognon au milieu du concert de louanges. Parce que lorsque l’on regarde un peu dans le détail la revue de presse francophone occasionnée par cette date anniversaire, on constate que le logiciel libre est totalement occulté.

Vous me direz que ce n’est ni le sujet, ni le lieu, ni le moment. Vous me direz qu’il est normal que les journalistes adoptent l’angle de l’interview des fondateurs, du témoignage de collaborateurs, ou du « Wikipédia, comment ça marche ? » (ou, mieux encore, « comment ça marche, alors que ça ne devrait pas marcher ! »). Vous me direz aussi que je pêche par égocentrisme libriste. Mais de là à ne jamais évoquer le logiciel libre…

Il est vrai aussi que cette affirmation péremptoire repose sur une méthode sujette à caution. J’ai ouvert à ce jour tous les articles francophones glanés sur le Web qui me semblaient parler des 10 ans de Wikipédia, en cherchant rapidement l’occurrence « libre » dans le corps du texte. Je suis parfois tombé sur « librement diffusable » ou « encyclopédie libre » mais jamais sur « logiciel(s) libre(s) » (ni « licence libre » d’ailleurs).

À une exception près, l’article du Monde (odieusement pompé ici) où l’on peut lire ceci :

Un projet un peu fou : concevoir une encyclopédie en ligne, gratuite, rédigée par des internautes, à laquelle tous, experts ou néophytes, pourraient contribuer, en créant, complétant ou corrigeant les articles grâce à un outil inspiré des logiciels libres, le « wiki  », permettant un travail collaboratif.

Oui, bien sûr, Wikipédia repose sur le logiciel libre Mediawiki, mais ce n’est pas, loin de là, le seul point commun et la seule filiation possible.

« Au commencement était Nupedia… », nous rapelle 01net. Tandis que Jimmy Wales soigne sa légende dans cette vidéo : « J’ai écrit Hello World et j’ai invité les gens à participer ». Factuellement parlant, c’est certainement bien là le début de cette extraordinaire aventure.

Mais cela n’aurait été ni scandaleux ni inopportun de remonter encore un peu plus loin, de remonter aux sources – si j’ose dire – en affirmant, pourquoi pas, que : « Au commencement était le logiciel libre… » (ceci dit, je vous l’accorde, au commencement était Internet aussi !).

Je ne prétends évidemment pas que Wikipédia n’aurait jamais existé sans le logiciel libre. Mais il est indéniable que son expérience, ses méthodes, ses outils (techniques et juridiques), ses combats (contre le copyright, les formats fermés, etc.) lui ont profité et ont participé à son succès. Dans un contexte historique où l’on dresse des bilans et expose la genèse, c’est dommage de ne pas l’avoir cité au moins une seule fois, cela aurait pu mettre la puce à l’oreille à de nombreux lecteurs lambdas.

La présidente de Wikimedia Fance, Adrienne Alix, a eu la bonne idée de récolter les témoignages de quelques pionniers présents aux tous débuts du projet. Morceaux choisis :

« À l’époque, on était en plein dans le haut de la vague du mouvement open source, et cette communauté de bénévoles créant une encyclopédie libre correspondait parfaitement à l’esprit de ce mouvement open source. » (Buzz)

« Wikipédia faisait déjà sensation dans le milieu Libre, projet titanesque qui faisait des petits dans le monde entier. » (Bobby)

« Wikipédia n’était à l’époque pas très connue du grand public mais on en parlait beaucoup dans le milieu du logiciel libre (…) C’est l’idée de transposer les concepts du logiciel libre à d’autres domaines, en dehors de l’informatique, que je trouvais séduisante. » (Polletfa)

« Le mouvement du logiciel libre partage lui aussi des connaissances, il manquait un outil pour le savoir d’une manière générale. » (Hashar)

« Venant du logiciel libre et du monde de l’informatique, j’étais idéologiquement et pratiquement prédisposé à aimer Wikipedia. Trouver Wikipédia formidable allait donc de soi pour moi (…) Je me suis investi plus car j’y ai vu rapidement la promesse de voir les principes du logiciel libre dépasser le cadre de l’informatique (…) La motivation était donc avant tout politique. » (Kelson)

« A la fois partager mes connaissances mais aussi encourager l’esprit du libre, du gratuit, par opposition à la logique financière. Je suis, bien évidemment, un grand défenseur des logiciels libres, et de la libre diffusion de la culture et de l’information. Les droits d’auteur sont une notion dépassée et surclassée par les technologie de l’information ! » (Tonnelier)

Je précise que nous ne sommes pas le seuls à souligner cette filiation, puisque même l’article Wikipédia de Wikipédia le dit 😉

Wikipédia vise à être une encyclopédie libre, ce qui signifie que chacun est libre de recopier l’encyclopédie, de la modifier et de la redistribuer. Cette notion de contenu libre découle de celle de logiciel libre, formulée avant Wikipédia par la Free Software Foundation.

Par ses objectifs et son fonctionnement, le projet Wikipédia s’inscrit dans une série de filiations culturelles dont le concept du copyleft, inventé par Don Hopkins et popularisé par Richard Stallman de la Free Software Foundation, par lequel un auteur autorise tout utilisateur à copier, modifier et distribuer son œuvre, mais aux mêmes conditions d’utilisation, y compris dans les versions modifiées ou étendues, ainsi que la pratique du travail collaboratif sur Internet, développé notamment chez les informaticiens par les adeptes du logiciel libre.

Qu’un journaliste ait bien compris ce lien fort entre Wikipédia et logiciel libre mais l’ait ignoré par manque de place ou parce qu’il le jugeait secondaire, cela m’attriste mais c’est son choix au demeurant tout à fait respectable. Mais Il y a une autre hypothèse, celle du journaliste non informé sur qui l’on ne risque pas encore de pouvoir compter.

Ni sentiment d’ingratitude, et encore moins de jalousie, juste une pointe de frustration pour ceux qui, comme moi, travaillent à faire la promotion du logiciel libre en France et en Navarre. Sur ce, pas de quoi en faire un fromage, et je m’en retourne faire la fête avec mes amis wikipédiens 😉

Avant je disais : « Wikipédia, c’est comme un logiciel libre mais pour les encyclopédies ». Désormais je vais privilégier la formule : « Un logiciel libre, c’est comme Wikipédia mais pour les logiciels ».

Notes

[1] Crédit photo : Wikimedia Italia (Creative Commons By) – « Tieni accesa Wikipedia » – Il est remarquable de constater que les trams du centre ville de Milan ont participé à la campagne de dons en offrant des tarifs préférentiels à l’association Wikimedia Italia.




Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing

Diego da Silva - CC byLorsque Richard Stallman s’exprime, il ne laisse généralement pas la Toile indifférente. Ce qui se comprend aisément puisque, Microsoft, Apple, Facebook, Google…, il critique ouvertement et radicalement ce que tout le monde ou presque utilise au quotidien.

Son récent avis sur le Cloud Computing en général et Google Chrome OS en particulier dans un article du Guardian que nous venons de traduire ne déroge pas à la règle[1].

Jusqu’à donner l’idée à Katherine Noyes de compiler quelques interventions lues dans les commentaires de l’article ainsi que sur le célèbre site Slashdot. Avec ce terrible constat qui ouvre le billet et que je retourne en question aux lecteurs du Framablog : Pensez-vous que Stallman a perdu ?

Déluge de critiques de Stallman sur le Cloud : Prudence ou Paranoïa ?

Stallman’s Cloudburst: Prudence or Paranoia?

Katherine Noyes – 20 décembre 2010 – E-Commerce Times
Traduction Framalang : Olivier Rosseler)

« Je vais pouvoir annoncer à notre bon vieux RMS qu’il a perdu », nous dit hairyfeet, blogueur chez Slashdot. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. »

Quand Richard Stallman s’exprime, la communauté du logiciel libre écoute en général, on en a eu une nouvelle démonstration dans la blogosphère Linux la semaine passée.

C’est à l’occasion de la sortie de Chrome OS, le nouveau système d’exploitation de Google, que le fondateur de la Free Software Foundation a donné son avis, et, fidèle à ses principes, on peut dire qu’il ne nous a pas déçus.

La technologie peut « entraîner les gens à utiliser l’informatique imprudemment », confie Stallman au journal The Guardian, lorsqu’elle leur demande de confier leurs données aux nuages plutôt qu’à des machines dont ils ont le contrôle. Pour Stallman, une forte dépendance au nuage est même « pire que stupide. »

Voilà une opinion forte, à n’en pas douter, mais les réactions qui s’ensuivirent dans la blogosphère n’en furent pas moins fortes.


« Il a complétement raison »

Dans les commentaires ici même sur LinuxInsider, phatpingu qualifie les idées de Stallman d’étriquées. « Je trouve ça assez incroyable qu’il imagine que ces questions n’aient pas été soulevées et débattues en interne chez Google et qu’il pense qu’aucune mesure ou règle définissant la propriété des contenus n’ait été mise en place. »

amicus_curious, lui, oppose un avis plus neutre : « C’est toujours difficile de savoir si RMS se donne en spectacle ou s’il croit vraiment en ce qu’il dit. Mais Chrome OS et le nuage de Google n’ont pas grand-chose à craindre du mépris de Stallman. »

Puis il y a aussi ceux qui partagent ses idées. Parmi la centaine de commentaires qu’a reçus l’article du Guardian, blossiekins écrit : « Il a complètement raison. L’informatique dans les nuages ne fait qu’encourager l’ignorance et la nonchalance des utilisateurs vis-à-vis de leurs données et de ce qui en est fait. »

« Google n’est pas un joli Bisounours qui veut s’occuper de vos données simplement parce qu’il est gentil, il veut s’en occuper parce que ça lui apporte des informations », poursuit blossiekins. « Et plus les choses avancent, plus les risques font froid dans le dos. »

Depuis quelques jours, les arguments pro et anti Stallman résonnent dans la blogosphère, Linux Girl décida alors d’en savoir plus. L’impression dominante dans la blogosphère ne tarda pas à se faire entendre.

L’avantage des logiciels libres

« RMS a évidemment raison », d’après le blogueur Robert Pogson en réponse à Linux Girl, par exemple. « Pour utiliser Chrome, il faut faire confiance au nuage, ce qui est le cas de la plupart d’entre nous. »

Prenez, par exemple, Facebook, suggère Pogson.

« Des centaines de millions de personnes y passent des heures, malgré les innombrables problèmes de sécurité que le site a connus cette année », fait-il remarquer. « Des millions d’utilisateurs font confiance à Google et M$ aussi, mais je pense qu’ils le regretteront tôt ou tard. Je ferais bien plus confiance à un nuage construit avec des outils libres plutôt qu’à un trou noir. »

Pogson rappelle que le nuage a de gros avantages, économiquement parlant, principalement dus aux économies d’échelle dont peuvent bénéficier les grandes entreprises comme Google.

« Les particuliers comme les PME seront tentés d’externaliser leurs emails, leurs données, leurs sauvegardes et la gestion de leurs documents dans le nuage », prédit-il. « Je m’attends à une explosion du marché du nuage en 2011, ainsi que de celui des logiciels libres. Choisir des outils libres plutôt que ceux de M$ ou des solutions « maison » dans les nuages apportera des avantages. »

« La fin de la vie privée »

En effet, « ça me fait mal de l’avouer, vraiment, mais je suis d’accord avec RMS », commence hairyfeet, blogueur chez Slashdot. « Nous offrons les détails de nos vies entières à ces méga-entreprises, et le pire, c’est qu’en retour on ne reçoit rien, même pas un bonbon ou un rabais de 20% sur notre prochain achat. »

« C’est la raison pour laquelle j’ai changé de navigateur, pas pour Chrome ou même Chromium, mais pour Comodo Dragon, dont la philosophie est NE ME PISTEZ PAS », dit hairyfeet.

Malheureusement « Je peux dire à notre bon vieux RMS qu’il a perdu », poursuit-il. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. » Ils ne se rendent sûrement même pas compte « qu’une fois identifiés sur Facebook, ils sont reconnus par quasiment TOUS LES SITES, puisqu’ils sont presques tous interconnectés maintenant. En naviguant, ils laissent donc derrière eux des traces aussi visibles qu’un A380 partout où ils vont », ajoute-t-il.

Alors, « je suis désolé mon bon vieux hippie, mais c’est la fin de la vie privée, tuée par l’ego surdimensionné des gens », conclut hairyfeet.

« Le nuage ? Un effet de mode »

« Je pense que le nuage n’est qu’un effet de mode. On perd le contrôle de nos propres données, en espérant simplement que notre fournisseur fasse bien son boulot avec les sauvegardes », témoigne Gerhard Mack, consultant à Montréal et blogueur pour Slashdot. « Et que faire lorsque je n’ai pas accès à Internet ? ».

Et c’est vraiment « ce qui me gêne le plus avec mon téléphone sous Android », dit-il. « La plupart des applications ont besoin d’une connexion pour fonctionner, mais qu’est-ce que je peux faire si je suis dans une petite ville où j’arrive à peine à capter un réseau 2G et que j’ai besoin des indications du GPS ? Et si j’ai besoin de me servir du traducteur espagnol dans un sous-sol ? »

« C’est du vécu, et ça me laisse penser que le nuage a encore des fortes lacunes », conclut-il.

« Les petites lignes vous (en) privent »

« RMS a absolument raison à propos de l’informatique dans les nuages » acquiesce Barbara Hudson, blogueuse chez Slashdot, plus connue sous le pseudo de Tom sur le site. « Il faut être très attentif lorsqu’on sacrifie notre vie privée sur l’autel de la facilité. »

Les règles de partage de l’information de Gmail, par exemple, sont faites pour « protéger Google, pas pour vous protéger vous, si quelque chose se passe mal », nous explique Hudson. « Pour dire les choses autrement : ce que les grandes lignes vous offrent, les petits lignes vous en privent. »

Mais elle fait tout de même remarquer que Google a déjà, par le passé, refusé de partager avec le gouvernement ses historiques de recherche détaillés.

« Mais bien malin celui qui saura dire ce que nous réserve l’avenir. N’oublions pas que si le magazine Time n’a pas choisi Julien Assange comme personnalité de l’année, c’est, au moins en partie, par peur d’être placé sur la liste noire du gouvernement, aux côtés du New York Times ainsi que cinq autres journaux » dit Hudson.

« Je veux une garantie »

Il faut alors bien vous demander si « vous voulez vraiment que votre hébergeur dans les nuages et ses associés puissent exploiter vos projets commerciaux, vos feuilles de calcul et votre correspondance, professionnelle et personnelle », s’interroge Hudson. « Ou encore si vous désirez devenir la cible d’une perquisition demandée par votre ex-épouse ou par un tordu avec une idée derrière la tête? »


Elle conclut en disant que « Au moins, lorsqu’il s’agit de mon propre disque dur je peux encore dire : Il me faudrait un peu plus qu’une confiance raisonnable, il me faut une garantie ».

Notes

[1] Crédit photo : Diego da Silva (Creative Commons By)




Où est le bouton « J’aime pas » Facebook ?

ZuckRépondons sans attendre à la question du titre. Vous trouverez la version française du bouton « J’aime pas » Facebook, ci-dessous, sur le Framablog ! Explications…

Il aurait pu faire comme Le Monde et désigner Julian Assange mais non, le célèbre hebdomadaire américain Time Magazine a choisi le fondateur de Facebook Mark Zuckerberg comme Personnalité de l’année 2010.

Et cette décision est restée un peu en travers de la gorge de la Free Software Foundation, qui du coup vous propose une contre-offensive en détournant ce pernicieux espion traceur que représente le bouton Facebook « J’aime », qui pullule déjà sur d’aussi naïfs que nombreux sites.

Bouton que notre ami Poupoul2 s’est fait un plaisir d’adapter à notre langue et que vous trouverez en pièce-jointe (au format .SVG) à la fin de la traduction du billet de la FSF expliquant et justifiant cette action.

À partager et diffuser sans modération si affinités dans la démarche.

J'aime pas Facebook

Mark Zuckerberg, personnalité de l’année selon TIME Magazine ? Où est le bouton « J’aime pas » ?

Mark Zuckerberg is TIME Magazine’s Person of the Year? Where’s the “dislike” button?

Matt Lee et John Sullivan – 4 janvier 2011 – FSF.org
(Traduction Framalang : Julien et Antistress)

TIME Magazine fait l’éloge de Mark Zuckenberg pour avoir créé un système qui a interconnecté les gens du monde entier.

Malheureusement, les conditions sous lesquelles il prétend avoir réalisé cela a créé un épouvantable précédent pour notre avenir — s’agissant de la maîtrise des logiciels que nous utilisons pour interagir avec les autres, du contrôle de nos données et de notre vie privée. Les dégâts ne sont pas limités aux utilisateurs de Facebook. Parce que tant de sites — y Compris TIME — utilisent le bouton Facebook « J’aime » de traçage des internautes, Zuckerberg, est capable de collecter des informations sur des personnes qui ne sont même pas utilisatrices de son site. Ce sont des précédents qui entravent notre capacité à nous connecter librement les uns aux autres. Il a créé un réseau qui est avant tout une mine d’or pour la surveillance gouvernementale et les annonceurs publicitaires.

Tout cela est bien connu s’agissant du comportement du site Facebook lui-même et de ses relations avec l’extérieur — mais les choses pourraient s’avérer en fait bien pires. Les utilisateurs de Facebook ne se connectent pas directement entre eux. Ils parlent à M. Zuckenberg qui commence par enregistrer et stocker tout ce qui est dit, et, alors seulement, le transmet éventuellement à l’utilisateur destinataire, si ce qui est dit lui convient. Dans certains cas, il ne le fait pas — comme en sont témoins les récents comptes-rendus montrant que le service de messagerie de Facebook bloque des messages en se basant sur les mots et liens qu’ils contiennent, parce que ces liens pointent vers des services que Facebook préférerait que l’on évite de mentionner.

Heureusement, il y a de nombreux efforts en cours pour fournir des services distribués, contrôlés par l’utilisateur, permettant de faciliter la mise en relation entre les gens, dont GNU social, status.net, Crabgrass, Appleseed et Diaspora. Ces services n’auront pas les mêmes types de problèmes parce qu’à la fois le code permettant le fonctionnement du réseau et les données échangées seront entre les mains des gens qui communiquent.

Ces efforts finiront par être couronnés de succès. Nous espérons que, lorsque ce sera le cas, TIME réparera son erreur d’appréciation en décernant le titre de la Personnalité de l’année avec plus de discernement.

Not Facebooked Me - FSF

Copiez et collez ce code dans votre propre site :

<a href="http://www.fsf.org/fb"><img src="http://static.fsf.org/nosvn/no-facebook-me.png" alt="Not f'd — you won't find me on Facebook" /></a>

En attendant, vous pouvez encourager les gens à ne pas se connecter à Zuckenberg lorsqu’ils croient qu’ils se mettent en rapport avec vous, en plaçant ce bouton sur votre blogue ou site web, avec un lien vers la méthode que vous préférez qu’ils utilisent pour vous contacter directement — peut-être votre compte sur identi.ca ou tout autre serveur status.net.

Sinon, vous pouvez faire pointer un lien vers ce billet ou tout autre article qui souligne les problèmes avec Facebook, tel que « Des amis tels que ceux-ci… » (NdT : dont il existe une traduction en français) de Tom Hodgkinson, ou les ressources disponibles sur http://autonomo.us — en particulier la « Déclaration sur la Liberté et les Services Réseaux de Franklin Street » (NdT : nommée d’après l’adresse des bureaux de la FSF à Boston).

Notre bouton n’est évidemment pas relié à une quelconque base de données de surveillance ou autre système de traçage.

Téléchargez notre bouton « J’aime pas » et ajoutez le à votre site web, ou imprimez vos propres autocollants.

Tous les boutons sont mis à disposition sous la licence Creative Commons Paternité – Partage des Conditions Initiales à l’Identique (CC BY SA).

Vous êtes libre de modifier les boutons, mais veuillez garder la mention des créateurs originaux intacte, et assurez-vous que vos boutons soient sous la même licence.

Vous ne me trouverez pas sur Facebook