Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




Internet favorise l’anglicisation, la robotisation et la globalisation du monde ?

Pink Sherbet Photography - CC byUne courte traduction à la sauce « Café Philo » qui n’est là que pour engager un petit débat avec vous dans les commentaires si vous le jugez opportun.

Anglicisation, machinisation et mondialisation sont ici trois arguments qui font dire à l’auteur qu’Internet est loin d’être neutre et nous oblige implicitement ou explicitement à adopter certaines valeurs, avec toutes les conséquences que cela implique[1].

Peut-être ne serez-vous pas d’accord ? Peut-être estimerez-vous que l’on enfonce des portes ouvertes ? Peut-être ajouterez-vous d’autres éléments à la liste ?

Les commentaires vous attendent, même si il est vrai que le débat s’est lui aussi déplacé, des forums et des blogs vers les Facebook et Twitter (et en se déplaçant il a changé de nature également).

Un billet à rapprocher par exemple des articles suivant du Framablog : Code is Law – Traduction française du célèbre article de Lawrence Lessig, Internet et Google vont-ils finir par nous abrutir ?, Quand Internet croit faire de la politique ou encore notre Tag sur Bernard Stiegler.

Utiliser Internet nous force-t-il à adhérer automatiquement à certaines valeurs ?

Does the use of the internet automatically force us to accept certain values?

Michel Bauwens – 19 janvier 2011 – P2P Foundation
(Traduction Framalang : Martin et Goofy)


Ci-dessous une intervention de Roberto Verzola, extraite de la liste de diffusion « p2p-foundation » :

« Je suis assez d’accord avec Doug Engelbart, l’inventeur de la souris, quand il dit que nous façonnons nos outils, et que nos outils nous façonnent à leur tour. Il parle d’une co-évolution de l’homme et de ses outils. Nous devrions peut-être appeler cela « un déterminisme réciproque ». Quand il dit « nous façonne », je suppose que le « nous » désigne aussi les relations sociales.

E.F. Schumacher (Small is Beautiful) va plus loin encore et je suis aussi entièrement d’accord avec lui. Il écrit (dans Work) que dès lors que nous adoptons une technologie (conçue par quelqu’un d’autre probablement), nous absorbons l’idéologie (une manière de voir les choses, un système de valeurs) qui va avec. Schumacher pensait que beaucoup de technologies venaient imprégnées d’idéologies, et que ceux qui pensaient pourvoir en importer une en refoulant l’idéologie qui va avec se trompent. Cette vision met sûrement plus l’accent sur le « déterminisme technologique » que celle de Engelbart, mais je pense tout de même que E.F. Schumacher a raison, du moins pour certaines technologies.

En fait, j’ai analysé Internet avec la perspective de Schumacher, et j’y ai trouvé quelques états d’esprit et systèmes de valeurs que ses utilisateurs sont obligés d’absorber, souvent sans en prendre conscience (pour avoir la liste entière suivre ce lien). Il me suffira d’en mentionner trois :

1. L’usage généralisé de l’anglais dans les technologies liées à Internet, jusqu’aux micro-codes des microprocesseurs, nous force à apprendre l’anglais. Et si vous apprenez la langue anglo-saxonne, vous allez sûrement acquérir certains goûts anglo-saxons. Apprendre la langue, c’est choisir la culture.

2. L’esprit de robotisation : remplacer les hommes par des machines. Cela prend du sens dans un pays riche en capital (même si ça se discute), mais beaucoup moins dans un pays où le travail prévaut. Quand nous remplaçons la force musculaire par celle des machines, nous sommes en moins bonne santé. Mais que va-t-il se passer si l’on substitue des machines au travail mental ?

3. Le parti pris implicite (en fait, une subvention) en faveur des acteurs globaux, et pour la mondialisation. C’est flagrant si l’on considère la struture des coûts sur Internet : un prix indépendant des distances. Un fichier de 1 Mo envoyé à un collègue utilisant le même fournisseur d’accès à Internet coûte le même prix qu’un fichier de taille équivalente envoyé à l’autre bout du globe. Pourtant le deuxième utilise bien plus de ressources réseau (serveurs, routeurs, bande passante, etc.) que le premier. Ainsi les utilisateurs locaux paient plus par unité de consommation de ressources que les utilisateurs globaux, ce qui est une subvention déguisée à la mondialisation intégrée à Internet tel qu’il est aujourd’hui.

Devons-nous pour autant rejeter cette technologie ? La réponse de Schumacher dans les années 1970 était une technologie intermédiaire/appropriée. Aujourd’hui, Schumacher reste pertinent, seul le vocabulaire a peut-être changé. J’ajouterais que nous devons aussi être impliqués dans la re-conception de la technologie. C’est pourquoi parler d’un Internet alternatif sur cette liste m’intéresse beaucoup.

Je ne voudrais pas m’attacher à priori à une conception figée, que ce soit celle des « choses » qui déterminent les relations sociales, ou celle des relations sociales qui déterminent les « choses ». Je voudrais explorer ces perspectives au cas par cas, et utiliser toute suggestion nouvelle et utile qui pourrait se présenter, qu’elle puisse venir de l’une ou de l’autre (ou des deux). »

Notes

[1] Crédit photo : Pink Sherbet Photography (Creative Commons By)




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




Wikipedia a 10 ans : Un petit bilan en compagnie de Wired et de Sue Gardner

Lane Hartwell - Wikimedia Commons - CC by-saUn nouvel élément à ajouter à notre série d’articles sur Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Ici nous poursuivons avec Sue Gardner, la remarquable Executive Director de la Wikimedia Foundation, en procédant un peu à l’envers puisqu’après les perspectives vient le temps du bilan. On y évoque bien sûr la fiabilité mais aussi les récentes avancées, qui sont autant de projets, dans les milieux culturels et éducatifs.

Il est dit dans l’article que pour beaucoup de monde, Wikipedia concrétise à la perfection les premières promesses de l’Internet en proposant une « incarnation de ce que le Web peut offrir de mieux »[1]. Nous en faisons partie 😉

On y trouve également un passage qui devrait particulièrement intéresser les lecteurs du Framablog. Il s’agit d’une critique d’un ancien rédacteur en chef de l’encyclopédie Britannica. Vous me direz qu’il n’est pas forcément objectif mais l’argument avancé mérite à mon avis d’être commenté voire débattu :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Une décennie pour Wikipédia, le projet collaboratif emblématique

A decade of Wikipedia, the poster child for collaboration

Olivia Solon – 10 janvier 2011 -Wired UK
(Traduction Framalang : Goofy, Slystone, Marianne et Penguin)

À l’heure où Wikipédia fête son dixième anniversaire, Wired.co.uk s’entretient avec Sue Gardner, directrice de la Wikimedia Foundation, à propos du rôle de l’encyclopédie collaborative sur le Web et son plan de domination mondiale.

Wikipédia, beaucoup le considèrent encore comme un petit secret honteux. Un site que l’on consulte discrètement dès qu’une conversation au bureau dérive vers un domaine où l’on n’est pas spécialement à notre aise. Lorsqu’on y fait référence explicitement, c’est souvent en ajoutant bien vite qu’on connaît bien ses insuffisances. Nous avons tous l’habitude des sous-entendus sarcastiques qui accompagnent la phrase rituelle : « Si c’est dans Wikipédia, c’est que ça doit être vrai ». Mais ces sous-entendus ironiques se dissipent peu à peu à mesure que le système s’améliore et que consulter le site devient moins honteux et moins un secret chaque jour.

Exactement 10 ans après son lancement et 17 millions d’articles plus tard, la figure emblématique des projets collaboratifs fait désormais partie de la vie quotidienne du monde développé, avec de sérieuses percées en cours dans le reste du monde.

La personne chargée de mener à bien le développement de Wikipédia, c’est Sue Gardner, directrice de la Wikimédia Foundation. Ex-journaliste combative et directrice de CBC.ca, Mme Gardner a été recrutée en 2007 dans le but de développer une stratégie claire pour l’organisation à but non lucratif. Son principal défi était de s’assurer que la gigantesque communauté disparate de contributeurs du monde entier était bien en phase avec l’objectif commun. Selon le fondateur de Wikipédia Jimmy Wales, engager Mme Gardner a été « une des meilleures décisions que nous ayons prises ».

Les chiffres en témoignent : depuis l’embauche de cette brillante canadienne, les revenus ont en effet plus que triplé, et l’audience du site a augmenté de 85 %. Après une lecture approfondie des sources de revenus de la fondation et deux ans d’expériences diverses, elle s’est rendue compte que la meilleure stratégie consistait à cibler les dons privés d’un faible montant.

« Dans un monde à but non lucratif, on poursuit normalement deux objectifs bien distincts, la prise en charge des frais de service, et la production de revenus. Ces deux composantes sont généralement en déséquilibre. La plus grosse surprise en ce qui me concerne fut de découvrir que l’on pouvait harmoniser l’ensemble de manière à ce que les dons proviennent des mêmes personnes que celles à qui nous fournissons un service. »


En tant que cinquième site le plus visité dans le monde, son hébergement sur serveur a un coût conséquent. L’organisation à but non lucratif lance chaque année une opération de levée de fonds afin d’assurer le fonctionnement du site pour l’année suivante. La dernière campagne vient juste de se terminer, elle s’est soldée par la récolte de 16 millions de dollars donnés par 500 000 personnes.

Pour beaucoup de monde, Wikipedia concrétise à la perfection la vision des premières promesses de l’internet. Gardner s’aventure même à dire que c’est « l’incarnation de ce que le Web peut faire de mieux. »

« C’est la promesse que les gens vont travailler ensemble, c’est l’illustration de gens travaillant ensemble en confiance, c’est la démocratisation de l’information et de la liberté d’accès à l’information, malgré les nombreux et récurrents dangers qui la menacent. »

Joseph Reagle, auteur du livre The Good Faith Collaboration (NdT : La collaboration de bonne foi), et ancien étudiant à Harvard ajoute : « par défaut, l’interaction en ligne est faite pour ceux qui refusent de voir le pire chez les autres, même chez les nazis comme l’indique la loi de Godwin. Wikipedia au contraire, promeut et est dépendant de personnes collaborant ensemble en toute bonne foi. »

Quelles en sont les points faibles ? Gardner ne fait pas preuve de réserve : « c’est un travail qui progresse sans arrêt, on aura donc toujours besoin de faire mieux. Tous les aspects doivent être améliorés. »

Tandis que Wikipedia se concentre sur l’amélioration et l’expansion, le site est sous un feu constant de critiques de personnes qui l’accusent de ne pas être objectif, de ne pas être fiable, et de préférer, au cours du processus d’édition, le consensus plutôt que le mérite et les qualifications.

Robert McHenry, auteur et ancien rédacteur en chef de l’encyclopédie Britannica, résume ce qu’il décrit comme l’erreur fatale du modèle Wikipedia :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Il n’a certainement pas tort, il y a beaucoup d’exemples d’informations fausses, parfois diffamatoires, qui sont par exemple écrites sur des profils biographiques. Ainsi en 2005, John Seigenthaler Sr, assistant du ministre de la justice Robert Kennedy au début des années 60, journaliste reconnu et plus tard éditeur créateur de USA Today, fut la cible de vandalisme sur Wikipedia. Une fausse biographie de Wikipedia l’accusa d’être un suspect du meurtre de Kennedy. Et la notice resta en l’étant pendant 132 jours. Ceci illustre le biais systémique qui fait que les événements contemporains attirent bien plus l’attention (et le manque d’objectivité lié à l’absence de sources et de recul) que les événements plus anciens, et la culture pop bénéficie à ce titre d’une couverture disproportionnée.

Cela ne veut pas dire que les encyclopédies traditionnelles sont dépourvues d’erreurs. Il y a eu une série d’études comparant la fiabilité de Wikipedia avec d’autres encyclopédies (telle que l’enquête réalisée par Nature en 2006 comparant Wikipedia et Britannica), qui ont montré que la fiabilité de Wikipedia est en hausse. L’étude de Nature précitée révèle que les articles scientifiques de Wikipedia s’approchent du niveau d’exactitude de l’encyclopédie Britannica, et avait un taux équivalent « d’erreurs sérieuses ».

Gardner le concède : « En 2001, Wikipedia n’était pas une source d’information riche et complète, c’était très partiel. Mais chaque année et chaque jour, Wikipedia s’améliore. »

Elle décrit un changement d’attidude et de comportement dans le monde académique et les communautés culturelles. L’initiative GLAM (Galleries, Libraries, Archives, Museums) rapproche les utilisateurs de Wikipedia des membres des instituts culturels, y compris le British Museum, dans le but d’une part d’améliorer le contenu culturel de Wikipedia et d’autre part d’offrir aux institutions un espace pour exposer leurs collections.

Un événement à Londres en novembre dernier a réuni les représentants de quelques grands organismes culturels, afin de voir ensemble comment ils pouvaient contribuer davantage à Wikipedia (NdT : Un évènement similaire a également eu lieu en France).

Gardner dit : « c’était vraiment encourageant de voir les gardiens de la culture et du savoir considérer Wikipedia de plus en plus sérieusement. Cela ne serait pas arrivé cinq ans aupravant. »

Parallèlement s’est ouvert un programme de sensibilisation destiné au monde académique dans le but de contribuer à améliorer le contenu. Le Wikipedia Ambassador Program qui a débuté en 2010 implique et accompagne les enseignants qui veulent participer à Wikipedia à travers leurs cours. L’idée est d’agrandir la communauté des éditeurs tout en aidant les enseignants à avoir une utilisation plus aisée de Wikipedia.

Quand on lui demande si Wikipedia pourrait un jour être considéré comme une source crédible dans le monde académique, Gardner dit : « nous ne recommandons pas que les gens utilisent Wikipedia pour faire des citations dans leur travail, de même que nous ne recommandons pas qu’ils utilisent l’encyclopédie Britannica. Le but d’une encyclopédie est d’être un point de départ pour faire de la recherche. Vous pouvez apprendre les bases, et approfondir la lecture de l’article en regardant les références pour trouver et y suivre les sources originales. »

L’argument de la fiabilité, selon Gardner, passe à côté de la « véritable histoire » : l’accès à l’information a augmenté selon une courbe exponentielle. « Pour le lecteur d’information, le monde est radicalement meilleur qu’il ne l’était il y a 10 ans ou 20 ans. »

Quiconque âgé de plus de 20 ans se souvient du temps où, pour trouver des informations sur un obscur politicien, un artiste underground ou la dernière action militaire d’un pays en particulier, il fallait consulter une encyclopédie en 30 volumes, aller à la bibliothèque ou espérer qu’un adulte autour de vous ait la réponse.

Ayant épuisé ces possibilités, on s’était habitué au fait qu’on ne saurait probablement jamais. Ou en tout cas pas avant la sortie de la prochaine édition de l’encyclopédie et, même dans ce cas, sans la certitude que la question y serait traitée.

Aujourd’hui, tout le monde peut avoir un accés instantané et gratuit à la connaisance collective de centaines de milliers de personnes, mise à jour quotidiennement, et même, la plupart du temps, presque en temps réel. Dans ce contexte, le débat sur la fiabilité perd de son importance.

Notes

[1] Crédit photo : Lane Hartwell (Creative Commons By-Sa)




Pourquoi plus de dix ans de retard pour l’informatique à l’école ?

QThomas Bower - CC by-saAuriez-vous deviné que l’article que nous vous proposons aujourd’hui date de 1998 ? Oui car il est question de francs et non d’euros, mais sinon force est de constater qu’il est toujours d’actualité.

On pourrait même ajouter qu’il est malheureusement toujours d’actualité car les arguments avancés restent pertinents alors que, douze ans plus tard, les solutions envisagées n’ont toujours pas été prises. Et il est alors légitime de se demander pourquoi, et qui a et a eu intérêt à ce qu’il soit urgent de ne rien faire.

J’ai donc voulu profiter du fait que le Framablog est relativement bien intégré dans la sphère des blogs et autres réseaux sociaux pour le sortir de sa naphtaline et vous le faire partager. Nous devons cet article à Bernard Lang, directeur de recherche à l’Inria et membre fondateur de l’AFUL.

Le sujet de la place de l’informatique à l’école est un sujet qui semble a priori un peu à la marge des logiciels libres. Il n’en est rien pourtant. Et c’est pourquoi nous publions régulièrement des articles sur ce thème, en soutenant le travail, enfin proche d’aboutir, de Jean-Pierre Archambault et d’autres, au sein notamment de l’EPI et de l’ASTI :

C’est aussi pourquoi notre collection de livres libres Framabook accueille des titres comme Le C en 20 heurs ou Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander.

Il ne s’agit pas de faire de tout citoyen un programmeur chevronné. Mais logiciels (libres ou pas), données (personnelles ou pas), réseaux, Cloud Computing, Internet (filtrage, neutralité), Hadopi, Acta, Loppsi, Facebook, Microsoft, Apple, Google, Wikileaks, Anonymous… comment comprendre et appréhender au mieux ce nouveau monde si l’on n’a pas un minimum de culture informatique ?

Parce que dans le cas contraire, on se met alors tranquillement à accepter, pour ne pas dire applaudir, l’entrée des iPad dans nos écoles, ce qui devrait d’ailleurs être le sujet de mon prochain billet[1].

L’Informatique : Science, Techniques et Outils

URL d’origine du document

Bernard Lang (INRIA) – décembre 1998

(Présenté à LexiPraxi 98, journée de réflexion sur le theme «Former des citoyens pour maîtriser la société de l’information», organisée le 9 décembre 1998 à la Maison de l’Europe (Paris) par l’AILF. L’auteur remercie Pierre Weis pour sa relecture et ses nombreux commentaires.)

« Le développement extrêmement rapide des technologies de l’information et de la communication ouvre un formidable potentiel de croissance et de création d’emplois, mêlant des enjeux industriels, économiques et sociaux considérables. Ces technologies constituent le premier secteur économique des prochaines années… » (Bernard Larrouturou – L’INRIA dans dix ans – 1997)

Devant une telle analyse, devant l’importance de l’enjeu, l’on imagine aisément que l’une des premières choses à faire est de développer les sciences de l’information dans l’enseignement, afin de préparer les élèves aux défis du prochain siècle. C’est effectivement ce qui se passe, et l’on voit les USA dépenser des sommes de l’ordre de 100 milliards de francs par an pour l’informatisation des écoles. Sans être du même ordre, les efforts consentis par la France dans ce domaine sont également considérables. Et pourtant, selon un article de Todd Oppenheimer, The Computer Delusion, paru dans la revue Atlantic Monthly en Juillet 1997, l’introduction de l’informatique dans les établissements scolaires est loin de donner les résultats que l’on pourrait attendre de tels investissements, et l’on peut légitimement se demander si des investissements moindres, mais autrement employés, ne donneraient pas de meilleurs résultats.

Où est l’erreur ?

L’une des premières remarques que l’on peut faire est que les plus ardents promoteurs de l’informatique à l’école sont les constructeurs de machines, et surtout les éditeurs de logiciels. Il s’agit donc de promotion corporatiste et commerciale, d’habituer les familles et les futurs consommateurs à ces produits, de capturer des marchés, bien plus que d’améliorer le système éducatif. À cet égard l’Union Européenne n’est pas en reste. Si l’on analyse une document comme le Rapport de la Task force Logiciels éducatifs et Multimédia de la Commission Européenne, on constate que la Commission est bien plus préoccupée de développer des marchés lucratifs que d’améliorer le système éducatif. Devant cet assaut mercantile, beaucoup de voix s’élèvent contre l’introduction excessive, trop vite planifiée et mal analysée de l’informatique à l’école, en se demandant si l’utilité pédagogique en est réelle, si l’on n’est pas en train d’appauvrir le système éducatif, que ce soit par le choix d’innovations faussement pédagogiques, ou simplement par une mauvaise évaluation des priorités d’investissement.

Nullement compétent en matière de théorie pédagogique, je me garderai bien de trancher dans un sens ou un autre. Force est cependant de constater qu’il est clair que les nouveaux outils informatiques ont déjà montré qu’ils pouvaient, au moins dans certaines circonstances, apporter un plus pédagogique. Mais de là à faire un investissement massif, sur des ressources chères, sans analyse sérieuse des différentes alternatives, sans expérimentation sur le long terme, simplement sous la pression des marchés et des média, est-ce bien raisonnable ?

Mais là n’est pas l’essentiel de notre propos. Car nous avons parlé de pédagogie, alors que les enjeux du prochain siècle sont d’abord, nous le disions, dans la maîtrise des nouvelles technologies, et au moins autant dans la maîtrise d’une transformation radicale de notre environnement due à l’utilisation massive des ressources informationnelles, en particulier grâce à l’Internet. Mais cet aspect des choses est curieusement très largement ignoré dans l’évolution de nos programmes éducatifs. L’attention se focalise trop sur l’informatique comme support de la pédagogie, au sens le plus traditionnel du terme (même si les techniques sont très nouvelles dans certains cas), et l’on ignore assez systématiquement l’informatique en tant que discipline d’enseignement, l’informatique comme sujet d’étude.

A cette distinction évidemment essentielle, il convient d’ajouter une troisième catégorie, l’informatique comme outil dans l’enseignement. Je pense en particulier à l’intrusion d’outils, d’intermédiaires informatiques, dans certaines disciplines. Sans vouloir m’étendre sur ce sujet, qui relève également de la pédagogie, on peut se demander si la trop grande présence de médiations informatiques, par exemple dans la conduite d’expériences de physique, n’introduit pas une trop grande distanciation par rapport à l’objet étudié. L’élève ne risque-t-il pas de prendre l’habitude de faire plus confiance à ce que lui dit l’ordinateur qu’à ses sens, son esprit critique, ses facultés d’analyse. Combien d’élèves sont déjà totalement dépendants de leur calculette, et incapable d’un calcul mental simple sur des ordres de grandeur sans vérifier immédiatement sur l’écran magique. On retrouve ce problème dans l’enseignement de l’informatique elle-même, quand l’apprentissage passif des outils se fait dans l’ignorance de toute compréhension des mécanismes, même les plus simples, qu’ils mettent en jeu.

Si les enjeux réels sont dans la maîtrise des sciences de l’information, ce sont ces sciences, et en particulier l’informatique, qu’il faut enseigner en tant que discipline scientifique.

Mais comme beaucoup d’autres disciplines, l’informatique a de multiples facettes, science théorique et expérimentale objet de recherches d’une grande diversité, technologie donnant lieu à une activité industrielle considérable, et ensemble d’outils des plus en plus intégrés à notre vie quotidienne, familiale ou professionnelle. Probablement en raison de la jeunesse de cette discipline, et précisément à cause de son manque actuel d’intégration dans le cursus scolaire, la distinction entre ces aspects complémentaires, mais indissociables, n’est pas faite dans les esprits. Beaucoup en sont encore à confondre les aspects fondamentaux et pérennes avec leur expression actuelle dans des outils destinés à évoluer rapidement. Comme mes collègues et moi-même l’écrivions dans Le Monde, les disciplines plus anciennes distinguent sans problème ces trois composantes, et nul ne confond la thermodynamique, la technologie des moteurs à explosion et le mode d’emploi d’un véhicule automobile. Cette confusion, encore présente dans le cas de l’informatique, est en outre renforcée par le fait que chacun pouvant s’essayer assez facilement à certains de ses aspects originaux, comme la programmation sur des problèmes simples, on a l’illusion que c’est une discipline facile à maîtriser et sans réelle profondeur. Mais en fait cela revient à se prétendre spécialiste du génie civil et de la résistance des matériaux parce que l’on sait établir un pont en jetant une planche sur un ruisseau.

Pour en revenir à l’enseignement des outils fondés sur l’informatique, et non des outils de l’informatique, il est malheureusement fréquent de voir appeler cours d’informatique un enseignement qui se fonde uniquement sur l’apprentissage de la mise en marche d’un ordinateur, et sur l’utilisation de quelques outils de bureautique. Mais c’est là un cours de bureautique, et non d’informatique, aussi bien que d’apprendre à conduire et à remplir le réservoir de sa voiture ne saurait constituer un cours de thermodynamique, ni même de technologie automobile. C’est utile, certes, dans la vie courante, mais ce n’est aucunement formateur pour l’esprit des élèves. De plus, la technologie informatique étant en évolution rapide, la pérennité de cet enseignement est très aléatoire, d’autant plus que le manque de variété des outils utilisés prive les élèves de toute espèce de recul par rapport à ces outils.

Mais le problème est à mon sens beaucoup plus grave en ce qui concerne l’enseignement de la technologie informatique, que ce soit à l’école ou à l’université. Cette technologie est complexe, en évolution permanente, et très largement contrôlée par l’industrie informatique et notamment les grands éditeurs. Or l’on constate que trop souvent, cet enseignement consiste plus à apprendre à se servir des réalisations technologiques de ces éditeurs qu’à en comprendre les principes, à savoir les critiquer, à savoir les comparer avec d’autres approches, commerciales ou non. Sous le pretexte fallacieux de préparer les étudiant à la vie active, en fait aux besoins les plus immédiats de leurs futurs employeurs, on fait passer pour formations universitaires ce qui n’est que formations kleenex, destinées à devenir obsolètes aussi vite que les produits (souvent déjà obsolètes par rapport à l’état de l’art) sur lesquels elles se fondent. Manquant de profondeur, ces formations ne sauraient être durables, et c’est ainsi que le système éducatif prépare de futur chomeurs et la pénurie de professionnels compétents pour notre industrie. Une bonne façon de garantir la qualité et la pérennité d’un enseignement – et de former l’esprit critique des élèves – c’est de toujours l’asseoir sur une assez large variété d’exemples, que l’on peut comparer et opposer pour en extraire les aspects les plus essentiels, en évitant de se cantonner à l’apprentissage d’un seul type de solutions techniques.

Une première étape en ce sens consisterait à se départir du totalitarisme actuel, en matière de systèmes d’exploitation, de réseaux et de solutions bureautiques notamment, et à faire pénétrer une plus grande diversité de logiciels dans le système éducatif. Il est vrai que la gestion de la diversité a un coût, mais le bénéfice pédagogique le justifie. En outre, il ne faut pas oublier que l’enseignement public a un devoir de laïcité, d’indépendance, et qu’il est donc impératif qu’il évite de se faire le champion d’une marque, d’un produit ou d’une école de pensée. Enfin, il ne faut pas oublier non plus que la diversité est aussi un facteur de progrès et de stabilité « écologique » qui sont essentiels pour le développement d’un secteur technologique. Introduire cette diversité à l’école, quoi que puissent en dire des entreprises qui vivent par nécessité avec un horizon à six mois, c’est aussi garantir un meilleur équilibre futur de notre économie.

Si l’informatique est enseignée comme science fondamentale à l’université, au moins dans les enseignements les plus avancés, cet aspect n’est ni abordé ni même évoqué au niveau de l’enseignement général. Cela ne peut que renforcer une attitude de passivité vis à vis de ce qui apparaît alors comme une technologie ancillaire, ne méritant pas que l’on s’attarde sur son influence croissante, sur le pouvoir qu’elle s’octroie dans toutes nos activitées. Ainsi une meilleure compréhension du rôle fondamental des mécanismes de représentation et d’échange des données nous rendraient certainement plus sensibles à cette forme de dépendance qui s’établit insidieusement dans notre société quand tous nos modes de gestion et de communication de l’information sont peu à peu entièrement contrôlés par des entreprises privées, dont les seuls objectifs sont de nature mercantile.

Outre que l’informatique a ses propres problèmes, sa propre façon de les traiter, ses propres résultats fondamentaux, elle est intéressante du point de vue de l’enseignement général parce que c’est une science carrefour. Il y a bien sûr des aspects classiquement scientifiques dans l’informatique, mais en plus, par les concepts qu’elle met en oeuvre, elle se rapproche d’autres disciplines littéraires. Par exemple, en informatique, les notions de langage, de syntaxe et de sémantique sont très importantes. Dans l’enseignement actuel, ces concepts relèvent du français ou de la philo… et voilà que l’on peut les illustrer de façon plus concrète – peut-être imparfaite car trop formalisée et mécanique, mais ce défaut-même est source de considérations enrichissantes – par des exemples opérationnels, presques tangibles. À côté de cela, on y rencontre des problèmes de logique, des questions strictement mathématiques, des problématiques apparentées à la physique la plus théorique… On peut donc y trouver matière à discuter de nombreux concepts qui sont aussi pertinents dans d’autres domaines, et donc à éventuellement réduire la dichotomie qui est souvent perçue entre les sciences et les humanités. C’est une situation assez extraordinaire, un champ d’ouverture intellectuelle, dont il est vraiment dommage de ne pas profiter.

Tout n’est cependant pas négatif dans l’informatisation de notre enseignement. Le fort accent mis sur le développement de la connectivité avec l’Internet, bien que souvent décrié, est une avancée essentielle, et cela pour au moins deux raisons majeures.

La première de ces raisons est tout simplement que les élèves d’aujourd’hui seront appelé à vivre dans un monde où la maîtrise de l’information omniprésente sera un élement majeur de la vie sociale. À bien des égards, celui qui ne saura pas gérer cet espace de données, de connaissances et de communication sera dans une situation de dépendance analogue à ceux qui, aujourd’hui, ne savent pas lire, ne savent pas trouver leur chemin sur une carte ou remplir un formulaire. « Apprendre l’Internet », c’est apprendre à vivre dans la société de demain.

La deuxième raison est sans doute encore plus fondamentale pour l’éducation citoyenne. Même sans l’informatique, notre monde a atteint une complexité extrème où les citoyens ont de moins en moins leur mot à dire, où même les pouvoirs politiques sont de plus en plus impuissants devant la complexification des structures économiques et sociales et surtout la mondialisation généralisée. Pour ne prendre qu’un exemple, majeur, les entreprises ont acquis une existence autonome, fortes de leur puissance économique et de leurs dispersion géographique, dans un système où les êtres humains, clients, employés, dirigeants ou actionnaires, ne sont plus que des pions sans aucun pouvoir indépendant. Elles en sont au point où elles disputent leur pouvoir aux nations, aux représentant élus de la population. Face à une situation où la place même de l’homme sur cette planète est radicalement remise en cause, il est nécessaire de trouver de nouvelles structures, de nouveaux modes d’échange, de communication et d’organisation qui permettent au citoyen de retrouver la place qui lui revient dans une société devenue mondiale. Et cela est possible, grâce à l’Internet, à condition d’apprendre à en maîtriser les ressources, à comprendre, voire à tolérer – ce qui n’est pas toujours facile – les points de vues d’autres cultures maintenant à notre porte, à communiquer, à partager et à coopérer avec les autres citoyens du monde. Ce discours, qui peut paraître à certains idéaliste, utopique, voire irréaliste ou fantaisiste, correspond pourtant à une réalité vécue par un nombre tous les jours croissant d’individus. L’action d’un individu sur l’Internet peut faire sentir ses effets dans le monde entier, si tant est qu’elle est pertinente. Et quand une fraction, même minuscule, des centaines de millions d’individus qui accèdent l’Internet décide de coopérer, cela fait une masse énorme susceptible de renverser des montagnes, de mettre en difficulté ou de faire concurrence aux entreprises les plus puissantes, de tenir en échec les tentatives hégémoniques les plus soigneusement préparées, comme cela s’est produit encore récemment pour l’AMI, l’Accord Multilatéral sur l’Investissement préparé en catimini par l’OCDE.

« Apprendre l’Internet », c’est apprendre la citoyenneté de demain.

Notes

[1] Crédit photo : QThomas Bower (Creative Commons By-Sa)




À qui la faute si les logiciels libres sous licence GPL sont éjectés de l’App Store ?

Chris Willis - CC byOn peut reprocher beaucoup de choses à Microsoft mais jamais on n’a vu un logiciel libre empêché de tourner sous Windows parce que la licence du premier était incompatible avec le contrat d’utilisation du second (sinon un projet comme Framasoft n’aurait d’ailleurs pas pu voir le jour).

Il semblerait qu’il en soit autrement avec Apple et son App Store, la plateforme de téléchargement d’applications pour les appareils mobiles fonctionnant sous iOS (iPod, iPhone et iPad).

C’est que révèle la récente « affaire VLC », célèbre logiciel libre de lecture vidéo, dont la licence semble tant et si bien poser problème à Apple qu’il a été brutalement et unilatéralement décidé de le retirer de l’App Store.

Et tout le monde se retrouve perdant, à commencer par l’utilisateur qui ne pourra plus jouir de cette excellente application sur son iPad & co[1].

Derrière ce malheureux épisode (qui n’est pas le premier du genre) se cache une question en apparence relativement simple : logiciels libres et App Store peuvent-ils cohabiter ? Un logiciel, dont les libertés d’usage, de copie, de modification et de distribution, sont garanties par sa licence, peut-il se retrouver dans un espace dont le contrat stipule un nombre limité de copies sur un nombre limité de machines ? Et comme la réponse est en l’occurrence négative, le risque est réel de voir les logiciels libres totalement écartés de l’App Store, et par extension des nombreuses autres plateformes privées qui poussent comme des champignons actuellement.

Mais attention, il s’avère que dans le détail c’est plus complexe que cela. Et c’est pourquoi nous avons pris la peine d’ajouter notre grain de sel au débat en traduisant l’article ci-dessous qui résume assez bien à nos yeux la situation. C’est complexe mais ça n’en est pas moins intéressant voire enrichissant car les particularités de la situation éclairent et illustrent de nombreux aspects du logiciel libre.

Il convient tout d’abord de préciser que ce n’est pas le logiciel libre en général mais le logiciel libre sous licence GPL (et son fameux copyleft) qui est pointé du doigt ici. Ensuite il y a l’existence d’un troisième larron en la personne de la société Applidium à qui l’on doit le portage de VLC dans iOS et sa présence dans l’App Store (dans un premier temps accepté puis aujourd’hui refusé). App Store dont les règles d’utilisation définies par Apple sont floues et changeantes. Enfin c’est bien moins la « communauté VLC » dans son ensemble que l’un de ses développeurs qui est impliqué dans cette histoire.

Choisir de placer son logiciel sous licence libre, a fortiori sous licence GPL, n’est pas un acte anodin. La liberté « en assurance-vie » que vous offrez là à vos utilisateurs peut s’opposer parfois frontalement à d’autres logiques et objectifs.

Tout le monde se retrouve perdant, mais le logiciel libre le serait davantage encore s’il devait céder en y perdant son âme.

La GPL, l’App Store et vous

The GPL, the App Store, and you

Richard Gaywood – 9 janvier 2011 – Tuaw.com
(Traduction Framalang : Olivier Rosseler et PaulK)

Mon collègue Chris a rédigé un article sur l’éviction de l’App Store du célèbre logiciel de lecture video VLC, après la plainte d’un développeur du projet sur la base d’une violation de la GNU Public License (l’application a depuis été mise à disposition sur Cydia pour les appareils jailbreakés).

Les réactions de la blogosphère Mac ont été virulentes après cette décision, et Chris s’est admirablement fait l’avocat des plaignants. Mais il ne faut pas oublier qu’une histoire a toujours plusieurs versions (et que la vérité se trouve souvent à mi-chemin entre les deux). Aujourd’hui, je me fais avocat de la défense : pourquoi Rémi Denis-Courmont était parfaitement dans son bon droit. Mais pour mieux étayer mon argumentation, je vais revenir un peu sur l’historique de l’Open Source. Alors accrochez-vous !

Commençons par le commencement : pourquoi VLC a été retiré de l’App Store

L’histoire a déjà été traitée, mais voici quelques faits que vous devez connaître. VLC (hébergé à l’adresse http://videolan.org) est un lecteur audio et vidéo complet, multi-plateforme qui a maintes fois fait ses preuves. VLC est publié sous la version 2 de la licence GNU Public License (GPL). Une entreprise nommée Applidium, sans lien avec le projet, a utilisé le code source de VLC pour en faire une application pour iOS gratuite, afin que les utilisateurs d’iPhone et d’iPad puissent s’en servir pour lire plus de formats de fichiers que leur appareil n’en supporte nativement, comme les fichiers AVI et MKV. En accord avec la GPL, Applidium a libéré le code source de la version modifiée de VLC.

L’accueil reçu par ce projet sur les listes de diffusion des développeurs de VLC fut contrasté. Alors que certains développeurs n’y voyaient pas d’inconvénient, le portage de leur travail (censé être ouvert) sur une plateforme, iOS, connue pour sa fermeture et ses restrictions sur la ré-utilisation du code des applications distribuées sur l’App Store, gênait les autres. En point d’orgue de cette histoire, l’un des développeurs, Rémi Denis-Courmont (auteur d’une bonne partie du code de VLC) demanda à Apple de retirer l’application VLC pour iOS de l’App Store pour violation de la GPL, à laquelle est soumise sa contribution au projet.

Finalement, quelques mois plus tard, il semblerait qu’Apple ait obtempéré sans poser de question puisque l’application a été retirée. Denis-Courmont s’interroge malgré tout sur les délais. Si c’était effectivement la réponse d’Apple à sa demande, l’entreprise aurait pu agir bien plus tôt.

Et donc, qui est dans le vrai ?

Une courte histoire des licences Open Source

Tout d’abord, à quoi sert l’Open Source ? Parfois, des programmeurs initient des projets sur leur temps libre (ou en tant qu’universitaire, ne subissent pas les pressions commerciales, tous les systèmes d’exploitation basés sur Unix trouvent leurs racines dans l’Open Source et dans les universités, ce qui n’est pas une coïncidence), puis ils deviennent trop gros pour s’en sortir seuls. Une aide extérieure est la bienvenue, par exemple pour réparer les bogues ou pour ajouter de nouvelles fonctionnalités, et grâce à Internet les volontaires sont nombreux. Ils mettent donc le code sous une licence Open Source afin d’en publier la source et de recruter des collaborateurs.

Dit ainsi, ça paraît assez utopique, mais le fait est que de nombreux logiciels de qualité sont nés ainsi, grâce à l’Open Source : le compilateur C GCC, le noyau Mach, le serveur web Apache HTTPd, l’interface de commande bash, les langages de programmation Perl et Python et le moteur de rendu Webkit utilisé par Safari. Ces quelques exemples ainsi que des centaines d’autres sont tous Open Source et font tous partie de Mac OS X. Apple utilise donc clairement l’Open Source.

Au-delà des logiciels, nous devons Wikipedia à la famille des licences Creative Commons, créées pour étendre les idées des logiciels Open Source à d’autres activités créatives. On peut même dire que l’Open Source reproduit approximativement les processus scientifiques où les chercheurs publient leurs méthodes et leurs découvertes librement afin que d’autres chercheurs puissent s’appuyer sur leurs travaux. Ce sont là des concepts très importants à mes yeux puisque je suis titulaire d’un doctorat en informatique. Je pense que l’on peut s’accorder sur le fait que les idées derrière les logiciels libres nous sont bénéfiques à tous.

Prenons l’exemple d’Alice, une programmeuse qui a écrit un petit utilitaire. Un autre programmeur, Pierre, apprécie beaucoup son programme, mais il voudrait le modifier pour qu’il réponde mieux à ses besoins. Alice décide alors de dévoiler le code source de son programme pour que Pierre puisse y apporter des changements.

La licence la plus simple qu’Alice puisse appliquer à son code est celle du domaine public. Cela signifie que l’auteur a volontairement abandonné tous ses droits sur le code et que chacun peut en faire ce qu’il veut. Pierre peut faire ses modifications et garder la nouvelle version pour lui-même, ou ouvrir sa boutique et la vendre. Il peut même en parler à son patron, Paul, chez Microsoft, et peut vendre l’outil d’Alice dans la prochaine version de Windows, sans qu’elle ne touche jamais un centime. Si vous vous dites que c’est pas très juste pour Alice, vous n’êtes pas les seuls. Gardez cet exemple à l’esprit.

Alice a également le choix entre des familles de licences similaires : la licence MIT, la licence BSD et la licence Apache. Grâce à elles, Alice conserve son droit d’auteur sur le code, mais elles octroient également à quiconque le télécharge le droit légal de le modifier et d’en distribuer la version modifiée. Différentes variantes de ces licences imposent également à Pierre de mentionner le nom d’Alice quelque part dans le logiciel, à l’instar de la licence Creative Commons Attribution. Mais rien ne l’empêche de le vendre sans rien verser à Alice en échange.

La GPL et les autres licences copyleft

En réponse à ce problème, la Fondation pour le Logiciel Libre (FSF) a créé la GNU Public License. Elle est aussi appelée copyleft pour bien marquer la rupture qu’elle représente par rapport aux autres licences dont il est question ici. Philosophiquement, la GPL a été créée pour assurer aux utilisateurs de logiciels sous GPL les quatres libertés suivantes :

  • La liberté d’exécuter le logiciel, pour n’importe quel usage ;
  • La liberté d’étudier le fonctionnement d’un programme et de l’adapter à ses besoins, ce qui passe par l’accès aux codes sources ;
  • La liberté de redistribuer des copies ;
  • La liberté de faire bénéficier à la communauté des versions modifiées.

Évidement, la licence en elle-même est un charabia juridique assez dense, dont le but est d’assurer une validité légale à cette philosophie, mais ces quatre libertés en sont vraiment le cœur. Vous remarquerez que la deuxième et la quatrième libertés imposent que le code source de tout programme sous GPL soit mis à disposition en plus de l’exécutable, que l’on utilise vraiment. C’est la raison pour laquelle de nombreuses entreprises qui font usage de code sous GPL dans leurs produits hébergent des pages entières de code source, comme le fait Netgear par exemple. Alors, évidemment, leurs concurrents peuvent analyser le fonctionnement exact de leurs produits, pourtant ils estiment que cet inconvénient est largement compensé par les avantages qu’il y a à s’appuyer sur des produits Open Source.

Si on reprend notre histoire d’Alice et Pierre, voyons ce qu’il se passe maintenant. Alice rend son code source public. Pierre rédige son patch et décide sournoisement de vendre cette nouvelle version du programme d’Alice. Mais Alice n’est pas bête et voit bien ce qu’il se trame. Elle pose alors un ultimatum à Pierre : soit il rend public le code source de sa version modifiée , soit ils se retrouveront devant un juge pour rupture du contrat grâce auquel il a obtenu la version d’Alice (c’est à dire, la GPL). Bob s’incline évidemment et publie son code. Aucun cas n’est allé jusqu’au tribunal dans la vraie vie. Pour beaucoup, cela prouve que la GPL est valide et incontournable : personne n’ose la contester.

L’App Store et la GPL peuvent-ils co-exister ?

Le conflit le plus évident entre l’App Store et la GPL réside dans la troisième liberté ? « La liberté de redistribuer des copies ».

Ce sujet a été largement débattu, chaque camp avançant ses arguments. Malheureusement, la résultat est que : premièrement, c’est un terrain plutôt flou et deuxièmement, il ne sera jamais certain qu’une des deux partise a plus raison que l’autre sans décision de justice. Il est peu probable que l’on en arrive à une telle situation car Apple (en tant que distributeur de logiciel pour tout l’App Store) n’ira probablement pas se battre en justice pour un logiciel Open Source. Concrètement, tant que le contraire n’est pas prouvé, l’App Store et la GPL sont incompatibles. C’est sans doute l’avis d’Apple en tout cas, ils n’auraient sûrement pas supprimé VLC (et d’autres logiciels Open Source comme GNU Go) de l’App Store dans le cas contraire.

Les membres de la Fondation pour le Logiciel Libre (FSF), auteurs de la GPL ne pensent pas non plus que l’on puisse concilier la GPL et l’App Store. Leur principal argument réside dans la clause suivante de la GPL v2 :

À chaque fois que vous redistribuez un programme (ou n’importe quelle réalisation basée sur le programme), l’utilisateur final reçoit automatiquement une licence du détenteur originel du programme l’autorisant à copier, distribuer et modifier le programme sujet à ces termes et conditions. Vous ne devez imposer à l’utilisateur final aucune autre restriction à l’exercice des droits garantis par la licence.

Regardons maintenant les Règles d’utilisation des produits App Store :

(i) Vous êtes autorisé à télécharger et synchroniser un Produit à des fins personnelles et non commerciales sur tout produit de la marque Apple tournant sur iOS (« Produit iOS ») que vous possédez ou contrôlez.

(ii) Si vous êtes une société commerciale ou un établissement scolaire, vous êtes autorisé à télécharger et synchroniser un Produit destiné à être utilisé soit (a) par une seule personne sur un ou plusieurs Produits iOS que vous possédez ou que vous contrôlez, soit (b) par plusieurs personnes sur un Produits iOS partagé dont vous êtes propriétaire ou que vous contrôlez. Par exemple, un seul salarié peut utiliser le Produit aussi bien sur son iPhone que sur son iPad, ou encore, plusieurs étudiants peuvent utiliser le Produit en série sur un seul iPad situé dans un centre de ressources ou une bibliothèque.

(iii) Vous pourrez simultanément stocker des Produits App Store à partir d’un nombre maximum de cinq Comptes différents sur des Produits iOS compatibles, tels qu’un iPad, un iPod ou un iPhone.

(iv) Vous pourrez procéder à la synchronisation manuelle de Produits App Store à partir d’un ou plusieurs appareils autorisés par iTunes vers des Produits iOS munis d’un mode de synchronisation manuel, à condition que le Produit App Store soit associé à un Compte existant sur l’appareil principal autorisé par iTunes, étant précisé que l’appareil principal est celui qui a été synchronisé en premier avec le Produit iOS ou celui que vous avez ultérieurement désigné comme tel en utilisant l’application iTunes.

Le conseil Légal de la FSF considère ces termes comme des restrictions à l’utilisation que peut faire l’utilisateur des logiciels obtenus sur l’App Store, c’est donc directement une atteinte à la GPL. Il importe peu que le port de VLC sur iOS soit libre. En fait, il aurait été plus simple d’imaginer qu’il ne l’était pas.

Imaginez, si Applidium avait fait payer 5$ pour leur port de VLC, tout en distribuant le code source complet sur leur site web. Rien dans la GPL n’empêche les développeurs de facturer leurs logiciels dérivés, c’est donc convenable. Mike achète une copie du logiciel pour 5$ et veut donner une copie à son ami Steve (c’est son droit, garanti par la GPL), mais il ne peut pas. Steve peut acheter sa propre copie à 5$, mais ne peut pas l’avoir par Mike ; il doit aller voir Apple.

Dans la réalité, VLC était gratuit, ce n’est donc pas gênant pour Steve de ne pas pouvoir dupliquer la copie de Mike ; mais ce ne sera pas forcément le cas avec d’autres logiciels et dans tous les cas, ça ne change rien, étant donné que les termes de la GPL n’acceptent pas plus que l’on restreigne la liberté de partager le logiciel parce que le logiciel dérivé se trouve être gratuit.

Notez que la FSF considère également le fait de ne pouvoir installer la même application que sur cinq iOS en même temps comme une autre restriction aux droits de l’utilisateurs ; cela semble être une erreur, puisque ce terme du contrat n’apparaît que sur la partie dédiée au contenu iTunes du Contrat de l’Utilisateur et ne s’applique donc pas aux applications de l’iOS. Il est également possible que le Contrat de l’Utilisateur pour iTunes ait été modifié après la publication de l’article de la FSF.

Qu’en est-il des autres programmes sous GPL présents dans l’App Store ?

On croit souvent, à tort, que lorsqu’un code est publié sous GPL, il ne peut plus l’être sous une autre licence. Ce n’est pas vrai. Si tous les ayants-droits, c’est-à-dire toutes les personnes ayant contribué au code, se mettent d’accord, le logiciel peut être placé sous une double licence.

Prenez l’exemple de Java. Java est placé sous GPL et Apple a pourtant utilisé la source de Sun pour la modifier (afin que la machine virtuelle Java sous OS X soit mieux intégrée à cet environnement) sans pour autant distribuer le code source de la version modifiée. Comment ? Simplement parce qu’ils ont utilisé le code source de Sun sous une autre licence, ce que Sun pouvait proposer car (à l’époque) le code de Java leur appartenait. Libre à eux donc de l’offrir au monde entier sous GPL tout en le proposant à Apple sous une autre licence.

Mais pour les grands projets, comme VLC, qui acceptent des correctifs publics de la communauté depuis longtemps, il n’est pas envisageable d’obtenir la permission rétroactive de tous les contributeurs pour appliquer une licence double. D’autres projets, en revanche, sont proposés sous GPL mais n’ont jamais accepté de correctifs extérieurs, ce qui signifie que leur code est toujours sous le contrôle d’une seule et même personne ou entreprise. On peut citer l’exemple de Doom, qui est sur l’App Store. BeTrains en est un autre exemple et les développeurs ont récemment décrit comment ils arrivent à concilier GPL et App Store.

Doit-on modifier la GPL pour la rendre compatible avec l’App Store ?

Cette question ne relève plus du problème légal, mais plutôt de la politique des logiciels. Les défenseurs de la GPL adoptent souvent une attitude méfiante, ce qui est, à mes yeux, souvent perçu comme du fanatisme en dehors de la communauté Open Source. Mais pourtant, les violations de la GPL sont malheureusement courantes. Par exemple, une étude récente de Matthew Garret montre que parmi des centaines de tablettes Android, la quasi-totalité violent la GPL. En d’autres termes, les systèmes de tous ces fabricants s’appuyent à 99% sur du code libre mais contiennent 1% de leurs propres modifications. Ensuite ils les vendent comme s’ils étaient à l’origine de la totalité du système.

Il va sans dire que les développeurs qui ont participé à ces projets sur leur temps libre sont indignés par ces pratiques, c’est pourquoi ils condamnent aussi facilement tout ce qui ressemble de près ou de loin à une violation de la GPL. C’est souvent pris pour du fanatisme ou même de l’hostilité, mais au fond, c’est juste l’expression du dégoût de groupes de bénévoles face aux pratiques d’entreprises qui tentent de se faire de l’argent facile avec leur travail.

Sans oublier cette peur que tout signe d’indulgence fasse basculer les choses du mauvais côté, que cela encourage plus encore les entreprises à violer la GPL, et que la FSF, avec ses maigres ressources, n’ait plus les moyens d’identifier et de menacer les entreprises qui se comportent mal pour qu’elles respectent la communauté sur laquelle elles s’appuient.

Les règles de l’App Store doivent-elles changer pour être compatibles avec la GPL ?

C’est ce qu’aimeraient certains développeurs de VLC, comme Ross Finlayson. Plutôt que de voir VLC banni de l’App Store, ils préfèreraient que ses règles soient modifiées afin de créer une exception pour les applications sous GPL. Rien n’est impossible, mais Apple (pourtant bien enclin à piocher largement dans l’Open Source pour créer Mac OS X) n’est pas vraiment réputé pour son ouverture aux compromis lorsqu’on touche à l’App Store. Il y a très peu de chance qu’un tel changement arrive, surtout pour des applications gratuites qui ne rapportent rien à Apple.

Est-ce que VLC pourrait être publié sous une autre licence ?

Actuellement, il serait presque impossible que VLC puisse paraître sous une autre licence, même réservée uniquement à Applidium, car chaque développeur ayant travaillé sur le projet devrait donner son accord, ce qui n’est pas gagné pour certains, dont Denis-Courmont.

Si VLC n’avait jamais été publié sous GPL, ou plutôt, s’ils n’avaient jamais accepté de contributions extérieures placées sous GPL, alors il n’y aurait pas de problème. Mais sans la forte protection apportée par la GPL, ils n’auraient certainement pas attiré autant de contributeurs. Impossible de dire si le projet aurait abouti ou pas.

Conclusion

Lorsqu’un projet choisit une licence comme la GPL ou tout autre licence copyleft, en opposition à des licences plus ouvertes, comme la MIT ou la BSD, les développeurs veulent s’assurer que toutes les œuvres dérivées seront libres. Cette protection a cependant un prix. En choisissant la GPL, l’équipe de développement originelle de VLC a fait la promesse à tous ses futurs collaborateurs que leur travail resterait libre, pour toujours. Ce que dit ouvertement la FSF et ce que concède implicitement Apple, c’est que l’App Store ne reconnaît cette définition de la liberté. Aucune des deux organisations n’est réputée pour accepter des compromis, donc, jusqu’à ce que l’une d’entre eux cède, les applications construites sur du code sous GPL, comme VLC, n’honoreront pas l’App Store de leur présence. C’est dommage, c’est sûr, mais pour les deux camps c’est une question de principes bien plus importants que quelques applications.

Je finirai en m’adressant aux commentateurs : ce débat englobe bien d’autres aspects, certains que j’ai juste abordés, d’autres que j’ai complètement omis, parfois par souci de clarté ou encore par manque de compétence. Je vous demanderai donc simplement d’être indulgents car c’est un sujet complexe et même un article de cette longueur ne permet pas d’en faire le tour. Mais je vous en prie, débattez-en !

Notes

[1] Crédit photo : Chris Willis (Creative Commons By)




Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing

Diego da Silva - CC byLorsque Richard Stallman s’exprime, il ne laisse généralement pas la Toile indifférente. Ce qui se comprend aisément puisque, Microsoft, Apple, Facebook, Google…, il critique ouvertement et radicalement ce que tout le monde ou presque utilise au quotidien.

Son récent avis sur le Cloud Computing en général et Google Chrome OS en particulier dans un article du Guardian que nous venons de traduire ne déroge pas à la règle[1].

Jusqu’à donner l’idée à Katherine Noyes de compiler quelques interventions lues dans les commentaires de l’article ainsi que sur le célèbre site Slashdot. Avec ce terrible constat qui ouvre le billet et que je retourne en question aux lecteurs du Framablog : Pensez-vous que Stallman a perdu ?

Déluge de critiques de Stallman sur le Cloud : Prudence ou Paranoïa ?

Stallman’s Cloudburst: Prudence or Paranoia?

Katherine Noyes – 20 décembre 2010 – E-Commerce Times
Traduction Framalang : Olivier Rosseler)

« Je vais pouvoir annoncer à notre bon vieux RMS qu’il a perdu », nous dit hairyfeet, blogueur chez Slashdot. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. »

Quand Richard Stallman s’exprime, la communauté du logiciel libre écoute en général, on en a eu une nouvelle démonstration dans la blogosphère Linux la semaine passée.

C’est à l’occasion de la sortie de Chrome OS, le nouveau système d’exploitation de Google, que le fondateur de la Free Software Foundation a donné son avis, et, fidèle à ses principes, on peut dire qu’il ne nous a pas déçus.

La technologie peut « entraîner les gens à utiliser l’informatique imprudemment », confie Stallman au journal The Guardian, lorsqu’elle leur demande de confier leurs données aux nuages plutôt qu’à des machines dont ils ont le contrôle. Pour Stallman, une forte dépendance au nuage est même « pire que stupide. »

Voilà une opinion forte, à n’en pas douter, mais les réactions qui s’ensuivirent dans la blogosphère n’en furent pas moins fortes.


« Il a complétement raison »

Dans les commentaires ici même sur LinuxInsider, phatpingu qualifie les idées de Stallman d’étriquées. « Je trouve ça assez incroyable qu’il imagine que ces questions n’aient pas été soulevées et débattues en interne chez Google et qu’il pense qu’aucune mesure ou règle définissant la propriété des contenus n’ait été mise en place. »

amicus_curious, lui, oppose un avis plus neutre : « C’est toujours difficile de savoir si RMS se donne en spectacle ou s’il croit vraiment en ce qu’il dit. Mais Chrome OS et le nuage de Google n’ont pas grand-chose à craindre du mépris de Stallman. »

Puis il y a aussi ceux qui partagent ses idées. Parmi la centaine de commentaires qu’a reçus l’article du Guardian, blossiekins écrit : « Il a complètement raison. L’informatique dans les nuages ne fait qu’encourager l’ignorance et la nonchalance des utilisateurs vis-à-vis de leurs données et de ce qui en est fait. »

« Google n’est pas un joli Bisounours qui veut s’occuper de vos données simplement parce qu’il est gentil, il veut s’en occuper parce que ça lui apporte des informations », poursuit blossiekins. « Et plus les choses avancent, plus les risques font froid dans le dos. »

Depuis quelques jours, les arguments pro et anti Stallman résonnent dans la blogosphère, Linux Girl décida alors d’en savoir plus. L’impression dominante dans la blogosphère ne tarda pas à se faire entendre.

L’avantage des logiciels libres

« RMS a évidemment raison », d’après le blogueur Robert Pogson en réponse à Linux Girl, par exemple. « Pour utiliser Chrome, il faut faire confiance au nuage, ce qui est le cas de la plupart d’entre nous. »

Prenez, par exemple, Facebook, suggère Pogson.

« Des centaines de millions de personnes y passent des heures, malgré les innombrables problèmes de sécurité que le site a connus cette année », fait-il remarquer. « Des millions d’utilisateurs font confiance à Google et M$ aussi, mais je pense qu’ils le regretteront tôt ou tard. Je ferais bien plus confiance à un nuage construit avec des outils libres plutôt qu’à un trou noir. »

Pogson rappelle que le nuage a de gros avantages, économiquement parlant, principalement dus aux économies d’échelle dont peuvent bénéficier les grandes entreprises comme Google.

« Les particuliers comme les PME seront tentés d’externaliser leurs emails, leurs données, leurs sauvegardes et la gestion de leurs documents dans le nuage », prédit-il. « Je m’attends à une explosion du marché du nuage en 2011, ainsi que de celui des logiciels libres. Choisir des outils libres plutôt que ceux de M$ ou des solutions « maison » dans les nuages apportera des avantages. »

« La fin de la vie privée »

En effet, « ça me fait mal de l’avouer, vraiment, mais je suis d’accord avec RMS », commence hairyfeet, blogueur chez Slashdot. « Nous offrons les détails de nos vies entières à ces méga-entreprises, et le pire, c’est qu’en retour on ne reçoit rien, même pas un bonbon ou un rabais de 20% sur notre prochain achat. »

« C’est la raison pour laquelle j’ai changé de navigateur, pas pour Chrome ou même Chromium, mais pour Comodo Dragon, dont la philosophie est NE ME PISTEZ PAS », dit hairyfeet.

Malheureusement « Je peux dire à notre bon vieux RMS qu’il a perdu », poursuit-il. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. » Ils ne se rendent sûrement même pas compte « qu’une fois identifiés sur Facebook, ils sont reconnus par quasiment TOUS LES SITES, puisqu’ils sont presques tous interconnectés maintenant. En naviguant, ils laissent donc derrière eux des traces aussi visibles qu’un A380 partout où ils vont », ajoute-t-il.

Alors, « je suis désolé mon bon vieux hippie, mais c’est la fin de la vie privée, tuée par l’ego surdimensionné des gens », conclut hairyfeet.

« Le nuage ? Un effet de mode »

« Je pense que le nuage n’est qu’un effet de mode. On perd le contrôle de nos propres données, en espérant simplement que notre fournisseur fasse bien son boulot avec les sauvegardes », témoigne Gerhard Mack, consultant à Montréal et blogueur pour Slashdot. « Et que faire lorsque je n’ai pas accès à Internet ? ».

Et c’est vraiment « ce qui me gêne le plus avec mon téléphone sous Android », dit-il. « La plupart des applications ont besoin d’une connexion pour fonctionner, mais qu’est-ce que je peux faire si je suis dans une petite ville où j’arrive à peine à capter un réseau 2G et que j’ai besoin des indications du GPS ? Et si j’ai besoin de me servir du traducteur espagnol dans un sous-sol ? »

« C’est du vécu, et ça me laisse penser que le nuage a encore des fortes lacunes », conclut-il.

« Les petites lignes vous (en) privent »

« RMS a absolument raison à propos de l’informatique dans les nuages » acquiesce Barbara Hudson, blogueuse chez Slashdot, plus connue sous le pseudo de Tom sur le site. « Il faut être très attentif lorsqu’on sacrifie notre vie privée sur l’autel de la facilité. »

Les règles de partage de l’information de Gmail, par exemple, sont faites pour « protéger Google, pas pour vous protéger vous, si quelque chose se passe mal », nous explique Hudson. « Pour dire les choses autrement : ce que les grandes lignes vous offrent, les petits lignes vous en privent. »

Mais elle fait tout de même remarquer que Google a déjà, par le passé, refusé de partager avec le gouvernement ses historiques de recherche détaillés.

« Mais bien malin celui qui saura dire ce que nous réserve l’avenir. N’oublions pas que si le magazine Time n’a pas choisi Julien Assange comme personnalité de l’année, c’est, au moins en partie, par peur d’être placé sur la liste noire du gouvernement, aux côtés du New York Times ainsi que cinq autres journaux » dit Hudson.

« Je veux une garantie »

Il faut alors bien vous demander si « vous voulez vraiment que votre hébergeur dans les nuages et ses associés puissent exploiter vos projets commerciaux, vos feuilles de calcul et votre correspondance, professionnelle et personnelle », s’interroge Hudson. « Ou encore si vous désirez devenir la cible d’une perquisition demandée par votre ex-épouse ou par un tordu avec une idée derrière la tête? »


Elle conclut en disant que « Au moins, lorsqu’il s’agit de mon propre disque dur je peux encore dire : Il me faudrait un peu plus qu’une confiance raisonnable, il me faut une garantie ».

Notes

[1] Crédit photo : Diego da Silva (Creative Commons By)




Ce que pense Stallman de Chrome OS et du Cloud Computing

Jean-Baptiste Paris - CC by-saIl y a un mois Google annonçait la sortie du Cr 48, premier prototype de netbook tournant sous Chrome OS. Avec cet OS d’un nouveau genre vos applications, vos fichiers, vos données, etc. sont déplacés sur le Web, votre ordinateur n’est plus qu’un terminal permettant d’y avoir accès. C’est en apparence fort pratique (et c’est de qualité Google) mais il y a un réel risque de sacrifier sa liberté, individuelle et collective, sur l’autel de notre confort.

Du coup le Guardian en profita pour demander son avis au gardien du temple qu’est Richard Stallman[1].

Tout comme la critique de Facebook, ce qui se cache derrière Google Chrome OS, c’est le cloud computing, c’est-à-dire, d’après Wikipédia, le « concept de déportation sur des serveurs distants des traitements informatiques traditionnellement localisés sur le poste utilisateur ».

D’autres appellent cela « l’informatique dans les nuages » mais Stallman nous invite ici à prendre garde à cette appellation trompeuse que l’on a trop vite fait de connoter positivement (et d’évoquer alors plutôt une « careless computing », c’est-à-dire une informatique negligente ou imprudente).

Son point de vue sera-t-il partagé, en paroles et en actes, au delà des initiés du réseau ? Le doute est malheureusement permis. Et tout comme Facebook, il y a de bonnes chances pour que les ordinateurs Google Chrome OS soient bien le succès annoncé.

Lire aussi la suite de ce billet : Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing.

Embrasser ChromeOS, c’est accepter de perdre le contrôle de ses données, nous avertit Richard Stallman, fondateur de GNU

Google’s ChromeOS means losing control of data, warns GNU founder Richard Stallman

Charles Arthur – 14 décembre 2010 – The Guardian (Blog Technology)
(Traduction Framalang : Olivier Rosseler)

Le nouveau système d’exploitation dans les nuages de Google, ChromeOS, va « entraîner les gens à utiliser l’informatique imprudemment » en les forçant à stocker leurs données dans les nuages plutôt que sur leur machine. Telle est la mise en garde de Richard Stallman, fondateur de la Free Software Foundation et créateur du système d’exploitation GNU.

Il y a deux ans, Stallman, un vieux de la veille dans le domaine de l’informatique, et un ardent défenseur des logiciels libres à travers sa Free Software Foundation, prévenait qu’utiliser intensivement l’informatique dans les nuages était « pire que stupide », car alors l’utilisateur perd le contrôle de ses données.

Il se dit maintenant de plus en plus inquiet à cause de la sortie de ChromeOS, le nouveau système d’exploitation de Google, basé sur GNU/Linux, pensé pour stocker le moins possible de données localement. Il s’en remet plutôt à une connexion permanente avec le nuage de serveurs de Google, éparpillé dans le monde, pour assurer le stockage des informations sur les machines de l’entreprise plutôt que sur la vôtre.

Stallman ajoute : « Aux États-Unis, vous perdez vos droits sur vos données si vous les confiez aux machines d’une entreprise plutôt qu’à la vôtre. La police doit vous présenter un mandat pour saisir vos données, mais si elles sont hébergées sur le serveur d’une entreprise, la police peut y accéder sans rien vous demander. Ils peuvent même le faire sans présenter de mandat à l’entreprise. »

Google a entrepris un lancement en douceur de ChromeOS la semaine dernière, en présentant quelques fonctionnalités du système d’exploitation et en fournissant des machines de test à certains développeurs et journalistes tout en précisant que le lancement officiel n’aurait pas lieu avant le deuxième semestre 2011.

Eric Schmidt, patron de Google, en fait l’éloge sur son blog : « Ces annonces sont à mes yeux les plus importantes de toute ma carrière, c’est l’illustration du potentiel qu’a l’informatique de changer la vie des gens. Il est fascinant de voir à quel point des systèmes complexes peuvent produire des solutions simples comme Chrome et ChromeOS, adaptées à tout public. » Puis il poursuit : « À mesure que les développeurs se familiarisent avec notre ordinateur de démonstration, le Cr-48, ils découvriront que malgré sa jeunesse, il fonctionne incroyablement bien. Vous retrouverez toutes vos habitudes, mais avec des logiciels clients qui vous permettront de pleinement profiter de la puissance du Web. »

Mais Stallman reste de glace. « Je crois que informatique dans les nuages ça plaît aux marketeux, parce que ça ne veut tout simplement rien dire. C’est plus une attitude qu’autre chose au fond : confions nos données à Pierre, Paul, Jacques, confions nos ressources informatiques à Pierre, Paul, Jacques (et laissons-les les contrôler). Le terme « informatique imprudente » conviendrait peut-être mieux. »

Il voit un problème rampant : « Je suppose que beaucoup de gens vont adopter l’informatique imprudente, des idiots naissent chaque minute après tout. Le gouvernement américain pourrait encourager les gens à stocker leurs données là où ils peuvent les saisir sans même leur présenter de mandat de perquisition, plutôt que chez eux. Mais tant que nous serons suffisamment nombreux à conserver le contrôle de nos données, personne ne nous empêchera de le faire. Et nous avons tout intérêt à le faire, de peur que ce choix ne nous soit un jour totalement retiré. »

La responsabilité des fournisseurs de services dans les nuages a bénéficié d’un gros coup de projecteur durant la dernière quinzaine lorsqu’Amazon a banni Wikileaks de son service d’informatique dans les nuages EC2, invoquant, unilatéralement et sans proposer de médiation, le non respect des conditions d’utilisation par le site.

Le seul point positif de ChromeOS pour Stallman est sa base : GNU/Linux. « Au fond, ChromeOS est un système d’exploitation GNU/Linux. Mais il est livré sans les logiciels habituels, et il est truqué pour vous décourager de les installer ». Il poursuit : « c’est le but dans lequel ChromeOS a été créé qui me dérange : vous pousser à confier vos données à un tiers et accomplir vos tâches ailleurs que sur votre propre ordinateur ».

Stallman met de plus en garde les hackers en herbe contre le logiciel LOIC, présenté comme un moyen d’exprimer sa colère contre les sites ayant pris des mesures contre Wikileaks, non pas car il est contre ces actions, mais parce que le code source de l’outil n’est pas ouvert aux utilisateurs. « Pour moi, utiliser LOIC sur le réseau c’est pareil que descendre dans la rue pour protester contre les boutiques qui pratiquent l’évasion fiscale à Londres. Il ne faut accepter aucune restriction au droit de protester » note-t-il. « (Mais) si les utilisateurs ne peuvent pas compiler eux-même le logiciel, alors ils ne devraient pas lui faire confiance. »

Mise à jour : Richard Stallman nous écrit : « Un article de la BBC rapportait que quelqu’un de chez Sophos disait que LOIC est un « logiciel inconnu », et j’ai cru qu’il entendait par là « propriétaire », mais je me suis trompé. En fait, LOIC est un logiciel libre, et donc les utilisateurs ont accès au code source et peuvent le modifier. Ses rouages ne sont pas obscurs comme ceux de Windows, de MacOS ou d’Adobe Flash Player, et personne ne peut y cacher de fonctionnalités malicieuses, comme c’est le cas pour ces programmes. »

Lire aussi la suite de ce billet : Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing

Notes

[1] Crédit photo : Jean-Baptiste Paris (Creative Commons By-Sa)