Pourquoi je retourne à Firefox

Les statistiques font foi, nombreux sont les lecteurs de ce blog à avoir adoré le navigateur Firefox, pour cependant, progressivement, parfois la mort dans l’âme, opter pour le choix pragmatique de Google Chromium, ou pire Google Chrome.

Sauf que depuis Firefox a progressé techniquement et Mozilla s’affirme chaque jour davantage comme une libre boussole du Web, ce que ne sera jamais Google.

Cela vaut le coup de reconsidérer la question, non ?

Keng Susumpow - CC by

Pourquoi je suis (re)passé à Firefox

Why I’m Switching (Back) to Firefox

Cameron Paul – 10 mars 2013 – Blog personnel
(Traduction : Jeff_, biglittledragoon, Agnes, MFolschette, Plop, Tom, Pouhiou, quack1, jtanguy, Rudloff + anonymes)

Dès septembre 2008, j’ai commencé à en avoir assez de Firefox. Il avait été mon navigateur de prédilection pendant des années mais la merveille du monde open source commençait à me décevoir. J’ai utilisé la version bêta de Firefox 3 dès le premier jour où elle a été disponible et je n’ai cessé de la trouver lourde et lente tout au long de mon utilisation. J’ai toujours été un adorateur des conceptions minimalistes et Firefox était en train de rapidement devenir tout sauf minimaliste.

Puis, quelque chose d’inattendu est arrivé. Google a annoncé la sortie de son propre navigateur. J’étais bientôt face à ce qui semblait être à l’époque le logiciel le plus incroyable que j’aie jamais vu. Google Chrome a initié une qualité de navigation formidablement épurée et aboutie soutenue par WebKit. Je pouvais enfin profiter de la vitesse de Safari avec une interface utilisateur bien conçue. Avec le temps, les choses n’ont fait que s’améliorer. Les outils de développement de WebKit sont devenus plus puissants que Firebug et avec la sortie de V8, Google a modifié notre conception des performances de JavaScript.

Cinq ans ont passé et les choses ne sont plus aussi roses. Plus que jamais, j’ai des problèmes de lenteur du navigateur. L’utilisation mémoire dépasse l’entendement et j’ai fréquemment des onglets qui ne répondent plus du tout. De plus, il semble y avoir une lacune générale de contrôle qualité ces derniers jours. Cocher la case « Désactiver le cache » dans les outils développeur semble ne pas avoir d’effet et, occasionnellement, des erreurs JavaScript disparaissent dans la nature au lieu d’apparaître dans la console. Chrome commence à beaucoup ressembler à ce qu’était Firefox en 2008.

Revenons-en maintenant à Firefox. Cela fait cinq années que je n’ai pas utilisé le navigateur de Mozilla pour autre chose qu’une vérification rapide, afin de m’assurer qu’une page web que je construisais avait un rendu correct. Dans ce laps de temps je n’ai pas prêté attention au travail qui avait été effectué. Firefox est devenu rapide. Comparé à Chrome, j’observe des chargements de pages visiblement plus prompts. SpiderMonkey semble avoir rattrapé V8 également. Mes propres tests (non scientifiques) m’ont montré que V8 était toujours légèrement plus rapide mais la différence était trop mince pour être perçue par des humains.

Puis il y a les outils de développement. Les outils de développement de WebKit ont toujours quelques fonctionnalités qui ne sont pas présentes dans Firefox, mais pour 95 % de mon utilisation, les outils de Firefox sont en fait meilleurs. Dans l’inspecteur, un meilleur contraste et une meilleure disposition permettent à l’œil de parcourir ce pavé qu’est le DOM non rendu. Sur la page, les éléments sélectionnés sont surlignés avec des pointillés subtils mais visibles au lieu d’une boîte bleue qui masque la page. Il y a également le mode de sélection au survol qui me permet de me déplacer rapidement à travers les éléments de la page jusqu’à arriver là où je le souhaite. Non seulement les outils de développement de Firefox sont plus agréables mais ils me font également gagner du temps lors de la sélection et la manipulation d’éléments sur la page.

Si l’on met de côté les problèmes techniques, il existe un autre élément qui me trotte dans la tête depuis déjà un petit moment. Je crois sincèrement que Mozilla s’engage sur les questions de liberté et de vie privée sur le Web. Google quant à lui s’engage à faire de l’argent et à savoir tout ce que je fais. Firefox m’accueille avec une page détaillant mes droits en tant qu’utilisateur de logiciel libre. Chrome m’accueille avec… pfffff… Chrome m’accueille avec une putain de publicité pour un Chromebook.

À l’heure où je parle je me sens un peu nostalgique. Le Firefox d’aujourd’hui me rappelle le Firefox tel qu’il était lorsque je l’ai découvert. Une fois de plus, Mozilla a délivré un produit techniquement supérieur tout en respectant totalement mes droits en tant qu’usager. Firefox c’est la liberté.

Crédit photo : Keng Susumpow (Creative Commons By)




Geektionnerd : Dépêches Melba X

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Sources :

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




La quête du logiciel de qualité – (Libres conseils 22b/42)

Chaque jeudi à 21h, rendez-vous sur le framapad de traduction, le travail collaboratif sera ensuite publié ici même.

Traduction Framalang : Sphinx, peupleLà, lerouge, goofy, alpha, Sky, Julius22, lamessen, vvision, Garburst, okram

Le guichet de billetterie

La thèse de doctorat d’Alexander a servi de base à son livre Notes on the Synthesis of Form (NdT : Remarques sur la synthèse de la forme), paru en 1964. Il essayait de rationaliser le processus de conception en le définissant comme une progression depuis une série de conditions préalables jusqu’à un résultat final, grâce à une analyse des forces qui déterminent le design.

Permettez-moi de citer Richard Gabriel, dont je parlerai plus tard, quand il décrit l’époque où Alexander essayait de concevoir un guichet de billetterie en prenant appui sur ses idées mathématiques :

Alexander dit (à propos de la qualité sans nom) :

Il s’agit d’un type subtil de liberté issu de contradictions internes. (Alexander, 1979)

Cette assertion fait écho aux origines de sa recherche sur la qualité. Elle commença en 1964 alors qu’il était en train de réaliser une étude pour le San Francisco Bay Area Rapid Transit District (BART) basée sur le travail rapporté dans Notes on the Synthesis of Form (Alexander 1964), lui-même basé sur sa thèse de doctorat. L’une des idées-clés de ce livre était qu’avec une bonne conception, il doit y avoir une relation sous-jacente entre la structure du problème et la structure de la solution — les bonnes conceptions passent par la rédaction d’une analyse des besoins, l’analyse de leurs interactions sur les bases d’incompatibilités potentielles, produisant ainsi une décomposition hiérarchisée des différentes parties, et la reconstitution d’une structure dont

la hiérarchie structurelle est l’exact complémentaire de la hiérarchie fonctionnelle établie durant l’analyse du programme. (Alexander, 1964)

Alexander a analysé le système de forces mises en jeu dans la conception d’un guichet. Lui et son groupe avaient rédigé un cahier des charges en 390 points pour couvrir tous les cas de figure d’usage de l’édicule. Certaines spécifications concernaient des choses telles qu’être là pour obtenir des billets, pouvoir faire de la monnaie, pouvoir déplacer les personnes qui font la queue, réduire la durée d’attente pour obtenir des billets. Il a toutefois remarqué que certaines parties du système n’étaient pas concernées par ces spécifications et que le système lui-même pouvait s’enliser parce que ces autres forces — celles qui ne faisaient pas l’objet d’une spécification — agissaient pour arriver à leur propre équilibre au sein du système. Par exemple, si une personne s’arrêtait et qu’une autre s’arrêtait également pour parler avec la première, cela pouvait créer un embouteillage susceptible de mettre en échec les mécanismes mis au point pour maintenir une circulation fluide. Bien sûr, l’absence d’embouteillage faisait partie des spécifications. Mais il n’y avait rien que les concepteurs puissent faire pour l’empêcher par le biais d’un mécanisme adapté.

En tant que programmeur, ça doit vous rappeler quelque chose ? Vous pouvez élaborer une conception magnifique et parfaitement rigoureuse, mais qui s’effondrera quand vous la construirez effectivement parce que des éléments que vous n’aviez pas anticipés apparaitront alors. Ce n’est pas un échec de votre conception, mais de quelque chose d’autre ! Richard Gabriel poursuit :

Alexander disait ceci :

Il devint alors clair que le bon fonctionnement d’un système ne dépendait pas uniquement de la satisfaction d’une série de conditions préalables. Il s’agissait plutôt d’un système qui trouve sa cohérence en lui-même et en équilibre avec les forces internes générées par ledit système que de l’accord avec une série quelconque de conditions préalables que nous aurions arbitrairement définie. Cela m’intriguait beaucoup car l’idée qui prévalait en général à l’époque (en 1964) était que, pour l’essentiel, tout était fondé sur des objectifs. Toute mon analyse des conditions préalables tendait à converger avec le point de vue de la recherche opérationnelle qui pose qu’il faut établir des objectifs, etc. Ce qui m’ennuyait, c’est qu’une analyse correcte du guichet ne pouvait se baser uniquement sur des objectifs quelconques ; il y avait des réalités qui émergeaient du centre du système lui-même et qui, peu importe votre degré de réussite, avaient un rapport avec le fait que vous ayez créé une configuration stable au regard de ces réalités.

Et c’est le cœur du problème : comment créer une configuration stable avec les réalités qui en émergent au fur et à mesure que vous la construisez ?

La nature de l’ordre

Bien que Christopher Alexander ait eu conscience d’avoir produit quelque chose de précieux avec ses recherches et catalogues de modèles, il n’était pas complètement satisfait. D’où venaient les modèles ? Pouvait-on les créer à partir de rien ou devait-on se satisfaire de ce qu’avait produit jusque-là l’architecture traditionnelle ? D’ailleurs, les modèles étaient-ils réellement nécessaires ? Comment pouvait-on mieux définir et évaluer ou mesurer cette « Qualité sans nom » ?

Alexander passa les vingt années suivantes à tenter de répondre à ces questions. En étudiant le processus réel de création par lequel des environnements bien construits avaient vu le jour, il découvrit que certains processus sont indispensables pour créer des villes ou des édifices agréables — ou toute création humaine en fait. Il arriva aux conclusions suivantes :

  • La nature crée des choses qui ont toutes une quinzaine de propriétés en commun (je vous expliquerai plus tard). Cela se produit uniquement par des processus naturels — physique et chimie de base — bien que nous ne sachions pas clairement pourquoi des procédés très différents produisent des résultats similaires ;
  • On retrouve ces propriétés dans les architectures traditionnelles ou les villes qui ont simplement évolué au cours du temps. Tous les modèles décrits dans A Pattern Language peuvent être obtenus en suivant une méthode fondée sur ces propriétés ;
  • Chaque propriété peut également décrire une transformation de l’espace existant ;
  • La seule façon de réussir une bonne conception consiste à utiliser ces transformations, une à la fois.

Ceci a été publié en 2003 – 2004 en quatre tomes intitulés The Nature of Order (NdT : « La nature de l’ordre »).

Les quinze propriétés

Le premier tome de La nature de l’ordre traite de quinze propriétés qui apparaissent dans tous les systèmes naturels. Je les résumerai très brièvement (voir les références pour des illustrations et de plus amples explications).

  • Des niveaux d’échelle. La gamme de tailles est équilibrée, sans changement brutal dans la taille d’objets adjacents. Les éléments ont une échelle fractale ;
  • Des centres forts. Les différentes parties de l’espace ou de la structure sont clairement identifiables ;
  • Des frontières solides. Les lignes délimitent les choses. Dans les systèmes vivants, les bords sont les environnements les plus productifs (par exemple, toutes les créatures qui vivent au bord de l’eau) ;
  • Des répétitions alternées. Haut/bas, épais/fin, forme A et forme B. Les objets oscillent et alternent afin de créer un bon équilibre ;
  • Un espace positif. L’espace adopte une belle forme convexe et close. Ce n’est pas de l’espace excédentaire. Pensez à la manière dont les cellules d’un diagramme de Voronoï grandissent vers l’extérieur à partir d’un ensemble de points ou à la manière dont les grains d’un épi de maïs se développent à partir de petits points jusqu’à ce qu’ils touchent les grains adjacents ;
  • Une bonne forme. Les voiles d’un bateau, la coquille d’un escargot, le bec d’un oiseau. Ils parviennent à la forme optimale qui sert leur fonction, ce qui est magnifique ;
  • Des symétries locales. Le monde n’est pas symétrique dans son ensemble. Cependant, les petites choses tendent à être symétriques parce que, de cette manière, c’est plus facile. Votre maison n’est pas symétrique, mais chaque fenêtre l’est ;
  • Une profonde imbrication et de l’ambiguïté. Les rues sinueuses des vieilles villes. Les axones des neurones. Il est difficile de séparer la forme du fond, ou l’avant-plan de l’arrière-plan. Deux centres forts sont renforcés si un troisième est placé entre eux de manière à ce qu’il appartienne aux deux ;
  • Du contraste. Vous pouvez distinguer où une chose se termine et où la suivante commence parce qu’elles ne se fondent pas l’une dans l’autre ;
  • Des degrés. Les choses se confondent les unes les autres là où c’est nécessaire. Les concentrations dans des solutions, les congères ou les talus, les câbles supportant un pont. La manière dont la bande passante décroît alors que vous vous éloignez de l’antenne ;
  • Des aspérités. Le monde n’est ni exempt de frottement, ni doux. Les irrégularités sont bénéfiques car elles permettent à chaque élément de s’adapter à son environnement, plutôt que d’être une copie conforme qui n’irait pas aussi bien ;
  • Des échos. Les choses se répètent et se font écho. Elles sont uniques dans la précision de leur forme mais leurs contours généraux se répètent à l’infini ;
  • Du vide. Parfois, vous avez un grand espace vide pour la tranquillité de la forme. Un lac, une cour, le cadre d’une image ;
  • De la simplicité et du calme intrinsèque. Les choses sont aussi simples que possible, sans être simplistes ;
  • De l’interdépendance. Chaque chose est dépendante de tout le reste. On ne peut pas séparer un poisson du bassin et des plantes aquatiques. On ne peut pas séparer une colonne de la base du bâtiment.



Débat : 9 points (ou tabous ?) jamais (ou rarement) discutés dans le logiciel libre

Nous traduisons souvent Bruce Byfield, libre penseur du logiciel libre, sur le Framablog.

A-t-il raison d’affirmer qu’il est des sujets pour ainsi dire tabous dans la communauté et surtout que la situation a évolué, n’en déplaise à certains ?

Laëtitia Dulac - CC by

Neuf choses dont on ne discute jamais sur l’open source

9 Things That Are Never Admitted About Open Source

Bruce Byfield – 22 janvier 2013 – Datamation
(Traduction : Moosh, brandelune, Sky, ehsavoie, Astalaseven, petit bonhomme noir en haut à droite, mike, goofy, KoS, Mowee, arcady, maxlath, Astalaseven, mariek, VifArgent, Rudloff, VIfArgent, Penguin, peupleLa, Vilrax, lamessen + anonymous)

Quels sont les sujets tabous dans l‘open source de nos jours ? Certains peuvent se deviner mais d’autres pourraient bien vous surprendre.

On pourrait penser qu’un groupe de personnes intelligentes comme les membres de la communauté des logiciels libres et open source (NdT : FOSS pour Free and Open Source Software) seraient sans tabous. On pourrait s’attendre à ce qu’un tel groupe d’intellectuels juge qu’aucune idée n’est interdite ou gênante – mais ce serait une erreur.

Comme toute sous-culture, la communauté FOSS est cimentée par des croyances. Ces croyances contribuent à bâtir une identité commune : par conséquent, les remettre en cause revient à remettre en cause cette identité.

Certains de ces sujets tabous peuvent saper des évidences admises depuis vingt ans ou plus. D’autres sont nouveaux et contestent des vérités communément acceptées. Quand on les examine, on s’aperçoit que chacun d’entre eux peut être aussi menaçant que la déclaration de valeurs communes peut être rassurante.

Pourtant, même s’il est inconfortable d’interroger ces tabous, il est souvent nécessaire de le faire. Les croyances peuvent perdurer longtemps après le temps où elles s’appliquaient, ou après avoir dégénéré en semi-vérités. Il est utile de temps en temps de penser l’impensable, ne serait-ce que pour mettre ces croyances en phase avec la réalité.

Suivant cette logique, voici neuf observations sur l‘open source qui nécessitent selon moi un nouvel examen.

1. Ubuntu n’est plus le dernier grand espoir de l’open source

Quand Ubuntu est apparue il y a neuf ans, nombreux sont ceux qui l’ont considérée comme la distribution qui mènerait la communauté à dominer le monde. Débarquant de nulle part, Ubuntu s’est immédiatement concentrée sur le bureau comme aucune autre distribution avant elle. Des outils et des utilitaires furent ajoutés. De nombreux développeurs Debian trouvèrent un travail chez Canonical, la branche commerciale d’Ubuntu. Des développeurs virent leurs frais payés pour des conférences auxquelles ils n’auraient pas pu se rendre autrement.

Au fil du temps, une bonne partie de l’enthousiasme initial est retombée. Personne ne semble s’être intéressé à la demande de Mark Shuttleworth, le fondateur d’Ubuntu, à ce que les principaux projets coordonnent leurs cycles de livraison ; ils l’ont tout simplement ignorée. Mais on a vu des sourcils se froncer lorsqu’Ubuntu a commencé à développer sa propre interface plutôt que de contribuer à GNOME. Canonical a commencé à contrôler ce qui se passait dans Ubuntu, apparemment pas pour l’intérêt général mais surtout pour la recherche de profits. Nombreux, aussi, furent ceux qui n’apprécièrent pas l’interface d’Ubuntu, Unity, à sa sortie.

Pourtant, à écouter les employés de Canonical, ou les bénévoles Ubuntu, on aurait presque l’impression qu’il ne s’est rien passé pendant ces neuf dernières années. Lisez notamment le blog de Shuttleworth ou ses déclarations publiques : il se donne le rôle de figure de proue de la communauté et déclare que les « hurlements des idéologues » finiront par cesser devant son succès.

2. Le « cloud computing » sape les licences libres

Il y a sept ans, Tim O’Reilly affirmait que les licences libres étaient devenues obsolètes. C’était sa manière un peu dramatique de nous prévenir que les services en ligne mettent à mal les objectifs du logiciel libre. Comme le logiciel, le cloud computing offre aux utilisateurs l’usage gracieux des applications et du stockage, mais sans aucune garantie ou contrôle quant à la vie privée.

La Free Software Foundation (NdT : Fondation pour le Logiciel Libre) répondit à la popularité grandissante du cloud computing en dépoussiérant la GNU Affero General Public License, qui étend les idéaux du FOSS au cloud computing.

Après cela, pourtant, les inquiétudes à propos de la liberté logicielle au sein du cloud ont faibli. Identi.ca fut créé comme une réponse libre à Twitter, et MediaGoblin développé comme l’équivalent libre d’Instagram ou de Flickr, mais ce genre d’efforts est occulté par la compétition. On n’a pas mis l’accent sur l’importance des licences libres ou du respect de la vie privée dans le cloud.

Par conséquent, les avertissements de O’Reilly sont toujours aussi pertinents de nos jours.

3. Richard Stallman est devenu un atout contestable

Le fondateur de la Free Software Foundation et le moteur derrière la licence GNU GPL, Richard M. Stallman, est une des légendes des logiciels libres et open source. Pendant des années, il a été l’un des plus ardents défenseurs de la liberté du logiciel et la communauté n’existerait probablement pas sans lui.

Ce que ses supporters rechignent à admettre, c’est que la stratégie de Stallman a ses limites. Nombreux sont ceux qui disent que c’est un handicapé social, et que ses arguments se basent sur la sémantique — sur les mots choisis et comment ils influencent le débat.

Cette approche peut être éclairante. Par exemple, lorsque Stallman s’interroge sur l’analogie entre le partage de fichiers et les pillages perpétrés par les pirates, il révèle en fait le parti-pris que l’industrie du disque et du cinéma tente d’imposer.

Mais, malheureusement, c’est à peu près la seule stratégie de Stallman. Il dépasse rarement ce raisonnement qu’il utilise pour fustiger les gens, et il se répète même davantage que des personnes qui passent leur temps à faire des discours. Il est perçu de plus en plus, par une partie de la communauté, comme quelqu’un hors de propos voire même embarrassant. Comme quelqu’un qui fut efficace… mais ne l’est plus. Il semble que la communauté a du mal à admettre l’idée que Stallman a eu un impact certain pendant des années, mais qu’il est moins utile aujourd’hui. Soit il est défendu férocement pour son passé glorieux, soit il est attaqué comme un usurpateur parasite. Je crois que les affirmations concernant ce qu’il a accompli et son manque d’efficacité actuel sont vraies toutes les deux.

4. L’open source n’est pas une méritocratie

L’une des légendes que les développeurs de logiciels libres aiment à se raconter est que la communauté est une méritocratie. Votre statut dans la communauté est censément basé sur vos dernières contributions, que ce soit en code ou en temps.

L’idée d’une méritocratie est très attirante, en cela qu’elle forme l’identité du groupe et assure la motivation. Elle encourage les individus à travailler de longues heures et donne aux membres de la communauté un sentiment d’identification et de supériorité.

Dans sa forme la plus pure, comme par exemple au sein d’un petit projet où les contributeurs ont travaillé ensemble pendant de nombreuses années, la méritocratie peut exister.

Mais le plus souvent, d’autres règles s’appliquent. Dans de nombreux projets, ceux qui se chargent de la documentation ou bien les graphistes sont moins influents que les programmeurs. Bien souvent, vos relations peuvent influencer la validation de votre contribution au moins autant que la qualité de votre travail.

De même, la notoriété est plus susceptible d’influencer les décisions prises que le grade et les (surtout si elles sont récentes) contributions. Des personnes comme Mark Shuttleworth ou des sociétés comme Google peuvent acheter leur influence sur le cours des choses. Des projets communautaires peuvent voir leurs instances dirigeantes dominées par les sponsors privés, comme c’est de fait le cas avec Fedora. Bien que la méritocratie soit l’idéal, ce n’est presque jamais la seule pratique.

5. L’open source est gangrené par un sexisme systémique

Une autre tendance qui plombe l’idéal méritocratique est le sexisme (parfois sour la forme de la misogynie la plus imbécile) que l’on trouve dans quelques recoins de la communauté. Au cours des dernières années, les porte-parole du FOSS ont dénoncé ce sexisme et mis en place des règles officielles pour décourager quelques uns de ses pires aspects, comme le harcèlement pendant les conférences. Mais le problème demeure profondément ancré à d’autres niveaux.

Le nombre de femmes varie selon les projets, mais 15 à 20 pour cent peut être considéré comme un chiffre élevé pour un projet open source. Dans de nombreux cas, ce nombre est en dessous des cinq pour cent, même en comptabilisant les non-programmeurs.

De plus les femmes sont sous-représentées lors des conférences, à l’exception de celles où les femmes sont activement encouragées à faire part de leurs propositions (ces efforts entraînent, inévitablement, leur lot d’accusations quant à des traitements spéciaux et des quotas, quand bien même aucune preuve ne peut être avancée).

La plus grande évidence de sexisme se produit quotidiennement. Par exemple, Slashdot a récemment publié un entretien avec Rikki Ensley, membre de la communauté USENIX. Parmi les premiers commentaires, certains se référaient à une chanson populaire dont le refrain mentionne le prénom Rikki. D’autres discutent de son apparence et lui donnent des conseils pour avoir l’air plus « glamour ».

On assiste à des réactions du même ordre, et bien d’autres pires encore sur de nombreux sites dédiés au monde du libre ou sur IRC, dès qu’une femme apparaît, surtout s’il s’agit d’une nouvelle venue. Voilà qui dément les affirmations d’une communauté qui prétend ne s’intéresser qu’aux seules contributions, ou encore l’illusion que la sous-représentation des femmes serait simplement une question de choix individuels.

6. Microsoft n’est plus l’ennemi irréductible du logiciel libre

Il y a à peine plus d’une dizaine d’années, vous pouviez compter sur Microsoft pour traiter le monde du Logiciel Libre de « communiste » ou « anti-Américain », ou sur leurs intentions parfois divulguées dans la presse de vouloir détruire la communauté.

Une grande partie de la communauté s’accroche encore à ces souvenirs. Après tout, rien ne rassemble plus les gens qu’un ennemi commun, puissant et inépuisable.

Mais ce dont la communauté ne se rend pas compte, c’est que la réaction de Microsoft est devenue plus nuancée, et qu’elle varie d’un service à l’autre au sein de l’entreprise.

Nul doute que les dirigeants de Microsoft continuent de voir le logiciel libre comme un concurrent, bien que les dénonciations hautes en couleur aient cessé.

Cependant, Microsoft a pris conscience que, compte-tenu de la popularité du logiciel libre, les intérêts à court terme de l’entreprise seraient mieux servis si elle s’assurait que les outils libres (en particulier les langages de programmation les plus populaires) fonctionnent correctement avec ses propres produits. C’est d’ailleurs la mission principale du projet Microsoft Open Technologies. Récemment, Microsoft est même allé jusqu’à publier une courte déclaration faisant l’éloge de la dernière version de Samba, qui permet l’administration des serveurs Microsoft depuis Linux et les systèmes Unix (NdT : Voir aussi cette FAQ en français publiée par Microsoft).

Bien sûr, il ne faut pas non plus s’attendre à voir Microsoft devenir une entreprise open source ou faire des dons désintéressés d’argent ou de code à la communauté. Mais, si vous faites abstraction des vieux antagonismes, l’approche égoïste de Microsoft à l’égard du logiciel libre n’est pas très différente de nos jours de celle de Google, HP, ou n’importe quelle autre entreprise.

7. L’innovation des interfaces stagne

En 2012, nombreux furent ceux qui n’ont pas adopté GNOME 3 et Unity, les deux dernières interfaces graphiques majeures. Cet abandon fut largement lié à l’impression que GNOME et Ubuntu ignoraient les préoccupations des utilisateurs et qu’ils imposaient leur propre vision, sans concertation.

À court terme, cela a mené à la résurrection de GNOME 2 sous des formes variées.

En tant que prédécesseur de GNOME 3 et de Unity, GNOME 2 fut un choix évident. C’est une interface populaire qui n’impose que peu de restrictions aux utilisateurs.

Quoi qu’il en soit, cela risque d’être, à long terme, étouffant pour l’innovation. Non seulement parce que le temps passé à ressuciter GNOME 2 n’est pas mis à profit pour explorer de nouvelles voies, mais parce que cela semble être une réaction à l’idée même d’innovation.

Peu sont ceux, par exemple, qui sont prêts à reconnaître que GNOME 3 ou Unity ont des fonctionnalités intéressantes. Au contraire, les deux sont condamnés dans leur ensemble. Et les développements futurs, tels l’intention de GNOME de rendre la sécurisation et la confidentialité plus simples, n’ont pas reçu l’attention qu’ils méritaient.

Au final, au cours des prochaines années, l’innovation en sera probablement réduite à une série de changements ponctuels, avec peu d’efforts pour améliorer l’ergonomie dans son ensemble. Même les développeurs hésiteront à tenter quoi que ce soit de trop différent, afin d’éviter le rejet de leurs projets.

Je me dois d’applaudir le fait que les diverses résurrections de GNOME 2 marquent le triomphe des requêtes des utilisateurs. Mais le conservatisme qui semble accompagner ces aboutissements m’inquiète : j’ai bien peur que cette victoire n’engendre d’autres problèmes tout aussi importants.

8. L’open source est en train de devenir une monoculture

Ses partisans aiment à revendiquer que l’un des avantages du logiciel libre et open source, c’est d’encourager la diversité. À la différence de Windows, les logiciels libres sont supposés être plus accueillants pour les idées nouvelles et moins vulnérables aux virus, la plupart des catégories de logiciels incluant plusieurs applications.

La réalité est quelque peu différente. À la lecture d’une étude utilisateurs vous remarquerez un modèle plutôt constant : une application ou technologie recueille 50 à 65% des votes, et la suivante 15 à 30%.

Par exemple, parmi les distributions, Debian, Linux Mint et Ubuntu, qui utilisent toutes le format de packet en .DEB, recueillent 58% du choix des lecteurs 2012 du Linux Journal, que l’on peut comparer aux 16% recueillis par Fedora, openSUSE, et CentOS, qui utilisent quant à elles le format .RPM.

De même, Virtualbox atteint 56% dans la catégorie « Meilleure solution de virtualisation », et VMWare 18%. Dans la catégorie « Meilleure gestion de versions », Git recueille 56% et Subversion 18%. La catégorie la plus asymétrique est celle des « Suites bureautiques » dans laquelle LibreOffice recueille 73% et (sic) Google Docs 12%.

Il n’y avait que deux exceptions à cette configuration. La première était la catégorie « Meilleur environnement de bureau », dans laquelle la diversification des dernières années était illustrée par les scores de 26% pour KDE, 22% pour GNOME 3, 15% pour GNOME 2 et 12% pour Xfce. La deuxième catégorie était celle de « Meilleur navigateur web »dans laquelle Mozilla Firefox recueillait 50% et Chromium 40%.

De manière générale, les chiffres ne rendent pas compte d’un monopole, mais dans la plupart des catégories, la tendance est là. Au mieux, on pourrait dire que, si la motivation n’est pas le profit, le fait d’être moins populaire n’implique pas que l’application va disparaître. Mais si la concurrence est saine, comme tout le monde aime à le dire, il y a tout de même des raisons de s’inquiéter. Quand on y regarde de près, les logiciels libres sont loin d’être aussi diversifiés que ce que l’on croit.

9. Le logiciel libre est bloqué si près de ses objectifs

En 2004, les logiciels libres et open source en étaient au stade où ils couvraient la plupart des usages de base des utilisateurs : envoi de courriels, navigation sur internet et la plupart des activités productives sur ordinateur. En dehors des espoirs de disposer un jour d’un BIOS libre, il ne manquait plus que les pilotes pour les imprimantes 3D et les cartes WiFi pour atteindre l’utopie d’un système informatique entièrement libre et open source.

Neuf ans plus tard, de nombreux pilotes libres de carte WiFi et quelques pilotes libres de cartes graphiques sont disponibles – mais nous sommes loin du compte. Pourtant la Free Software Foundation ne mentionne que rarement ce qui reste à faire, et la Linux Foundation ne le fait pratiquement jamais, alors même qu’elle sponsorise l’OpenPrinting database, qui liste les imprimantes ayant des pilotes libres. Si l’on combinait les ressources des utilisateurs de Linux en entreprise, on pourrait atteindre ces objectifs en quelques mois, pourtant personne n’en fait une priorité.

Admettons que certaines entreprises se préoccupent de leur soi-disant propriété intellectuelle sur le matériel qu’elles fabriquent. Il est possible également que personne ne veuille courir le risque de fâcher leurs partenaires commerciaux en pratiquant la rétroingénierie. Pourtant, on a bien l’impression que l’état actuel de statu quo persiste parce que c’est déjà bien assez, et que trop peu de personnes ont à cœur d’atteindre des objectifs dont des milliers ont fait le travail de leur vie.

Des discussions, non des disputes

Certains ont peut-être déjà conscience de ces sujets tabous. Cependant, il est probable que chacun trouvera dans cette liste au moins un sujet pour se mettre en rogne.

Par ailleurs, mon intention n’est pas de mettre en place neuf aimants à trolls. Même si je le voulais, je n’en aurais pas le temps.

Ces lignes sont plutôt le résultat de mes efforts pour identifier en quoi des évidences largement admises dans la communauté devraient être remises en question. Je peux me tromper. Après tout, je parle de ce que j’ai pris pour habitude de penser, moi aussi. Mais au pire, cette liste est un bon début.

Si vous pensez qu’il y a d’autres sujets tabous à aborder et à reconsidérer au sein de la communauté des logiciels libres et open source, laissez un commentaire. Cela m’intéresse de voir ce que je pourrais avoir oublié.

Crédit photo : Laëtitia Dulac (Creative Commons By)




Pas de Web libre et ouvert sans navigateur

Nous reproduisons aujourd’hui le dernier billet de Tristan Nitot, dont nous avons traduit la version originale. Il attire notre attention sur un problème crucial aujourd’hui et vous propose d’apporter votre contribution au débat. Alors qu’un véritable raz-de-marée d’applications déferle sur les smartphones et que nous en sommes friands (— ah bon, pas vous, vraiment ?) il est temps de s’interroger sur ce qui fait la force d’un navigateur qui nous permet de tirer le meilleur parti du Web. Car il ne s’agit pas seulement d’y acheter des contenus mais bien d’en faire l’espace de nos libertés, de notre création, de notre vie en ligne.

Et si le navigateur disparaissait ?

Par Tristan Nitot, Mozilla Principal Evangelist

(Adaptation d’un article en anglais publié sur le blog officiel Mozilla, Beyond the Code, sous le titre What if the browser disappeared?. Sky, Slystone, goofy pour la traduction).

L’autre jour, je lisais un article provocateur intitulé The end of the browser? (NDT : « La fin du navigateur ? »). Cet article soutient fondamentalement que tout le monde utilisant de plus en plus d’appareils nomades, les applications mobiles remplacent les navigateurs Web pour diverses raisons, la principale étant qu’elles sont plus pratiques que les pages Web affichées dans les navigateurs.

Bien qu’en désaccord avec l’auteur, je pense qu’il s’agit d’une question très intéressante qui soulève deux problèmes :

  1. Et si le Web était remplacé par les applications mobiles ? En quoi serait-il dommageable de perdre les navigateurs Web en tant que canal principal d’accès à l’information et aux services ?
  2. Que pouvons-nous faire pour nous assurer que le navigateur Web ne devienne pas une relique du passé pendant que le monde devient mobile ?

Et si le Web était remplacé par les applications mobiles ?

— Je pense que le monde y perdrait énormément. Il y perdrait tellement que je ne sais même pas par où commencer…

Liberté d’expression

Le Web n’est pas seulement fait de contenu commercial. Avoir la possibilité de s’exprimer est fondamental. Le Web permet cela, et avoir une structure décentralisée sur laquelle publier des trucs est nécessaire. Les magasins d’applications centralisés, comme les Appstores, ont montré une certaine tendance à censurer agressivement les contenus pour éviter les litiges, qu’il s’agisse d’art, de politique, de liberté de la presse ou simplement de mauvais goût.

Liberté de façonner mon expérience

Les navigateurs Web modernes sont équipés d’un système d’extensions qui permet aux utilisateurs de personnaliser leur expérience. Mais même avant que Firefox ne rende les extensions si populaires, il était possible d’utiliser des feuilles de styles alternatives ou même les feuilles de style de l’utilisateur pour modifier la présentation du contenu d’un site. Il ne s’agit pas seulement des goûts et des couleurs, mais également de l’importance pour le contenu du Web d’être accessible aux personnes handicapées.

N’oublions pas que chaque plateforme majeure propose un navigateur Web, de Windows à MacOS en passant par GNU/Linux et tous les smartphones : les utilisateurs n’ont pas à acheter un matériel ou un logiciel spécifique pour accéder au Web. Tout ce dont ils ont besoin c’est un ordinateur qui puisse faire tourner un navigateur Web.

Liberté d’apprendre, de bricoler et de créer

Ce qui rend le Web différent des autres médias est la possibilité pour chacun de participer. Contrairement à la télévision, vous n’avez pas besoin de posséder une chaîne de télé pour partager votre point de vue avec un public. Tout le monde peut publier un billet de blog qui renvoie vers d’autres pages, partager des photos ou des vidéos, et c’est un progrès fantastique pour la démocratie, comparé aux temps de la télé, de la radio et des journaux.

Mais l’Internet et le Web ne sont pas seulement des médias. Ce sont des plateformes d’innovation. Comme tout le monde peut apprendre comment le Web fonctionne en regardant le code source, le Web permet à chacun de créer une application Web, ce qui conduit à plus d’innovations, provenant d’encore plus de gens.

Que pouvons-nous faire pour nous assurer que le navigateur Web ne devienne pas une relique du passé pendant que le monde devient mobile ?

La réponse à cette question est plus courte que la précédente, je vais vous présenter ce que fait Mozilla à ce sujet :

  1. Continuer de faire un super navigateur pour le bureau : Firefox ;
  2. Continuer de faire un super navigateur pour les mobiles : Firefox pour Android ;
  3. Travailler sur un système d’exploitation mobile ouvert pour faire du Web la plateforme mobile de choix : Firefox OS (bientôt sur les téléphones portables près de chez vous !).

La nature ouverte du Web donne à chacun toutes sortes de libertés, et c’est pourquoi Mozilla s’investit dans Firefox OS : c’est le meilleur moyen de s’assurer que le Web a un futur dans un monde où la plupart des gens utilisent Internet sur leur téléphone portable.

Que pensez-vous que le monde perdrait si le navigateur Web disparaissait ? Vous pouvez nous le dire dans les commentaires là-dessous.




Les geeks sont les nouveaux défenseurs des libertés publiques, par G. Coleman

Gabriella Coleman est une anthropologiste spécialisée dans la « culture hacker ». Elle a ainsi récemment publié le très remarqué livre Coding Freedom: The Ethics and Aesthetics of Hacking (PDF intégral Creative Commons By-Nc-Nd).

Elle nous livre ici le fruit de sa réflexion suite à la triste disparition d’Aaron Swartz.

Puisque le code devient pouvoir et que les geeks maîtrisent le code, on assiste en effet à l’émergence d’un nouveau mouvement…

Frédéric Bisson - CC by

Les geeks sont les nouveaux défenseurs des libertés publiques

Geeks are the New Guardians of Our Civil Liberties

Gabriella Coleman – 4 février 2013 – MIT Technology Review
(Traduction : Moosh, lamessen, heapoverflow, Sky, Pouhiou, KoS, monsieurab, Slystone, goofy, yazid, isinocin, axellemag1, zak, Penguin, Nodel, Vilrax + anonymes)

Les Geeks sont les nouveaux défenseurs des libertés publiques (NdT : « Civil Liberties », que l’on pourrait aussi traduire par libertés individuelles voire citoyenneté).

Des évènements récents ont mis en évidence le fait que les hackers, les développeurs et les geeks sont porteurs d’une culture politique dynamique.

Plus d’une décennie d’étude anthropologique dans leur milieu, a forgé ma conviction, que les hackers ont construit un très dynamique mouvement de défense des libertés individuelles et publiques. C’est une culture engagée à libérer l’information, sans contrôle excessif et sans surveillance par les gouvernements et les partenaires privés, à insister sur le droit au respect de la vie privée, et à combattre la censure, produisant un effet d’entraînement sans précédent pour la vie politique. Et 2012 a été à ce sujet une année faste.

Avant que je ne développe, il serait bon d’expliquer brièvement le mot « hacker ». C’est une source de débats, même parmi les hackers. Par exemple d’un point de vue technique : un hacker peut programmer, administrer un réseau, bidouiller, réparer et améliorer du matériel et du logiciel. D’un point de vue éthique et politique, cette diversité est tout aussi grande. Certains hackers font partie d’une tradition de la transgression et du non respect des lois ; leurs activités sont opaques et indétectables. D’autres hackers sont fiers d’écrire des logiciels open source, libres d’accès et transparents. Alors que certains restent loin de toute activité politique, un nombre croissant d’entre eux se lève pour défendre leur autonomie productive ; ou s’engage plus largement dans des luttes pour la justice sociale et les Droits de l’Homme.

Malgré leurs différences, certains sites web et certaines conférences rassemblent les divers clans de hackers. Comme tout mouvement politique, il y a des divergences internes mais, si les bonnes conditions sont réunies, des individus aux aptitudes distinctes travailleront à l’unisson pour une même cause.

Prenons par exemple la réaction à l’encontre de la loi Stop Online Piracy Act (SOPA), un projet de loi de grande envergure sur le droit d’auteur visant à réduire le piratage en ligne. SOPA a été stoppée avant qu’elle ne puisse être adoptée, et cela, grâce à une réaction massive et élaborée de la dissidence, menée par le mouvement des hackers.

L’élément central a été une journée de boycott dite « Blackout Day », sans précédent à l’échelle du web. Pour exprimer leur opposition à la loi, le 17 janvier 2012, des organisations à but non-lucratifs, quelques grandes entreprises du web, des groupes d’intérêts publics et des milliers d’individus ont décidé de rendre momentanément leurs sites inaccessibles ; des centaines d’autres citoyens ont appelé ou envoyé des courriels aux représentants politiques. Les journalistes ont par la suite beaucoup écrit sur le sujet. Moins d’une semaine plus tard, après ces évènements spectaculaires, le projet SOPA et le projet PIPA, son pendant au Sénat, ont été suspendus.

La victoire repose sur le soutien très large des hackers et des geeks. La participation de très grandes entreprises, comme Google, de personnalités reconnues du monde numérique, comme Jimmy Wales, et de l’organisation de défense des libertés individuelles Electronic Frontier Foundation (EFF) ont été cruciales au succès de l’action. Toutefois, la présence et le soutien constant et indéfectible des hackers et des geeks, fut palpable, y incluant bien sûr Anonymous. Depuis 2008 les activistes se sont ralliés sous cette bannière pour organiser des manifestations ciblées, faire connaître diverses malversations, organiser des fuites de données sensibles, s’engager dans l’action directe numérique et fournir une assistance technique pour les mouvements révolutionnaires.

Durant la protestation contre SOPA, les Anonymous ont publié des vidéos et des posters de propagande, tout en faisant régulièrement le point de la situation sur plusieurs comptes Twitter, dont Anonymous News, qui dispose d’un contingent important de followers. À la fin du blackout, les compagnies s’éloignèrent naturellement du feu des projecteurs, et se remirent au travail. La lutte pour les droits numériques continua, cependant, avec les Anonymous et les autres activistes.

En réalité , le jour suivant, le 18 janvier 2012, les autorités fédérales orchestrèrent le démantèlement du populaire site de partage de fichiers Megaupload. Kim Dotcom, le sympathique et controversé fondateur de la compagnie fut aussi arrêté dans un spectaculaire raid matinal en Nouvelle-Zélande. Le retrait de ce site populaire ne présageait rien de bon pour les Anonymous : il semblait confirmer que si les décrets tels que SOPA devenaient des lois, la censure deviendrait inévitable et commune sur Internet. Bien qu’aucune cour n’ait jugé Kim Dotcom coupable de « piratage », ses possessions sont toujours confisquées et son site web banni d’Internet.

Dès que la nouvelle fut connue, les Anonymous coordonnèrent leur plus grande campagne d’attaques par déni de service (DDOS) à ce jour. Elle mit à mal de nombreux sites web, incluant la page d’accueil d’Universal Music, le FBI, le bureau américain des copyrights (U.S Copyright Office), l’association américaine de l’industrie du disque (Recording Industry Association of America, RIAA) et l’association américaine du cinéma (Motion Picture Association of America, MPAA).

Quelques semaines plus tard, en Europe, les Anonymous firent encore parler d’eux, à l’occasion de mouvements de protestation massifs en ligne et hors-ligne contre ACTA, autre accord international sur le copyright, particulièrement au Danemark et en Pologne (voir Europeans Protest Anti-Piracy Treaty). Après que le gouvernement polonais fut d’avis de ratifier ACTA, les Anonymous mirent hors-service quelques-uns de ses sites officiels, et médiatisèrent les manifestations publiques à Cracovie notamment. Peu de temps après, les députés du parti polonais de gauche, le mouvement Palikot, siégèrent en portant le masque de Guy Fawkes, symbole des Anonymous, en signe de protestation contre ACTA. L’Union européenne a abandonné la proposition de loi en juillet 2012.

Anonymous s’est révélé être un acteur si important durant ces évènements que quelques temps après, j’ai reçu un coup de téléphone d’un investisseur en capital-risque impliqué dans l’organisation des protestations anti-SOPA. Il voulait savoir comment Anonymous opérait et si ses membres pouvaient être mis à contribution de façon plus directe. Ce qui est beau et frustrant à la fois dans le fonctionnement d’Anonymous est l’absence d’organisation et le caractère imprévisible des actions de ses membres. Comme ils aiment à le dire, « Nous ne sommes pas votre armée personnelle ». Mais son intuition qu’ils ont joué un rôle important dans cette histoire était bonne.

L’une des clés du succès de Anonymous réside dans sa nature participative, surtout quand on le compare au monde des hackers où agir demande des compétences techniques (et souvent une réputation). Des hackers doués sont en effet indispensables pour le réseau des Anonymous, ils mettent en place l’infrastructure de communication et décrochent la plupart des gros titres, par exemple quand ils s’introduisent dans des serveurs pour chercher des informations sur la corruption publique ou dans des entreprises. Mais le hacking n’en reste pas moins un outil parmi d’autres (et certains sous-groupes des Anonymous s’opposent au hacking et au défacement). Il y a d’autres choses à faire : des communiqués de presse percutants, des posters à dessiner, des vidéos à éditer. Les geeks et les hackers ont peut-être des compétences différentes, mais ils sont souvent compagnons de voyage sur internet, ils dévorent les mêmes journaux, ils suivent les mêmes cultures geek et ils défendent les libertés numériques même s’ils utilisent des méthodes et des organisations différentes.

L’importance, l’influence, et surtout la diversité de ce mouvement politique geek m’est apparu très récemment. Non pas à l’occasion d’un évènement politique officiel, mais au moment d’une commémoration doublée d’une réunion politique informelle. Plus d’un millier de personnes se sont rassemblées dans le majestueux Cooper Union Hall à New York pour honorer la mémoire d’Aaron Swartz, un hacker et activiste autoproclamé qui s’est suicidé récemment, en raison, selon certains, d’une ingérence du gouvernement dans son procès en rapport avec le téléchargement illégal de millions d’articles universitaires depuis le site de la bibliothèque du MIT (voir l’article « Why Aaron Swartz’s Ideas Matter »).

Ils parlèrent de la vie d’Aaron, de sa forte personnalité, et surtout de ses succès politiques et de ses désirs. Tout comme ses semblables, il détestait la censure, et avait donc naturellement rejoint le combat contre SOPA. Pendant la commémoration, on put entendre des extraits de son célèbre discours à la conférence Freedom to Connect en 2012, quand Swartz affirma que « SOPA a vraiment été stoppée par les gens eux-mêmes ». Il avait joué un rôle clé pour plusieurs raisons notamment en fondant l’association Demand Progress, une association à but non lucratif qui a participé à canaliser le mécontentement des citoyens à travers des pétitions et des campagnes contre SOPA.

Contrairement aux Anonymous qui n’ont pas de mission unique, d’adresse physique, ou de porte-parole officiel, Demand Progress est un organisme ayant un bureau de direction au cœur du pouvoir politique, à Washington. Néanmoins il canalise, de manière assez efficace, des initiatives de la base en faveur de la protection des libertés civiles, un groupe modéré qui peut coordonner des actions avec patience et précision.

De toute évidence, les geeks et les hackers en tout genre font usage d’une large variété de tactiques et de moyens d’expression politique. Demand Progress, ainsi que l’émergence du Parti Pirate en Europe, montrent la volonté des geeks et des hackers de s’exprimer et de travailler au sein des institutions en place. Tous les signes montrent qu’ils ont de plus en plus souvent recours à des modes d’expression politique plus traditionnels. Cependant cela va probablement coexister avec des actes plus ou moins organisés de désobéissance, de défi et de protestations qui sont également devenus plus fréquents et visibles ces dernières années, en grande partie grâce à Anonymous.

Mais en ce samedi après-midi, les différences ont été mises de côté au profit d’une posture unitaire, en commémoration, et avec la conviction que la bataille pour la préservation des libertés publiques individuelles n’en était qu’à ses débuts.

Crédit photo : Frédéric Bisson (Creative Commons By)




L’éducation utilise une licence Creative Commons défectueuse, par R. Stallman

Nous vous proposons ci-dessous la traduction d’un récent article de Richard Stallman sur l’usage des licences Creative Commons dans l’éducation.

Et c’est bien le pluriel de ces licences Creative Commons qui pose problème. Le choix majoritaire de la fameuse clause non commerciale NC serait contre-productive voire toxique dans le champ considéré ici.

« J’exhorte Creative Commons à prendre position et à déclarer que les œuvres censées être utilisés en pratique, y compris la documentation pédagogique et les œuvres de référence soient, comme les logiciels, diffusés uniquement sous des licences libres… Les licences CC BY-NC et CC BY-NC-SA, telles qu’elles existent aujourd’hui, doivent être évitées. »

L’occasion également pour Stallman de rappeler que cohabitent au sein des Creative Commons des licences libres et d’autres non libres, et que ces dernières sont tout à fait acceptables voire légitimes lorsqu’il s’agit d’œuvres artistiques ou d’opinion (ce qui n’est donc pas le cas pour l’éducation).

Un article à confronter avec celui de Calimaq sur Owni : Le non commercial, avenir de la culture libre.

Preliminares 2013 - CC by-sa

L’éducation en ligne utilise une licence Creative Commons défectueuse

On-line education is using a flawed Creative Commons license

Richard Stallman – version du 14 janvier 2013 – Site personnel
(Traduction du 28 janvier 2013 : albahtaar, Vrinse, goofy, MdM, aKa, KoS, FirePowi, Thérèse, Penguin, revue et corrigée par Richard Stallman)

Des universités de premier plan utilisent une licence non-libre pour leurs ressources d’enseignement numérique. C’est déjà une mauvaise chose en soi, mais pire encore, la licence utilisée a un sérieux problème intrinsèque.

Lorsqu’une œuvre doit servir à effectuer une tâche pratique, il faut que les utilisateurs aient le contrôle de cette tâche, donc ils ont besoin de contrôler l’œuvre elle-même. Cela s’applique aussi bien à l’enseignement qu’au logiciel. Pour que les utilisateurs puissent avoir ce contrôle, ils ont besoin de certaines libertés (lisez gnu.org), et l’on dit que l’œuvre est libre. Pour les œuvres qui pourraient être utiles dans un cadre commercial, les libertés requises incluent l’utilisation commerciale, la redistribution et la modification.

Creative Commons publie six licences principales. Deux sont des licences libres : la licence « Partage dans les mêmes conditions » CC BY-SA est une licence libre avec gauche d’auteur (en anglais, « copyleft ») forçant l’utilisation de la même licence pour les œuvres dérivés, et la licence « Attribution » (CC BY) qui est une licence libre sans gauche d’auteur. Les quatre autres ne sont pas libres, soit parce qu’elles ne permettent pas de modification (ND) soit parce qu’elles ne permettent pas d’utilisation commerciale (NC).

Selon moi, les licences non libres qui permettent le partage sont légitimes pour des œuvres artistiques ou de divertissement. Elle le sont également pour des œuvres qui expriment un point de vue (comme cet article lui-même). Ces œuvres ne sont pas dédiés à une utilisation pratique, donc l’argument concernant le contrôle par l’utilisateur ne s’y applique pas. Ainsi, je ne vois pas d’objection à ce qu’elles soient publiées sous licence CC BY-NC-ND, qui ne permet que la redistribution non commerciale de copies identiques à l’original.

L’utilisation de cette licence pour une œuvre ne signifie pas qu’il soit totalement impossible de la publier commercialement ou avec des modifications. La licence n’en donne pas la permission, mais vous pouvez toujours demander la permission au détenteur du droit d’auteur, peut-être avec un contrepartie, et il se peut qu’il vous l’accorde. Ce n’est pas obligé, mais c’est possible.

Cependant, deux des licences non libres CC mènent à la création d’œuvres qui, en pratique, ne peuvent pas être publiées à des fins commerciales, car il n’existe aucun moyen d’en demander l’autorisation. Ce sont les licences CC BY-NC et CC BY-NC-SA, les deux licences CC qui autorisent les modifications mais pas l’utilisation de manière commerciale.

Le problème survient parce que, avec Internet, les gens peuvent facilement (et légalement) empiler les modifications non-commerciales les unes sur les autres. Sur des décennies, il en résultera des œuvres avec des centaines, voire des milliers de contributeurs.

Qu’arrive-t-il si vous voulez utiliser commercialement l’une de ces œuvres ? Comment pouvez-vous en obtenir l’autorisation ? Il vous faut demander aux principaux titulaires de droits. Peut-être que certains d’entre eux ont apporté leur contribution des années auparavant et sont impossibles à retrouver. D’autres peuvent avoir contribué des décennies plus tôt, ou même sont décédés, mais leurs droits d’auteur n’ont pas disparu avec eux. Il vous faut alors retrouver leurs descendants pour demander cette autorisation, à supposer qu’il soit possible de les identifier. En général, il sera impossible de se mettre en conformité avec les droits d’auteur sur les œuvres que ces licences incitent à créer.

C’est une variante du problème bien connu des « œuvres orphelines », mais en pire, et ce de manière exponentielle ; lorsque l’on combine les œuvres de très nombreux contributeurs, le résultat final peut se trouver orphelin un nombre incalculable de fois avant même d’être né.

Pour éliminer ce problème, il faudrait un mécanisme impliquant de demander l’autorisation à quelqu’un (faute de quoi la condition NC devient sans objet) mais pas de demander l’autorisation à tous les contributeurs. Il est aisé d’imaginer de tels mécanismes ; ce qui est difficile, c’est de convaincre la communauté qu’un de ces mécanismes est juste et d’obtenir un consensus pour l’accepter.

Je souhaite que cela puisse se faire, mais les licences CC BY-NC et CC BY-NC-SA, telles qu’elles existent aujourd’hui, doivent être évitées.

Malheureusement, l’une d’entre elle est très utilisée. La CC BY-NC-SA, qui autorise la publication non commerciale de versions modifiées sous la même licence, est devenue à la mode dans le milieu de la formation en ligne. Les Open Courseware (didacticiels « ouverts ») du Massachusetts Institute of Technology (MIT) l’ont lancée, et de nombreux autres établissements d’enseignement ont suivi le MIT dans cette mauvaise direction. Alors que, pour les logiciels, « open source » signifie « probablement libre mais je n’ose pas communiquer à ce sujet donc tu dois vérifier toi-même », dans la plupart des projets d’enseignement en ligne « open » veut dire « non libre, sans aucun doute ».

Quand bien même le problème posé par les CC BY-NC-SA et BY-NC serait résolu, elles continueront de ne pas être la bonne façon de publier des œuvres pédagogiques censées servir à des tâches pratiques. Les utilisateurs de ces œuvres, enseignants et étudiants, doivent avoir le contrôle de leur travail, et cela requiert de les rendre libres. J’exhorte Creative Commons à prendre position et à déclarer que les œuvres censées être utilisés en pratique, y compris la documentation pédagogique et les œuvres de référence doivent être, comme les logiciels, diffusés uniquement sous des licences libres.

Éducateurs, enseignants, et tous ceux qui souhaitent contribuer aux œuvres de formation en ligne : s’il vous plaît, veillez à ce que votre travail ne devienne pas non libre. Offrez votre aide et vos textes à des œuvres pédagogiques qui utilisent des licences libres, de préférence des licences de gauche d’auteur de façon à ce que toutes les versions de l’œuvre respectent la liberté des enseignants et des étudiants. Ensuite, invitez les projets éducatifs à utiliser et redistribuer ces œuvres sur ces bases de respect de la liberté, s’ils le souhaitent. Ensemble, nous pouvons faire de l’éducation un champ de liberté.

Copyright 2012 Richard Stallman
Publié sous licence Creative Commons Attribution – Pas de Modification 3.0 (CC BY-ND 3.0)

Crédit photo : Preliminares 2013 (Creative Commons By-Sa)




Pour ou contre l’iPad à l’école ? Le cas de la Corrèze

Fin 2010, François Hollande annonçait (sans cacher sa fierté pour son département) que la Corrèze avait décidé de mettre un iPad entre les mains de tous les élèves de Sixième dans le cadre du projet Ordicollège.

On peut voir ici en vidéo l’intégralité de son allocution. On y parle d’« égalité », de « meilleur outil pour réussir », on y parle aussi d’un « coût de 1,5 million d’euros ».

Cette opération ayant été reconduite cette année, l’association P.U.L.L.CO (Promotion de l’Utilisation des Logiciels Libres en COrrèze) a décidé de réagir en convoquant la presse et surtout en publiant une lettre ouverte au président du Conseil Général. Ce dernier y a répondu en apportant ses propres arguments.

Cet échange nous a semblé suffisamment intéressant et révélateur pour que nous décidions de le reproduire ci-dessous.

Brad Flickinger - CC by

iPads au collège : lettre ouverte au président du Conseil Général

URL d’origine du document

Association P.U.L.L.CO – 26 janvier 2013

Lettre ouverte adressée au Président du Conseil Général de la Corrèze Gérard Bonnet.

Monsieur le Président,

C’est avec une grande déception et une pointe de colère que nous apprenons que le Conseil Général a reconduit la distribution d’iPad aux collégiens corréziens dans le cadre de l’opération Ordicollège.

Lors de son lancement en 2008, l’opération Ordicollège avait fait le choix courageux et intelligent d’équiper les collégiens en matériel informatique fonctionnant grâce à des logiciels libres. Ce choix est depuis 3 ans remis en cause par l’arrivée des iPads, un produit sans clavier, dont les qualités pédagogiques restent à démontrer.

Les logiciels libres reposent sur les libertés que confère la licence d’un logiciel à ses utilisateurs. Ils sont alors libres de les utiliser, de les copier, de les étudier, de les adapter et de les redistribuer, en version originale ou modifiée. Les logiciels libres mettent le plus souvent en œuvre des standards ouverts qui garantissent l’accessibilité aux données et leur réutilisation à des fins d’interopérabilité entre systèmes et logiciels actuels et futurs.

Ce modèle revêt de nombreux intérêts. Tout d’abord il permet une libre circulation des logiciels et le partage du savoir. Chacun peut ainsi s’approprier la connaissance accumulée et l’enrichir de son propre savoir, faisant du logiciel libre un bien commun. Ce modèle rend de fait la distribution de logiciels gratuits possible, ce qui permet leur diffusion au plus grand nombre. Ainsi, avec le modèle du logiciel libre, nul ne peut être exclu de l’accès au savoir, ni de l’accès aux ressources numériques.

Par ailleurs, ce modèle favorise la relocalisation du développement du logiciel au plus près des utilisateurs finaux. Ainsi, l’investissement dans l’économie du logiciel libre permet des retombées économiques locales au lieu de les transférer vers les principaux éditeurs propriétaires, souvent installés aux États-Unis. ll existe des solutions libres à la plupart des usages informatiques. Si elles n’existent pas encore, il suffit d’en financer le développement pour que chacun en profite. Il est donc possible de remettre en cause les positions dominantes d’éditeurs propriétaires à l’origine de situation de dépendance technologique. Pour un investisseur institutionnel tel qu’une collectivité territoriale comme le Conseil Général, ces préoccupations nous semblent prioritaires.

C’est d’ailleurs en ce sens que va la récente réponse du Ministère des PME, de l’innovation et de l’Économie numérique, à une question écrite du député Jean-Jacques Candelier. Cette dernière rappelle les principaux avantages du logiciel libre. D’abord pour les individus, car « chacun peut s’approprier la connaissance » et « nul ne peut être exclu de l’accès au savoir » avec le logiciel libre ; mais aussi pour l’État, pour lequel le logiciel libre « constitue une opportunité qu’il convient de saisir », et pour les industries européennes enfin, notamment en raison de l’indépendance technologique qu’il permet. La position du ministère de Fleur Pellerin fait d’ailleurs suite à la circulaire de Jean-Marc Ayrault sur l’usage des logiciels libres dans les administrations allant dans le même sens.

En choisissant d’équiper les collégiens d’iPad, en plus d’enrichir une entreprise privée américaine avec nos impôts, le Conseil Général de la Corrèze se rend coupable d’enfermer l’ensemble des collégiens corréziens dans le carcan d’Apple. Les usages sont ainsi limités à ce que l’entreprise a décidé ou permis. L’utilisateur n’a pas la possibilité d’explorer l’outil pour le comprendre, ni de l’adapter à ses besoins. Il est contraint d’adapter ses besoins à l’outil. Par exemple le choix volontaire d’Apple d’interdire l’usage de certaines technologies comme Flash et Java sur ses tablettes rend impossible l’accès à certaines ressources éducatives mises à disposition sur les sites web de Sesamath (en Flash) et de Geogebra (en Java).

Par ailleurs, Apple utilise des Mesures Techniques de Protection (MTP ou DRM) pour restreindre les libertés des utilisateurs de diverses manières. Pour ne citer que deux exemples, il est impossible d’installer un logiciel ne provenant pas de l’AppStore officiel, qui n’est contrôlé que par l’intérêt commercial de la firme, et l’usage des films achetés sur iTunes est surveillé. De plus, le contournement de ces restrictions est interdit et considéré par Apple comme un acte criminel.

Plus grave : les données personnelles de tous les collégiens sont menacées. En effet, l’usage de l’iPad contraint ses utilisateurs à enregistrer des données personnelles dans des bases de données détenues par Apple aux États-Unis, c’est-à-dire en dehors du pouvoir de contrôle de la CNIL, censée protéger les données personnelles des citoyens français. De plus, l’usage de ces tablettes, de par leur manque de capacité de stockage, contraint les utilisateurs à enregistrer leurs données ailleurs, souvent dans le « Cloud », en utilisant des services comme Dropbox. Là encore, les données des utilisateurs échappent à leur contrôle au profit d’intérêts commerciaux étrangers et soumises à des lois qu’ils ne connaissent pas.

En outre, la société Apple exerce un filtrage arbitraire sur les logiciels (les « apps ») téléchargeables sur les dispositifs sans clavier qu’elle commercialise (tablettes, téléphones, baladeurs numériques…). La gestion des mises à jour des-dits logiciels est elle aussi particulièrement problématique : les anciennes versions des logiciels ne sont pas accessibles au téléchargement, ce qui a pour conséquence de provoquer une obsolescence artificiellement accélérée des dispositifs qui les accueillent. Ainsi, alors qu’un ordinateur sous GNU/Linux n’est limité dans le temps que par la durée de vie du matériel, un iPad deviendra obsolète lorsque les applications seront déclarées comme n’étant plus installables.

Enfin, ce contrôle monopolistique forcément intéressé est déjà un problème pour les consommateurs de technologies aisés, mais c’est un désastre pour les moins nantis. Le fossé se creuse entre ceux qui ont les moyens d’acheter des applications sur le magasin en ligne d’Apple et ceux qui ne les ont pas. Est-ce le rôle de l’école que d’exacerber les inégalités économiques et sociales des familles ? Est-ce le rôle du Conseil Général de financer ce choix discriminant ? Est-ce le rôle du Conseil Général d’apprendre aux élèves à être les consommateurs d’Apple ?

L’objectif est-il de mettre un appareil connecté dans les mains de chaque collégien, quel qu’en soit le prix et en dépit de leur liberté ? Ou devrions-nous plutôt fournir des outils qui encouragent les élèves et les enseignants au partage de la connaissance en mettant à leurs disposition un environnement dans lequel ils ont la possibilité de résoudre eux-mêmes leurs problèmes ? Pour nous, l’éducation c’est de la créativité, de l’ingéniosité et du partage ; toutes ces caractéristiques étant bien plus puissantes dans le monde du libre que dans celui, verrouillé et rigide, de la tablette numérique du géant américain.

En choisissant de distribuer des iPad aux collégiens, le Conseil Général de la Corrèze a fait le choix politique de suivre un effet de mode, en privilégiant le paraître au bon sens. Ce choix démagogique a un prix, celui de l’aliénation des élèves et des enseignants ainsi que l’évaporation de l’investissement public au seul profit des intérêts d’une entreprise commerciale étrangère.

Ce choix aurait pu être différent, il aurait pu être celui de la liberté, de l’égalité et de la fraternité en choisissant un autre modèle de société, celui, globalisé du nord au sud, du bien commun et du logiciel libre. Les moyens investis depuis de nombreuses années l’auraient été de façon bien plus pérenne en aidant à concevoir une tablette et des ressources numériques libres. De nombreux projets existent déjà et sauraient profiter de l’aide des collectivités territoriales et de la puissance publique pour le bénéfice de tous.

Nous restons à votre entière disposition pour vous apporter plus de précisions sur nos positions et vous faire part de nos propositions pour l’avenir de l’opération Ordicollège.

Librement.

L’association Pullco

Devon Christopher Adams - CC by

Réponse à l’association Pullco

URL d’origine du document

OrdiCollège – 30 janvier 2013

Mettre en avant que la tablette est un produit sans clavier tout en argumentant sur la nécessité de faire le choix de tablettes françaises comme le fait l’association Pullco (« il existe des tablettes françaises compétitives », La Montagne, 29/01/13), (« Pourquoi utiliser des tablettes Apple alors que nous avons des tablettes françaises, Archos », L’Echo de la Corrèze, 28/10/13) interroge : la tablette Apple serait donc un produit de moindre qualité que la tablette Archos (également fabriquée en Chine), alors qu’aucune des deux n’a de clavier physique ?

Les collectivités locales sont soumises à une réglementation précise et contraignante dans le cadre des marchés publics. Pour Ordicollège, il s’agit d’un appel d’offres européen, qui a été remporté par une société française et non par Apple. Aucune offre de matériel « français » n’a été déposée, pas plus que d’offres sous environnement « libre ».

Le budget engagé par le Conseil général n’est pas uniquement destiné à l’acquisition du matériel, il revient pour une bonne part à la société française qui a remporté le marché. La chaîne de préparation, la logistique, la gestion administrative, représentent des emplois. La fabrication de la coque de protection a été confiée à une société française, les équipes techniques du constructeur le sont également.

L’association Pullco défend le logiciel libre selon quatre principes : la liberté d’exécuter le programme sans restrictions, la liberté d’étudier le fonctionnement du programme, la liberté de redistribuer des copies du programme, la liberté d’améliorer le programme et de publier ses améliorations. Cette approche, parfaitement recevable, ne répond pas pour autant aux objectifs fixés dans le cadre d’Ordicollège.

Le Conseil général de la Corrèze a fait le choix, depuis 2008, d’équiper les collégiens dans le but de favoriser les apprentissages et la réussite scolaire, notamment pour les élèves en difficulté, et de réduire la fracture numérique. Sans conditions de ressources, ni contraintes liées à la nécessité d’un abonnement internet au domicile. Objectif atteint, comme en atteste le rapport réalisé par la mission d’évaluation de l’Inspection générale de l’Education nationale. Rapport qui souligne également le choix judicieux de la tablette.

Pédagogiquement, cette opération s’inscrit dans la mise œuvre au Collège des compétences définies par le référentiel Education nationale B2i (brevet informatique et internet, mis à jour en décembre 2011).

Le B2i porte sur les pratiques, « les évolutions d’Internet et le développement des usages pédagogiques du numérique afin de mieux préparer les élèves à un usage responsable de ces technologies » ; les objectifs sont les suivants : acquérir, stocker et traiter des informations pour produire des résultats, être un utilisateur averti des règles et des usages de l’informatique et de l’internet, composer un document numérique, chercher et sélectionner l’information demandée, communiquer, échanger.

L’informatique n’est pas une matière enseignée au collège. Ce sont ses usages qui sont au programme et le logiciel (ou application) ne représente qu’une infime part dans ce contexte. Il convient au passage de ne pas faire d’amalgame entre logiciels et ressources pédagogiques, ces dernières pouvant fonctionner avec un logiciel ou de façon autonome.

A partir de ce constat, il est facile de comprendre que les objectifs défendus par l’association Pullco sont éloignés du contexte d’Ordicollège.

L’exclusion de l’accès au savoir n’est pas un argument recevable, chaque collégien étant destinataire du même matériel, des mêmes logiciels. Pas plus que l’idée d’un « enfermement dans le carcan » d’un constructeur. Les fonctionnalités d’un navigateur internet, d’un traitement de texte ou d’un tableur sont identiques, quel que soit l’environnement système.

Au collège, ce sont les bases nécessaires à l’utilisation et à la compréhension de ces outils qui sont enseignées, sachant que plus tard, l’utilisateur sera libre de faire le choix de son environnement personnel, mais qu’il devra aussi s’adapter à l’environnement mis en œuvre dans son cadre professionnel.

L’association Pullco met en avant l’impossibilité d’utiliser les ressources en Flash, en oubliant qu’il ne s’agit pas d’une technologie libre et que celle-ci est aujourd’hui en voie de remplacement par le HTML5. Elle avance également des arguments erronés concernant les données personnelles des élèves : les informations nécessaires sont gérées via des adresses génériques (ex. : tab2019@ordicollege), un alias nominatif étant uniquement ajouté sur le compte de messagerie.

Concernant le téléchargement de logiciels (apps) sur les tablettes, bon nombre sont gratuites et utilisées dans le cadre d’Ordicollège. Par contre, il n’a jamais été question de faire payer des apps aux parents, l’utilisation de cartes bancaires étant interdite dans le cadre de la mise à disposition des tablettes.

Face aux arguments développés par l’association Pullco, il y a la réalité du monde des technologies. Qu’un matériel soit davantage plébiscité qu’un autre ne relève pas uniquement de la communication mise en œuvre par son fabricant. Les utilisateurs savent également faire preuve de discernement.

L’association Pullco comprend parmi ses adhérents des spécialistes des programmes informatiques et c’est tout à son honneur. Mais l’immense majorité des usagers du numérique ne sont pas des passionnés des systèmes ou des entrailles des matériels et des logiciels, ce qui ne signifie pas pour autant que l’on puisse parler pour eux d’alinéation. Cela dit, il est dommage que Pullco n’ait jamais engagé la moindre démarche envers Ordicollège ou pris contact avec ses animateurs pour se renseigner à la source sur l’opération.

Les dirigeants de l’association auraient pu recueillir des informations vraies et précises, notamment sur le travail de recherche et de développement effectué dans le cadre d’Ordicollège. Ainsi, les responsables d’Unowhy, société française ayant remporté l’appel à projets du Ministère de l’Education, qui développent une tablette française (pour l’assemblage seulement) sur la base d’un environnement Linux, étaient en Corrèze le 28/01/2013 pour une réunion de travail sur Ordicollège. Pour eux, la Corrèze est le département le plus en avance dans les usages pédagogiques du numérique et même loin devant les opérations engagées ailleurs en France.

Crédit photos : Brad Flickinger et Devon Christopher Adams (Creative Commons By)