Drupal à la Maison Blanche !

Copie d'écran - WhiteHouse.gov - DrupalGrande nouvelle pour le logiciel libre : le site de la Maison Blanche, Whitehouse.gov, vient de basculer sous Drupal ! Du coup, son créateur et principal animateur, Dries Buytaert, s’enthousiasme ci-dessous sur son blog et il a bien raison.

Et d’ailleurs si vous avez la curiosité de vous promener un peu sur le site (sous Creative Commons By !), vous constaterez peut-être avec moi qu’en terme d’ergonomie et vélocité, c’est très impressionnant.

À des années-lumière du site d’une Segolène Royal « par exemple », mais aussi et surtout très loin du site de l’Élysée.

Pour ce qui concerne sa politique en général, je ne saurais m’exprimer et m’engager, mais il est évident que l’administration Obama est en train de faire beaucoup pour la reconnaissance, la diffusion et la légitimité du logiciel libre et/ou open source, d’autres billets du Framablog peuvent en témoigner.

Whitehouse.gov utilise Drupal

Whitehouse.gov using Drupal

Dries Buytaert – 25 octobre 2009 – Blog personnel
(Traduction Framalang : Vincent)

Une grande et sensationnelle nouvelle ! Le site phare du gouvernement des USA, Whitehouse.gov, vient d’être relancé sous Drupal. C’est un grand jour pour Drupal, et pour l’Open Source dans le gouvernement, et quelque chose dont chacun peut être très fier dans notre communauté.

Tout d’abord, je pense que Drupal est en parfaite adéquation avec la volonté du président Barack Obama d’avoir un gouvernement ouvert et transparent. Drupal fournit un mélange remarquable de fonctions de gestion de contenu web traditionnel et de fonctionnalités « sociales » qui permettent une participation et une communication ouverte. Cette combinaison est ce que nous appelons la « publication sociale » et c’est ce pourquoi autant de personnes utilisent Drupal. De plus, je pense que Drupal rentre bien dans l’optique de réduction des coûts et d’action rapide du président Barack Obama. La flexibilité et la modularité de Drupal permettent aux organisations de construire rapidement des sites, à un coût inférieur à d’autres systèmes. Autrement dit, Drupal correspond bien au gouvernement des USA.

Deuxièmement, ceci est un signal fort parce que les gouvernements se rendent compte que l’open source ne comporte pas de risques supplémentaires par rapport au logiciel propriétaire, qu’en quittant un logiciel propriétaire, ils ne sont plus enfermés dans une technologie particulière, et qu’ils peuvent bénéficier de l’innovation résultant des milliers de développeurs qui collaborent à Drupal. Cela prend du temps de comprendre ces choses et d’amener ce changement, et je félicite l’administration Obama de prendre cet important rôle de leader en considérant des solutions open source.

Etant l’un des plus grands utilisateurs de logiciels au monde, le gouvernement des USA n’est pas un nouvel utilisateur de Drupal. Plusieurs agences comme par exemple le Département de la Défense, le Département du Commerce, le Département de l’Education et l’Administration des Services Généraux utilisaient Drupal antérieurement. L’adoption de Drupal croît rapidement chez le gouvernement des USA. Toutefois, la transition de Whitehouse.gov sur Drupal va plus loin et au delà de toute autre installation de Drupal dans le gouvernement, et constitue un formidable témoignage pour Drupal et pour l’open source. Ceci va donner de la visibilité à Drupal à tout le gouvernement des Etats-Unis d’Amérique, et à d’autres gouvernements à travers le monde.

Personnellement, je suis enchanté par l’idée que Drupal puisse ainsi contribuer à aider les gouvernements à fournir une plus grande transparence, une plus grande vitesse et une plus grande flexibilité.




Paris Descartes vend ses étudiants à Micro$oft !

TheeErin - CC by-saEncore un titre qui ne fait pas dans la dentelle ! Il ne vient pas de moi mais d’un tract qui est actuellement distribué sur le campus de l’Univesité Paris Descartes par le SNESup, le Syndicat national de l’enseignement supérieur. Tract que nous avons reproduit ci-dessous dans son intégralité.

Il est une conséquence indirecte (et non désirée) d’un vaste et ambitieux partenariat signé en juillet 2009 par Microsoft et la vénérable Université, partenariat « visant à développer des actions communes autour des nouvelles technologies » (liens html, pdf, vidéo[1] et… photo de famille !)

Ce qui frappe c’est la radicalité des mots et expressions employés (jusqu’à mettre un « $ » au « s » de Microsoft !). À la hauteur de l’exaspération suscitée par cette énième opération de marchandisation de l’éducation qui ne veut pas dire son nom ?

Je tenais cependant à apporter quelques éléments de réflexion qui sont autant de modestes tentatives de mise en perspective (en pensant aussi à un éventuel débat qui pourrait démarrer dans les commentaires) :

  • Les universités peuvent-elles résister à de telles offres dans le contexte économique actuel ? Prenez le temps de lire le communiqué de presse et vous constaterez avec moi la densité des services proposés, avec promesse de soutien de Microsoft à la future fondation de l’université (« soutien » étant pris ici dans tous les sens du terme). Même une direction rompue aux vertus du logiciel libre et sa culture aurait à mon avis du mal à ne pas sacrifier quelques unes de ses valeurs sur l’autel d’un certain pragmatisme dicté par le manque de moyens.
  • C’est le programme Live@edu de Microsoft qui est stigmatisé ici. Mais Google propose, à quelques nuances près, rigoureusement la même chose avec Google Apps Education. Ne serait-ce point « la guerre de l’informatique dans les nuages » qui pénètre ici directement le vulnérable secteur éducatif ? D’un côté on rend service aux étudiants, de l’autre on investit sur leur potentiel à… conserver les mêmes technologies une fois arrivés sur le marché du travail. Le plus dur étant d’entrer, parce qu’une fois que l’étudiant possède (sur vos serveurs) sa messagerie, son agenda, son espace de stockage, sa suite bureautique en ligne, ses documents, ses photos, ses habitudes de chat, etc. le plus dur est fait. Il lui sera alors fort difficile de migrer, même avec les meilleures volontés du monde ! Un dernier mot sur ces serveurs qui hébergent toutes ces données de nos étudiants : il est juridiquement et géographiquement presque impossible de les localiser !
  • Cet épisode interroge également sur la politique numérique française de l’éducation en général et du supérieur en particulier. Que ne nous avait-on pas dit et promis avec les ENT, les fameux Espaces numériques de travail ! À laisser Microsoft, Google et consors s’occuper de cela pour nous, nous sommes en présence d’un double aveu, celui d’un échec et d’une démission. Sans compter que dans l’intervalle sont apparus les réseaux sociaux qui risquent eux aussi de ringardiser les quelques ENT qui avec peine avaient tout de même réussi à se mettre en place (Facebook sera-t-elle la prochaine grosse société américaine à venir frapper aux portes de nos universités ?). On voit bien ici comment le public ne peut pas (ou plus) lutter contre le privé, et c’est fort inquiétant pour ceux qui demeurent attachés à la notion de biens communs. Dernier exemple en date, le risque de voir nos bibliothèques publiques numérisées par… Google et non pas nos propres moyens.

Sur ce je vous laisse avec ce tract qu’il me plait à imaginer entre les mains d’étudiants interloqués[2] mais conscients que cet accord peut en avantager quelques uns sur le court terme mais finir par freiner tout le monde sur le long terme.

Paris Descartes vend ses étudiants à Micro$oft !

SNESup – octobre 2009 – Tract


L’université s’apprête à signer avec Microsoft une convention d’utilisation du bouquet de services Live@edu. Il s’agit de confier à Microsoft le webmail des étudiants et des personnels volontaires. Une offre alléchante : gratuit, sans pub, avec 100 Go chacun, un chat intégré, un espace de stockage personnel, un accès au pack office web… et c’est compatible avec Linux, MacOS, Firefox ! Que demander de plus ?

Plus pour moins cher ?


Avec ce projet, l’université prétend offrir aux étudiants un service meilleur que le webmail actuel, pour un coût inférieur à ce que nos ingénieurs pourraient faire. Pourtant, les histoires d’externalisations sont toujours les mêmes : avant de signer le contrat, tout est rose, une fois signé on paye le prix fort. Un service a un coût, à long terme Microsoft nous le fera payer : Microsoft est un géant, qui nous imposera ses conditions s’il le souhaite.

Halte aux dealers !


Faciliter l’accès des étudiants au pack office web, c’est un cadeau empoisonné. Au lieu de former des utilisateurs avertis de l’informatique, l’université s’apprête à fabriquer des consommateurs dépendants des produits Microsoft. A la sortie de l’université, devenus accros, ils devront acheter au prix public les mêmes produits. L’université renonce donc à sa mission de formation pour servir les intérêts commerciaux d’une entreprise.


Aujourd’hui, les ingénieurs et les enseignants de Paris Descartes enseignent l’informatique via des logiciels libres : chacun peut ainsi utiliser les nouvelles technologies gratuitement et pour longtemps. Aurons-nous toujours cette liberté quand Paris Descartes sera pacsée avec Microsoft ?

Voulons-nous être les clients captifs de Microsoft ou rester des utilisateurs libres de l’informatique ?

Notes

[1] Pour rédiger cet article, je me suis tapé la vidéo de la conférence de presse jusqu’au bout et j’ai été assez stupéfait par la capacité de l’auditoire à ne pas poser les questions qui fâchent !

[2] Crédit photo : TheeErin (Creative Commons By-Sa)




Prix Nobel de la paix : libre détournement du discours d’Obama

ChrisAC - CC by-saNul ne l’ignore, Barack Obama a reçu récemment le prix Nobel de la paix 2009, déclenchant au passage une petite polémique quant à la légitimité d’un choix représentant alors bien plus un encouragement à poursuivre une action qu’une récompense couronnant l’ensemble d’une longue et fructueuse carrière.

Certains, parmi les plus critiques, sont même allés jusqu’à affirmer que Barack Obama méritait bien plus le « prix Nobel des discours » que celui de la paix ! Loin de moi l’idée de participer au débat, mais force est de reconnaitre qu’effectivement côté discours, Barack Obama est souvent au dessus de la mêlée. Je garde ainsi encore en mémoire l’exceptionnel discours de Philadelphie (vidéo 1 et 2) sur la question raciale le 18 mars 2008, lorsqu’en pleine campagne il était contesté par la découverte des propos radicaux de son ancien pasteur Jeremiah Wright.

Le discours de remerciement du président américain apprenant qu’on lui avait fait l’honneur du prix Nobel de la paix n’a pas fait exception : sobre, humble et rassembleur.

Soit, mais où veut-il en venir à nous parler d’Obama sur un blog censé nous parler de logiciel libre ?

Point d’impatience, nous y voilà. Il se trouve que le célèbre informaticien Jon « maddog » Hall[1] s’est amusé, ci-dessous, à transposer ce dernier discours au logiciel libre. Et vous constaterez peut-être avec moi que loin d’être anachronique, cette émouvante substitution est porteuse de sens…

Je n’ai jamais gagné le Prix Nobel de la Paix

I never won a Nobel Peace Prize

Jon maddog Hall – 11 octobre 2009 – Linux-Magazine.com
(Traduction Framalang : Olivier Rosseler)

C’est à mon réveil, le 9 octobre que j’ai appris que le président Obama avait gagné le Prix Nobel de la Paix.

Les discussions allaient bon train quant au « mérite » du président Obama, on argumentait beaucoup sur le fait que le Prix Nobel de la Paix n’est pas nécessairement décerné comme une récompense pour un accomplissement passé, mais plutôt comme un encouragement à poursuivre les efforts déjà entrepris.

En lisant son discours de remerciement, j’ai joué à un petit jeu en le transposant à mon sujet de prédilection : les logiciels libres et open source.

« Soyons clair, ce prix n’est pas pour moi la reconnaissance de mes mérites propres. »

Beaucoup de personnes m’ont déjà dit « merci pour tout ce que vous faites pour le logiciel libre ». Je leur réponds que je suis juste la bonne personne au bon endroit, au bon moment. J’ai simplement fait fait ce que je pensais qu’il fallait faire, ce pour quoi j’avais les compétences.

Et s’ils veulent voir la personne la plus importante du monde des logiciels libres, je leur dis qu’ils n’ont qu’à regarder dans le miroir… le logiciel libre a besoin de tout le monde… chacun peut apporter sa contribution.

« Des hommes et des femmes qui m’ont inspirés, moi comme le reste du monde. »

Moi aussi j’ai été inspiré par certains des meilleurs ingénieurs informatiques de tous les temps, j’ai même eu la chance de pouvoir rencontrer et discuter avec la plupart d’entre eux. Le contre-amiral Grace Murray Hopper, Maurice Wilkes, Douglas McIlroy, Ken Thompson, Dennis Ritchie… et la liste ne s’arrête pas là.

Ce sont, eux aussi, des héros contemporains… tout comme chaque programmeur sacrifiant sa nuit pour corriger ce vilain bogue dans un logiciel libre. Celui qui traduit la documentation pour permettre à d’autres d’utiliser le programme est un héros. Tout comme celui qui organise une démonstration pour faire découvrir les logiciels libres aux autres et qu’ils puissent eux aussi les partager. Ce sont tous des « héros » pour moi.

« Ce prix reflète le monde que ces hommes et ces femmes, ainsi que tous les américains, veulent bâtir. »

Un monde de collaboration, où les gens bâtissent, en s’appuyant sur les travaux de leurs prédécesseurs… où ils ne « réinventent pas la roue » et où ils ne perdent pas leur temps à contourner les brevets logiciels. La Liberté d’étudier le fonctionnement des programmes et d’essayer de les améliorer.

« Il a aussi servi à donner une nouvelle dynamique à des causes déjà existantes. »

Le président Obama énumère alors une liste de causes, que nous connaissons tous, mais certaines d’entre-elles sont pour moi plus marquantes :

  • accepter nos responsabilités et modifier notre manière de consommer l’énergie
  • le droit à l’éducation et à une vie honorable
  • la crise économique mondiale

Je pense que les logiciels libres peuvent jouer un rôle dans ces domaines et je vais m’employer à les traiter grâce aux logiciels libres.

« Je sais que nous pouvons vaincre ces difficultés, du moment que nous reconnaissons qu’elles ne pourront être vaincues par une seule personne ou par un seul pays. Cette récompense ne couronne pas simplement les efforts de mon administration, elle couronne les efforts courageux de gens partout dans le monde. C’est pourquoi cette récompense revient également à chaque personne œuvrant pour la justice et la dignité. »

Nous ne pourrons affronter les difficultés actuelles sans l’effort de toute la communauté du logiciel libre. Nous ne pouvons évidemment pas régler les problèmes du monde tous seuls, mais le principe de collaboration régissant le logiciel libre se diffuse et sera l’une des clés de ces problèmes.

Peut-être un jour y aura-t-il un « Prix Logiciel Libre de la Paix ».

Carpe Diem !

Notes

[1] Crédit photo : ChrisAC (Creative Commons By-Sa)




Quand la Fondation Codeplex de Microsoft déchire la communauté

A priori nous devrions tous nous réjouir de voir Microsoft faire un pas significatif vers le logiciel libre avec la toute récente création de la Fondation Codeplex, dont l’objectif affiché dès la page d’accueil du site est de « permettre l’échange de code et une entente entre les éditeurs de logiciels et les communautés open source ».

Sauf que, le diable est dans les détails, l’entente proposée concerne donc explicitement les communautés open source et non la communauté du logiciel libre.

A partir de là, méfiance et vigilance nous dit Richard Stallman[1] dans l’article que nous avons traduit ci-dessous, en égratignant au passage le mythique Miguel de Icaza[2] (GNOME, Mono…), membre initial de la Fondation, qui en prend pour son grade en étant qualifié « d’apologiste Microsoft ».

Réponse immédiate de l’intéressé (toujours traduite ci-dessous) qui reproche vertement à Stallman de s’attaquer ainsi à ses propres alliés et de se complaire dans la paranoïa Microsoft, pratique pour fédérer ses troupes mais néfaste si l’on souhaite réellement aller de l’avant.

Au delà du conflit personnel qui frise parfois l’outrage, nous sommes face à une énième opposition entre le logiciel libre et l’open source.

L’avantage de l’open source c’est qu’il rend le logiciel libre enfin fréquentable pour des sociétés comme Microsoft qui l’ont longtemps ignoré puis dénigré. L’inconvénient, rappelé en exergue de ce blog, c’est d’aboutir à ce que le logiciel libre ne finisse par ne plus rien libérer d’autre que du code…

Codeplex… Perplexe ?

Lest CodePlex perplex

Richard Stallman – 5 octobre 2009 – FSF.org
(Traduction Framalang : Olivier Rosseler)

Eneko Astigarraga - CC by-saLa Codeplex Foundation ne fait pas l’unanimité au sein de notre communauté. En effet, le fait que des employés, ou ex-employés de Microsoft, plus l’apologiste Miguel de Icaza, dominent le comité de direction n’a rien de rassurant. Mais l’habit ne fait pas nécessairement le moine.

Le jour viendra où nous pourrons juger l’organisation pour ses actions (ainsi que sa communication). À l’heure d’aujourd’hui, nous pouvons seulement essayer d’anticiper ses actions, d’après ses déclarations et celles de Microsoft.

On remarque premièrement que l’organisation évite soigneusement de parler de la liberté des utilisateurs, elle emploie le terme « open source » et ne fait pas mention de « logiciel libre ». Ces deux termes définissent deux philosophies qui n’ont pas les mêmes valeurs : le logiciel libre promeut la liberté et la solidarité alors que l’open source s’intéresse uniquement aux aspects pratiques, telle que l’efficience et la fiabilité du logiciel par exemple. Voir Pourquoi l’« open source » passe à coté du problème que soulève le logiciel libre pour plus d’informations.

Il est évidemment préférable pour Microsoft d’affronter l’adversité concrète que représente l’open source plutôt que la position éthique que défend le mouvement du logiciel libre. En ne reconnaissant, et en ne critiquant, que l’open source, comme la société le fait depuis si longtemps, Microsoft poursuit deux objectifs : attaquer un concurrent tout en détournant l’attention d’un autre.

Codeplex applique strictement la même tactique. Son but déclaré est de convaincre les « éditeurs de logiciels commerciaux » de contribuer davantage à l’open source. Comme presque tous les logiciels open source sont aussi des logiciels libres, ces programmes seront certainement libres, mais la philosophie « open source » n’enseigne pas aux développeurs à défendre leurs libertés. S’ils ne comprennent pas l’importance de cette liberté, les développeurs seront plus enclins à succomber aux stratagèmes de Microsoft les encourageant à utiliser des licences plus faibles, ce qui reviendrait à mettre le doigt dans un engrenage, à accepter la cooptation de brevets et à rendre ainsi les logiciels libres dépendant d’éléments privateurs.

Cette fondation n’est pas le premier projet Microsoft à porter le nom de « Codeplex ». On retrouve aussi codeplex.com, une forge qui ne recense pas parmi les licences autorisées, la troisième version de la GNU GPL. Peut-être est-ce dû au fait que la GNU GPL v3 a été créée pour protéger les logiciels libres de la menace que représentent les brevets Microsoft au travers d’accords comme celui conclu entre Novell et Microsoft. Les intentions de la Codeplex Foundation vis à vis de la GPL v3 nous sont encore inconnues, mais le passif de Microsoft n’incite pas à l’optimisme.

Le terme « éditeurs de logiciels commerciaux » est lui-même ambigu. Par définition, toute entreprise a un but commercial, donc tout logiciel développé par une entreprise, qu’il soit libre ou privateur, est automatiquement commercial. Mais beaucoup associent faussement « logiciel commercial » et « logiciel privateur » (voir Termes prêtant à confusion, que vous devriez éviter (ou utiliser avec précaution)).

Cette confusion est grave, puisqu’elle implique qu’on ne peut pas faire commerce de logiciels libres. De nombreux éditeurs de logiciels contribuent déjà aux logiciels libres, et ces contributions commerciales sont très utiles. Peut-être que Microsoft souhaite ici renforcer cette fausse impossibilité dans l’esprit des gens.

Toutes ces considérations prises en compte, il nous apparait que Codeplex encouragera les développeurs à ne pas penser à la liberté. Il instillera subtilement l’idée que le commerce de logiciel libre ne peut se faire sans l’appui des éditeurs de logiciels privateurs commme Microsoft. Il pourrait aussi, cependant, convaincre certains fabricants de logiciels privateurs de publier plus de logiciels libres. Cette contribution servira-t-elle la liberté des utilisateurs ?

Ça ne pourra être le cas que si le logiciel libéré fonctionne correctement sur des plateformes libres, dans des environnements libres. Mais c’est à l’opposé de ce que Microsoft cherche à accomplir.

Sam Ramji, maintenant président de Codeplex, annonçait il y a quelques mois que Microsoft (son employeur d’alors) souhaitait promouvoir le développement d’applications libres qui encourageaient l’usage de Microsoft Windows. Peut-être que Codeplex cherche à corrompre les développeurs de logiciels libres pour qu’ils fassent de Windows leur plateforme principale. Codeplex.com héberge désormais de nombreux projets qui sont des extensions de logiciels privateurs. Ces programmes sont pris dans un piège similaire au Piège Java (voir Libre mais entravé – Le Piège Java).

Mais, même en cas de succès, les implications seraient limitées puisqu’un programme qui ne fonctionne pas (ou mal) dans le Monde Libre ne contribue pas à notre liberté. Un programme non-libre prive ses utilisateurs de leur liberté. Pour éviter de se retrouver ainsi lésés, nous devons rejeter les systèmes privateurs ainsi que les applications privatrices. Les extensions libres pour des programmes privateurs que l’on trouve sur Codeplex accroissent notre dépendance vis à vis de ces programmes privateurs, l’exact opposé de ce dont nous avons besoin.

Les développeurs de logiciels libres sauront-ils résister à ce travail de sape de nos efforts pour gagner plus de liberté ? C’est là que leur éthique devient cruciale. Les développeurs adeptes de la philosophie « open source », pour laquelle la liberté n’est que secondaire, n’attachent peut-être que peu d’importance à la liberté de l’environnement dans lequel leur logiciel est exécuté. Mais les développeurs se battant pour la liberté, la leur comme celle des autres, peuvent reconnaître le piège et l’éviter. Pour rester libre, la liberté doit être notre but.

Si la Codeplex Foundation souhaite devenir un vrai contributeur de la communauté du logiciel libre, elle ne peut se contenter d’extensions libres pour des paquets non-libres. Elle doit encourager le développement de logiciels portables capables de fonctionner sur des plateformes libres basées sur GNU/Linux et d’autres systèmes d’exploitation libres. Si elle essaie de nous leurrer dans une direction opposée, il nous faut absolument nous y refuser.

Mais que les actions de la Codeplex Foundation soient bonnes ou mauvaises, elles ne peuvent excuser les actes d’agression dont Microsoft s’est rendu coupable envers notre communauté. De sa tentative récente de vendre des brevets à des intermédiaires pour qu’ils fassent le sale boulot contre GNU/Linux, à sa croisade pour la promotion des menottes numériques (DRM), Microsoft n’a de cesse de s’en prendre à nous. Nous serions bien naïfs de le perdre de vue.

Copyright 2009 Richard Stallman
La reproduction exacte et la distribution intégrale de cet article est permise sur n’importe quel support d’archivage, pourvu que cette notice soit préservée.

Chacun sa vision

World Views

Miguel de Icaza – 5 octobre 2009 – Blog personnel
(Traduction Framalang : Olivier Rosseler)

Storem - CC by-saApparemment, Richard Stallman n’a rien de mieux à faire que de m’attaquer personnellement. Dans son dernier texte, il s’est trouvé une nouvelle lubie : me traiter d’apologiste de Microsoft car je ne participe pas à sa chasse aux sorcières.

J’ai simplement un point de vue différent du sien au sujet de Microsoft. Certains de ses employés sont des personnes vraiment bien, et je sais qu’ils sont nombreux au sein de l’entreprise à essayer de lui faire prendre une meilleure voie. Cela fait maintenant quelques années que j’en parle sur mon blog.

Au fond, nous voulons tous les deux la même chose : le succès du logiciel libre. Mais Richard, plutôt que d’utiliser son temps pour défendre sa cause, s’en prend à ses propres alliés car ils ne sont pas pareils que lui. À ses yeux, débiter des inepties, telles que Linus « ne croit pas en la Liberté », est tout à fait normal[3].

Tout est une question de point de vue

Il y a de cela quelques années, j’ai eu la chance d’échanger avec Benjamin Zander sur son monde des possibles. Son livre, « L’art des possibilités » m’a profondément marqué.

Benjamin y raconte cette histoire :

Deux vendeurs de chaussures sont envoyés en Afrique au début du XXe siècle en prospection.

Le premier envoie son télégramme : « Situation désespérée. Stop. Personne ne porte de chaussures ».

L’autre envoie : « Opportunité d’affaires. Stop. Ils n’ont pas de chaussures ».

Notre temps sur Terre étant limité, j’ai décidé d’occuper le mien à essayer de faire comme le deuxième vendeur. J’essaie de voir des possibilités quand d’autres ne voient aucun débouché.

J’aime mon boulot pour cette raison précise, parce que je travaille avec des amis qui défient sans cesse les probabilités et parce que nous avons toujours su faire mentir ceux qui nous critiquent. Chacun de mes collègues veut changer le monde et aucun d’entre nous ne se laisse décourager par la peur.

La peur est un frein puissant et empêche trop souvent les gens de proposer des solutions créatives. Je préfère largement travailler à l’élaboration de solutions constructives plutôt que de me plaindre.

La paranoïa est un secteur très actif. C’est la solution de facilité pour ceux qui ne savent pas mener leurs troupes en donnant l’exemple. Créez un bouc émissaire, enrobez votre histoire, mentez, ou propagez des semi-vérités, satanisez, voilà une bonne recette pour fédérer votre base.

La paranoïa de Richard

Le documentaire « Le pouvoir des cauchemars » offre une description passionnante de l’économie de la « sécurité », de ces entreprises qui vendent de la « sureté » aux personnes effrayées, de ces dirigeants qui se servent de la peur des gens pour atteindre leurs buts. La paranoïa de Richard n’est en rien différente.

Richard Stallman fait souvent appelle à des bouc émissaire pour rassembler ses troupes. Parfois il s’en prend à Microsoft, d’autres fois il invente des faits, ou sinon il s’en prend à sa propre communauté[4]. Ses élocutions simplistes n’ont rien à envier à celle de Georges W. Bush : le Bien contre le Mal, Nous contre Eux.

La Codeplex Foundation est née de l’effort de ceux, chez Microsoft, qui croit en l’open source. Ils s’acharnent, au sein de l’entreprise, à la changer. Encourager Codeplex est une formidable opportunité d’encourager Microsoft dans la bonne direction.

Mais Richard n’arrive pas à le comprendre.

Aux yeux de Richard, il n’y a rien de bon à tirer de ce monde. Moi, à l’opposé, j’y vois des possibilités et des opportunités.

Non seulement on a jamais attrapé de mouches avec du vinaigre, mais il y a aussi beaucoup de chaussures à vendre.

Notes

[1] Crédit photo : Eneko Astigarraga (Creative Commons By-Sa)

[2] Crédit photo : Storem (Creative Commons By-Sa)

[3] Votre ami Google vous donnera de nombreux exemples d’attaques contre les défenseurs et développeurs de l’open source / logiciel libre.

[4] Le problème « open source » contre « logiciel libre » qui n’en est pas un et la guerre « Linux » contre « GNU/Linux » débutée dans les années 90 mais qui nous poursuit encore.




La liberté ambigüe du paramétrage par défaut

Manuel Cernuda - CC byMon lycée a, depuis un certain temps déjà, opté pour un déploiement massif de la suite bureautique libre OpenOffice.org. Sauf que notre informaticien l’installe sur les postes en modifiant systématiquement l’option du format d’enregistrement « par défaut », substituant au format natif et ouvert ODF la famille de formats fermés bien connus de la suite Microsoft Office (le .DOC pour Word, le .XLS pour Excel et le .PPT pour Powerpoint).

Et lorsque je lui signifie, outré, mon mécontentement, il me répond qu’il convient de ne surtout pas perturber les enseignants, qui ont tous MS Office chez eux, et qui sont habitués à travailler dessus depuis des années (« Tu comprends, sinon ils vont rentrer à la maison avec leurs fichiers ODF dans leur clé, cliquer dessus pour ouvrir le document et… ça va être le bordel parce qu’aucune application ne sera trouvée par le système. Ils vont râler, m’assaillir de questions et c’est bibi qui assurera la hotline ! »).

Et c’est ainsi que l’on passe à côté de toute la problématique des formats (excellente porte d’entrée pour engager une discussion plus générale sur « le libre »). En tirant un peu le trait, on pourrait presque dire que l’on ne réalise finalement ici qu’une « fausse » migration, ou tout du moins que l’on s’est arrêté au milieu du chemin.

Fin de l’anecdote qui n’avait pour but que d’introduire le sujet (et la traduction) du jour : le paramétrage par défaut.

Lorsqu’on découvre un logiciel (ou carrément un système d’exploitation) pour la première fois, un certain nombre de choix ont été réalisés pour nous, afin, en théorie, de nous faciliter la tâche pour que nous soyons de suite opérationnels. Mais ces choix ne sont pas forcément neutres. D’abord parce que nous sommes tous différents (« l’utilisateur lambda » n’existe pas). Mais aussi, voire surtout, parce que nous savons fort bien qu’une forte majorité d’utilisateurs, pour de multiples raisons (inertie, crainte…) ne modifieront jamais ces options de démarrage.

Vous êtes un utilisateur désormais aguerri de GNU/Linux. Vous avez choisi votre distribution (Ubuntu, Mandriva, Fedora…), vous avez choisi votre environnement graphique (GNOME, KDE…), vous avez configuré le tout aux petits oignons en rivalisant d’esthétisme et d’ergonomie pour vous offrir un magnifique bureau personnalisé (illustration[1]). Vous naviguez sur un Firefox bourré d’extensions toutes plus utiles les unes que les autres eu égard à vos propres besoins et intérêts… Alors, félicitations, vous baignez dans l’univers culturel numérique de la richesse, de la diversité et de l’autonomie. Vous y êtes même tellement habitué que vous avez certainement oublié le nombre de paramétrages par défaut qu’il vous aura fallu lever pour arriver à cette situation qui est la vôtre aujourd’hui.

Parce que votre univers est malheureusement passablement éloigné de celui de Madame Michu (qui, je suis d’accord, n’existe pas non plus). Elle a acheté un ordinateur avec « par défaut » Windows à l’intérieur, dans lequel se trouvait « par défaut » Internet Explorer (page d’accueil Microsoft, Google ou FAI, inchangée), Outlook Express, Windows Media Player etc. et elle s’y tient. Elle s’y cramponne même, en résistant dur comme fer si jamais on s’en vient lui montrer, avec pourtant moultes précautions, qu’un « autre monde informatique est possible » (dans ce contexte là j’en arrive même parfois à me demander, un brin provocateur, si ce n’est pas « l’utilisateur par défaut » qu’il convient de paramétrer plutôt que ses logiciels !). C’est frustrant et dommage, parce que si il y a paramétrage par défaut, cela signifie également qu’il y a liberté de changer ces paramètres. Comme dirait l’autre, la liberté ne s’use que si l’on ne s’en sert pas…

Mais je m’égare, puisqu’il s’agissait juste de présenter l’article ci-dessous qui, bien que ne se souciant nullement des conséquences du paramétrage par défaut sur le logiciel libre, nous offre ici un exposé original et intéressant.

Remarque (à la lisière du troll) : C’est peut-être aussi là que réside le succès d’Ubuntu, dont la relative absence de choix à l’installation (un seul bureau, un seul logiciel par application, etc.) a grandement rassuré les nouveaux venus issus de Windows. De là à affirmer qu’Ubuntu est devenue « la distribution par défaut de l’OS GNU/Linux », il n’y a qu’un pas que je me garderais bien de franchir 😉

Le triomphe du « par défaut »

Triumph of the Default

Kevin Kelly – 22 juin 2009 – The Technium
(Traduction Framalang : Olivier et Julien R.)

Peu reconnu, le « par défaut » est l’une des plus grandes inventions de l’ère moderne. « Par défaut » est un concept technique introduit par l’informatique dans les années 1960 pour désigner les réglages pré-sélectionnés (comme par exemple dans « Ce programme accepte par défaut les dates au format jj/mm/aa, et non jj/mm/aaaa »). De nos jours, la notion de réglage par défaut dépasse le simple cadre de l’informatique et s’est répandue dans la vie de tous les jours. Aussi insignifiant que cela puisse paraître, l’idée de réglage par défaut est fondamentale pour « The Technium » (NdT : le livre qu’est en train de rédiger l’auteur dont cet article fait partie).

Difficile de concevoir aujourd’hui une époque où le « par défaut » n’existait pas. Mais le « par défaut » n’a gagné en popularité qu’à mesure que l’informatique s’est démocratisée ; c’est l’héritage de systèmes technologiques complexes. Le « par défaut » n’existait pas sous l’ère industrielle. À l’aube de l’ère moderne, quand les ordinateurs plantaient souvent et qu’entrer les variables était un vrai calvaire, une valeur par défaut était la valeur que le système s’assignait automatiquement si le programme échouait ou s’il était démarré pour la première fois. C’était une idée brillante. Sauf si l’utilisateur ou un programmeur prenait la peine de le modifier, le réglage par défaut régnait, assurant ainsi que le système hôte fonctionne. Chaque produit électronique et chaque logiciel était livré dans sa configuration par défaut. Les réglages par défaut répondent aux normes attendues par les acheteurs (par exemple la tension des appareils électriques aux États-Unis), ou à ce qu’ils attendent d’un produit (les sous-titres désactivés pour les films), ou encore aux questions de bon sens (anti-virus activé). La plupart du temps les réglages par défaut satisfont les clients, et ils ont maintenant envahi tout ce qui est personnalisable : automobiles, assurances, réseaux, téléphones, assurance maladie, cartes de crédit, etc.

En effet, chaque objet contenant un tant soit peu d’intelligence informatique (c’est à dire tout équipement moderne) est paramétré par défaut. Ces présélections sont autant de partis pris implantés dans le gadget, le système ou l’institution. Mais les réglages par défaut ne sont pas que des hypothèses silencieuses matérialisées dans tout objet manufacturé. Par exemple, tous les outils manuels sont faits, par défaut, pour les droitiers. Faire l’hypothèse que l’utilisateur sera droitier étant simplement normal, pas besoin d’en faire étalage. De même, la forme des outils est généralement faite pour des mains d’hommes. Mais ça ne se limite pas qu’aux outils : les premières automobiles étaient construites sur l’hypothèse que le conducteur serait un homme. Pour toute chose manufacturée, le constructeur doit faire des hypothèses sur ses clients potentiels et leurs motivations ; ces hypothèses trouvent naturellement leur place aussi dans tout ce qui est technologique. Plus le système est vaste, plus le constructeur doit faire des hypothèses. En examinant attentivement une infrastructure technologique particulière vous pouvez deviner les hypothèses cachées dans sa conception. Ainsi, on retrouve dans des domaines aussi variés que le réseau électrique, le système ferroviaire, les autoroutes ou l’enseignement certaines caractéristiques du citoyen américain : optimisme, importance de l’individu et penchant pour le changement.

Mais, alors que ces choix arbitraires, communs à toutes les technologies, sont à bien des égards semblables au concept de « défaut », ce n’est plus vrai aujourd’hui et ce pour une raison essentielle : les réglages par défaut sont des hypothèses qui peuvent être modifiées. Vous ne pouvez pas adapter des outils faits pour les droitiers à l’usage des gauchers. À l’époque, l’hypothèse que le conducteur était un homme se retrouvait dans la position du siège dans les automobiles. En changer n’était pas simple. Mais ce que l’on ne pouvait faire hier est désormais permis par la technologie actuelle. En effet presque tous les systèmes technologiques d’aujourd’hui ont en commun la facilité à être rebranchés, modifiés, reprogrammés, adaptés et changés pour convenir à de nouveaux usages ou à de nouveaux utilisateurs. Beaucoup (pas toutes) des hypothèses faites ne sont pas immuables et définitives. La multiplication des paramètres par défauts et leur modularité offre aux utilisateurs un vrai choix, s’ils le désirent. Les technologies peuvent être adaptées à vos préférences et optimisées pour mieux vous correspondre.

L’inconvénient de toutes cette personnalisation, cependant, est qu’on se retrouve un peu noyé sous le choix. Trop d’alternatives et pas assez de temps (sans parler de l’envie) de toutes les tester. Ne vous-êtes vous pas déjà retrouvé paralysé par l’indécision devant les 99 variétés de moutardes sur les étalages du supermarché, ou devant les 2 536 options de votre assurance santé, ou encore devant les 36 000 coupes de cheveux différentes pour votre avatar dans un monde virtuel ? Il existe une solution toute simple à cette sur-abondance délirante de choix : les paramètres par défaut. Les « défauts » vous permettent de choisir quand choisir. Votre avatar par défaut pourrait pas exemple être un avatar quelconque, un gamin en jean par exemple. Vous pouvez vous soucier de la personnalisation plus tard. C’est un peu un choix guidé. Ces milliers de variables, de vrais choix, peuvent être guidés en optant pour un choix par défaut intelligent, un choix fait à notre place, mais qui ne nous prive pas de notre liberté de le changer dans le futur, à notre convenance. Mes libertés ne sont pas restreintes, mais sont étalées dans le temps. Quand je me sens plus à l’aise, je peux revenir sur mes préférences pour mieux les adapter, en ajouter ou en retirer, en changer ou les personnaliser. Dans les systèmes par défaut bien pensés, je conserve toujours mon entière liberté, mais les choses me sont présentées de telle sorte que je peux prendre mon temps pour faire mes choix, au fur et à mesure et quand je me sens mieux à même de les faire.

Comparez maintenant cette sur-abondance de choix à ce que vous propose un marteau, une automobile ou le réseau téléphonique des années 1950. L’utilisation de ces outils vous était imposée. Les meilleurs ingénieurs ont planché des années pour proposer une conception qui s’adapte le mieux à la majorité, de nos jours encore, certains sont des chef-d’œuvre d’ingéniosité. Si ces objets et infrastructures étaient peu modulables, ils étaient remarquablement conçus pour être utilisés par la majorité des personnes. Peut-être qu’aujourd’hui vous ne personnalisez pas plus votre téléphone qu’il y a cinquante ans, mais la possibilité existe. Et les options disponibles sont toujours plus nombreuses. Cette myriade de choix possibles reflète la nature adaptative des téléphones portables et des réseaux. Les choix s’offrent à vous quand vous faites appel à eux, ce qui n’était pas possible quand toutes les décisions étaient prises pour vous.

Les paramètres par défaut ont fait leur apparition dans le monde complexe de l’informatique et des réseaux de communication, mais il n’est pas ridicule pour autant d’envisager leur utilisation pour les marteaux, les voitures, les chaussures, les poignées de portes, etc. En rendant ces objets personnalisables, en y injectant une pincée de puces informatiques et de matériaux intelligents, nous leur ouvrons le monde des paramètres par défaut. Imaginez le manche d’un marteau qui se moulerait automatiquement pour s’adapter à votre prise en main de gaucher, ou à la main d’une femme. On peut très bien envisager d’entrer son genre, son âge, son expertise ou son environnement de travail directement dans les petits neurones du marteau. Si un tel marteau existait, il serait livré avec des paramètres par défauts pré-programmés.

Mais les paramètres par défauts sont tenaces. De nombreuses études psychologiques ont montré que le petit effort supplémentaire demandé pour modifier les paramètres par défaut est souvent de trop et les utilisateurs s’en tiennent aux pré-réglages, malgré la liberté qui leur est offerte. Ils ne prennent pas la peine de régler l’heure sur leur appareil photo, le « 12:00 » entré par défaut continue de clignoter, ou encore ils ne s’embettent pas à changer le mot de passe temporaire qui leur est attribué. La dure vérité, n’importe quel ingénieur vous le confirmera, est que souvent les paramètres par défaut restent inchangés. Prenez n’importe quel objet, 98 options sur 100 seront celles préconfigurées en usine. Je reconnais que, moi-même, j’ai très rarement touché aux options qui m’étaient offertes, je m’en suis tenu aux paramètres par défaut. J’utilise un Macintosh depuis le début, voilà plus de 25 ans, et je découvre encore des paramètres par défaut et des préférences dont je n’avais jamais entendu parler. Du point de vue de l’ingénieur, cette inertie est un signe de réussite, cela signifie que les paramètres par défaut sont bien choisis. Leurs produits sont utilisés sans beaucoup de personnalisation et leurs systèmes ronronnent doucement.

Décider d’une valeur par défaut est synonyme de puissance et d’influence. Les paramètres par défaut ne sont pas qu’un outil pour aider les utilisateurs à apprivoiser leurs options, c’est aussi un levier puissant dont disposent les fabricants, ceux qui décident de ces valeurs, pour diriger le système. Les orientations profondes que traduisent ces valeurs par défaut façonnent l’usage que l’on fait du système. Même le degré de liberté qui vous est accordé, avec les choix occasionnels que l’on vous demande de faire, est primordial. Tout bon vendeur sait ça. Ils agencent magasins et sites Web pour canaliser vos décisions et ainsi augmenter leurs ventes. Disons que vous laissez des étudiants affamés choisir leur dessert en premier plutôt qu’en dernier, cet ordre par défaut a une influence énorme sur leur nutrition.

Chaque rouage d’une technologie complexe, du langage de programmation, à l’aspect de l’interface utilisateur, en passant par la sélection de périphériques, renferme d’innombrables paramètres par défaut. L’accès est-il anonyme ? Les intentions des utilisateurs sont-elles bonnes ou mauvaises ? Les paramètres par défaut encouragent-ils l’échange ou le secret ? Les règles devraient-elles expirer à une période donnée ou le renouvellement est-il tacite ? Avec quelle facilité peut-on revenir sur une décision ? Telle décision devrait-elle être activée par défaut ou l’utilisateur doit-il la valider lui-même ? Rien que la combinaison de quatre ou cinq choix par défaut engendre des centaines de possibilités.

Prenez deux infrastructures technologiques, disons deux réseaux d’ordinateurs basés sur le même matériel et sur les mêmes logiciels. L’expérience sur les deux réseaux peut être complètement différente selon les options par défaut imposées. Leur influence est telle qu’on peut presque parler d’effet papillon. En modifiant légèrement un paramètre par défaut, on peut transformer des réseaux gigantesques. Par exemple, la plupart des plans épargne retraite, comme le plan « Corporate 401k », demandent des mensualités très basses, en partie parce qu’ils proposent un choix phénoménal d’options. L’économiste/comportementaliste Richard Thaler rapporte des expériences où les épargnants amélioraient nettement leur épargne lorsque les options étaient sélectionnées par défaut (« choix guidé »). Chacun avait la possiblité de résilier leur programme quand il le désirait et ils étaient libres de modifier leur contrat quand bon leur semblait. Mais le simple fait de passer de « souscription » à « inscription automatique » changeait complètement l’intérêt du système. On peut prendre également l’exemple du don d’organe. Si on déclarait que chacun est donneur à moins qu’il n’émette le souhait contraire, le nombre d’organes donnés augmenterait largement.

Chaque paramètre par défaut est un levier pour façonner le déploiement d’une innovation. L’élaboration d’une infrastructure à l’échelle d’un continent, par exemple, comme le réseau électrique 110V aux États-Unis, peut s’imposer à mesure qu’elle reçoit le soutien d’autres infrastructures (comme les générateurs diesels ou les lignes d’assemblage dans les usines). Ainsi il peut obtenir le suffrage nécessaire pour s’imposer face à une technologie pré-existante, mais à chaque nœud du réseau électrique se cache un paramètre par défaut. Tous ces petits choix par défaut définissent la nature du réseau, ouvert et évolutif mais plus fragile ou fermé et plus sûr. Chaque paramètre par défaut est un levier permettant de façonner le réseau, s’il peut s’accroître facilement ou pas, s’il accepte les sources de puissance non-conventionnelle ou pas, s’il est centralisé ou décentralisé… La technologie définit les systèmes technologiques, mais c’est à nous d’en établir la nature.

Aucun système n’est neutre. Chacun a ses options naturels. On dompte les choix en cascade engendrés par l’accélération de la technologie par petites touches, en adoptant nos propres options afin de les faire tendre vers nos objectifs communs, ce qui a pour conséquence d’augmenter la diversité, la complexité, la spécialisation, la sensibilité et la beauté.

Le « par défaut » nous rappelle également une autre vérité. Par définition, le « par défaut » entre en jeu lorsque nous — utilisateur, consommateur ou citoyen — ne faisons rien. Mais ne rien faire n’est pas neutre, car cela entraîne une option par défaut. Ce qui signifie que « ne pas faire de choix » est un choix lui-même. Il n’y a rien de neutre, même, ou surtout, dans l’absence d’action. Malgré ce que certains veulent bien nous faire croire, la technologie n’est jamais neutre. Même quand vous ne choisissez pas ce que vous en faites, un choix est fait. Un système s’orientera dans une direction plutôt qu’une autre selon que l’on agit ou non sur lui. Le mieux que l’on puisse faire est de lui donner la direction qui va dans notre sens.

Notes

[1] Crédit photo : Manuel Cernuda (Creative Commons By-Sa)




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




La guerre contre le partage doit cesser, nous dit Richard Stallman

Wikimania2009 - CC byIl n’y a aucune justification à la guerre actuelle menée contre le partage en général et celui de la musique en particulier, nous dit ici Richard Stallman, non sans proposer au passage quelques pistes pour sortir de cette inacceptable situation.

On remarquera que cet article ne figure ni sur le site de GNU ni sur celui de la FSF mais sur son site personnel[1].

En finir avec la guerre au partage

Ending the War on Sharing

Richard Stallman – Septembre 2009 – Site personnel
(Traduction Framalang : Claude et Goofy)

Quand les maisons de disques font toute une histoire autour du danger du « piratage », elles ne parlent pas d’attaques violentes de navires. Elles se plaignent du partage de copies de musique, une activité à laquelle participent des millions de personnes dans un esprit de coopération. Le terme « piratage » est utilisé par les maisons de disques pour diaboliser le partage et la coopération en les comparant à un enlèvement,un meurtre ou un vol.

Le copyright (NdT : Pour des questions de non correspondance juridique nous avons choisi de ne pas traduire copyright par droit d’auteur) a été mis en place lorsque la presse imprimée a fait de la copie un produit de masse, le plus souvent à des fins commerciales. Le copyright était acceptable dans ce contexte technologique car il servait à réguler la production industrielle, ne restreignant pas les lecteurs ou (plus tard) les auditeurs de musique.

Dans les années 1890, les maisons de disques commencèrent à vendre des enregistrements musicaux produits en série. Ceux-ci facilitèrent le plaisir de la musique et ne furent pas un obstacle à son écoute. Le copyright sur ces enregistrements était en général peu sujet à controverse dans la mesure où il ne restreignait que les maisons de disques mais pas les auditeurs.

La technique numérique d’aujourd’hui permet à chacun de faire et partager des copies. Les maisons de disques cherchent maintenant à utiliser les lois sur le copyright pour nous refuser l’utilisation de cette avancée technologique. La loi, acceptable quand elle ne restreignait que les éditeurs, est maintenant une injustice car elle interdit la coopération entre citoyens.

Empêcher les gens de partager s’oppose à la nature humaine, aussi la propagande orwellienne du « partager, c’est voler » tombe-t-elle généralement dans l’oreille de sourds. Il semble que le seule manière d’empêcher les gens de partager soit une guerre rude contre le partage. Ainsi, les maisons de disques, au moyen de leurs armes légales comme la RIAA (NdT : RIAA : Recording Industry Association of America), poursuivent en justice des adolescents, leur demandant des centaines de milliers de dollars, pour avoir partagé. Au même moment, des coalitions d’entreprises, en vue de restreindre l’accès du public à la technologie, ont développé des systèmes de Gestion de Droits Numériques (NdT : Systèmes anti-copie ou DRM : Digital Restrictions Management) pensés pour menotter les utilisateurs et rendre les copies impossibles : les exemples incluent iTunes ou encore les disques DVD et Blueray (voir DefectiveByDesign.org pour plus d’informations). Bien que ces coalitions opèrent de façon anti-concurrentielle, les gouvernements oublient systématiquement de les poursuivre légalement.

Le partage continue malgré ces mesures, l’être humain ayant un très fort désir de partage. En conséquence, les maisons de disques et autres éditeurs demandent des mesures toujours plus dures pour châtier les partageurs. Ainsi les États-Unis ont voté une loi en octobre 2008 afin de saisir les ordinateurs utilisés pour le partage interdit. L’union Européenne envisage une directive afin de couper l’accès à Internet aux personnes accusées (pas condamnées) de partage : voir laquadrature.net si vous souhaitez aider et vous opposer à cela. La Nouvelle-Zélande a déjà adopté une telle loi en 2008.

Au cours d’une récente conférence, j’ai entendu une proposition demandant que les gens prouvent leur identité afin d’accéder à Internet : une telle surveillance aiderait aussi à écraser la dissidence et la démocratie. La Chine a annoncé une telle politique pour les cybercafés : l’Europe lui emboitera-t-elle le pas ? Un premier ministre au Royaume-Uni a proposé d’emprisonner dix ans les personnes en cas de partage. Ce n’est toujours pas appliqué… pour le moment. Pendant ce temps, au Mexique, les enfants sont invités à dénoncer leurs propres parents, dans le meilleur style soviétique, pour des copies non-autorisées. Il semble qu’il n’y ait pas de limite à la cruauté proposée par l’industrie du copyright dans sa guerre au partage.

Le principal argument des maisons de disques, en vue de l’interdiction du partage, est que cela cause des pertes d’emplois. Cette assertion se révèle n’être que pure hypothèse[2]. Et même en admettant qu’elle soit vraie, cela ne justifierait pas la guerre au partage. Devrions-nous empêcher les gens de nettoyer leurs maisons pour éviter la perte d’emplois de concierges ? Empêcher les gens de cuisiner ou empêcher le partage de recettes afin d’éviter des pertes d’emplois dans la restauration ? De tels arguments sont absurdes parce que le remède est radicalement plus nocif que la maladie.

Les maisons de disques prétendent aussi que le partage de musique ôte de l’argent aux musiciens. Voilà une sorte de demi-vérité pire qu’un mensonge : on n’y trouve même pas une vraie moitié de vérité.
Car même en admettant leur supposition que vous auriez acheté sinon un exemplaire de la même musique (généralement faux, mais parfois vrai), c’est seulement si les musiciens sont des célébrités établies depuis longtemps qu’ils gagneront de l’argent suite à votre achat. Les maisons de disques intimident les musiciens, au début de leur carrière, par des contrats abusifs les liant pour cinq ou sept albums. Il est rarissime qu’un enregistrement, sous incidence de ces contrats, vende suffisamment d’exemplaires pour rapporter un centime à son auteur. Pour plus de détails, suivez ce lien. Abstraction faite des célébrités bien établies, le partage ne fait que réduire le revenu que les industriels du disque vont dépenser en procès intentés aux amateurs de musique.

Quant aux quelques musiciens qui ne sont pas exploités par leurs contrats, les célébrités bien assises, ce n’est pas un problème particulier pour la société ou la musique si elles deviennent un peu moins riches. Il n’y a aucune justification à la guerre au partage. Nous, le public, devrions y mettre un terme.

Certains prétendent que les maisons de disques ne réussiront jamais à empêcher les gens de partager, que cela est tout simplement impossible[3]. Etant données les forces asymétriques des lobbyistes des maisons de disques et des amateurs de musique, je me méfie des prédictions sur l’issue de cette guerre ; en tout cas, c’est folie de sous-estimer l’ennemi. Nous devons supposer que chaque camp peut gagner et que le dénouement dépend de nous.

De plus, même si les maisons de disques ne réussiront jamais à étouffer la coopération humaine, elles causent déjà aujourd’hui énormément de dégâts, juste en s’y essayant, avec l’intention d’en générer davantage demain. Plutôt que de les laisser continuer cette guerre au partage jusqu’à ce qu’ils admettent sa futilité, nous devons les arrêter aussi vite que possible. Nous devons légaliser le partage.

Certains disent que la société en réseau n’a plus besoin de maisons de disques. Je n’adhère pas à cette position. Je ne paierai jamais pour un téléchargement de musique tant que je ne pourrais pas le faire anonymement, je veux donc être capable d’acheter des CDs anonymement dans une boutique. Je ne souhaite pas la disparition des maisons de disques en général, mais je n’abandonnerai pas ma liberté pour qu’elles puissent continuer.

Le but du copyright (sur des enregistrements musicaux ou toute autre chose) est simple : encourager l’écriture et l’art. C’est un but séduisant mais il y a des limites à sa justification. Empêcher les gens de pratiquer le partage sans but commercial, c’est tout simplement abusif. Si nous voulons promouvoir la musique à l’âge des réseaux informatiques, nous devons choisir des méthodes correspondant à ce que nous voulons faire avec la musique, et ceci comprend le partage.

Voici quelques suggestions à propos de ce que nous pourrions faire :

  • Les fans d’un certain style de musique pourraient organiser des fans clubs qui aideraient les gens aimant cette musique.
  • Nous pourrions augmenter les fonds des programmes gouvernementaux existants qui subventionnent les concerts et autres représentations publiques.
  • Les artistes pourraient financer leurs projets artistiques coûteux par des souscriptions, les fonds devant être remboursés si rien n’est fait.
  • De nombreux musiciens obtiennent plus d’argent des produits dérivés que des enregistrements. S’ils adoptent cette voie, ils n’ont aucune raison de restreindre la copie, bien au contraire.
  • Nous pourrions soutenir les artistes musiciens par des fonds publics distribués directement en fonction de la racine cubique de leur popularité. Utiliser la racine cubique signifie que, si la célébrité A est 1000 fois plus populaire que l’artiste chevronné B, A touchera 10 fois plus que B. Cette manière de partager l’argent est une façon efficace de promouvoir une grande diversité de musique.
    La loi devrait s’assurer que les labels de disques ne pourront pas confisquer ces sommes à l’artiste, l’expérience montrant qu’elles vont essayer de le faire. Parler de « compensation » des « détenteurs de droits » est une manière voilée de proposer de donner l’essentiel de l’argent aux maisons de disques, au nom des artistes.
    Ces fonds pourraient venir du budget général, ou d’une taxe spéciale sur quelque chose liée plus ou moins directement à l’écoute de musique, telle que disques vierges ou connexion internet.
  • Soutenir l’artiste par des paiements volontaires. Cela fonctionne déjà plutôt bien pour quelques artistes tels que Radiohead, Nine Inch nail (NdT : Voir cette vidéo) ou Jane Siberry (sheeba.ca), même en utilisant des systèmes peu pratiques qui obligent l’acheteur à avoir une carte de crédit.
    Si chaque amateur de musique pouvait payer avec une monnaie numérique (NdT : digital cash), si chaque lecteur de musique comportait un bouton sur lequel appuyer pour envoyer un euro à l’artiste qui a créé le morceau que vous écoutez, ne le pousseriez-vous pas occasionnellement, peut-être une fois par semaine ? Seuls les pauvres et les vrais radins refuseraient.

Vous avez peut-être d’autres bonnes idées. Soutenons les musiciens et légalisons le partage.

Copyright 2009 Richard Stallman
Cet article est sous licence Creative Commons Attribution Noderivs version 3.0

Notes

[1] Crédit photo : Wikimania2009 (Creative Commons By)

[2] Voir cet article, mais attention à son utilisation du terme de propagande « propriété intellectuelle », qui entretient la confusion en mettant dans le même panier des lois sans rapport. Voir ce lien et pourquoi il n’est jamais bon d’utiliser ce terme.

[3] Voir the-future-of-copyright.




George Clooney a une sale gueule ou la question des images dans Wikipédia

George Clooney - Bad Dog - Public DomainÀ moins d’être aussi bien le photographe que le sujet photographié (et encore il faut faire attention au décor environnant), impliquant alors soit d’avoir le don d’ubiquité soit d’avoir un pied ou le bras assez long, c’est en théorie un pur casse-tête que de mettre en ligne des photographies sur Internet.

Il y a donc pour commencer le droit de l’auteur, le photographe. Mais quand bien même il aurait fait le choix de l’ouverture pour ses images, avec par exemple une licence Creative Commons, il reste la question épineuse du droit du sujet photographié (qui peut être une personne, un monument architectural…). Et pour corser le tout, n’oublions pas le fait que la législation est différente selon les pays.

Et c’est ainsi que le Framablog se met quasi systématiquement dans l’illégalité lorsqu’il illustre ses billets par une photographie où apparaissent des gens certes photogéniques mais non identifiés. Parce que si il prend bien le soin d’aller puiser ses photos parmi le stock d’images sous Creative Commons d’un site comme Flickr, il ne respecte que le droit du photographe et non celui du ou des photographié(s), dont il n’a jamais eu la moindre autorisation.

C’est peut-être moins grave (avec un bon avocat) que ces millions de photos que l’écrasante majorité de la jeune génération partage et échange sans aucune précaution d’usage sur les blogs, MySpace ou Facebook, mais nous ne sommes clairement qu’à la moitié du chemin.

Le chemin complet du respect des licences et du droit à l’image, c’est ce que tente d’observer au quotidien l’encyclopédie libre Wikipédia. Et c’est un véritable… sacerdoce !

Vous voulez mettre en ligne une photo sur Wikipédia ? Bon courage ! L’avantage c’est que vous allez gagner rapidement et gratuitement une formation accélérée en droit à l’image 😉

Pour l’anecdote on cherche toujours à illustrer le paragraphe Framakey de notre article Framasoft de l’encyclopédie et on n’y arrive pas. Une fois c’est le logo de Firefox (apparaissant au microscope sur une copie d’écran de l’interface de la Framakey) qui ne convient pas, parce que la marque Firefox est propriété exclusive de Mozilla. Une fois c’est notre propre logo (la grenouille Framanouille réalisée par Ayo) qui est refusé parce qu’on ne peut justifier en bonne et due forme que sa licence est l’Art Libre.

Toujours est-il donc que si vous souhaitez déposer une image dans la médiathèque de Wikipédia (Wikimédia Commons) alors le parcours est semé d’embûches. L’enseignant que je suis est plutôt content parce que l’encyclopédie participe ainsi à éduquer et sensibiliser les utilisateurs à toutes ces questions de droit d’auteurs, de propriété intellectuelle… avec moultes explications sur l’intérêt d’opter (et de respecter) les licences libres. Mais il n’empêche que l’une des conséquences de ces drastiques conditions d’entrée, c’est que pour le moment Wikipédia manque globalement de photographies de qualité (comparativement à son contenu textuel).

C’est particulièrement criant lorsqu’il s’agit d’illustrer les articles sur des personnalités contemporaines[1] (les plus anciennes échappant a priori au problème avec le domaine public, sauf quand ces personnalités ont vécu avant… l’invention de la photographie !). Et c’est cette carence iconographique que le New York Times a récemment prise pour cible dans une chronique acide dont le traduction ci-dessous nous a servi de prétexte pour aborder cette problématique (chronique qui aborde au passage la question complexe du photographe professionnel qui, craignant pour son gagne-pain, peut hésiter à participer).

La situation est-elle réellement aussi noire que veut bien nous le dire le vénérable journal ?

Peut-être pas. Il y a ainsi de plus en plus de photographes de qualité, tel Luc Viatour, qui participent au projet . Il y a de plus en plus d’institutions qui, contrairement au National Portrait Gallery, collaborent avec Wikipédia en ouvrant leurs fonds et archives, comme en témoigne l‘exemple allemand. Même le Forum économique mondial de Davos s’y met (dépôt dans Flickr, utilisation dans Wikipédia). Sans oublier les promenades locales et festives où, appareil photo en bandoulière, on se donne pour objectif d’enrichir ensemble l’encyclopédie.

Du coup mon jugement péremptoire précédent, à propos de la prétendue absence globale de qualité des images de Wikipédia, est à nuancer. Il suffit pour s’en convaincre de parcourir les pages « images de qualité » ou l’« image du jour ».

L’encyclopédie est en constante évolution, pour ne pas dire en constante amélioration, et bien heureusement la photographie n’échappe pas à la règle. Même si il est vrai que le processus est plus lent parce qu’on lui demande de s’adapter à Wikipédia et non l’inverse.

Wikipédia, terre fertile pour les articles, mais désert aride pour les photos

Wikipedia May Be a Font of Facts, but It’s a Desert for Photos

Noam Cohen – 19 juillet 2009 – New York Times
(Traduction Framalang : Olivier et Goofy)

Une question de la plus haute importance : existe-t-il de mauvaises photos de Halle Berry ou de George Clooney ?

Halle Berry - Nancy Smelser - Public DomainFacile, allez sur Wikipédia ! Vous y trouverez une photo floue de Mlle Berry, datant du milieu des années quatre-vingt, lors de la tournée U.S.O. avec d’autres candidates au titre de miss USA. La mise au point est mauvaise, elle porte une casquette rouge et blanche, un short, c’est à peine si on la reconnait. L’article de Wikipédia sur M. Clooney est, quant à lui, illustré par une photo le montrant au Tchad, portant une veste kaki est une casquette des Nations Unies. Avec son grand sourire et ses traits anguleux il est toujours aussi beau, en compagnie de deux femmes travaillant pour les Nations Unies, mais on est loin d’un portait glamour.

Certains personnages éminemment célèbres, comme Howard Stern ou Julius Erving, n’ont même pas la chance d’avoir leur photo sur Wikipédia.

George Clooney - Nando65 - Public DomainAlors que de nos jours les célébrités s’offrent couramment les services d’une équipe de professionnels pour contrôler leur image, sur Wikipédia c’est la loi du chaos. Très peu de photographies de bonne qualité, particulièrement de célébrités, viennent enrichir ce site. Tout cela tient au fait que le site n’accepte que les images protégées par la plus permissive des licences Creative Commons, afin qu’elles puissent être ré-utilisées par n’importe qui, pour en tirer profit ou pas, tant que l’auteur de la photo est cité.

« Des représentants ou des agents publicitaires nous contactent, horrifiés par les photos qu’on trouve sur le site », confie Jay Walsh, porte-parole de la Wikimedia Foundation, l’organisme qui gère Wikipédia, l’encyclopédie en plus de 200 langues. « Ils nous disent : J’ai cette image, je voudrais l’utiliser. Mais ça n’est pas aussi simple que de mettre en ligne la photo qu’on nous envoie en pièce jointe. »

Il poursuit : « En général, nous leur faisons comprendre que de nous envoyer une photo prise par la photographe Annie Leibovitz ne servira à rien si nous n’avons pas son accord. »

Les photos sont l’un des défauts les plus flagrants de Wikipédia. À la différence des articles du site, qui, en théorie, sont vérifiés, détaillés à l’aide de notes, et qui se bonifient avec le temps, les photos sont l’œuvre d’une seule personne et elles sont figées. Si un mauvais article peut être amélioré, une mauvaise photo reste une mauvaise photo.

Les wikipédiens tentent de corriger ce défaut, ils organisent des événements ou des groupes de contributeurs vont prendre des clichés de bonne qualité de bâtiments ou d’objets. De même, Wikipédia s’efforce d’obtenir la permission d’utiliser d’importantes collections de photographies.

L’hiver dernier, les archives fédérales allemandes ont placé cent mille photos basse résolution sous une licence permettant leur usage dans Wikipédia. Récemment, un utilisateur de Wikipédia, Derrick Coetzee, a téléchargé plus de trois mille photos haute résolution d’œuvres de la National Portrait Gallery de Londres, pour qu’elles soient utilisées, essentiellement, pour illustrer les articles se rapportant à des personnes historiques célèbres comme Charlotte Brontë ou Charles Darwin.

La galerie a menacé de porter plainte contre M. Coetzee, affirmant que même si les portraits, de par leur ancienneté, ne tombent plus sous la protection du droit d’auteur, les photographies elles sont récentes et du coup protégées. La galerie exige une réponse de M. Coetzee pour lundi. Il est représenté par l’Electronic Frontier Foundation. S’exprimant par e-mail vendredi, une porte-parole de la galerie, Eleanor Macnair, écrit qu’un « contact a été établi » avec la Wikimedia Foundation et que « nous espérons toujours que le dialogue est possible ».

On reste pourtant bien loin du compte et le problème des photographies sur Wikipédia est tout sauf réglé. Dans la galerie des horreurs, l’ancienne star de la NBA, George Gervin, aurait une place de choix. Debout, droit comme un I dans son costard, sur une photo aux dimensions pour le moins étranges, même pour un joueur de basket-ball. La photo, recadrée et libre de droit, provient du bureau du sénateur du Texas, John Cornyn.

Barack Obama - Pete Souza - CC byL’exemple de M. Gervin illustre un fait établi : le gouvernement alimente le domaine public de nombreuses photographies. Celle illustrant l’article du président Obama, par exemple, est un portrait officiel tout ce qu’il y a de posé et sérieux.

Mais les collections de photographies du gouvernement servent aussi aux contributeurs de Wikipédia. Ils espèrent y dénicher des images de rencontres entre célébrités et personnages politiques, qu’ils massacrent ensuite pour illustrer un article.

L’ancien roi du baseball, Hank Aaron, a l’honneur d’être illustré par une photo prise hors contexte, bizarrement découpée, prise en 1978 à la Maison Blanche. De même, l’illustration principale de l’article sur Michael Jackson a été réalisée en 1984 à l’occasion de sa visite à Ronald et Nancy Reagan.

Natalie Dessay - Alixkovich - CC by-saLes photos récentes sur Wikipédia sont, pour une large majorité, l’œuvre d’amateurs qui partagent volontiers leur travail. Amateur étant même un terme flatteur puisque ce sont plutôt des photos prises par des fans qui par chance avaient un appareil photo sous la main. La page de la cantatrice Natalie Dessay la montre en train de signer un autographe, fuyant l’objectif, l’actrice Allison Janney est masquée par des lunettes de soleil au Toronto Film Festival. Les frères Coen, Joel et Ethan, sont pris à distance moyenne à Cannes en 2001 et Ethan se couvre la bouche, certainement parce qu’il était en train de tousser. Et il y a aussi les photos prises depuis les tribunes où on distingue à peine le sujet. D’après sa photo, on pourrait croire que la star du baseball Barry Bonds est un joueur de champ extérieur. David Beckham, quant à lui, apparait les deux mains sur les hanches lors d’un match de football en 1999.

Placido Domingo- Sheila Rock - Copyright (with permission)Certaines personnes célèbres, comme Plácido Domingo et Oliver Stone, ont cependant eu la bonne idée de fournir elles-mêmes une photographie placée sous licence libre. Quand on pense à tout l’argent que les stars dépensent pour protéger leur image, il est étonnant de voir que si peu d’entre elles ont investi dans des photos de haute qualité, sous licence libre, pour Wikipédia ou d’autres sites. Peut-être ne se rendent-elles pas compte de la popularité de Wikipédia ? Rien que pour le mois de juin, par exemple, la page de Mlle Berry a reçu plus de 180 000 visites.

D’après Jerry Avenaim, photographe spécialisé dans les portraits de célébrités, il faut encore réussir à persuader les photographes, car placer une photo sous licence libre pourrait faire de l’ombre à toutes les autres. Il se démarque par le fait qu’il a déjà enrichi Wikipédia d’une douzaine de clichés en basse résolution, parmi lesquels un superbe portrait de Mark Harmon pris à l’origine pour un magazine télé.

Dans un interview, M. Avenaim semblait toujours indécis quant à l’idée de partager son travail. Sa démarche poursuit un double but : « D’abord, je voulais vraiment aider les célébrités que j’apprécie à apparaitre sous leur meilleur jour », dit-il, « Ensuite, c’est une stratégie marketing intéressante pour moi ».

Mark Harmon - Jerry Avenaim - CC by-saSa visibilité en ligne a largement augmenté grâce à la publication de ses œuvres sur Wikipédia, comme le montrent les résultats des moteurs de recherche ou la fréquentation de son site Web. Mais c’est une publicité qui peut aussi lui coûter très cher. « C’est mon gagne-pain », dit-il, rappelant que les photographes sont parfois très peu payés par les magazines pour leurs images de célébrités. L’essentiel de leurs revenus provient de la revente des images. Même si les images qu’il a mises gratuitement à disposition, par exemple le portrait de Dr. Phil, sont en basse résolution, elles deviennent les photographies par défaut sur Internet. Pourquoi payer alors pour une autre de ses photos ?

Et c’est bien là que la bât blesse pour les photographes qui voudraient mettre leurs œuvres à disposition sur Wikipédia, et seulement sur Wikipédia, pas sur tout Internet. « Wikipédia force à libérer le contenu déposé sur le site, c’est là que réside le problème à mes yeux », explique M. Avenaim. « S’ils veulent vraiment que la qualité des photos sur le site s’améliore, ils devrait permettre aux photographes de conserver leurs droits d’auteur. »

Notes

[1] Crédits photos : 1. George Clooney, par Bad Dog (domaine public) / 2. Halle Berry, par Nancy Smelser (domaine public) / 3. George Clooney, par Nando65 (domaine public)/ 4. Barack Obama, par Pete Souza (creative commons by) / 5. Natalie Dessay, par Alixkovich (creative commons by-sa) / 6. Placido Domingo, par Sheila Rock (copyright avec permission) / 7. Mark Harmon, par Jerry Avenaim (creative commons by-sa)