Quand l’album de Nine Inch Nails bouscule toute l’industrie musicale

Notsogoodphotography - CC byOn risque d’en parler longtemps. Imaginez-vous en effet un album de musique sous licence Creative Commons, disponible gratuitement et légalement sur tous les sites de partage de fichiers, et qui arrive pourtant en tête de meilleurs ventes 2008 sur la très fréquentée plate-forme de vente en ligne Amazon !

Voilà une nouvelle qui fait du bien et qui va à l’encontre de bon nombre d’idées reçues véhiculées notamment par certaines pontes de l’industrie culturelle (et leurs amis politiques). Une véritable petite bombe en fait, surtout en temps de crise. Les mentalités et les comportements évoluent et cela bénéficie indirectement aux logiciels libres qui sont « gratuits » ou « payants » selon que vous décidez ou non de soutenir le logiciel libre considéré[1].

Nine Inch Nails : l’album MP3 sous licence Creative Commons s’est vendu comme des petits pains

NIN’s CC-Licensed Best-Selling MP3 Album

Fred Benenson – 5 janvier 2009 – Creative Commons Blog
(Traduction Framalang : Don Rico)

L’album de Nine Inch Nails (NIN) diffusé sous licence Creative Commons, Ghosts I-IV, a fait un bon nombre de gros titres.

Pour commencer, l’opus a été salué par la critique et récompensé par deux nominations aux Grammy Awards, ce qui atteste la qualité musicale de cette œuvre. Mais ce qui nous emballe vraiment, c’est le formidable accueil qu’a reçu cet album chez les adeptes de musique. En plus d’avoir généré plus d’un 1,6 million de dollars de gains pour Nine Inch Nails dès la première semaine et d’avoir atteint la première place du classement de Billboard dans la catégorie musique électronique, Ghosts I-IV figure à la quatrième place des albums les plus écoutés de 2008 sur Last.fm, fort de 5 222 525 écoutes.

Mais le plus enthousiasmant, c’est que Ghosts I-IV a été l’album MP3 le plus vendu en 2008 sur la plateforme de téléchargements de MP3 d’Amazon.

Songez un peu à ce que ça signifie.

Les fans de NIN auraient pu utiliser n’importe quel réseau de partage de fichiers pour télécharger légalement l’album entier, puisqu’il est sous licence Creative Commons BY-NC-SA. Beaucoup l’on d’ailleurs fait, et des milliers continueront à le faire. Alors pourquoi les fans prendraient-ils la peine de payer des fichiers identiques à ceux qui sont disponibles sur les réseaux P2P ? On peut d’abord l’expliquer la facilité d’accès et d’utilisation des pages de téléchargements de NIN et d’Amazon. Mais il y a aussi le fait que les fans ont compris qu’acheter des fichers MP3 allait directement profiter à la musique et à la carrière d’un groupe qu’ils apprécient.

La prochaine fois qu’on tentera de vous convaincre que produire de la musique sous licence Creative Commons entamerait les ventes de musique numérique, souvenez-vous que Ghosts I-IV a prouvé le contraire, et soumettez cet article à votre interlocuteur.

Notes

[1] Crédit photo : Notsogoodphotography (Creative Commons By)




Les bonnes résolutions du logiciel libre pour 2009 ?

Foxypar4 - CC byNous pouvons nous réjouir du succès croissant que connaît le logiciel libre depuis quelques années, emmené par quelques projets phares tels que Firefox, Wikipédia, OpenOffice.org et Ubuntu pour les plus connus d’entre eux.

Les solutions Open Source sont de plus en plus utilisées sur les ordinateurs personnels et plus seulement dans le monde des serveurs, et entre le fiasco Vista et la crise, on se prend à rêver de jours radieux pour le libre…

Sauf que… Tout n’est pas rose au royaume du code ouvert ! Ces belles réussites cachent parfois des problèmes plus ou moins inquiétants : Firefox, fort de son record de téléchargements pour sa version 3.0, pourrait voir sa juteuse alliance avec Google menacée par les ambitions du géant de la recherche dans le domaine des navigateurs. Wikipédia mène en ce moment même une campagne d’appel aux dons massive pour lui permettre de poursuivre son développement. OpenOffice.org, adoptée par de plus en plus d’administrations et de particuliers, connaît quant à elle quelques couacs en coulisses, où des tensions se créent entre Sun et la communauté (nous traiterons de ce sujet dans un prochain billet).

Alors même si l’heure n’est pas à l’alarmisme[1], il convient de ne pas se laisser griser par le succès et de garder à l’esprit qu’il y a encore du boulot…

L’excellent Bruce Byfield, dont nous avons déjà traduit plusieurs articles dans les colonnes du Framablog, a publié un billet où il dresse avec une grande pertinence une liste de neuf problèmes de comportement qu’il a relevés chez les partisans du libre (et chez lui…) qui nuisent au développement des projets Open Source et à la communauté. Il y parle entre autres de l’acharnement aveugle contre Microsoft, de l’hostilité envers les nouveaux venus, et de la tentation d’accepter des compromis qui au bout du compte, pour quelques parts de marché en plus, risquent de nuire à long terme au mouvement du libre.

Bien sûr, en homme raisonnable, il propose à chaque fois une solution pour y remédier et faire en sorte que le libre poursuive sa marche vers "la domination du monde", comme il l’évoque en plaisantant dans les lignes que vous allez lire.

Neufs bonnes résolutions pour bien commencer l’année 2009, donc… (J’en profite au passage pour adresser mes meilleurs vœux aux lecteurs du Framablog).

Neuf problèmes de comportement qui font du tort au logiciel libre

Nine Attitude Problems in Free and Open Source Software

Bruce Byfield – 15 octobre 2008 – Datamation
(Traduction Framalang : Don Rico et Goofy)

Le logiciel libre et Open Source (NdT : Free and Open Source Software ou FOSS), j’adore ça. C’est une cause, une extension de la liberté d’expression, que je peux défendre en tant qu’auteur, et les membres de la communauté, en plus d’être brillants, sont à la fois passionnés et pragmatiques. C’est un domaine stimulant, et celui dans lequel j’ai choisi de travailler.

Parfois, néanmoins, le pire ennemi de la communauté, c’est la communauté elle-même. Certains comportements, souvent enracinés, nuisent à son unité et à ses objectifs communs, tels que fournir une alternative au logiciel propriétaire ou prêcher la bonne parole du FOSS. Au sein de la communauté, presque tout le monde s’est un jour rendu coupable d’un de ces comportements fâcheux, moi y compris, mais nous en discutons rarement. C’est pour cette raison que ces comportements perdurent et gênent les efforts de la communauté.

Admettre l’existence de ces comportements me semble être un bon début pour y remédier, alors voici neuf de ceux que j’ai le plus souvent constatés chez moi comme chez d’autres.

1) Se tromper d’ennemi

Chaque fois qu’une communauté se construit sur un certain idéalisme ou des convictions, les luttes intestines semblent être la norme. Cela s’applique aux groupes religieux et politiques, et il n’y a donc rien de surprenant à ce que ce soit aussi la norme au sein du FOSS, où les opinions de beaucoup sont souvent très tranchées.

Trop souvent, hélas, les conflits internes semblent l’emporter sur les objectifs communs. Plusieurs grands pontes professionnels ou semi-professionnels se forgent un nom en s’en prenant à d’autres membres de la communauté (peu importe leur nom, si vous vous intéressez à la question, vous savez de qui il s’agit, et je me refuse à les encourager dans leur démarche en leur faisant de la publicité gratuite).

Parfois, comme le mentionne Jeremy Allison, ces pontifes osent émettre des critiques que nul autre n’oserait exprimer. Mais la plupart du temps, leur motivation semble n’être que d’attirer l’attention sur eux, sans se soucier des divisions qu’ils créent au sein de la communauté, et en lisant les propos de ces pontes, nous encourageons ces divisions.

Pis encore, les dissensions entre les défenseurs du logiciel libre et ceux du logiciel Open Source. Certes, ce sont deux philosophies différentes : le logiciel libre (free software) s’attache à la liberté de l’utilisateur, alors que l’Open Source se soucie surtout de la qualité du logiciel. Pourtant, malgré ces distinctions fondamentales, les membres des deux camps travaillent sur les mêmes projets, avec les mêmes licences, et ont beaucoup plus de points qui les unissent que de points qui les opposent.

Alors pourquoi s’attarder sur les différences ? À l’évidence, les partisans du logiciel libre et ceux de l’Open Source ne trouveront personne d’autre avec qui ils ont plus en commun.

2) Ennuyer le monde avec des histoires de logiciels

Le logiciel étant l’un des éléments centraux de la communauté du FOSS, ses membres passent logiquement beaucoup de temps à en discuter. Pourtant, si vous essayez d’intéresser quelqu’un au FOSS, parler de logiciel ne fonctionne que si vous vous adressez à un auditoire de développeurs. Pour les autres, même la gratuité du FOSS n’a pas grand intérêt, sinon les partagiciels ou shareware seraient beaucoup plus utilisés.

Pour la plupart des gens, le logiciel en soi n’a pas grand intérêt, même s’ils passent de dix à douze heures par jour devant leur ordinateur.

Comme l’a signalé Peter Brown, le président de la Free Software Foundation, il y a quelques années, le FOSS doit s’inspirer des méthodes des partisans du recyclage. Ces partisans du recyclage ne défendent pas leur cause en expliquant où sont amenés les matériaux recyclables pour leur donner une seconde vie, ni en expliquant comment on fait fondre le verre pour le réutiliser plus tard… non, ils présentent les bénéfices du recyclage dans le quotidien de tout un chacun.

De la même façon, au lieu de parler du logiciel ou de ses licences, la communauté du FOSS doit davantage évoquer les problèmes tels que les droits, la protection de la vie privée et de la liberté d’expression des utilisateurs, des questions qui vont bien au-delà du clavier et de l’écran.

3) Se contenter d’imiter d’autres systèmes d’exploitation

Pendant des années, le FOSS a dû s’efforcer de rattraper le développement de Windows et d’OS X. C’était une nécessité incontournable, parce que le FOSS a commencé plus tard, et pendant longtemps, a disposé de moins de ressources que ses rivaux du monde propriétaire.

En outre, les utilisateurs changent d’autant plus facilement de système d’exploitation pour passer au libre que ce dernier ressemble à ce qu’ils connaissent. Et les développeurs ne vont pas non plus perdre leur temps à réinventer l’ordre des entrées de menu dans une fenêtre ou les raccourcis clavier pour copier ou coller.

Cependant l’imitation pose aussi des problèmes. Elle peut mener à copier à l’aveugle, par exemple à placer le menu principal en bas à gauche alors que c’est en haut à gauche qu’on le trouve le plus vite. Cela signifie aussi qu’on a toujours un train de retard, ce qui n’attire guère de nouvelles recrues – après tout, qui voudrait s’embarrasser d’un système d’exploitation qui n’est pas à jour ?

La vérité, c’est que dans un nombre croissant de domaines, y compris celui du bureau d’ordinateur et de la suite bureautique, le FOSS a déjà rattrapé les systèmes propriétaires, ou est en passe de le faire. Dans certains cas, tels que KDE4, le FOSS a pris la tête en ce qui concerne l’expérimentation. Mais la majeure partie de la communauté n’est pas encore passée de l’idée d’imitation à celle d’innovation, et cette absence de prise de conscience risque d’entraver les progrès du FOSS.

Comme l’indiquait justement Mark Shuttleworth de Canonical l’été dernier, il ne suffit pas d’égaler Apple. Le but devrait être de le dépasser.

4) Se méfier des nouveaux venus

Toute communauté tend à se replier sur elle-même. Du fait qu’elle est constituée de réseaux d’associations qui existent depuis des années, et que le statut de chacun y dépend de ses contributions, la communauté FOSS est probablement plus insulaire que la plupart. Un nouveau venu au FOSS doit à la fois maîtriser un certain volume d’expertise technique mais aussi tout un répertoire de connaissances et de principes implicites, avant de pouvoir espérer intégrer la communauté.

Tout cela est compréhensible, mais ne peut justifier l’impatience affichée ni le dédain que beaucoup de membres de la communauté infligent aux nouveaux venus. Trop souvent, j’ai vu des débutants animés de bonnes intentions, même s’ils étaient trop peu informés, perdre tout intérêt pour le FOSS parce que leurs questions basiques déclenchaient des répliques cinglantes dans lesquelles le commentaire dominant était : « RTFM » (NdT : Read The Fucking Manual, soit « Lisez Le Putain De Mode d’Emploi »).

Apparemment, beaucoup de membres de la communauté doivent encore prendre conscience que la plupart des gens ont pour premier réflexe de demander l’aide de quelqu’un avant de se documenter, ou que poser une question au lieu de se renseigner par soi-même est souvent autant une tentative d’établir le contact qu’un appel à l’aide.

Certes, tout le monde n’a pas la capacité d’assurer une aide technique. Mais si l’on créait un code de bonne conduite traitant spécifiquement de l’accueil des nouveaux venus, la communauté pourrait accueillir quelques recrues supplémentaires au lieu de les faire fuir. Ce serait aussi davantage en accord avec les quatre libertés du mouvement du logiciel libre, et avec la définition de l’Open Source, comme le soulignait récemment un blog sur GNUMedia.

5) Accorder aux développeurs un statut privilégié

Le mouvement du FOSS a pris naissance chez les développeurs, et leur travail reste un élément central du mouvement. Mais ce qui semble échapper à beaucoup, c’est que la communauté s’est étendue bien au-delà de son cercle d’origine. En ce qui concerne les projets d’envergure, en particulier, responsables de la documentation, testeurs, artistes, responsables du marketing et chefs de projet – sans parler des utilisateurs finaux – sont devenus des rouages essentiels. De plus en plus, la conception d’un logiciel libre prend la forme d’une collaboration entre personnes issues de divers domaines de compétence.

Malgré ce changement, néanmoins, on traite dans de nombreux projets les non-développeurs comme des collaborateurs de second ordre. Souvent, ils ne peuvent devenir membres à part entière du projet et n’ont pas voix au chapitre. Si un non-développeur émet une suggestion susceptible d’améliorer le projet, trop souvent la réponse qu’il obtiendra d’un développeur sera "Nous attendons ton code avec impatience", le développeur sachant très bien qu’il ne s’adresse pas à un codeur.

En de telles circonstances, difficile de reprocher aux non-développeurs de perdre leur enthousiasme pour un projet. Et sans eux, la plus grosse partie du travail nécessaire à un logiciel moderne ne sera simplement pas effectuée.

6) Passer son temps à cracher sur Microsoft

La communauté tout entière se méfie de Microsoft, et ce à juste titre, nulle autre entreprise de logiciel propriétaire n’a fait preuve d’autant d’hostilité à l’égard du FOSS, et ses tentatives récentes pour un réchauffement diplomatique sont trop hésitantes pour convaincre qui que ce soit. Toutefois, certains au sein de la communauté semblent plus motivés par l’envie exprimer bruyamment leur hostilité inébranlable à l’encontre de Microsoft que par le souci de défendre la liberté informatique.

Il serait bon de s’élever contre cette hostilité, et ce pour plusieurs raisons. Tout d’abord, elle se révèle contre-productive et ne contribue en rien à promouvoir les objectifs du FOSS. Comme le fait remarquer Joe Brockmeier, chef de file de la communauté openSUSE, et qui fut aussi mon collègue chez Linux.com, il semblerait que ceux qui passent leur temps à cracher sur Microsoft ne contribuent jamais à aucun projet.

Plus grave encore, ces râleurs patentés criant plus fort que tout le monde, on les prend souvent à tort, vu de l’extérieur, pour la majorité de la communauté, et l’on s’imagine que tout le monde dans l’univers du FOSS est gueulard et parano. Une telle perception ne risque pas d’encourager grand monde à s’impliquer. Et de nos jours, s’en prendre à Microsoft est tellement à la mode que les gueulards, et donc le FOSS tout entier, risquent d’être noyés dans la masse.

Mais la principale raison pour laquelle il faut rejeter ces violents préjugés anti-Microsoft, c’est qu’à cause d’eux la communauté risque de ne se montrer assez vigilante à l’égard d’autres adversaires aussi dangereux. Personne, par exemple, ne semble s’inquiéter des actes liberticides d’Apple, même si à bien des égards cette entreprise est en train de devenir le principal ennemi du logiciel libre.

En bref, quel que soit l’angle sous lequel on le considère, cet acharnement contre Microsoft est un frein dont la communauté doit se débarrasser, ou qu’elle doit reléguer au second plan.

7) Prendre comme modèle de croissance le mode de développement des entreprises commerciales

Avec le succès viennent les problèmes d’échelle. Lorsqu’on les identifie, il faut rapidement s’atteler à les résoudre, aussi est-il peut-être naturel aux projets FOSS de s’inspirer des procédés de développement des entreprises commerciales pour gérer leur croissance.

Quelles qu’en soient les raisons, les gros projets FOSS agissent de plus en plus comme des entreprises commerciales de logiciels. Les dates de publication fixes, par exemple, sont devenues la norme pour de nombreux projets, tels que GNOME, Ubuntu et Fedora, qu’il y ait ou non nécessité de publier une nouvelle mouture. Depuis peu, Mark Shuttleworth propose en outre une publication synchronisée pour les projets les plus importants, de sorte qu’il soit plus facile aux distributions de prévoir leur dates de publication, même si jusqu’à présent cette idée n’a pas trouvé un écho très favorable.

Dans certains cas, emprunter des idées aux entreprises commerciales peut se révéler utile. Il faut néanmoins garder à l’esprit que, même si le FOSS peut s’accorder avec un mode de fonctionnement commercial, ses objectifs sont différents. Qu’advient-il, par exemple, de la politique propre à l’Open Source (ne publier un logiciel que lorsqu’il est prêt) si un projet s’engage à des dates de sortie régulières ? Tôt ou tard, on ne pourra échapper à des problèmes de contrôle de qualité.

Plus important encore, le développement du FOSS reste dans la plupart des cas fondamentalement différent du développement d’un logiciel commercial. Dans de nombreux cas, les développeurs du FOSS comptent parmi eux une forte proportion de bénévoles, et sont souvent dispersés en davantage de lieux que les membres d’une équipe de développement d’un projet commercial. Étant donné ces circonstances, le FOSS doit, comme depuis ses origines, organiser le déroulement de ses travaux au fur et à mesure. Par exemple, comment mener à bien des phases de test lorsque les testeurs sont tous bénévoles ? En ce domaine, comme dans bien d’autres, le FOSS doit innover plutôt qu’emprunter ses idées ailleurs.

8) Placer les parts de marché en tête des priorités

Une blague bien connue dans l’univers du libre dit que l’objectif du FOSS est de devenir le maître du monde. Et qui, au sein de la communauté, ne ressent pas une certaine fierté quand un gouvernement ou une entreprise choisit de passer au libre, ou qu’une application comme Firefox gagne quelques points de parts de marché ?

Toutefois, comme je l’ai déjà écrit, attirer de nouveaux utilisateurs n’a aucun intérêt si on le fait au détriment des idéaux du libre, ou si ces nouveaux utilisateurs ne les défendent pas. Même s’il est grisant d’obtenir enfin la reconnaissance qui lui est due, la communauté ne doit pas oublier que le but du jeu n’est pas seulement de fournir des logiciels alternatifs, mais aussi une philosophie et un rapport à l’informatique alternatifs.

Si l’on emploie seulement ses efforts à gagner des parts de marché, ce qui semble être le cas d’un nombre croissant d’acteurs de la communauté, alors le libre assure sa défaite au moment même où il semble connaître le plus de succès.

9) Se contenter d’un système d’exploitation qui ne soit pas complètement libre

Maintenant que la communauté touche au but et qu’elle est à deux doigts de pouvoir proposer un système d’exploitation complètement libre, on pourrait croire que tout le monde voudrait donner un dernier coup de collier pour transformer l’essai. Pourtant, comme le montrent les réactions à la liste de priorités principales que la Free Software Foundation a récemment réactualisée, un nombre étonnant de membres de la communauté ne ressentent pas le besoin d’atteindre cet objectif final. Peu importe, disent-ils, s’ils doivent utiliser des pilotes propriétaires pour leur carte vidéo ou le Flash Player d’Adobe sur YouTube. D’après eux, nous sommes arrivés assez près du poste de travail libre pour ne pas chercher à combler les derniers trous, et au moins on peut télécharger gratuitement les éléments qui manquent.

Penser que la situation actuelle est assez satisfaisante n’est pas cohérent avec le souci d’excellence qui est la clé de voûte de l’Open Source. Plus important encore, cela signifie qu’on accepte l’échec, et qu’on abandonne le projet de fournir des systèmes d’exploitation alternatifs 100% libres. Pourquoi jeter l’éponge alors qu’on est si près du but ?

Débattre de ces problèmes

Ces comportements qui entravent le mouvement du logiciel libre sont bien sûr bien sûr une question de point de vue. J’imagine sans mal un défenseur de l’Open Source me rétorquer que se focaliser sur la liberté de l’utilisateur nuit à la diffusion en masse, ou le chef d’une entreprise dont l’activité est fondée sur le logiciel libre me répondre que considérer le libre comme un projet d’abord non commercial constitue un frein à la réussite.

Mais mon propos va au-delà de ces points précis. Le message que je veux vraiment faire passer, c’est que le libre a tellement gagné en importance, et si vite, qu’il n’a pas eu le temps de se demander si les comportements des débuts étaient encore pertinents ou si les nouvelles approches s’accordaient avec ses valeurs essentielles. Avant de croître davantage, la communauté doit se pencher sur ses modes de fonctionnement et les évaluer. Si elle ne le fait pas, elle risque, sinon de s’effondrer sous le poids des contradictions, du moins de se créer sans nécessité de lourds handicaps.

Notes

[1] Crédit photo : Foxypar4 (Creative Commons By)




Quand Bill Gates testait les qualités de Windows

Maveric2003 - CC byBill Gates n’est plus aujourd’hui à la tête de Microsoft, préférant consacrer plus de temps à sa Fondation. Il avait peut-être beaucoup de défauts mais certainement pas celui de s’être enfermé dans sa tour d’ivoire à compter ses milliards.

Ainsi il pouvait lui arriver de faire lui-même « l’expérience utilisateur » de Windows comme aurait pu le faire n’importe quel employé de sa société[1]. Quitte à connaître par là-même parfois quelques épiques mésaventures…

Attention, nous sommes ici en 2003. Rien ne dit que la situation ne se soit pas améliorée depuis 😉

Quand Bill Gates vide son sac… un courriel épique !

Full text: An epic Bill Gates e-mail rant

Todd Bishop – 24 juin 2008 – Seattlepi.com
(Traduction Framalang : Olivier, Penguin et Don Rico)

Il arrive que les logiciels ne soient pas si magiques. Même pour Bill Gates.

En guise d’introduction à notre série d’articles sur la fin de l’ère Gates chez Microsoft, nous voulions décrire avec précision le rôle de son co-fondateur, de manière à jauger l’impact qu’aura son départ. Mon investigation m’a donc amené à relire les mails internes présentés par l’accusation lors du procès antitrust visant l’entreprise, à la recherche de nouveaux indices sur sa personnalité.

Voici l’un des joyaux qui a été révélé : on y découvre Gates dans le rôle d’agitateur en chef (Document original : PDF, 5 pages). On y découvre que même le co-fondateur de Microsoft, qui prêche la « magie du logiciel », n’est pas immunisé contre les frustrations que rencontrent chaque jour les utilisateurs de PC. N’oubliez pas que cela remonte à cinq ans, cela ne reflète pas nécessairement les choses telles qu’elles le sont aujourd’hui. En fin d’article, vous pourrez lire ce que Gates m’a répondu quand je l’ai interrogé sur ce message, la semaine dernière.

Voici le courrier d’origine :

De : Bill Gates Envoyé : Mercredi, 15 Janvier 2003, 10:05
À : Jim Allchin
Cc : Chris Jones (WINDOWS); Bharat Shah (NT); Joe Peterson; Will Poole; Brian Valentine; Anoop Gupta (RESEARCH)
Objet : La dégradation systématique de l’ergonomie de Windows

Je suis très déçu par l’évolution négative de l’ergonomie de Windows et par le fait que les groupes de gestion des programmes ne règlent pas ces problèmes d’ergonomie.

Laissez-moi vous conter ma petite expérience d’hier.

J’ai décidé de télécharger MovieMaker et d’acheter le service Digital Plus… je me suis donc connecté à Microsoft.com. On y trouve une page de téléchargement, je m’y suis donc rendu.

Mes 5 premières tentatives pour me rendre sur la page de téléchargement se sont soldées par des échecs à cause de temps d’attente trop long. Enfin, après un délai de 8 secondes, elle s’est affichée.

Le site est tellement lent qu’il en devient inutilisable.

Le programme ne se trouvait pas dans le top 5 et j’ai donc déroulé la liste des 45 autres.

Ces 45 noms n’ont aucun sens. En comparaison, des trucs comme ce qui suit semblent limpides :
C:\Documents and Settings\billg\My Documents\My Pictures

Ils ne sont pas filtrés par le système… et beaucoup de ces noms sont étranges.

Je me suis limité à la partie Multimédia. Toujours pas de Moviemaker. J’ai cherché dans Film. Rien. J’ai cherché moviemaker. Rien.

J’ai alors abandonné et j’ai envoyé un e-mail à Amir pour lui demander où se trouve le lien pour Moviemaker… s’il existe.

On m’a alors répondu qu’ils ne s’attendaient pas à ce qu’on utilise la page de téléchargements pour télécharger quelque chose.

On m’a recommandé de me rendre sur la page principale et d’utiliser la fonction de recherche avec movie maker (et pas moviemaker !).

J’ai donc essayé ça. Le site était d’une lenteur pathétique mais après 6 secondes d’attente, la page est apparue.

J’étais alors persuadé qu’il ne me resterait plus qu’à cliquer sur un lien pour lancer le téléchargement.

En fait, ça tient plus de la résolution d’un puzzle. Il m’a redirigé vers Windows Update pour y faire un tas d’incantations.

J’ai trouvé ça carrément bizarre. Pour quelle raison dois-je me rendre ailleurs et faire un scan pour télécharger Moviemaker ?

J’ai donc ouvert Windows Update. Windows Update décide alors qu’il faut que je télécharge un tas de contrôles et je me retrouve face à des boîtes de dialogues ésotériques, pas seulement une fois mais plusieurs fois.

Est-ce que Windows Update ne sait pas communiquer avec Windows ?

Ensuite, j’ai procédé à la recherche de mises à jour. Cela a pris un certain temps, et on m’a alors annoncé que je devais télécharger de toute urgence 17 Mo de fichiers divers et variés.

Ça, c’était après qu’on m’ait dit que l’on fournissait des correctifs incrémentaux, mais plutôt que de pouvoir ne télécharger que les 6 trucs qui sont signalés de la manière la plus effrayante qui soit, j’ai dû télécharger les 17 Mo.

Alors j’ai procédé au téléchargement. Là, ç’a été rapide. Ensuite, j’ai voulu passer à l’installation. Ça a pris 6 minutes, et la machine est devenue si lente que je n’ai rien pu faire d’autre pendant ce temps.

Mais qu’est-ce qui se passe, durant ces 6 minutes ? C’est fou. C’était après que le téléchargement soit terminé.

Ensuite j’ai dû redémarrer ma machine. Pourquoi ? Je redémarre toutes les nuits, pourquoi redémarrer à ce moment précis ?

Alors j’ai redémarré parce que le programme a INSISTÉ. Évidemment, ça signifiait aussi que j’allais perdre ma session Outlook en cours.

Une fois la machine redémarrée, je suis retourné sous Windows Update. Mais j’avais déjà oublié ce que j’y faisais, puisque tout ce que je voulais, c’était installer Moviemaker.

Je suis retourné sur Microsoft.com pour y suivre les instructions. J’ai alors dû cliquer sur un dossier nommé WindowsXP. Pourquoi est-ce que je devrais faire ça ? Windows Update sait que je suis sur Windows XP.

Et ça m’avance à quoi de cliquer sur ce dossier ? Apparaît alors tout un tas de trucs déstabilisants, mais cette fois c’est bon, Moviemaker en fait partie.

Je commence alors le téléchargement. Le téléchargement en lui-même est rapide mais l’installation prend quelques minutes. C’est dingue comme c’est lent. À un moment, on m’annonce que je dois télécharger Windows Media Series 9.

Je décide donc de gentiment suivre les instructions. Là, une boîte de dialogue disant Ouvrir ou Sauvegarder apparaît, sans indication de ce que je dois faire. Je n’ai aucune idée de ce sur quoi je dois cliquer.

Le téléchargement est rapide et l’installation prend 7 minutes.

À ce moment-là je pense être en possession de Moviemaker. Je vais dans Ajouter/Supprimer programmes pour m’assurer qu’il s’y trouve bien.

Il n’y est pas.

Qu’est-ce qu’il y a à la place ? On y trouve le bordel suivant. Microsoft Autoupdate Exclusive test package, Microsoft Autoupdate Reboot test package, Microsoft Autoupdate testpackage1. Microsoft Autoupdate testpackage2, Microsoft Autoupdate Test package3.

Quelqu’un a donc décidé de foutre en l’air la seule partie de Windows qui fonctionnait bien ? Le système de fichier n’est plus utilisable. La base de registre n’est pas utilisable. La liste des programmes était encore jusque-là un endroit sensé, mais désormais c’est un grand foutoir.

Et encore, ce n’est que le début des emmerdes. Par la suite j’ai trouvé des trucs comme Windows XP Hotfix voir Q329048 pour plus d’informations. C’est quoi Q329048 ? Pourquoi ces correctifs figurent-ils ici ? Certains étaient même simplement notés Q810655 sans le voir 329048 pour plus d’informations.

Quel bordel !

Et Moviemaker est toujours aux abonnés absents.

J’ai donc abandonné mon idée d’installer Moviemaker et j’ai décidé de télécharger le Digital Plus Package.

On me dit que je dois entrer quelques informations personnelles.

Je remplis tous les champs et, parce qu’il a décidé que j’ai mal tapé quelque chose, je dois recommencer. Et évidemment, il a effacé presque tout ce que j’avais déjà tapé.

Je m’y reprends à 5 fois et il continue à tout effacer pour que je recommence.

Donc après plus d’une heure de péripéties douteuses, après avoir rendu ma liste de programmes inutilisable, après m’être fait quelques frayeurs et m’être rendu compte que Microsoft.com est un site horrible, je n’ai pas pu lancer Moviemaker,et je n’ai pas le Digital Plus Package.

Le manque d’attention portée à l’ergonomie, que ces péripéties ont démontré, me dépasse. Je pensais qu’on avait touché le fond avec Windows Network ou avec les messages que je reçois quand je tente d’utiliser le Wi-Fi (vous aussi vous adorez ce message avec le certificat administrateur, non ?).

Quand j’aurai réussi à utiliser tout ça pour de bon, je suis sûr que j’aurai encore d’autres commentaires à vous soumettre.

Alors que notre interview de la semaine passée touchait à sa fin, j’ai montré à Gates une copie de ce mail et lui ai demandé s’il avait finalement réussi à faire fonctionner MovieMaker. Il m’a répondu que Microsoft envisageait d’inclure Moviemaker dans Windows Live, afin que l’on dispose du programme lorsqu’on téléchargera ce paquet. Il n’y a pour le moment rien d’officiel de la part de Microsoft, mais ce n’est pas vraiment une surprise.

Quant au courrier en lui-même, Gates a souri et a dit : « Il n’y pas un seul jour où je n’envoies pas de mails… comme cet email. C’est mon boulot. »

Notes

[1] Crédit photo : Maveric2003 (Creative Commons By)




Le logiciel libre profitera-t-il de la crise ?

Powderruns - CC byLe logiciel libre : on y vient pour le prix, on y reste pour la qualité, ironise Nat Torkington dans cette traduction issue de site d’O’Reilly. Sachant que nous traversons actuellement une période difficile où les investissement se font plus rares (et donc plus tâtillons), n’y a-t-il pas là comme une opportunité pour le logiciel libre ? Et d’ailleurs il faudrait peut-être aussi se mettre d’accord car il s’agit bien plus d’économie ici que de liberté. Donc je reformule la question : n’y a-t-il pas là comme une opportunité pour l’Open Source ?

C’est le sujet du jour. L’article est certes américano-centrée mais la crise l’était également au départ, ce qui ne nous a pas empêché d’être nous aussi touchés[1].

Conséquences de la crise sur les technologies

Effect of the Depression on Technology

Nat Torkington – 7 octobre 2008 – O’Reilly Radar
(Traduction Framalang : Olivier, Daria, Don Rico)

Voici comment je vois les choses : emprunter de l’argent devient coûteux et difficile, et ce n’est pas près de changer puisque la dette des États-Unis progresse au lieu de diminuer, entraînée par la guerre en Irak et par notre dépendance aux produits chinois qui n’est pas réciproque. Et tout ceci s’accumule dans une période qui est déjà difficile pour les affaires aux États-Unis depuis au moins trois ans, voire plus. En partant de ce constat, il est possible de faire une tentative de prévision de ce que nous réserve l’avenir (en gardant à l’esprit que chaque jour apporte son lot de nouvelles révélations concernant l’état inquiétant de la finance mondiale, notre boule de cristal est donc, au mieux, trouble).

En premier lieu, l’innovation profitera de la récession, parce que c’est ce qui se produit en général. Durant les périodes de forte croissance, les entreprises limitent la recherche et développement et gâchent de grands talents à n’apporter que des améliorations minimales aux produits dernier cri. Les entreprises sont douées pour s’équiper en nouveautés, mais elles sont souvent médiocres dès qu’il s’agit d’en concevoir. En temps de crise, les technologues ne sont plus payés des mille et des cents pour répliquer le travail réalisé par d’autres. L’explosion de la bulle Internet en 2001 a donné naissance à 37Signals, Flickr, del.icio.us, et l’on peut avancer sans crainte de se tromper que de nombreuses entreprises ont depuis passé six ans à suivre le mouvement.

En deuxième lieu, la crise profitera au libre et à l’Open Source à cause du manque de liquidités. La dernière crise a fait entrer les systèmes d’exploitation Open Source dans les mœurs (petite note pour les plus jeunes d’entre vous : il fut un temps où il n’était pas forcément bien vu d’utiliser Linux dans un service informatique) car ils offraient le meilleur rapport qualité/prix, et de loin. J’aime utiliser l’expression « Venez pour le prix, restez pour la qualité ». Cette crise affectera peut-être le même des logiciels (CRM, finance, etc.) hauts placés dans la chaîne. (En revanche, je ne m’avancerai pas à prédire que 2009 sera l’année du bureau Linux).

Troisièmement, les services Open Source et le cloud computing profiteront de la conjoncture économique actuelle, laquelle favorisera les dépenses de fonctionnement sur les dépenses d’investissement. Il sera presque impossible d’emprunter de l’argent pour acheter du matériel ou une licence logicielle importante. Adopter un logiciel Open Source est gratuit, et les services qui y sont associés font partie des dépenses de fonctionnement et non des dépenses d’investissement. De même, le cloud computing permet à une entreprise de payer peu pour se servir des investissements énormes effectués par quelqu’un d’autre. À en croire les rumeurs, il semblerait que Microsoft soit prêt à sortir Windows Cloud juste à temps. Ce n’est pas demain la veille que d’autres entreprises installeront de nouveaux centres de données, car les temps où des investisseurs aux fonds inépuisables couvraient ce genre de frais énormes sont révolus et ne reviendront pas avant un certain temps.

La plupart des logiciels clients auront du mal à se vendre tant que le dollar sera aussi bas et que le pays continuera de déverser tout son argent à l’étranger. Ce n’est pas une bonne chose, mais cela ne signifie pas qu’il sera impossible d’engranger des bénéfices, il suffira de proposer quelque chose qui réponde à un réel besoin des consommateurs. Des logiciels comme Wesabe trouveront un nouveau public en temps de crise (NdT : O’Reilly est un investisseur de Wesabe). L’heure n’est pas aux acquisitions spéculatives, attendez-vous à voir un retour aux sources comme on y a assisté (brièvement) après l’éclatement de la bulle Internet en 2001. Désolé, mais vos rêves de trouver acquéreur pour votre réseau social de collectionneurs de cure-dents devront patienter jusqu’en 2013 et un éventuel retour de l’argent employé à tort et à travers.

Comme le dit Phil Torrone, on aura plus de temps que d’argent, ce qui est profitable aux logiciels Open Source, mais cela favorisera aussi un nouvel intérêt pour les objets et le matériel informatique qui nous entourent, inspiré par le magazine Make. Les rencontres que nous avons créées (Ignite, hacker meetups, coworking spaces, foo/bar camps), qui ne coûtent pas grand chose mais qui ont une portée importante, vont se multiplier, alors que les grosses conférences pâtiront de cette période de vache maigre. La killer app du futur proviendra peut-être de l’un de ces bidouilleurs qui emploiera son temps libre à combler un manque.

Telle est ma vision du monde et des conséquences de la crise. Quel est votre point de vue ? Qu’est-ce qui m’échappe ? Faites-moi part de votre opinion dans les commentaires – le commentaire le plus perspicace vaudra à son auteur un aimant « Head first SQL » qu’il pourra coller sur son frigo.

Notes

[1] Crédit photo : Powderruns (Creative Commons By)




Drupal : entretien avec Dries Buytaert

Gabor Hojtsy - CC by-saQuel est le point commun entre l’APRIL, Ubuntu-fr et Framasoft ? Une volonté commune de faire avancer le logiciel libre francophone, oui, certes, mais plus pragmatiquement ces trois vénérables institutions ont décidé, sans se concerter, de migrer cette année leur site vers Drupal. Enfin pour être précis, Framasoft n’y est pas encore mais on y travaille en coulisses.

Ce CMS, connu pour sa grande souplesse et modularité a en effet le vent en poupe actuellement[1]. Du coup nous avons eu envie d’en savoir plus en traduisant cette interview de son créateur, le belge Dries Buytaert.

Le créateur de Drupal imagine l’avenir de la publication Web en plug-and-play

Drupal’s Creator Envisions Web Publishing’s Plug-and-Play Future

Entretien conduit par Michael Calore – 19 juin 2008 – Webmonkey.com
(Traduction Framalang : Vincent, Olivier et Don Rico)

L’aventure de Dries Buytaert[2] commence à l’université quand il code un forum privé pour sa résidence étudiante. Neuf ans plus tard, ce modeste logiciel de forum est devenu Drupal, l’un des systèmes de gestion de contenu Open Source le plus populaire sur le Web, qui compte des milliers de contributeurs actifs. En mars 2008, Dries Buytaert se rapproche de l’entrepreneur Jay Batson, et ensemble ils fondent Acquia, entreprise commerciale qui propose un support technique aux inconditionnels de Drupal et la promotion, l’adoption ainsi que le développement de la plate-forme.

Webmonkey a rencontré Dries et Jay pour discuter de l’histoire de Drupal, des nouveautés à venir et du rôle que leur société va jouer dans l’avenir du projet.

Webmonkey : Dries, peux-tu nous raconter l’histoire de Drupal ? La naissance de l’idée et comment la plate-forme a pris corps ?

Dries Buytaert : C’est arrivé un peu par accident. En 1999, j’étais étudiant à l’Université d’Anvers en Belgique. Je faisais du développement Web en CGI et avec des « server-side includes » (programmation côté serveur), mais je voulais en savoir plus sur des technologies telles que PHP et MySQL. Au même moment, nous avons eu besoin d’un système de messagerie interne pour notre résidence étudiante. J’ai alors écrit un forum de discussion simple. Et une fois mon diplôme obtenu, j’ai décidé de mettre mon forum interne sur Internet.

Quand j’ai enregistré un nom de domaine pour ce projet, j’ai voulu inscrire le nom « Dorp », qui veut dire « petit village » en néerlandais. Mais à cause d’une faute de frappe je me suis retrouvé à enregistrer le nom de domaine Drop. Ça peut paraître étonnant, mais Drop.org était disponible, et comme c’est un mot anglais qui a plusieurs significations, j’ai décidé de le conserver.

Notre communauté d’utilisateurs originelle s’est éteinte assez rapidement, mais j’ai continué à y travailler en apportant de nouvelles fonctionnalités comme les flux RSS ou un système de notation du contenu par les utilisateurs. Les visites sur le site ont été de plus en plus nombreuses, et chacun apportait idées et des suggestions, comme par exemple modifier l’algorithme qui gère la modération des commentaires. À un moment, je recevais tellement de suggestions que j’ai décidé d’ouvrir le code source. C’était la version 1.0 de Drupal, qui est sortie début 2001.

Au moment de la sortie, j’étais assez sûr d’avoir un bon système. Je pensais qu’il tenait la comparaison avec les autres technologies Open Source telles que PHP-Nuke, et que c’était donc la bonne décision.

Webmonkey : L’un des aspects clés de la conception de Drupal est sa modularité. Les utilisateurs installent un noyau logiciel et ajoutent ensuite des fonctionnalités en installant des modules spécialisés. D’où vient cette idée d’architecture modulaire ?

Buytaert : Ça faisait partie de l’idée de départ. J’étais presque choqué que la plupart des autres systèmes ne proposent pas de conception modulaire – pour moi, avec mon background d’étudiant en informatique, ça me semblait très naturel. En ce temps-là, j’étais aussi impliqué dans le noyau Linux, à travailler sur les pilotes de réseau sans-fil. C’est à l’évidence aussi un système modulaire, j’y ai certainement puisé mon inspiration.

Jay Batson : Moi qui ai eu à faire à pas mal de systèmes de gestion de contenu avant de rencontrer Dries, je peux dire que la plupart des autres CMS ne viennent pas de personnes qui sont diplômés en informatique. Ils ont été élaborés par des web-designers ou des programmeurs qui étaient peut-être autodidactes et avaient bidouillé un système qui fonctionnait plus ou moins. Ils n’émanaient pas de personnes qui ont une réelle formation en informatique. C’est là une des grandes différences entre Drupal et les autres systèmes.

Webmonkey : La popularité de Drupal auprès de ceux qui cherchent à construire un site autour d’une sorte de réseau social n’est plus à démentir. Est-ce parce qu’il offre un contrôle précis de la gestion des utilisateurs, ou est-ce parce que Drupal est devenu populaire en même temps que les réseaux sociaux prenaient leur essor ?

Buytaert : À mon avis, la gestion des utilisateurs en est bel et bien la raison principale. Drupal est un système multi-utilisateurs depuis le début, mais la plupart des autres systèmes ne sont pas au niveau de Drupal pour ce qui est de la gestion des utilisateurs et des droits d’accès.

C’est un système très communautaire de par sa conception. Par exemple, le site d’origine Drop.org ressemblait beaucoup à Digg, où l’on pouvait soumettre des liens et voter pour chaque suggestion. Ce type d’interaction entre les utilisateurs a été une fonction clé de Drupal dès le départ. Au fil du temps, nous nous sommes éloignés de ces fonctionnalités. Le système de vote a été retiré du cœur du système, mais il existe toujours sous forme de module. À la place, nous évoluons vers une plate-forme capable d’en faire plus, aussi bien pour ce qui concerne la gestion de contenu Web traditionnelle que pour la partie « sociale ».

Batson : Ils ont aussi eu un coup de booster parce que Drupal 5 avait comme slogan « Plomberie pour la communauté ». Au moment où les sites communautaires gagnaient en importance, le système se vendait lui-même comme étant optimisé pour cette fonction.

À ce moment là également, beaucoup de monde est venu grossir les rangs de la communauté Drupal et contribuer au code. Ainsi, une part importante du code a été écrite autour de ces fonctionnalités communautaires. Je sais qu’à cette époque Dries consacrait l’essentiel de son temps à la gestion de ces contributions, afin de garder un noyau Drupal réduit tout en s’assurant que les fonctions clés étaient présentes et, en même temps, en insistant sur l’importance des modules.

Buytaert : J’ai toujours encouragé les autres à être créatifs dans leurs contributions au code de Drupal. Je pense qu’il est extrêmement important de ne brider personne. Ainsi, pour ceux qui veulent bâtir un réseau social ou un clone de Flickr, il est à mon sens essentiel que Drupal, en tant que plate-forme, les y aide. C’est ce que permet la conception modulaire.

Webmonkey : Parlez-nous d’Acquia, la société que vous avez fondée ensemble.

Batson : Notre but est de devenir pour Drupal ce que sont Red Hat et Canonical pour Linux. Si vous cherchez une version de ce logiciel Open Source avec support technique, vous venez nous voir et vous payez un abonnement. Pour le prix de l’abonnement, vous obtenez une distribution, un ensemble de services pour la maintenance et les mises à jour, plus un accès à notre centre de support technique. Si par exemple vous êtes responsable d’un site de média important dont toute la partie logicielle est construite autour de Drupal et que vous avez une question, vous aurez alors la possibilité de nous contacter directement par téléphone. Vous obtiendrez votre réponse en moins d’une heure, au lieu d’envoyer un courriel et de patienter une journée ou d’attendre sur IRC que la personne qualifiée se connecte. À l’opposé, notre service est également adapté aux petits sites qui ont besoin d’aide pour l’installation des modules ou pour gérer les mises à jour. C’est un modèle économique qui a déjà fait ses preuves dans l’Open Source.

L’autre rôle que peut jouer Acquia, c’est le support de la communauté des développeurs Drupal. Drupal a une merveilleuse croissance organique. En gros, la communauté double chaque année. C’est impressionnant, mais nous voudrions la voir croître d’un facteur dix.

Webmonkey : Combien de développeurs travaillent sur Drupal à l’heure actuelle ?

Buytaert : Pour Drupal 6, la dernière sortie importante en date, 900 personnes environ ont contribué au cœur. À titre de comparaison, c’est équivalent au nombre de personnes qui contribuent au noyau Linux. Il y a plus de 2000 modules additionnels et chaque module est maintenu par un ou plusieurs développeurs. Le site Drupal.org compte entre 250000 et 300000 utilisateurs enregistrés. Ils ne sont pas nécessairement développeurs, mais ces personnes participent à la communauté d’une façon ou d’une autre.

Webmonkey : Que nous réserve Drupal pour l’avenir ?

Buytaert : Nous travaillons en ce moment même sur Drupal 7. Nous aurons une meilleure couche d’abstraction pour les bases de données, un meilleur support pour les outils WYSIWYG, et des améliorations dans la facilité d’utilisation pour les administrateurs, ce qui rendra Drupal plus facile à configurer.

Nous développons une nouvelle fonctionnalité essentielle, appelée Kit de Construction du Contenu (CCK). Celle-ci vous permet de définir de nouveaux types de contenu en passant par une interface Web. Par exemple, si vous avez un site de vélo et que vous voulez que vos utilisateurs puissent partager leurs balades favorites, vous pouvez créer un nouveau contenu que vous appellerez "parcours". Ce contenu pourra inclure un point de départ, un point d’arrivée, un lien vers Google Maps, quelques photos de la route, du texte décrivant le parcours. Une fois que vous avez toutes ces données, vous pouvez choisir de visualiser ce parcours sur une carte Google, de l’afficher dans un tableau, ou d’en faire ce que bon vous semble. Plusieurs vues différentes peuvent être extraites de ce grand sac de données utilisateur, et tout ceci à partir d’une simple interface Web.

Avec Drupal, notre objectif à long terme, c’est de vraiment démocratiser la publication en ligne grâce aux contributions de la communauté, de rendre possible, pour tout un chacun, la création de sites Web puissants et intéressants, en quelques clics seulement. Drupal vous permet d’avoir un prototype opérationnel en quelques heures, sans avoir à écrire une seule ligne de code. C’est vraiment un outil très puissant.

Notes

[1] Qu’il me soit tout de même permis de remercier vivement la communauté Spip pour l’extraordinaire service rendu et de saluer comme il se doit la toute nouvelle version 2.0.

[2] Crédit photo : Gabor Hojtsy (Creative Commons By-Sa)




Internet et Google vont-ils finir par nous abrutir ?

Striatic - CC byVoici la traduction d’un article assez passionnant qui a connu un bel impact dans la sphère anglophone au moment de sa mise en ligne cet été. Son titre choc Is Google Making Us Stupid? est un peu trompeur car il s’agit bien moins de charger l’emblématique Google que de s’interroger sur les transformations profondes induites par internet et les nouvelles technologies, transformations qui peuvent aller jusqu’à modifier nos perceptions, nos modes de pensée, voire même notre cerveau.

Prenons le Framablog par exemple. Il possède, merci pour lui, d’assez bonnes statistiques d’audience globales, mais lorsque l’on se penche sur la moyenne du temps passé par page, c’est la grosse déprime car cela ne dépasse que trop rarement les deux minutes, intervalle qui ne vous permet généralement pas d’y parcourir les articles du début à la fin. En décidant d’en achever la lecture bien avant la conclusion, peut-on affirmer que plus de la moitié des visiteurs ne les trouvent pas intéressants ? C’est fort probable.

Mais il y a peut-être aussi une autre explication. Les articles de ce blog sont souvent relativement « longs » et par la-même nécessitent de trouver un minimum de temps disponible et de concentration. Ils nous demandent de fixer notre attention et d’interrompre notre surf internet en coupant momentanément le contact avec le flot continu d’informations dont nous sommes abreuvés.

Allons plus loin avec l’objet livre (que nous défendons d’ailleurs avec force et modestie sur Framabook). Lit-on moins de livres au fur et à mesure qu’Internet prend de plus en plus de place dans nos vies ? Et surtout les lit-on avec les mêmes facilités qu’auparavant ? Et qu’en est-il de la jeune génération ?[1]

Nicholas Carr, partant du constat qu’il n’a plus la même patience que par le passé vis-à-vis de la lecture « calme et profonde », revisite quelques dates marquantes de l’Histoire (le passage de l’oral à l’écrit, l’apparition de l’imprimerie, de la machine à écrire, du taylorisme…) pour nous inviter à une réflexion autour de l’influence des technologies et leurs systèmes sur rien moins que notre manière de penser et de percevoir le monde.

Vous vous sentez vous aussi atteint par le symptôme ? Ne vous laissez pas abattre ! Oubliez l’espace d’un instant SMS, MSN, Facebook, Twitter… et sérendipité, en réussissant l’exploit de parcourir ce billet jusqu’à son terme 😉

Est-ce que Google nous rend idiots ?

Is Google Making Us Stupid?

Nicholas Carr – juin 2008 – The Atlantic
(Traduction Framalang : Penguin, Olivier et Don Rico)

« Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ? » Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son « cerveau » électronique. « Dave, mon esprit est en train de disparaître », dit HAL, désespérément. « Je le sens. Je le sens. »

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. « Le souvenir parfait de la mémoire du silicium », a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. « J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres », écrit-il. « Que s’est-il passé ? » Il essaie de deviner la réponse : « Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ? »

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. « J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé », écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style « staccato », à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. « Je ne peux plus lire Guerre et Paix », admet-il. « J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine. »

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient « une forme d’activité d’écrémage », sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de « bondir » vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de « lecture » apparaissent lorsque les utilisateurs « super-naviguent » horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. « Nous ne sommes pas seulement ce que nous lisons », dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de « Proust et le Calamar : l’histoire et la science du cerveau qui lit. ». « Nous sommes définis par notre façon de lire. » Wolf s’inquiète que le style de lecture promu par le Net, un style qui place « l’efficacité » et « l’immédiateté » au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de « simples décodeurs de l’information ». Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une « Malling-Hansen Writing Ball » pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. « Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage », lui écrivit cet ami dans une lettre, notant que dans son propre travail ses « pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier ».

« Tu as raison », répondit Nietzsche , « nos outils d’écriture participent à l’éclosion de nos pensées ». Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche « est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique ».

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte « est très plastique ». Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. « Le cerveau », selon Olds, « a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne. »

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos « technologies intellectuelles », les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14ème siècle, fournit un exemple frappant. Dans « Technique et Civilisation », l’historien et critique culturel Lewis Mumford décrit comment l’horloge « a dissocié le temps des événements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables ». La « structure abstraite du découpage du temps » est devenue « le point de référence à la fois pour l’action et les pensées ».

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul », la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage « reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait. ». En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait « comme une horloge ». Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne « comme un ordinateur ». Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936, le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un « avant-goût » des nouvelles du jour, leur évitant la méthode « moins efficace » de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un « algorithme », pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son « système » comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, « La direction des ateliers » (le titre original « The principles of scientific management » pourrait être traduit en français par « Les principes de l’organisation scientifique »), était d’identifier et d’adopter, pour chaque poste, la « meilleure méthode » de travail et ainsi réaliser « la substitution graduelle de la science à la méthode empirique dans les arts mécaniques ». Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. « Dans le passé, l’homme était la priorité », déclare-t-il, « dans le futur, la priorité, ce sera le système ».

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver « LA meilleure méthode », l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme « le travail de la connaissance ».

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est « une entreprise fondée autour de la science de la mesure » et il s’efforce de « tout systématiser » dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était « d’organiser les informations du monde et de les rendre universellement accessibles et utiles ». Cette société essaie de développer « le moteur de recherche parfait », qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons « accéder » est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. « Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage », a déclaré Page lors d’une conférence il y a quelques années. « Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle. » Dans un entretien de 2004 pour Newsweek, Brin affirmait : « Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux. » L’année dernière, Page a dit lors d’une convention de scientifiques que Google « essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle. »

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, « pour résoudre les problèmes qui n’ont jamais été résolus auparavant », et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous « porterions mieux » si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, « arrêter de faire travailler leur mémoire et devenir oublieux. » Et puisqu’ils seraient capables de « recevoir une grande quantité d’informations sans instruction appropriée », ils risquaient de « croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants ». Ils seraient « remplis de l’orgueil de la sagesse au lieu de la sagesse réelle ». Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVème siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes « moins studieux » et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, « la plupart des arguments contre l’imprimerie était corrects et même visionnaires. » Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du « contenu », nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et « bâtie telle une cathédrale » de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de « l’instantanément disponible ».

À mesure que nous nous vidons de notre « répertoire interne issu de notre héritage dense », conclut Foreman, nous risquons de nous transformer en « crêpe humaine », étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Notes

[1] Crédit photo : Striatic (Creative Commons By)




De l’usage des « œuvres protégées » à l’Éducation Nationale

MK Media - CC byD’un côté vous avez le « copyright », qui donne à l’auteur un droit exclusif d’exploitation sur son œuvre (texte, image, musique, cinéma, logiciel, etc.) et qui s’applique par défaut en l’absence de toute autre mention.

C’est ce qu’a toujours connu l’Éducation Nationale avant l’apparition des nouvelles technologies, et mis à part le problème du « photocopillage qui tue le livre », tout allait pour le mieux dans le meilleur des mondes possibles. D’autant que l’on ne pouvait pas avoir conscience qu’il pouvait en être autrement. Et puis, il suffisait d’être patient et d’attendre que certaines œuvres tombent dans le domaine public.

Puis est arrivé le « copyleft », c’est-à-dire la possibilité donnée par l’auteur d’un travail soumis au droit d’auteur (texte, image, musique, cinéma, logiciel, etc.) de copier, d’utiliser, d’étudier, de modifier et de distribuer son œuvre dans la mesure où ces possibilités restent préservées.

Ce copyleft ouvre la voie aux Open Educational Ressources. Nous en avons un bel exemple chez nous avec Sésamath et ses « manuels libres », et rien que cette semaine j’ai noté deux nouvelles ressources scolaires dans la sphère anglophone : Collaborative Statistics, un manuel sous licence Creative Commons By-Sa et Chemical Process Dynamics and Controls édité à même un wiki et sous la même licence[1].

Question : Qui du copyright ou du copyleft est plus adapté aux situations d’enseignement à l’ère du numérique ?

Pour nous aider à répondre nous allons nous appuyer sur les accords issus du texte toujours en vigueur paru au Bulletin Officiel n°5 du 1er février 2007 concernant l’usage en situation scolaire de l’écrit, de la presse, des arts visuels, de la musique et de l’audiovisuel.

L’un des problèmes de ces accords c’est qu’il y a confusion et collusion entre « œuvres protégées » et « œuvres protégées sous le classique copyright ». Le copyleft, qui n’est à aucun moment mentionné, protège lui aussi les œuvres, par exemple en garantissant toujours la paternité des auteurs, mais pas de la même façon et pas dans le même but.

Toujours est-il que voici donc nos enseignants confrontés uniquement à des œuvres protégées sous copyright. Et là, tout petit hiatus, on ne peut a priori strictement rien faire avec de telles œuvres puisque l’auteur (ou les ayant-droits) en détient les droits exclusifs d’exploitation. Pour lever l’interdit il faudrait en théorie demander au cas par cas les autorisations. Vous imaginez un professeur d’histoire et géographie contactant tous les ayant-droits des illustrations qu’ils comptent montrer à ses élèves pendant toute l’année avec toutes ses classes ? Ce n’est pas réaliste.

Dans la mesure où « l’exception pédagogique » n’est parait-il qu’un mythe sans le moindre fondement juridique, l’Institution se devait de faire quelque chose et c’est ce qui fut fait avec ce texte officiel du BO, conséquence directe des négociations avec les ayant-droits de « l’industrie culturelle ».

En voici quelques extraits (évidemment choisis et commentés à dessein, donc je vous invite à le lire en intégralité, histoire de vous en faire une meilleure idée, c’est un peu indigeste mais juridiquement et aussi « culturellement » c’est fort instructif et pas seulement si vous faites partie de la maison).

Accrochez-vous et ayez une pensée compatissante pour nos enseignants qui doivent en connaître les détails sur le bout des doigts et ne surtout pas commettre d’erreurs dans leurs applications.

Mise en œuvre des accords sectoriels sur l’utilisation des œuvres protégées à des fin d’enseignement et de recherche

C’est l’accord général qui fixe le cadre et donne le modèle.

Le ministre de l’éducation nationale, de l’enseignement supérieur et de la recherche a conclu, avec les titulaires des droits d’auteur et en présence du ministre de la culture et de la communication, cinq accords sur l’utilisation des œuvres protégées à des fins d’enseignement et de recherche, à raison d’un accord pour chacun des grands secteurs de la propriété littéraire et artistique : l’écrit, la presse, les arts visuels, la musique et l’audiovisuel.

Louable intention.

Le champ de ces accords recoupe dans une large mesure celui de la clause introduite au e) du 3° de l’article L. 122-5 du code de la propriété intellectuelle par la loi n° 2006-961 du 1er août 2006 relative au droit d’auteur et aux droits voisins dans la société de l’information.

Droit d’Auteur et Droits Voisins dans la Société de l’Information parfois appelé aussi DADVSI.

Conformément aux principes fondamentaux du droit de propriété intellectuelle, constamment rappelés par la législation française, l’utilisation collective d’une œuvre protégée est soumise en principe au consentement préalable du titulaire des droits d’auteur. Pour répondre aux besoins du service public de l’enseignement et favoriser la diversification des supports pédagogiques, les cinq accords sectoriels proposent un cadre général pour les utilisations les plus usuelles. Les utilisations qui entrent dans le champ de ces accords et qui en respectent les clauses sont réputées autorisées sans que les établissements ou les personnels n’aient à effectuer de démarches particulières.

C’est ce que j’évoquais plus haut. L’idée c’est d’obtenir une sorte de passe-droit pour ne plus avoir à demander d’autorisations. Bien entendu, comme nous le verrons plus bas, il y a quelques compensations.

La représentation dans la classe d’œuvres protégées est couverte de façon générale dès lors qu’elles illustrent le cours. Il en va ainsi de la projection d’une image, d’un document audiovisuel ou de la diffusion d’une chanson qui éclaire un point de l’enseignement ou qui en constitue l’objet principal. Cette représentation collective peut également intervenir pour illustrer le travail qu’un élève ou un étudiant présente à la classe.

Cette couverture est pleine de bon sens sauf si c’est le seul cas de couverture possible.

Les accords autorisent la représentation d’extraits d’œuvres lors de colloques, conférences ou séminaires organisés à l’initiative et sous la responsabilité des établissements d’enseignement supérieur ou de recherche. Les accords exigent que le colloque, la conférence ou le séminaire soit destiné aux étudiants ou aux chercheurs. Dans le cas contraire, la représentation d’œuvres sera subordonnée à l’accord préalable des titulaires de droit.

Le supérieur n’est pas très gâté. On lui fixe un cadre très précis et dans le cas contraire c’est interdit (sauf accord préalable…).

Les dimensions des œuvres qui peuvent être numérisées et incorporées dans un travail pédagogique ou de recherche mis en ligne sont précisées pour chaque catégorie :
– pour les livres : 5 pages par travail pédagogique ou de recherche, sans coupure, avec reproduction en intégralité des œuvres des arts visuels qui y figurent, dans la limite maximum de 20% de la pagination de l’ouvrage. Dans le cas particulier d’un manuel scolaire, l’extrait ne peut excéder 4 pages consécutives, par travail pédagogique ou de recherche, dans la limite de 5% de la pagination de l’ouvrage par classe et par an ;
– pour la presse : deux articles d’une même parution sans excéder 10% de la pagination ;
– pour les arts visuels : le nombre d’œuvres est limité à 20 œuvres par travail pédagogique ou de recherche mis en ligne. Toute reproduction ou représentation numérique de ces œuvres doit avoir sa définition limitée à 400×400 pixels et avoir une résolution de 72 DPI.

Arbitraire et pour le moins alambiqué tout ça ! Limite ubuesque ! Rappelons, pour mémoire, qu’avec le copyleft il n’y aucune contrainte d’utilisation.

La mise en ligne de thèses sur le réseau internet est admise en l’absence de toute utilisation commerciale et, le cas échéant, après accord de l’éditeur de la thèse. La mise en ligne devra utiliser un procédé empêchant celui qui consulte la thèse sur internet de télécharger les œuvres qui y sont incorporées.

Nouvelle barrière.

La reproduction numérique d’une œuvre doit faire l’objet d’une déclaration pour permettre d’identifier les œuvres ainsi reproduites. Cette déclaration consiste à compléter le formulaire mis en ligne à l’adresse suivante.

Il y a donc obligation de déclarer chaque œuvre utilisée ! Ce qui, pour notre professeur d’histoire-géographie, peut prendre un certain temps. Mais ayez la curiosité de vous rendre sur le site de la déclaration. Aucune identification n’est demandée, je me suis imaginé renseignant une photographie et me suis retrouvé avec deux uniques champs : « Auteur » et « Nbre estimé d’élèves/étudiants destinataires ». On clique sur valider et c’est tout. Est-ce ainsi que l’on va redistribuer équitablement les droits ?

Accord sur l’utilisation des livres et de la musique imprimée à des fins d’illustration des activités d’enseignement et de recherche

Le cas particulier des livres (et des partitions musicales). Accord entre le ministère et Le Centre français d’exploitation du droit de copie (CFC), agissant également au nom de la société de perception et de répartition de droits suivante AVA, sur mandat exprès de ces dernières, La Société des éditeurs et auteurs de musique (SEAM) ci-après dénommés « les représentants des ayants droit ».

Le ministère réaffirme son attachement au respect des droits de propriété littéraire et artistique. Il partage le souci des ayants droit de mener des actions coordonnées pour sensibiliser l’ensemble des acteurs du système éducatif – enseignants, élèves, étudiants et chercheurs – sur l’importance de ces droits et sur les risques que la contrefaçon fait courir à la vitalité et la diversité de la création littéraire et artistique.

J’ai déjà entendu cela quelques part…

Pour ce qui concerne les œuvres musicales visées par l’accord : de parties d’œuvres musicales visées par l’accord dont la longueur sera déterminée d’un commun accord entre les Parties, en fonction des œuvres concernées et des usages appliqués ; à défaut d’accord particulier, l’extrait ne peut excéder 20 % de l’œuvre musicale concernée (paroles et/ou musique) par travail pédagogique ou de recherche, par classe et par an, dans la limite maximale de 3 pages consécutives d’une même œuvre musicale visée par l’accord ; pour les ouvrages de formation ou d’éducation musicales et les méthodes instrumentales, l’extrait ne peut excéder 5 % d’une même œuvre musicale visée par l’accord (paroles et/ou musique) par travail pédagogique ou de recherche, par classe et par an, dans la limite maximale de 2 pages consécutives d’une même œuvre musicale visée par l’accord.

Bienvenue dans le monde de la complexité…

En ce qui concerne les œuvres musicales visées par l’accord, sont autorisées exclusivement les reproductions numériques graphiques temporaires exclusivement destinées à la représentation en classe par projection collective. Les reproductions d’œuvres musicales par reprographie ne sont en aucune manière autorisées par le présent accord ainsi que rappelé à l’article 4.2 ci-après. Il est précisé que le présent article n’autorise pas les reproductions numériques temporaires des œuvres musicales visées par l’accord disponibles uniquement à la location auprès des éditeurs concernés.

Un vrai terrain miné…

L’accord n’autorise pas la distribution aux élèves, étudiants ou chercheurs de reproductions intégrales ou partielles d’œuvres visées par l’accord.

C’est bien dommage parce qu’avec le copyleft l’élève peut tranquillement repartir de l’école avec l’œuvre numérique dans sa clé USB.

Les moteurs de recherche des intranets et extranets des établissements permettront l’accès aux travaux pédagogiques ou de recherche, ou aux communications faites lors de colloques, conférences ou séminaires, mais ne comporteront en aucune manière un mode d’accès spécifique aux œuvres visées par l’accord ou aux extraits d’œuvres visées par l’accord ou une indexation de celles-ci.

De la recherche bridée en somme.

Le ministère informera les établissements du contenu et des limites de l’accord. Il s’engage également à mettre en place dans l’ensemble des établissements des actions de sensibilisation à la création, à la propriété littéraire et artistique et au respect de celle-ci. Ces actions, définies en liaison avec les représentants des ayants droit, interviendront au moins une fois par an et par établissement. Elles pourront prendre des formes diverses en partenariat avec des auteurs, des compositeurs, des éditeurs de livres ou de musique ou des artistes plasticiens.

Je veux bien participer 😉

En contrepartie des autorisations consenties dans l’accord et compte tenu des engagements pris par le ministère à l’article 6, celui-ci versera au CFC et à la SEAM une somme de :
– 1 146 000 euros sur l’exercice budgétaire 2007 ;
– 1 146 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par le CFC et la SEAM entre les titulaires de droits ou leur représentant qui leur ont donné mandat pour conclure l’accord.

C’est précis et non négligeable.

Dans l’hypothèse où il apparaîtrait que, dans le cours de l’application de l’accord, les utilisations numériques d’œuvres visées par l’accord augmenteraient de façon significative, la rémunération définie ci-dessus devra être révisée en conséquence. Les Parties se rapprocheront pour fixer la rémunération adaptée.

Je suis curieux de savoir comment on peut réellement se rendre compte de cela. Via le formulaire de renseignement mentionné plus haut ? Je n’ose à peine le croire !

Les représentants des ayants droit pourront procéder ou faire procéder à des vérifications portant sur la conformité des utilisations d’œuvres visées par l’accord au regard des clauses de l’accord. Les agents assermentés de chaque représentant des ayants droit auront la faculté d’accéder aux réseaux informatiques des établissements afin de procéder à toutes vérifications nécessaires. Ils pourront contrôler notamment l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord avec chaque stipulation de l’accord.

Quand les « agents assermentés » des ayant-droits sont autorisés à pénétrer dans le sanctuaire scolaire… Je ne sais pas trop (ou trop bien) comment qualifier cela.

Accord sur l’utilisation des publication périodiques imprimées à des fins d’illustration des activités d’enseignement et de recherche

Le cas de la presse. Accord entre le ministère et Le Centre français d’exploitation du droit de copie (CFC) agissant au nom des éditeurs de publications périodiques imprimées.

En contrepartie des autorisations consenties par le présent accord, le ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche versera au CFC une somme de :
– 291 000 euros sur l’exercice budgétaire 2007 ;
– 291 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par le CFC entre les titulaires de droits qui lui ont donné mandat pour conclure le présent accord.

Accord sur l’utilisation des œuvres des arts visuels à des fins d’illustration des activités d’enseignement et de recherche

Passons aux œuvres des arts visuels (images, photos, illustrations, etc.). Accord signé entre le ministère et l’AVA, société de perception et de répartition de droits, agissant au nom des sociétés de perception et de répartition de droits suivantes sur mandat exprès de ces dernières : ADAGP, SACD, SAIF et SCAM, l’ensemble de ces sociétés étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

En contrepartie des autorisations consenties dans l’accord et compte tenu des engagements pris par le ministère à l’article 6, celui-ci versera à AVA une somme de :
– 263 000 euros sur l’exercice budgétaire 2007 ;
– 263 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par AVA aux titulaires de droits ou leur représentant.

Accord sur l’interprétation vivante d’œuvres musicales, l’utilisation d’enregistrements sonors d’œuvres musicales et l’utilisation de vidéomusiques à des fins d’illustration des activités d’enseignement et de recherche

Quant à la musique… Accord entre le ministère et La SACEM, société des auteurs, compositeurs et éditeurs de musique, agissant pour elle- même et au nom des sociétés de perception et de répartition suivantes sur mandat exprès de celles-ci : ADAMI, SACD, SCPP, SDRM, SPPF, SPRE, SPEDIDAM, l’ensemble de ces sociétés, y compris la SACEM, étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

En contrepartie des autorisations consenties par l’accord et compte tenu des engagements pris par le ministère à l’article 5, le ministère versera à la SACEM une somme de :
– 150 000 euros sur l’exercice budgétaire 2007 ;
– 150 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par la SACEM entre les sociétés de perception et de répartition de droits.

Accord sur l’utilisation des œuvres cinématographiques et audiovisuelles à des fins d’illustration des activités d’enseignement et de recherche

Et pour finir le cinéma. Accord entre le ministère et la PROCIREP, société des producteurs de cinéma et de télévision, agissant au nom des sociétés de perception et de répartition de droits assurant la gestion des droits sur les œuvres audiovisuelles et cinématographiques, ci- dessous désignées : ARP, ADAMI, SACD, SACEM, SCAM, SPEDIDAM, l’ensemble de ces sociétés, y compris la PROCIREP, étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

Est autorisée par l’accord la représentation dans la classe, aux élèves ou étudiants, de toute œuvre cinématographique ou audiovisuelle diffusée par un service de communication audiovisuelle hertzien non payant (…) L’utilisation d’un support édité du commerce (VHS préenregistrée du commerce, DVD vidéo, etc.) ou d’une œuvre cinématographique ou audiovisuelle diffusée sur un service de communication audiovisuelle payant, tel que, par exemple, Canal+, Canalsatellite, TPS, ou un service de vidéo à la demande (VOD ou S-VOD), n’est pas autorisée par l’accord, sauf dans le cas prévu à l’article 3.2.

Ne reste plus, si j’ai bien compris, que nos chères chaînes de télévision généralistes à voir uniquement en direct live.

En contrepartie des autorisations consenties par l’accord et compte tenu des engagements pris par le ministère à l’article 5, le ministère versera à la PROCIREP une somme de :
– 150 000 euros sur l’exercice budgétaire 2007 ;
– 150 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par la PROCIREP entre les sociétés de perception et de répartition de droits.

Je prends ma calculette… ce qui nous donne pour les seules années 2007 et 2008… quatre millions d’euros tout rond pour toutes « les sociétés de perception et de répartition de droits ». C’est pas mal, surtout si l’on se souvient des nombreuses clauses restrictives qui parsèment les accords (et puis, au risque de m’égarer, n’oublions pas également la taxe sur la copie privée, qui certes s’applique à tout le monde mais qui participe de la même logique).

Voilà. Dans un monde où n’existerait que le copyright, on se retrouve à négocier ainsi avec les ayant-droits de l’industrie culturelle pour le résultat que vous avez donc aujourd’hui sous les yeux. Reconnaissons que ce n’est pas toujours évident pour les enseignants (et leurs élèves) de s’y retrouver !

Il est à noter qu’à l’époque de la discussion de ces accords, c’est-à-dire en 2006 au fameux temps de l’examen de la loi DADVSI, certains enseignants n’avaient pas hésité à carrément prôner la « désobéissance civile ». Avec une pétition à le clé ayant regroupée pas moins de 5000 signataires.

Il y a cependant une bonne nouvelle. Tous ces accords se terminent le 31 décembre 2008. Nous attendons donc avec impatience (et fébrilité) les nouvelles directives 2009. Peut-être que cette fois-ci le copyleft aura doit de cité ? Dans le cas contraire, cela n’empêchera nullement les enseignants de s’y intéresser toujours davantage, pour finir par lentement mais sûrement construire ensemble les bases d’un nouveau paradigme.

Notes

[1] Crédit photo : MK Media (Creative Commons By)




Framalang ou le prolifique travail de traduction du réseau Framasoft

Orvalrochefort - CC bySuite et bientôt fin des billets anticipant la très prochaine campagne de soutien.

Le réseau Framasoft possède en son sein depuis octobre 2006 une équipe très précieuse dont le nom de code est Framalang, merci à Harrypopof au passage pour le joli logo sous licence Art Libre (cf ci-dessous). Il s’agit d’une trentaine de bénévoles qui participent à des travaux de traduction, principalement de l’anglais vers le français (mais nous avons également créé il y a peu une petite entité s’occupant de l’espagnol)[1].

Cela avait commencé en mars 2005 par la compilation de logiciels libres TheOpenCD réalisée à même notre forum Framagora et qui avait connu à l’époque son petit succès avec de très nombreux téléchargements, un magazine spécialement dédié et des ventes conséquentes chez Ikarios.

Depuis, et suite à un appel sur le blog, nous nous sommes donc regroupés, structurés et organisés sous la bannière Framalang autour d’une liste de discussion et d’un wiki dédié. Les membres exercent une veille sur le libre anglophone, puis l’un propose et d’autres disposent, c’est-à-dire traduisent, relisent et valident.

La richesse de ce groupe tient non seulement à ses compétences, son écoute, sa capacité d’organisation collective et son goût du travail bien fait, mais également à l’atmosphère conviviale qui y règne et que rien ne vient perturber, pas même le trop plein de travail proposé !

En effet, et pour être tout à fait sincères, nous n’arrivons pas forcément à tout mener à bien et certains projets ont un accouchement lent et difficile. Si nous réussissons à nous dôter de la présence d’un ou deux permanents via la campagne de soutien, c’est là encore quelque chose que nous pourrions améliorer.

J’ajoute que sur la trentaine de membres tous ne sont pas actifs et donc les candidatures restent plus que jamais ouvertes (pour cela s’inscrire directement à partir de cette page).

Il n’en demeure pas moins que ce qui a été déjà réalisé par le groupe est impressionnant aussi bien quantitativement que qualitativement. Présentation et exemples.

Les articles

La traduction d’articles qui sont mis en ligne sur ce blog constitue la majeure partie du travail. Avec le temps nous nous retrouvons ainsi avec une belle petite collection (une bonne cinquantaine pour être plus précis). Certains collent à l’actualité mais d’autres sont prétextes à débats et réflexions de fond.

Petit florilège subjectif et non exhaustif (permettant au passage aux nouveaux lecteurs du Framablog de découvrir qui sait quelques articles intéressants dont la plupart n’ont pas pris une ride) :

Le sous-titrage

Un sous-groupe Framalang est spécialement concentré sur le sous-titrage de vidéo. C’est un travail minutieux et de longue haleine car il faut retranscrire en anglais, puis traduire, minuter et intégrer le tout à la vidéo (dont on propose systématiquement le téléchargement dans un format ouvert).

La réalisation dont nous sommes le plus fiers est l’excellente conférence Software and Community in the Early 21st Century d’Eben Moglen que nous conseillons à tous de voir et faire voir.

Les « grands travaux »

Framalang est également à l’initiative de travaux plus ambitieux, à savoir la traduction de rapports ou de livres entiers. C’est un peu l’épreuve du feu pour nous car il n’est pas toujours facile de gérer et donner une cohérence à des réalisations de cette envergure effectuées collaborativement à plusieurs mains.

Toujours est-il que c’est ainsi que nous avons édité notre framabook numéro 4 Changer pour OpenOffice.org, à l’origine créé par le site OOoAuthors qui avait eu la bonne idée de placer le livre sous licence libre.

Le fameux rapport Becta Microsoft Vista et Office 2007 à l’école est également issu de la cuisse de Framalang. Et de nombreux autres projets sont en cours comme par exemple une biographie de Richard Stallman actuellement en phase de relecture.

Merci

Voilà. Je tenais par la présente à mettre un peu en lumière le travail de ce groupe et à lui un rendre hommage mérité car il participe de beaucoup à bonifier non seulement ce blog mais l’ensemble du réseau.

Deep in my heart, thank you 😉

Mascotte Framalang - Harrypopof - Art Libre

Notes

[1] Crédit photo : Orvalrochefort (Creative Commons By)