Écrire à l’ère de la distraction permanente

Joi - CC byLe Framablog et ses traducteurs aiment bien de temps en temps sortir des sentiers battus du Libre pour modestement apporter quelques éléments de réflexion autour des changements comportementaux induits par les nouvelles technologies et le monde connecté.

Après Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ? et Internet et Google vont-ils finir par nous abrutir ?, voici que nous vous proposons aujourd’hui un article de Cory Doctorow, que je tiens personnellement pour l’une des personnalités les plus intéressantes et influentes de la « culture libre », sur la difficulté non plus de lire mais d’écrire à l’aube de ce nouveau siècle.

En faire un peu tous les jours, savoir suspendre sa plume, ne pas effectuer de recherche, ne pas attendre les conditions parfaites, laisser tomber le traitement de texte, ne pas répondre aux sirènes des messageries instantanées (et autres réseaux sociaux), tels sont les conseils avisés de notre auteur[1] pour y remédier.

Que pensez-vous de ces quelques recommandations ? En apporteriez-vous d’autres ? Qu’est-ce qui nous permet d’échapper à la procrastination du travail rédactionnel qui s’éternise faute d’avoir su dire non aux sollicitations extérieures ? Les commentaires n’attendent que vous réponses… sauf si bien sûr, dans l’intervalle, vous avez le malheur de cliquer ailleurs 😉

Écrire à l’ère où tout est là pour nous distraire

Writing in the age of distraction

Cory Doctorow – 7 janvier 2008 – Locus Mag
(Traduction Framalang : Don Rico et Goofy)

Nous savons que nos lecteurs sont distraits, voire parfois submergés par les innombrables distractions qui se trouvent à portée de clic partout sur Internet, mais il va de soi que les rédacteurs sont tout autant confrontés à ce problème d’envergure, le monde foisonnant d’informations, de communication et de communautés tapis derrière notre écran, à portée des touches alt+tab de notre traitement de texte.

Le pire conseil sur l’écriture qu’on m’ait jamais donné était de me tenir à l’écart d’Internet, soi-disant que j’y perdrais du temps et que ça ne m’aiderait pas à écrire. C’était un conseil erroné du point de vue créatif, professionnel, artistique et personnel, mais je comprends bien ce qui avait incité cet écrivain à m’administrer une telle mise en garde. Régulièrement, quand je vois un site, un jeu ou un service nouveau, je ressens l’attraction irrésistible d’un trou noir de concentration : une activité chronophage prête à me prendre dans ses filets de distraction. Jeune papa impliqué qui écrit au moins un livre par an, une demi-douzaines d’articles par mois, au moins dix billets de blog par jour, auxquels s’ajoutent divers mini-romans, nouvelles et conférences, je suis bien placé pour savoir qu’on manque vite de temps et connaître les dangers de la distraction.

Mais l’Internet m’apporte beaucoup. Il nourrit ma créativité et mon esthétique, il me profite d’un point de vue professionnel et personnel, et pour chaque moment qu’il me vole, le plaisir que j’y prends me le rend au centuple. Je n’y renoncerai pas plus qu’à la littérature ou quelque autre vice délectable.

Je crois avoir réussi à trouver un équilibre grâce à quelques techniques simples que je perfectionne depuis des années. Il m’arrive toujours de me sentir lessivé et ivre d’infos, mais c’est rare. La plupart du temps, c’est moi qui ai la maîtrise de ma charge de travail et de ma muse. Voici comment je procède :

  • Des plages de travail courtes et régulières
    Lorsque je travaille à l’écriture d’une nouvelle ou d’un roman, je me fixe chaque jour un objectif modeste, en général une page ou deux, et je m’emploie à l’atteindre, ne faisant rien d’autre tant que je n’ai pas fini. Il n’est pas réaliste, ni souhaitable, de vouloir se couper du monde des heures durant, mais il est tout à fait possible de le faire pendant vingt minutes. En rédigeant une page par jour, je publie plus d’un livre par an, faites le calcul, et il est facile de trouver vingt minutes dans une journée, quelles que soient les circonstances. Vingt minutes, c’est un intervalle assez court pour être pris sur votre temps de sommeil ou votre pause déjeuner (même si cela ne doit pas devenir une habitude). Le secret, c’est de s’y astreindre tous les jours, week-end inclus, pour ne pas vous couper dans votre élan, et pour qu’entre deux séances de travail vos pensées puissent cheminer tranquillement jusqu’à la page du lendemain. Essayez de trouver un ou deux détails accrocheurs, ou un bon mot, à exploiter dans la page suivante, afin de savoir par où commencer lorsque vous vous installerez derrière votre clavier.
  • Ne vous arrêtez pas sur un travail fini
    Dès que vous atteignez votre objectif quotidien, arrêtez-vous. Même si vous êtes au beau milieu d’une phrase. Surtout si vous êtes au beau milieu d’une phrase, en fait. Ainsi, lorsque vous vous mettrez au travail le lendemain, vos cinq ou dix premiers mots seront déjà en place, ce qui vous donnera un petit coup de pouce pour vous lancer. Les tricoteuses laissent un bout de laine dépasser du dernier rang, afin de savoir où reprendre, une sorte de pense-bête. Les potiers, quant à eux, n’égalisent pas le pourtour de l’argile humide avant de la recouvrir de plastique pour la nuit, difficile de repartir sur une surface trop lisse.
  • N’effectuez aucune recherche
    Faire des recherches, ça n’est pas écrire, et vice-versa. Lorsque vous butez sur un point technique qu’une rapide recherche sur Google suffirait à éclaircir, abstenez-vous. Ne cédez pas à l’envie de chercher la longueur du pont de Brooklyn, le nombre d’habitants que compte de Rhode Island ou la distance qui sépare la Terre du Soleil. Ce serait alors la déconcentration assurée : une valse de clics sans fin qui transformerait vos vingt minutes de rédaction en une demi-journée à flâner sur le Web. Adoptez la méthode des journalistes (NdT : ces conseils s’adressent à des anglophones, pour le français il faudra bien sûr adapter) : tapez par exemple « TK » là où doit apparaître votre donnée, comme par exemple « Le pont de Brooklyn, d’un bout à l’autre de ses TK mètres, vacillait tel un cerf-volant." La graphie « TK » n’apparaissant que dans très peu de mots anglais (le seul sur lequel je sois tombé est « Atkins »), une recherche rapide de « TK » dans votre document suffira pour savoir si vous devez vérifier des détails techniques. Si vous en oubliez un, votre préparateur ou correcteur le repérera et vous le signalera.
  • Ne soyez pas trop à cheval sur vos conditions de travail
    N’écoutez pas ceux qui conseillent de créer l’atmosphère idéale pour attirer votre muse dans la pièce. Les bougies, la musique, le silence, le fauteuil confortable, la cigarette, attendre d’avoir couché les enfants… laissez tomber tout ça. Certes, il est agréable de se sentir à l’aise pour travailler, mais si vous vous persuadez que vous ne pouvez écrire que dans un monde parfait, vous vous retrouvez devant une double difficulté : trouver à la fois vingt minutes de libre et l’environnement idéal. Lorsque vous avez le temps, mettez-vous à votre clavier et écrivez. Vous pouvez bien tolérer le bruit/le silence/les enfants/l’inconfort/la faim pendant vingt minutes.
  • Éteignez votre traitement de texte
    Word, Google Docs et OpenOffice.org sont bardés d’une panoplie déconcertante de paramètres de mise en forme et de complétion automatique avec lesquelles vous pouvez passer votre temps à faire mumuse. Laissez tomber. Tout ça, c’est de la distraction, et ce qu’il faut absolument éviter, c’est que votre outil essaie de deviner ce que vous avez en tête, corrige votre orthographe, ou critique la construction de votre phrase, etc. Les programmeurs qui ont conçu votre traitement de texte passent leur journée à taper, tous les jours, et ils ont les moyens d’acheter ou de se procurer n’importe quel outil imaginable servant à entrer du texte dans un ordinateur. Et pourtant ils n’utilisent pas Word pour créer leur logiciel. Il se servent d’un éditeur de texte, comme vi, Emacs, TextPad, BBEdit, Gedit, et bien d’autres encore. Il s’agit là des outils les plus puissants, vénérables et fiables de l’histoire du logiciel (car ils sont au cœur de tous les autres logiciels), et ils ne comportent quasi aucune fonctionnalité susceptible de vous distraire ; en revanche, ils possèdent des fonctions chercher/remplacer très puissantes. Le plus gros avantage, c’est qu’un modeste fichier .txt peut être lu par presque toutes les applications présentes sur votre ordinateur, ou collé directement dans un courriel, sans risque de transmettre un virus.
  • Les outils de communication instantanée : à proscrire
    Ce qui nuit le plus à la concentration, c’est la présence sur votre ordinateur d’un écosystème d’applications intrusives : messagerie instantanée, alertes e-mail, alertes RSS, appels Skype, etc. Toute application exigeant que vous attendiez une réponse, même inconsciemment, accapare votre attention. Tout ce qui surgit sur votre écran pour vous annoncer un fait nouveau l’accapare aussi. Plus vous habituerez vos proches et amis à préférer les courriels, les forums et les technologies similaires qui vous permettent de choisir la plage de temps à consacrer à vos conversations au lieu d’exiger votre attention immédiatement, plus vous réussirez à vous ménager vos vingt minutes. En cas de besoin, vous pouvez prévoir une conversation, par VoIP, texte ou vidéo, mais laisser votre messagerie instantanée allumée revient à vous mettre au travail avec sur votre bureau un panneau géant DÉCONCENTREZ-MOI, du genre qui brille au point d’être visible du monde entier.

Je ne prétends pas être l’inventeur de ces techniques, mais grâce à elles je peux profiter pleinement du XXIème siècle.

Notes

[1] Crédit photo : Joi (Creative Commons By)




Cloud computing, logiciel libre et service public

Per Ola Wiberg - CC byEn ce début d’investiture Obama, de nombreux internautes expriment souhaits et desiderata à la nouvelle administration.

Le vœu de William Hurley a retenu notre attention. « Je suggère que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités », nous dit-il. Nous n’en saurons pas vraiment plus car il n’est pas entré dans les détails mais nous avons néanmoins saisi la perche pour en faire un billet où nous pourrions nous interroger ensemble sur les relations entre l‘informatique dans les nuages, le logiciel libre et un éventuel rôle de la puissance publique.

Placer nos données personnelles, nos fichiers, nos liens, etc. sur le Grand Internet présente en effet de nombreux avantages pratiques à l’heure où l’on peut « quasiment » se connecter partout tout le temps. Mais ce n’est pas sans poser quelques questions pour ne pas dire quelques problèmes. Je pense par exemple à la mésaventure récente de ce pauvre Marc L***[1] que l’on pouvait suivre au jour le jour à la trace via Facebook et consorts. Je pense également à notre récent billet La tête dans les nuages mais les pieds sur terre. Je pense enfin à la toile tissée méthodiquement par Google avec tous ses services en ligne (Gmail, Reader, Maps, Earth, Picasa, Calendar, Docs, YouTube…) que nous sommes nombreux à utiliser au quotidien.

Et puisqu’il est question d’éducation supérieure et d’université[2], je dois bien vous avouer que, l’année dernière, lorsqu’il a été question de créer en deux-trois coups de cuillère à pot des adresses de messagerie (avec ou sans chat) pour tous les enseignants et étudiants de mon établissement scolaire, de se doter d’agendas partagés et d’une suite bureautique en ligne (fichiers tableurs et traitements de texte potentiellement accessibles en lecture écriture, selon les droits, à toute la communauté, et disponibles au format ODF), je me suis tourné vers… Google Apps Education sans avoir « malheureusement » à le regretter.

En tant que responsable TICE de mon lycée J’ai donc osé confier les données de mes élèves à Google ! Est-ce grave docteur ? Oui ça l’est ! J’en ai bien conscience et je compte bien un jour me soigner (quand bien même Google n’affiche bien entendu pas de publicités pour ce service spécifique au monde éducatif). Il faut tout de même dire, à ma décharge, que par rapport à ma problématique et à mes besoins (temps limité, budget nul et situation particulière d’un lycée à l’étranger) je ne pouvais raisonnablement pas m’appuyer sur un quelconque Espace Numérique de Travail (ENT) dont je doute de plus en plus de leur pertinence et efficience à mesure que le temps passe (surtout si l’on continue à s’obstiner à les développer académie par académie).

Les partisans du logiciel libre peuvent sensibiliser sur les risques encourus à confier nos documents et informations numériques à des services en ligne « gratuits » proposés par des sociétés commerciales « web 2.0 » qui n’offrent pas de garanties sur l’avenir et sont souvent opaques au niveau de nos droits et des formats. Ils peuvent pousser à ce que des licences plus adaptées et plus transparentes soient adoptées (telle la licence AGPL). Mais, contrairement à un Microsoft où il « suffisait » de proposer des alternatives logicielles libres, ils ne peuvent absolument pas concurrencer un Google sur son terrain, c’est-à-dire justement le cloud computing, qui nécessite des investissements très très lourds ne serait-ce que pour pour installer et maintenir les batteries de serveurs disséminés un peu partout sur le réseau. Et alors je crois effectivement que le politique et le secteur public (national ou supra-national) peuvent nous être d’un grand secours pour modifier la donne (si tant est que l’on juge que la donne mérite modification).

C’est certainement l’alliance « logiciel libre + secteur public » qui pourra faire en sorte de ne pas laisser le champ libre aux seules sociétés privées. Ne privatisons pas la totalité du cloud computing (surtout dans le domaine éducatif), voilà par extrapolation, le sujet du billet du jour. Un peu comme ce qu’a voulu faire le projet de bibliothèque numérique européenne Europeana pour contrarier Google Books avec pour le moment le succès que l’on sait

L’enseignement supérieur a besoin d’un nuage informatique national

Higher education needs a national computing cloud

William Hurley – 26 janvier 2009 – InfoWorld
(Traduction Framalang : Don Rico)

Le cloud computing (ou informatique dématérialisée ou informatique dans les nuages), est vital pour l’avenir de l’enseignement supérieur aux États-Unis, et j’invite le Président Obama à agir

Le 26 janvier 2009
M. le Président Barack Obama
La Maison Blanche
Washington, DC 20500-0001

M. le Président,

Je tiens à vous adresser mes plus sincères félicitations, Monsieur, pour votre récente investiture à la fonction de 44ème Président des États-Unis d’Amérique. Votre victoire est la preuve de la grandeur de notre démocratie, mais aussi de la capacité de transformation de cette même démocratie. Comme des millions de mes semblables du monde entier, j’ai regardé avec une grande fierté votre prestation de serment, lors de laquelle vous êtes devenu un exemple vivant de l’impact que peut avoir un seul citoyen américain.

Vous avez déclaré « Le monde change, et nous devons changer avec lui ». Je suis on ne peut plus d’accord, M. le Président, et je crois que la politique que mènera votre administration sera une fontaine d’innovation. Je sais que le vice-président et vous êtes profondément favorables au développement des initiatives de recherche dans les instituts d’enseignement supérieur qui sont au cœur de l’innovation américaine. Pour ces instituts, l’avenir est déjà là. Mais, comme l’a écrit William Gibson « il n’est pas encore tout à fait équitablement réparti ».

Nous avons laissé le coût de la technologie entraver notre capacité à innover. Les chercheurs ne sont plus limités par le manque d’idées ou de connaissances, mais plutôt par les moyens informatiques nécessaires pour conduire des expériences et en analyser les résultats.

Je suggère donc que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités. Une telle ressource aurait le mérite de niveler le terrain universitaire. Les chercheurs qui travaillent d’arrache-pied dans des milliers d’instituts de taille modeste auraient alors accès à une puissance informatique qui n’est pour l’instant accessible qu’à une poignée de privilégiés. Il nous est impossible de prédire d’où viendra la prochaine grande innovation, mais des ressources informatiques dématérialisées publiques amélioreraient de façon extraordinaire nos moyens de coopérer et d’innover au niveau national.

Les grandes avancées technologiques et sociales peuvent se produire presque simultanément. En septembre 1962, un jeune chercheur publiait ce qui donnerait naissance aux plus grandes avancées technologiques de notre temps, et au même moment, un autre jeune homme originaire de Kosciusko, dans le Missouri, amorçait un itinéraire personnel qui aboutirait à un moment charnière dans la lutte pour les droits civiques. D’aucuns peuvent y voir une coïncidence, mais en ce qui me concerne j’y vois la providence. Les recommandations de Paul Baran en faveur d’une structure nationale publique destinée à transporter des données informatiques et l’entrée de James Meredith à l’université du Mississipi ont, du point de vue technologique et social, changé les États-Unis en profondeur.

Votre administration, par sa connaissance des nouvelles technologies, tient l’occasion d’accomplir un autre grand bond en avant. On ne peut comparer ma lettre à l’article de Baran, mais j’espère suggérer cette idée au moment opportun. Une idée trop en avance sur son temps a aussi peu de valeur qu’une idée avancée après que des engagements ont déjà été pris. J’espère donc attirer votre attention maintenant, avant que vos projets de réformes pour l’éducation aient été élaborés, et tant qu’il reste du temps pour prévoir le financement d’un cloud computing ayant le potentiel de transformer des chercheurs dispersés et inégaux en une locomotive d’innovation la plus puissante du monde.

Encore une fois, M. le Président, je tiens à vous féliciter, votre équipe et vous, pour votre victoire grandiose acquise grâce aux nouvelles technologies, ainsi que pour votre investiture inattendue, exaltante et triomphante.

Notes

[1] J’en profite pour saluer ici le très libre curieux magazine curieux Le Tigre.

[2] Crédit photo : Per Ola Wiberg (Creative Commons By)




Quand Mozilla participe à la libération de la vidéo

Theilr - CC by-saEt si les vidéos en streaming Flash et le casse-tête actuel des formats (.mov, .wmv, .mpeg, .avi…) ne constituaient qu’une parenthèse dans l’histoire du multimédia numérique ?

Nous n’en sommes pas encore là (loin de là), mais merci à Mozilla, en pleine cohérence avec son manifeste, de contribuer grandement à tenter d’améliorer une situation qui évoluera d’autant plus favorablement que nous, utilisateurs, serons nombreux à lui emboiter le pas[1].

Et quelle satisfaction de voir Mozilla, Wikipédia et Xiph.org (Ogg Theora/Vorbis) s’associer pour construire le monde que nous voulons et non celui que nous avons !

Pourquoi libérer la vidéo ?

Why open video?

Christopher Blizzard – 26 janvier 2009
(Traduction FrenchMozilla : Goofy)

Chacun se rend bien compte que le Web ouvert devient de plus en plus important dans nos relations avec les autres. Nos applications, nos conversations et nos échanges tendent à se passer en ligne, et Mozilla se trouve de plus en plus au cœur même de ce phénomène, bien placée pour définir à la fois la technologie sous-jacente et la pratique des usagers du Web. C’est un rôle crucial, et c’est l’une des raisons pour lesquelles il est important de nous comporter comme une entreprise à but non-lucratif en pleine conscience de notre mission et de notre impact.

En prenant un peu de recul, on se rend compte que l’arrivée du Web ouvert comme plateforme technologique est un phénomène dont l’histoire donne peu d’exemples. L’imprimerie nous a permis de reproduire les connaissances facilement et à bas prix. La télévision et la radio ont abaissé le coût de diffusion des médias. Le Web a fait disparaître la centralisation par de grands médias de masse, et chacun peut maintenant produire et diffuser. Les coûts de reproduction, de diffusion et d’interactivité par des commentaires sont devenus presque négligeables.

Je pense quant à moi que c’est possible grâce aux choix technologiques qui ont été faits dès les premières années de l’évolution du Web. Des formats lisibles par l’être humain, des applications simples fournies avec leur code source et la possibilité pour chacun de publier et de créer. Il n’existait pas en ces temps reculés de tours d’ivoire ni de développeurs professionnels, aussi le processus de création devait-il être simple. La technologie du Web exigeait d’avoir une forme d’esprit très orientée vers la technique, mais vous n’aviez pas besoin d’un long apprentissage pour vous lancer. Si l’on ajoute à ça le principe du bout en bout avec Internet, et le fait que le premier venu pouvait installer un serveur ou un client, cela signifie que le Web n’a pas pris son envol grâce au soutien de grands acteurs, mais est devenu une immense ressource partagée, fondée sur les petits efforts de milliers d’individus.

Il en est résulté une explosion générale de créativité et d’investissements, depuis les simples particuliers jusqu’aux plus grandes entreprises. Chacun peut avoir une impact et chacun peut influencer la technologie du Web. Car quiconque parle la lingua franca (NdT : un langage de communication, comme le latin autrefois, ou l’anglais basique aujourd’hui) du Web peut construire ses propres outils sans demander la permission, vous pouvez trouver des outils pour faire absolument tout vous voulez. C’est véritablement une place de marché très animée.

Mais il existe une exception notable : la vidéo sur le Web. Bien que les vidéos soient disponibles en ligne sur des sites comme Youtube, elles ne bénéficient pas des caractéristiques d’accessibilité au plus grand nombre qui ont assuré au Web sa vitalité et sa diffusion. Et ça se voit. La centralisation a entraîné quelques problèmes intéressants dont les symptômes sont la censure après des violations de DMCA et la concentration excessive du public sur un petit nombre de sites qui ont les capacités et la technologie nécessaires pour héberger des vidéos. Je crois que des problèmes comme ceux que nous voyons autour de YouTube sont l’indice d’un problème bien plus important, celui de l’absence de déconcentration comme de compétition dans les technologies vidéos — ce qui est très éloigné de tout ce qui existe sur le Web d’aujourd’hui.

Selon moi il existe deux choses qui peuvent aider à mener cette décentralisation :

  • Il devrait être facile de comprendre comment passer d’un format de document lisible par un ordinateur à un contenu tel qu’il est présenté à l’utilisateur. Par exemple, convertir un fichier HTML en document, un fichier JPEG en image sur l’écran, ou pouvoir utiliser le protocole HTTP pour télécharger un fichier.
  • Il doit être possible d’implémenter et de distribuer cette technologie sans avoir à demander l’autorisation ou la licence de quiconque. En termes concrets cela veut dire qu’elle doit être disponible sans avoir à payer de droits et sans documentation accablante.

Dans le monde de la vidéo, on trouve des formats qui remplissent la première condition : certains formats sont bien documentés, identifiés et même largement répandus. Mais bien trop souvent ils sont soumis à des droits à payer à l’unité, ou de lourds tributs dès le départ, si bien que la création de contenus sous ces formats (pour les coder) est souvent chère au point d’être prohibitive pour tous, si ce n’est pour des firmes aux poches bien lestées et des startups les mieux dorées sur tranche. Et il existe bien peu de formats vidéo qui remplissent la seconde condition. Ce n’est pas ce genre de décentralisation qui profite au Web. Ce serait plutôt l’inverse.

Nous voilà donc dans cette histoire au moment où Mozilla joue son rôle : voici ce que nous allons faire.

  • Dans Firefox 3.1, nous ajoutons la prise en charge native du conteneur OGG avec les codecs audio et vidéo Vorbis et Theora, pour la balise <video>. Il s’agit d’une des rares associations de formats qui remplisse les deux conditions ci-dessus. Ce ne sont pas des formats parfaits, mais ils sont certainement d’une qualité amplement suffisante pour l’usage de la vidéo sur Internet de nos jours. Et ils vont aller en s’améliorant.
  • Nous assurons également le développement de la vidéo ouverte avec une subvention de 100 000 dollars qui sera gérée par la fondation Wikimedia pour soutenir et développer Theora. Vous pouvez espérer voir sortir de grandes choses de ce financement. Et ce travail finira par profiter tout autant à Firefox.
  • Encore une chose que nous pouvons accomplir : donner pleinement droit de cité à la vidéo sur le Web. Cela signifie que nous pouvons faire des choses avec la vidéo et la faire interagir avec d’autres types de contenus (SVG, Canvas, HTML) comme il était impossible de le faire jusqu’à présent. Nous espérons qu’en libérant la vidéo du carcan imposé par les plugins pour qu’elle puisse jouer en harmonie avec le reste, nous pourrons lancer une nouvelle vague de créativité autour de la vidéo. J’en dirai plus long dans un autre billet.

Nous n’espérons pas qu’en faisant cela nous allons tout changer du jour au lendemain. Loin de là — les changements de cet ordre prennent du temps. Mais nous pouvons certainement jouer notre rôle, du moins rendre possible le développement de ce genre de phénomènes. Nous voulons voir émerger un marché de la vidéo comme nous l’avons vu émerger pour le Web. Telle est notre contribution pour lancer le mouvement.

Notes

[1] Crédit photo : Theilr (Creative Commons By-Sa)




Barack Obama sera-t-il un président Open Source ?

Acaben - CC by-saScott McNealy, PDG de Sun, vient tout juste d’être chargé par la Maison Blanche d’élaborer une étude sur l’Open Source. L’occasion pour la BBC d’évoquer dans un récent article la question d’une éventuelle « gouvernance Open Source » de la nouvelle administration américaine, en interrogeant aussi bien l’intéressé que Michael Tiemann (de l’OSI et de Red Hat).

Quelques citations extraites de l’article, traduit par nos soins, pour vous mettre en appétit[1] : « C’est par un accident de l’histoire que les standards propriétaires se sont si tôt et si fortement imposés, entraînant des dépenses colossales dans le budget gouvernemental (…) La philosophie de la démocratie américaine n’est pas simplement par le peuple et pour le peuple, mais aussi avec le peuple (…) Errol Louis décrit M. Obama comme notre premier président Open Source, un dirigeant désireux de voir tout un chacun se demander comment, quand et où s’impliquer. Il a remarqué que la stratégie popularisée par les entreprises de logiciels, qui consiste à donner à d’autres une application pour qu’ils l’améliorent, a maintenant été transposée dans le domaine politique. »

Appels à une gouvernance Open Source

Calls for open source government

Maggie Shiels – 21 janvier 2009 – BBC News
(Traduction Framalang : Goofy, Don Rico)

Le secret d’une gouvernance plus économe et plus sûre consiste à passer par des technologies et logiciels Open Source.

Cette proclamation vient d’une des figures les plus respectées parmi les entrepreneurs de la Silicon Valley, le cofondateur de Sun Microsystems Scott McNealy.

Il a révélé qu’on lui avait demandé de préparer un rapport sur cette question pour la nouvelle administration.

« Intuitivement, il est évident que l’Open Source est moins coûteux et plus efficace que le logiciel propriétaire », a-t-il déclaré.

« L’Open Source ne vous réclame pas de verser le moindre centime, ni à Microsoft, ni à IBM ou Oracle, pas la moindre somme à une quelconque entreprise de logiciels propriétaires. »

Améliorations

M. McNealy a déclaré à la BBC qu’il voulait s’assurer que le gouvernement ne serait pas pieds et poings liés à un fournisseur unique ni à une entreprise particulière.

« Le gouvernement devrait préconiser des applications basées sur des références Open Source pour améliorer la sécurité, gagner en qualité logicielle, baisser les coûts, augmenter la fiabilité – tous les bénéfices inhérents aux logiciels Open Source. »

Le langage de programmation Java créé par Sun Microsystems est un produit Open Source qu’utilisent des milliards d’appareils comme les téléphones portables et les ordinateurs. Au lieu d’être une application payante sous copyright, le logiciel Open Source est généralement disponible pour tous, sous une licence qui permet l’usage gratuit et sans restriction, et son code est ouvert à tous pour être consulté, copié et adapté gratuitement.

L’idée sous-jacente, c’est que grâce aux contributions d’un grand nombre de gens, une application va s’améliorer à pas de géant et conserver toute sa pertinence. Un rapport de XMG, société de recherche en technologie globale, mentionne que les entreprises « s’intéressaient aux avantages des logiciels Open Source » en raison du « coût prohibitif » des logiciels propriétaires.

« Des dépenses colossales »

Le président Obama a déclaré être prêt à scruter le budget « ligne par ligne » pour éliminer les dépenses inutiles, mais jusqu’à présent n’a donné aucune indication précise sur la manière dont il comptait procéder.

L’Initiative Open Source (ou OSI) est pleinement solidaire des propositions de M. McNealy, qui constituent à leurs yeux une des solutions majeures que le nouveau président ne peut pas se permettre d’ignorer.

« Scott a tout à fait raison de souligner les avantages qui ont été démontrés tant et plus », confirme Michael Tiemann, le président de l’OSI.

« C’est par un accident de l’histoire que les standards propriétaires se sont si tôt et si fortement imposés, entraînant des dépenses colossales dans le budget gouvernemental. »

Selon M. Tiemann, même si quelques départements utilisent déjà des technologies Open Source, on estime que globalement les sommes perdues dans les logiciels propriétaires se monteraient « à plus d’un trillion de dollars par an » (NdT : soit un million de millions de dollars).

Il a déclaré que le coût minimum pour les États-Unis est de « 400 milliards de dollars, estimation basse. »

« Passer à l’Open Source réduira les coûts et augmentera la productivité, » ajoute M. Tiemann, qui est également vice-président de Red Hat, le prestataire de solutions technologiques Open source leader sur le marché international.

« C’est le genre de changement dont nous avons besoin si nous espérons voir un jour le gouvernement réformer ses capacités opérationnelles et maîtriser ses dépenses. S’ils n’y parviennent pas, c’est encore un coup d’épée dans l’eau. Étant donné l’état actuel des marchés des capitaux, nous ne pouvons plus nous permettre d’en rester au status quo », a-t-il déclaré.

L’Alliance pour les Solutions Libres (Open Solutions Alliance) a estimé que la crise économique actuelle « va conduire à adopter de plus en plus des solutions libres, en raison de leur flexibilité, de leur extensibilité et de leur faible coût. »

Dans le même temps la société de recherche Gartner a bien prévenu que les bénéfices escomptés de l’Open Source ne seraient pas au rendez-vous sans une saine gestion.

« N’espérez pas économiser systématiquement de l’argent avec un logiciel Open Source (OSS), ou avec une quelconque technologie sans une gestion financière efficace », a déclaré l’analyste Mark Driver.

Microsoft et Oracle ont ouvert aux développeurs le code de quelques-uns de leurs logiciels et protocoles.

« Un président Open Source »

Reste à savoir jusqu’à quel point le 44ème président sera réceptif à l’idée de développer les travaux de la nouvelle administration avec les standards Open Source ?

« Le concept d’Open Source est en passe de devenir sous-jacent dans presque tout ce que qu’entreprend l’administration, » a déclaré Michael Tiemann de l’OSI.

« La philosophie de la démocratie américaine n’est pas simplement par le peuple et pour le peuple, mais aussi avec le peuple. »

Il souligne que nous avons déjà vu à l’œuvre l’attachement à cet esprit d’ouverture dans la campagne électorale du président Obama.

« Je pense que nous allons à présent assister à une meilleure acceptation du modèle Open Source dans l’esprit des gens, en Amérique et dans le monde entier. »

Errol Louis, du quotidien New York Daily News, semble d’accord.

Il décrit M. Obama comme « notre premier président Open Source, un dirigeant désireux de voir tout un chacun se demander comment, quand et où s’impliquer. »

Il a remarqué que la stratégie popularisée par les entreprises de logiciels, qui consiste à donner à d’autres une application pour qu’ils l’améliorent, a maintenant été transposée dans le domaine politique.

Bien entendu, le nouveau site Web change.gov se présente comme un portail pour une «gouvernance interactive » et une « démocratie Open Source. »

« Superviser »

M. McNealy a déclaré qu’un nouveau poste de haut responsable de l’information (CIO) était nécessaire pour mener un changement de fond en comble.

Il a ajouté que le CIO devrait avoir « un droit de veto, le droit d’éliminer tout matériel, logiciel ou application en réseau qui affecterait le réseau fédéral. Il ou elle devrait avoir un pouvoir véritable, celui de superviser vraiment et de prendre des mesures effectives à l’encontre de ceux qui ne se conformeraient pas à l’architecture globale. C’est ce que font toutes les entreprises mais que ne fait pas le gouvernement », a-t-il conclu.

M. Tiemann a estimé au contraire qu’un poste de CIO serait « du gaspillage de pouvoir exécutif ».

« Connaissant comme je les connais la structure et la nature du gouvernement fédéral, je ne peux croire à l’intérêt de nommer un CIO qui aurait à imposer sa voix par-dessus des départements qui, indépendamment des obstacles matériels, ont souvent du mal à collaborer. »

« Nommer un CIO reviendrait seulement à créer un poste improductif pour les quatre prochaines années », a déclaré M. Tiemann.

Notes

[1] Crédit photo : Acaben (Creative Commons By-Sa)




Logiciel libre : idée fausse, quand tu nous tiens !

Skpy - CC by-sa On le sait, les préjugés ont la peau dure, et le logiciel libre a bien du mal à se débarrasser de ceux qu’il traîne derrière lui. Quels que soient ces préjugés, d’où qu’ils viennent, il est assez aisé d’y répondre et de les corriger lorsqu’on s’intéresse un tant soit peu au monde du libre, mais la méconnaissance du « grand public » et les efforts des adversaires du libre pour le dénigrer ont ancré ces idées dans l’esprit de pas mal de gens[1].

Il faut croire que les campagnes de FUD de Microsoft et consorts ont porté leurs fruits, même si heureusement des acteurs du libre tels que Firefox, Wikipédia, OpenOffice.org et Ubuntu, entre autres, contribuent à faire connaître davantage les logiciels libres et à transformer les mentalités. Cependant, malgré les progrès accomplis depuis quelques années, la visibilité croissante et l’image positive qu’est en train de gagner le libre, certaines idées fausses perdurent et constituent sans doute un frein à une adoption plus vaste des logiciels et systèmes d’exploitation libres.

Voici donc un article synthétique[2] qui dresse la liste des cinq idées fausses les plus répandues concernant le Libre, et les arguments à y opposer lorsqu’au détour d’une conversation sur Internet ou chez vos amis un vilain troll pointe le bout de son nez…

Comment mal comprendre le Logiciel Libre

How to Misunderstand Free Software

27 juin 2008 – GetGNULinux.org
(Traduction Framalang : Thomas P., Vincent L., Daria et Yostral)

Cinq idées fausses à propos du Logiciel Libre, avec leurs corrections.

1. L’industrie du logiciel ne peut plus fonctionner si les programmeurs ne sont pas payés.

Commençons par un simple fait: les programmeurs de Logiciel Libre aiment être payés, et ils ont tous besoin d’acheter un déjeuner à un moment ou à un autre. Lorsque nous parlons de Logiciel Libre, nous faisons référence à la liberté, pas au prix. En réalité, vous pouvez payer pour obtenir du Logiciel Libre (ou du logiciel à « source ouverte »), que vous pouvez ensuite étudier, modifier et copier à volonté.

Comment est-ce que cela fonctionne ? Vous pouvez voir cela de cette manière : le logiciel est seulement du code, le code est seulement des mathématiques. Lorsque vous voyez le logiciel comme des mathématiques utiles, un langage élaboré, pas comme de la propriété ordinaire, alors il n’y a pas de raison de limiter son utilisation par d’autres.

Comme pour les mathématiques (où personne ne revendiquerait la propriété d’une équation), le logiciel requiert des connaissances avancées pour être adapté, amélioré, appliqué correctement. C’est là que les programmeurs génèrent des revenus : de nombreux clients, en particulier les entreprises, sont prêtes à payer pour des mises à jour de sécurité régulières et des améliorations de logiciel.

Les entreprises du Logiciel Libre bénéficient d’un système de développement très décentralisé avec un grand nombre de contributeurs bénévoles. Les revenus dans l’industrie du Logiciel Libre sont peut-être plus minces que dans sa contrepartie propriétaire, mais ils ne sont en aucun cas négligeables. Au final, les particuliers finissent généralement par utiliser du Logiciel Libre gratuitement.

Le Logiciel Libre n’a pas pour objet de supprimer les motivations des programmeurs. Il s’agit de voir le code comme de la connaissance qui ne doit pas être cachée à l’utilisateur. Cela fonctionne avec un modèle économique différent, grâce auquel de nombreuses entreprises fonctionnent déjà bien.

2. L’innovation est tuée dans le Logiciel Libre.

Une croyance répandue est que si n’importe qui peut copier des idées, l’innovation va être étouffée.

En réalité, la liberté est souvent la clé d’un logiciel innovant et à succès :

  • N’importe qui est autorisé et encouragé à travailler dessus;
  • De nombreuses personnes sont prêtes à participer;
  • Il n’est pas nécessaire de tout ré-inventer, les idées peuvent être améliorées directement.

Les logiciels non-propriétaires apparaissent dans de nombreux domaines, prenons juste quelques exemples :

  • Applications : Firefox (navigateur web), Inkscape (logiciel de dessin vectoriel).
  • Systèmes complets : Apache (serveur web), OpenBSD (système d’exploitation), et bien sûr GNU/Linux.
  • Formats et protocoles : HTML (pages web), BitTorrent (partage de fichiers), ODF (documents bureautiques).
  • Applications serveur : Drupal (Système de gestion de contenu), WordPress (blog).

3. Tout ce qu’on attend d’un logiciel, c’est que ça fonctionne (qui se soucie du code source ?)

Tout le monde devrait se préoccuper de savoir si son logiciel est libre. Imaginez que vous achetez une voiture dont vous avez interdiction d’ouvrir le capot. Peu importe que vous sachiez comment fonctionne une voiture – le fait est que personne ne sera en mesure de vérifier le moteur. Comment pouvez-vous avoir confiance dans votre voiture, si personne ne peut s’assurer qu’elle est fiable, qu’elle ne fuit pas, qu’elle n’est pas nuisible à la société et à l’environnement ?

L’idée est la même avec le logiciel – excepté que le code fait bien plus que de bouger des voitures. Le logiciel fait tourner nos ordinateurs, téléphones, TV, lecteurs multimédia et bien plus encore, transportant de l’information et notre culture.

Le logiciel libre est aussi important que l’expression libre, que le libre marché. Si le logiciel est libre, les utilisateurs en ont le contrôle tout en gardant leur indépendance vis-à-vis de lui.

Bonnes nouvelle : en plus de tout, le logiciel libre aussi, « Ça fonctionne ». Et en fait, bien souvent, il fonctionne mieux. Démarrez votre PC sur un live-CD GNU/Linux, pour essayer un système bien organisé, tout compris, sans installation, afin de vous en rendre compte par vous-même.

4. Le logiciel libre ne respecte par les droits d’auteurs et les logiciels brevetés.

Pour répondre correctement à ceci, nous devons faire une nette distinction entre le droit d’auteur et les brevets. Le droit d’auteur est un droit attribué à l’auteur sur sa création (par exemple le texte d’un livre, ou le code source d’un programme). Un brevet, quant à lui, est un contrôle exclusif enregistré, payé, sur un processus ou l’application d’une idée.

Les droits d’auteur sont très importants dans le logiciel libre. C’est le mécanisme même, central à la GNU General Public License, qui assure que le logiciel demeure libre, et que les auteurs voient leur travail crédité. Les programmes sont sujets à droits d’auteur, qu’ils soient libres ou propriétaires.

N’importe quel auteur de logiciel propriétaire peut facilement vérifier que son droit d’auteur n’a pas été violé dans une application du logiciel libre, puisque son code source est facilement disponible.

Les brevets logiciels, d’un autre côté, sont un concept très controversé. Pour faire bref : il n’y a rien de tel qu’un « logiciel breveté ». En enregistrant un brevet, toutefois, quelqu’un peut revendiquer sa propriété d’un processus. Le brevet s’applique alors à tous les logiciels qui utilisent ce processus, qu’ils soient propriétaires ou libres. Les brevets logiciels :

  • Sont onéreux et sont délivrés seulement quelques semaines après leur application;
  • Sont limités géographiquement (un brevet délivré aux USA est inutile en Europe);
  • Ont une longue durée de vie (souvent 20 ans) dans une industrie qui bouge vite;
  • Sont souvent complètement triviaux (c’est à dire sans innovation réelle).

En tant que tel, ils sont rarement utilisés pour bénéficier aux innovateurs (et en fait, rarement utilisés par les innovateurs eux-mêmes).

On peut dire sûrement que n’importe quelle partie de taille moyenne d’un logiciel viole des brevets, dans plusieurs pays, qu’il soit libre ou non. En fonction de la capacité de la société détentrice à couvrir de lourds frais juridiques et à se défendre contre des actions légales vengeresses, des royalties et des restrictions peuvent être appliquées grâce à ces brevets.

5. Le logiciel libre est comme le communisme.

Les partisans de cette idée soutiennent qu’il ne peut y avoir de propriété privée avec le logiciel libre (ou « Open Source »). Répondons à ceci avec un exemple.

Supposons que vous utilisez une application qui est du logiciel libre, chez vous et dans votre société. Vous trouvez une belle façon de l’améliorer, de telle manière que maintenant avec votre version modifiée, votre ordinateur fonctionne mieux, et vos usines tournent deux fois plus vite !

Cette version modifiée est votre propre version. Vous n’êtes pas obligés d’en parler à quiconque, ni de partager aucun profit que vous avez fait en l’utilisant. Vous exercez simplement votre liberté à utiliser et modifier le logiciel libre.

Ce que demande la licence sur le logiciel libre est que si vous redistribuez le logiciel, alors vous devez le laissez libre. A savoir, si vous vendez des CD avec votre logiciel, ou commencez à laisser des personnes en dehors de chez vous ou de votre société l’utiliser, alors vous devez :

  • Soit donner à chacun les mêmes droits que lorsque vous aviez obtenu le logiciel original, c’est-à-dire, la liberté d’inspecter, modifier et redistribuer la version modifiée;
  • Ou, séparer clairement le logiciel original et vos ajouts secrets (c’est-à-dire que vos ajouts ne doivent rien contenir de l’oeuvre originale).

Vous « possédez » donc davantage un logiciel libre qu’un logiciel propriétaire, dont le concepteur décide de ce que vous pouvez ou ne pouvez pas en faire.

Le logiciel libre n’a rien à voir avec un système politique. Vous pouvez faire tourner du logiciel libre au-dessus de logiciel propriétaire, aussi bien que l’inverse. La licence sur le logiciel libre est simplement un contrat éthique entre le programmeur et l’utilisateur final.

Notes

[1] Crédit photo : Skpy (Creative Commons By-Sa)

[2] Nous avons traduit cet article l’été dernier en ignorant qu’il en existait déjà une version française sur la très intéressante initiative Passer à Linux (dont nous devrions parler plus souvent d’ailleurs). Du coup cela donne deux versions pour le prix d’une !




Le réseau Framasoft en info continue !

Ali Brohi - CC byPour vous récompenser d’avoir été sages en 2008, nous vous offrons un cadeau pour bien commencer l’année : un canal de microblogging, pour encore plus de Framasoft dans votre PC ou tout autre objet capable de se connecter au Net !

Plus sérieusement, pourquoi le microblogging ? Parce que c’est un outil qui nous permettra d’ajouter une nouvelle corde à notre arc et de diffuser autrement des infos sur Framasoft et le monde du libre[1].

Ce sera pour nous un moyen d’assurer un suivi de nos billets, d’exercer une veille des infos concernant le monde du libre, et de vous tenir au courant de l’actualité de Framasoft (non, vous n’y apprendrez pas ce qu’aKa a pris au petit-déj ni quelle couleur de chaussettes j’ai choisi de porter).

Côté technique, nous diffuserons nos mini-billets sur deux canaux : identi.ca et Twitter. Twitter, parce qu’étant le réseau le plus fréquenté c’est celui qui nous permettra de toucher le plus large public, et d’attirer de nouveaux lecteurs dans nos filets. Mais nos billets n’arriveront sur Twitter que par rebond. Je m’explique…

Nous ne pouvions nous contenter d’un outil fermé, aussi sympathique soit-il. Nous avons donc opté pour le service identi.ca, similaire à Twitter dans le principe, mais complètement libre. Il est basé sur le logiciel Laconica, qui est Open Source, et placé sous licence AGPL, comme préconisé par Richard Stallman (cf. notre billet sur Clipperz). Les mini-billets publiés via cette plateforme sous quant à eux sous licence Creative Commons Paternité 3.0. Les flux sont compatibles avec le réseau Jabber, et on peut donc les recevoir directement dans Pidgin, par exemple. Et les billets publiés à partir de laconi.ca sont directement répercutés sur notre compte Twitter. Qui plus est, mais c’est personnel, je trouve l’interface de Laconica plus sympa…

À présent, venons-en au fait ! Voici où vous pourrez suivre nos flux de micro-blogging[2] :

Nous espérons que vous serez nombreux à nous lire !

Harrypopf - Licence Art Libre

Notes

[1] Crédit photo : Ali Brohi (Creative Commons By)

[2] Crédit illustration : Harrypopof (Licence Art Libre)




Le Centre Français d’exploitation du droit de Copie mène l’enquête à l’école

iLoveButter - CC byDans un récent billet intitulé De l’usage des « œuvres protégées » à l’Éducation Nationale, j’évoquais la situation difficile voire parfois carrément ubuesque dans laquelle était placé l’enseignant suite à des accords complexes avec les ayant-droits détenteurs des droits exclusifs d’exploitation.

L’idée générale de ces accords étaient de permettre aux enseignants d’utiliser ces « œuvres protégées » avec leurs élèves sans avoir à demander à chaque fois les autorisations aux ayant-droits quand bien même sous certaines conditions (voir le billet cité plus haut pour juger de la pertinence pédagogique et technique de certaines conditions !). En contrepartie les différentes sociétés de perception et de répartition de droits (selon le média : livre, presse, image, cinéma, musique…) ont reçu en deux ans, de 2006 à 2008, pas moins de quatre millions d’euros de la part du contribuable Ministère de l’Éducation Nationale.

Mais premier problème avec la redistribution de cette somme rondelette. Comment savoir en effet si une ressource donnée a été utilisée par un enseignant afin de justement rémunérer les ayant-droits de cette ressource ?

Pour le savoir les accords prévoyaient ceci :

La reproduction numérique d’une œuvre doit faire l’objet d’une déclaration pour permettre d’identifier les œuvres ainsi reproduites. Cette déclaration consiste à compléter le formulaire mis en ligne à l’adresse suivante.

Second problème, puisqu’à mon humble avis absolument aucun enseignant (ou presque) n’est venu remplir ce formulaire, tout simplement parce que rien n’a été fait pour le prévenir que cela faisait partie de ses « obligations de service ». Et puis quelle fiabilité peut-on accorder à un formulaire qui ne demande aucune identification (l’ayant-droit de la ressource X peut si cela lui chante entrer cinquante fois la ressource X dans le formulaire). Échec prévisible, échec sûrement constaté.

Qu’a cela ne tienne, on trouvait également ce paragraphe dans ces fameux accords :

Les représentants des ayants droit pourront procéder ou faire procéder à des vérifications portant sur la conformité des utilisations d’œuvres visées par l’accord au regard des clauses de l’accord. Les agents assermentés de chaque représentant des ayants droit auront la faculté d’accéder aux réseaux informatiques des établissements afin de procéder à toutes vérifications nécessaires. Ils pourront contrôler notamment l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord avec chaque stipulation de l’accord.

Je n’ai pas ouïe dire qu’à ce jour des « agents assermentés » soient entrés dans les lycées pour contrôler « l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord ».

Par contre voici le mail que m’a tout récemment envoyé un collègue (le CFC c’est donc le Centre Français d’exploitation du droit de Copie) :

Je suis un lecteur assidu du Framablog et accessoirement, je suis enseignant au lycée. J’avais bien ri (jaune …) en lisant ton billet sur les droits de reproduction d’oeuvres protégées dans notre belle maison. Sauf, qu’aujourd’hui, je ne rigole plus puisqu’on me demande d’endosser le costard d’inspecteur du CFC. En effet, mon établissement a été sélectionné pour participer à une enquête visant à recenser les œuvres copiées sur une durée d’un mois pour évaluer les reversements aux ayant-droits. Chaque prof doit donc se farcir le remplissage d’un tableau (voir copies jointes).

Le plus intéressant est que ce document était accompagné d’une note de notre chef d’établissement dont je ne peux m’empêcher d’en reproduire la dernière phrase : « Dans l’hypothèse où vos documents ne correspondraient pas à l’attente du CFC comme cela s’est passé dans d’autres établissements, le CFC nous demandera de recommencer et de bloquer notre système de photocopie. »

Ca fait froid dans le dos ! En ce qui me concerne, je vais leur rendre très rapidement leur papier en signifiant que je ne reproduis que des documents dont je suis l’auteur et à défaut des documents sous licences libres. Pas sûr que ça corresponde aux attentes du CFC !

Vous trouverez ci-dessous les copies jointes en question permettant à l’enseignant de renseigner l’enquête. Ici point de formulaire en ligne mais du bon vieux papier à remplir à la main en indiquant a chaque fois titre, auteur, éditeur, collection, niveau scolaire, nombre de pages par élèves, nombre d’élèves destinataires et nombre total de photocopies effectuées (ouf !). Dans la première page il est clairement stipulé que « cette enquête est une obligation prévue par le contrat signé entre votre établissement et le CFC (article 6 du Bulletin Officiel n°15 du 8 avril 2004). »

Allons bon, ce n’est pas des accords sectoriels sur l’utilisation des œuvres protégées à des fin d’enseignement et de recherche qu’il s’agit (Bulletin Officiel n°5 du 1er février 2007) mais d’un accord antérieur et spécifique au CFC : Mise en œuvre par les établissements d’enseignement secondaire publics et privés sous contrat du protocole d’accord du 17 mars 2004 sur la reproduction par reprographie d’œuvres protégées.

Ici en fait nous ne sommes plus dans le numérique mais autour de la photocopieuse[1]. Lorsque l’on se rend sur le site du CFC, on est accueilli par le slogan suivant qu’on ne peut pas louper : « photocopier oui, photocopiller non ». C’est le même glissement sémantique que l’on observe avec le « piratage » de la musique, parce que si j’en crois Wikipédia (si, si, j’y crois moi à Wikipédia), voici que ce nous donne l’article pillage : « Le pillage est un acte de guerre qui tient de la destruction et du vol massif, souvent accompagné de viols, et par extension, tout type d’actes civils semblables ».

Toujours est-il que dans le paragraphe « L’accord assure le respect de la loi » de ces accords spécial CFC, on peut lire ceci :

Le droit d’auteur, récemment consacré, comme le droit à l’éducation, par la charte des droits fondamentaux de l’Union européenne, est ancré dans la tradition juridique française depuis plus de deux siècles. Il reconnaît notamment à l’auteur le droit d’autoriser toute reproduction de son œuvre et d’obtenir une juste rémunération.

Le développement rapide de la photocopie depuis les années 1970 a conduit à une multiplication des atteintes aux droits des auteurs face à laquelle le législateur est intervenu, par la loi du 3 janvier 1995, pour mettre en place un régime de gestion collective obligatoire qui confie à des sociétés agréées par le ministère de la culture le droit d’autoriser ou d’interdire la reproduction par reprographie de tout type d’œuvre.

Le service public de l’enseignement doit enseigner le respect du droit d’auteur, trop souvent méconnu voire contesté, alors qu’il est essentiel à la vitalité de la création littéraire et artistique. Cela suppose d’abord que l’éducation nationale montre l’exemple en le respectant pleinement elle-même. L’accord conclu avec le Centre français d’exploitation du droit de copie et avec la Société des éditeurs et des auteurs de musique, même s’il ne couvre qu’une partie des utilisations d’œuvres protégées au sein du service public de l’enseignement, apporte une contribution majeure au respect du droit d’auteur dans le cadre de l’enseignement.

Si l’accord traite principalement la question des droits patrimoniaux des auteurs et de leurs ayants droit, il faut rappeler sans cesse l’importance cruciale du respect du droit moral qui est profondément enraciné dans la conception française du droit d’auteur et qui la distingue du copyright anglo-saxon. Il impose de rappeler, à l’occasion de toute utilisation d’une œuvre protégée, le nom de l’auteur, et interdit de porter atteinte à l’intégrité de l’œuvre. Ces principes, qui sont inscrits dans les dispositions législatives du code de la propriété intellectuelle, constituent également des principes pédagogiques de base, inscrits dans l’éthique de l’enseignement. Ils se rattachent à l’exigence de rigueur et d’honnêteté intellectuelle qui est au cœur de la mission du service public de l’enseignement.

Certes. Je ne prône pas la « photocopie libre » dans le monde non marchand par excellence qu’est l’école, et je comprends bien les motivations des deux parties qui cherchent là un compromis satisfaisant. Mais de là à en appeler aux « principes pédagogiques de base, inscrits dans l’éthique de l’enseignement »…

J’ai vraiment hâte que les ressources éducatives numériques libres (c’est-à-dire sous licences libres ou en « copyleft ») se développent et se diffusent au sein du corps enseignant. Elles n’en sont qu’à leurs balbutiements, mais le jour où elles auront atteint une certaine masse critique, elles feront voler en éclat ces accord hérités du siècle précédent.

Notes

[1] Crédit photo : iLoveButter (Creative Commons By)




Ubuntu dans le New York Times

Stopped - CC bySamedi dernier Ubuntu a eu l’honneur d’apparaître dans les colonnes du très prestigieux et (encore) très diffusé journal américain New York Times, repris ensuite par le non moins prestigieux mais plus européen International Herald Tribune.

Il s’agissait avant tout de dresser le portrait de son charismatique et atypique père fondateur Mark Shuttleworth. Il n’en demeure pas moins qu’à travers ce prisme c’est non seulement la plus célèbre des distributions GNU/Linux mais également, nous semble-t-il, la communauté du libre dans son ensemble qui se trouve ainsi mise en lumière auprès d’un large public[1].

Dans la mesure où, au-delà de cette reconnaissance de principe, l’article nous a semblé intrinsèquement intéressant, nous avons mis nos plus fins limiers traducteurs sur le coup pour vous le proposer moins d’une semaine après sa parution.

Un bon samaritain du logiciel qui ne fait pas du Windows

A Software Populist Who Doesn’t Do Windows

Ashlee Vance – 10 janvier 2009 – The New York Times
(Traduction Framalang : Goofy et aKa)

On les considère soit comme de misérables casse-pieds soit comme ceux-là même qui pourraient causer la chute de Windows. À vous de choisir.

Au mois de décembre, des centaines de ces développeurs controversés de logiciels étaient rassemblés pour une semaine au quartier général de Google à Mountain View, en Californie. Ils venaient des quatre coins du globe, arborant beaucoup de signes de reconnaissance des mercenaires du code : jeans, queues de cheval, visages hirsutes aux yeux injectés de sang.

Mais au lieu de se préparer à vendre leur code au plus offrant, les développeurs ont conjugué leurs efforts généralement bénévoles pour essayer d’ébranler le système d’exploitation Windows de Microsoft qui équipe les ordinateurs personnels, et dont les ventes ont rapporté près de 17 milliards de dollars l’an dernier.

Le clou de la réunion était une chose appelée Ubuntu et un certain Mark Shuttleworth, le charismatique milliardaire sud-africain, qui tient lieu de chef spirituel et financier de cette tribu des codeurs.

Créé il y a maintenant tout juste quatre ans, Ubuntu (prononcez ou-BOUN-tou) s’est imposé comme la version du système d’exploitation pour Linux dont le développement a été le plus rapide et la notoriété la plus grande, il concurrence Windows avant tout par son très, très bas prix : 0 dollar.

On estime à plus de dix millions le nombre d’utilisateurs d’Ubuntu aujourd’hui, et ils représentent une sérieuse menace pour l’hégémonie de Microsoft dans les pays développés, peut-être même plus encore dans les contrées qui sont en train de rattraper la révolution technologique.

« Si nous réussissons, nous changerons complètement le marché du système d’exploitation,» a déclaré M. Shuttleworth pendant une pause au cours de la rencontre, le sommet des développeurs d’Ubuntu. « Microsoft devra s’adapter, et je ne pense pas que ce soit une mauvaise chose. »

Linux est gratuit, mais il y a toujours moyen de gagner de l’argent pour les entreprises qui gravitent autour du système d’exploitation. Des firmes comme IBM, Hewlett-Packard et Dell installent Linux sur plus de 10% de leurs ordinateurs vendus comme serveurs, les entreprises paient les fabricants de matériel et de services informatiques comme les vendeurs de logiciels Red Hat et Oracle, pour régler tous les problèmes et tenir à jour leurs systèmes basés sur Linux.

Mais Canonical, l’entreprise de Mark Shuttleworth qui élabore Ubuntu, a décidé de se concentrer à court terme sur les PC utilisés au travail et par les gens chez eux.

Les partisans de l’Open Source caressent depuis longtemps le rêve de voir en Linux un puissant rival de Windows, et dans une moindre mesure de l’OS X pour Mac de Apple. Ils proclament haut et fort que les logiciels qui peuvent être librement modifiés par le plus grand nombre peuvent s’avérer moins chers et meilleurs que le code propriétaire produit par des entreprises boulimiques. Cependant, ils ont eu beau faire tout leur possible, les adeptes zélés de Linux n’ont pas réussi à provoquer un usage généralisé de Linux sur les ordinateurs de bureau et les portables. Cet excentrique objet qu’est le logiciel demeure la spécialité des geeks, pas celui des grands-mères.

Mais avec Ubuntu, croient les prosélytes, il se pourrait qu’il en aille autrement.

« Je pense qu’Ubuntu a attiré l’attention des gens sur l’ordinateur de bureau Linux, » a déclaré Chris DiBona, le patron du département des logiciels Open Source chez Google. « S’il existe un espoir pour l’ordinateur de bureau Linux, c’est d’Ubuntu qu’il viendra »

Près de la moitié des 20 000 employés de Google utilisent une version légèrement modifiée d’Ubuntu, plaisamment appelée Goobuntu.

Les gens qui feront connaissance avec Ubuntu pour la première fois le trouveront très proche de Windows. Le système d’exploitation propose une interface graphique agréable, avec des menus familiers et toute la gamme des applications habituelles d’un ordinateur : un navigateur Web, un client courriel, un logiciel de messagerie instantanée et une suite bureautique libre pour créer des documents, des feuilles de calcul et des présentations.

Bien que relativement facile à utiliser pour les familiers de la technologie numérique, Ubuntu – et toutes les autres versions de Linux – peut poser quelques problèmes à l’utilisateur moyen. Beaucoup d’applications créées pour Windows ne fonctionnent pas sous Linux, y compris les jeux les plus populaires et les logiciels de gestion financière, par exemple. Et les mises à jour de Linux peuvent provoquer quelques problèmes dans le système, affectant des fonctions de base comme l’affichage ou la gestion de la carte son.

Canonical a essayé de régler en douceur un grand nombre de problèmes qui empêchaient Linux d’atteindre le grand public. Cette attention portée aux détails dans une version de Linux pour ordinateur de bureau contraste vivement avec les préoccupations des grands distributeurs de systèmes d’exploitation comme Red Hat et Novell. Bien que ces entreprises produisent des versions pour ordinateur de bureau, elles passent le plus clair de leur temps à rechercher de juteux profits sur les serveurs et les centres de traitement des données. Résultat : Ubuntu est apparu comme une sorte de communauté rêvée pour tous ces développeurs de logiciel idéalistes qui se voient comme des acteurs d’une contre-culture.

« C’est tout à fait comparable à ce qu’ont réussi des firmes comme Apple et Google, c’est-à-dire constituer une communauté mais surtout une communauté de passionnés », a dit Ian Murdock, le créateur d’une version précédente de Linux appelée Debian, sur laquelle est bâti Ubuntu.

Les entreprises de technologie grand public ont pris bonne note de la vague d’enthousiasme autour d’Ubuntu. Dell a commencé à vendre des PC et des ordinateurs de bureau avec ce logiciel dès 2007, et IBM a commencé plus récemment à proposer Ubuntu en tête d’un lot d’applications qui rivalisent avec Windows.

Canonical, implanté à Londres, a plus de 200 employés à temps plein, mais sa force de travail entière s’étend bien au-delà, grâce à une armée de bénévoles. L’entreprise a invité à ses frais près de 60 d’entre eux à assister à une réunion de développeurs, en considérant qu’ils étaient des contributeurs importants du système d’exploitation. 1000 personnes travaillent sur le projet Debian et mettent leur logiciel à la disposition de Canonical, tandis que 5000 diffusent sur Internet les informations sur Ubuntu, et 38000 se sont enregistrés pour traduire le logiciel en diverses langues.

Lorsqu’une nouvelle version du système d’exploitation est disponible, les fans d’Ubuntu se ruent sur Internet, sur les sites Web souvent dépassés par les événements qui distribuent le logiciel. Et des centaines d’autres organisations, surtout des universités, aident également à la distribution.

La société de recherche en hautes technologies IDC estime que 11% des entreprises américaines utilisent des systèmes basés sur Ubuntu. Ceci dit, la majeure partie des adeptes d’Ubuntu est apparue en Europe, où l’hégémonie de Microsoft a dû subir un sévère contrôle politique et juridique.

Le ministère de l’éducation de Macédoine fait confiance à Ubuntu, et fournit 180000 copies du système d’exploitation aux écoliers, tandis que le système scolaire espagnol procure 195000 portables Ubuntu. En France, l’Assemblée Nationale et la Gendarmerie Nationale (un corps militaire chargé de missions de police) sont équipés ensemble de 80000 ordinateurs sous Ubuntu. « Le mot libre était très important », précise Rudy Salles (NdT : Difficile ici de savoir si il s’agit de « free » dans le sens de « libre » ou de « gratuit », sûrement un peu des deux), le vice-président de l’Assemblée, en observant que cet équipement a permis au corps législatif d’abandonner Microsoft.

Il ne fait aucun doute que la croissance rapide d’Ubuntu ait été aidée par l’enthousiasme qui a entouré Linux. Mais c’est M. Shuttleworth et son mode de vie décoiffant qui ont surtout suscité un intérêt dont bénéficie Ubuntu. Alors qu’il préfère se vêtir sans façons à la manière des développeurs, certaines de ses activités, notamment un voyage dans l’espace, sortent de l’ordinaire.

« Bon, j’ai une vie très privilégiée, d’accord… » dit M. Shuttleworth. « Je suis milliardaire, célibataire, ex-cosmonaute. La vie pourrait difficilement être plus belle pour moi. Être un fondu de Linux rétablit une sorte d’équilibre.»

M. Shuttleworth a commencé à fonder sa fortune juste après avoir obtenu un diplôme de commerce de l’Université du Cap en 1995. Il payait ses factures en gérant une petite entreprise de conseil en technologie, en installant des serveurs Linux pour que des compagnies puissent faire tourner leur site Web, et autres services de base. Son goût pour le commerce et ses connaissances acquises dans les technologies numériques l’ont incité à miser sur l’intérêt croissant de l’Internet. « Je suis plus un universitaire qu’un marchand de tapis prêt à tout pour faire des coups », dit-il. J’étais très intéressé par la façon dont Internet modifiait le commerce et j’étais résolu à aller plus loin encore.»

M. Shuttleworth décida de lancer en 1995 une entreprise appelée Thawte Consulting (NdT : à prononcer comme « thought » la pensée), qui proposait des certificats numériques, un système de sécurité utilisé par les navigateurs pour vérifier l’identité des entreprises de commerce en ligne. À l’âge de 23 ans, il rendit visite à Netscape pour promouvoir un standard généralisé de ces certificats. Netscape, qui était alors le navigateur Web dominant, prit une participation, et Microsoft, avec son navigateur Internet Explorer, en fit autant.

Quand la folie du point.com (NdT : La bulle internet) se déclencha, des entreprises se montrèrent intéressées par cette boîte implantée en Afrique du Sud qui faisait du profit. En 1999, VeriSign, qui gérait un grand nombre de services structurels pour Internet, acheta Thawte pour 575 millions de dollars. (M. Shuttleworth avait décliné une offre à 100 millions de dollars quelques mois plus tôt.) Comme il était le seul détenteur de la société Thawte, M. Shuttleworth, fils d’un chirurgien et d’une institutrice de jardin d’enfant, s’est retrouvé très riche à 26 ans à peine.

Alors que peut bien faire un millionaire fraîchement éclos ? M. Shuttleworth a regardé vers les étoiles. En versant une somme évaluée à 20 millions de dollars aux autorités russes, il s’est offert un voyage de 10 jours dans l’espace à bord de la station spatiale internationale Soyouz TM-34, en 2002, devenant ainsi le premier « afronaute », comme l’a appelé la presse. « Après la vente de la société, il ne s’agissait pas de se vautrer sur des yachts avec des bimbos » a-t-il dit. « Il était très clair que j’étais dans une situation exceptionnelle qui me permettait de choisir de faire des choses qui auraient été impossibles sans cette fortune. »

Dans les années qui ont suivi, M. Shuttleworth a soutenu des startups et des organisations humanitaires. Grâce à ses investissements aux États-Unis, en Afrique et en Europe, il dit avoir amassé une fortune de plus d’un milliard de dollars. Il passe 90% de son temps, cependant, à travailler pour Canonical, qu’il considère comme un autre projet destiné à reculer les limites du possible.

« Je me suis bien débrouillé dans mes investissements, dit-il, mais cela n’a jamais été pleinement satisfaisant. J’ai peur d’arriver à la fin de ma vie en ayant l’impression de n’avoir rien bâti de sérieux. Et réaliser quelque chose que les gens pensaient impossible est un défi excitant ».

Le modèle choisi par Canonical permet cependant difficilement d’en tirer économiquement profit.

Beaucoup de compagnies Open Source offrent gracieusement une version gratuite de leur logiciel avec quelques limitations, tout en vendant la version intégrale accompagnée des services additionnels qui assurent au produit sa mise à jour. Canonical offre tout, y compris son produit phare, et espère que quelques entreprises vont alors se tourner vers lui pour acheter des services comme la gestion de grands parcs de serveurs et d’ordinateurs, au lieu de gérer ça elles-mêmes avec des experts maison.

Canonical dispose d’une autre source de revenus avec des compagnies comme Dell qui vendent des ordinateurs avec Ubuntu installé, et qui contribuent au logiciel avec des projets technologiques tels que l’implantation de fonctions propres à Linux sur les portables. L’un dans l’autre, le chiffre d’affaires de Canonical doit s’approcher des 30 millions de dollars par an, selon M. Shuttleworth. Un chiffre qui n’a pas de quoi inquiéter Microsoft.

Mais M. Shuttleworth défend l’idée que 30 millions de dollars par an est un revenu qui se suffit à lui-même, juste ce dont il a besoin pour financer les mises à jour régulières d’Ubuntu. Et un système d’exploitation qui s’auto-finance, dit-il, pourrait bien changer la manière dont les gens perçoivent et utilisent le logiciel qu’il ont chaque jour sous les yeux.

« Sommes-nous en train de répandre la paix sur le monde ou de le changer radicalement ? Non », dit-il. « Mais nous pouvons faire évoluer les attentes des gens et le degré d’innovation qu’ils peuvent espérer pour chaque dollar dépensé. »

On estime que Microsoft emploie depuis 5 ans 10000 personnes sur Vista, son nouveau système d’exploitation pour ordinateur de bureau. Le résultat de cet investissement qui se chiffre en milliards de dollars est un produit arrivé trop tard sur le marché, et que les critiques ont descendu en flammes.

Dans le même temps, Canonical publie une nouvelle version d’Ubuntu tous les six mois, en ajoutant des fonctionnalités qui tirent parti des dernières avancées fournies par les développeurs et les fabricants de composants comme Intel. Le modèle de développement de la société c’est avoir une longueur d’avance sur Microsoft, à la fois sur les prix et sur des fonctions qui lui ouvrent de nouveaux marchés.

« Il est pour moi tout à fait clair que la démarche Open Source aboutit à de meilleurs résultats,» dit M. Shuttleworth. De tels propos venant d’un homme désireux de financer un logiciel pour les masses – et par les masses – confortent ceux qui voient dans l’Open Source plus une cause à défendre qu’un modèle économique.

Sur son temps libre, Agostino Russo par exemple, qui travaille à Londres pour un fonds d’investissement chez Moore Europe Capital Management, a conçu une application appelée Wubi qui permet d’installer Ubuntu sur des ordinateurs tournant sous Windows.

« J’ai toujours pensé que l’Open Source était un mouvement socio-économique très important » dit M. Russo.

Mais en fin de compte, plusieurs aspects de l’entreprise de M. Shuttleworth paraissent encore chimériques. Linux demeure mal dégrossi, et le modèle économique de Canonical le rapproche plus d’une organisation humanitaire que d’une entreprise en passe de devenir un poids lourd de l’édition logicielle. Et même si Ubuntu, produit Open Source, s’avère un succès phénoménal, le système d’exploitation sera largement utilisé pour tirer parti de services en ligne propriétaires proposés par Microsoft, Yahoo, Google et les autres.

« Mark est tout à fait sincère et il croit véritablement à l’Open Source » dit Matt Asay, un chroniqueur des technologies Open Source qui dirige la société de logiciels Alfresco. « Mais je pense qu’à un moment donné il va passer par une remise en question de son credo. » M. Asay se demande si Canonical pourra faire vivre durablement sa philosophie du « tout est offert » et « tout est ouvert ».

Canonical ne montre pourtant pas de signe avant-coureur de ralentissement ni d’inflexion de sa trajectoire. « Nous avons déjà une idée claire du terrain sur lequel il nous faut concurrencer Windows », dit M. Shuttleworth. « Maintenant la question est de pouvoir créer un produit élégant et épatant. »

Dans sa vie privée, il continue de tester tout ce qui est possible, demandant par exemple qu’une connexion par fibre optique soit installée chez lui, à la frontière des quartiers chics de Londres que sont Chelsea et Kensington. « Je veux savoir ce que ça fait d’avoir une connexion à un gigaoctet chez soi », dit-il. « Ce n’est pas que j’aie besoin de regarder du porno en haute définition mais parce que je veux voir en quoi ça modifie notre comportement. »

Il affirme que Canonical n’est pas simplement une entreprise de bienfaisance menée par un individu qui a du temps, de l’argent et la volonté de s’attaquer à Microsoft bille en tête. Son idéal est de faire d’Ubuntu le standard pour un ou deux milliards d’êtres humains qui vont bientôt s’acheter un ordinateur personnel.

Notes

[1] Crédit photo : Stopped (Creative Commons By)