Wikipédia en route vers la licence Creative Commons By-Sa

Drunkprincess - CC byIl y a à peine un mois la Free Software Foundation sortait la version 1.3 de sa licence de documentation libre la GNU Free Documentation License (ou GNU FDL).

Ceci peut apparaître totalement anodin, d’autant qu’il ne s’agit d’une d’une version intermédiaire avant la 2.0, mais c’est en fait un évènement à marquer d’une pierre blanche dans la petite histoire de la « culture libre ».

Cette nouvelle version a en effet été principalement motivée pour répondre au souhait de la Wikimedia Foundation de pouvoir changer la licence du contenu de ses projets, la fameuse encyclopédie libre Wikipédia en tête.

À sa création en 2001 Wikipédia a certainement adopté la meilleure des licences libres existantes, à savoir justement la GNU Free Documentation License. Or cette licence a été principalement créée pour la documentation de logiciels libres et posséde certaines contraintes qui peuvent compliquer la vie des utilisateurs de l’encyclopédie. Ainsi un enseignant qui souhaite distribuer l’imprimé d’un article de Wikipédia à ses élèves doit nécessairement y adjoindre l’intégralité de la licence (à savoir plusieurs pages) quand bien même l’article considéré ne remplit pas une page. Dans la pratique notre enseignant ne le fait généralement pas et se retrouve donc à ne pas respecter les termes de la licence.

De plus sont arrivées dans l’intervalle les licences Creative Commons avec le succès que l’on sait. Plus souples, mieux adaptées aux contenus culturels (textes, multimédias…) et possédant une traduction juridique officielle dans de nombreux pays, elles ont été massivement adoptées par les auteurs de l’ère numérique. Et d’ailleurs la grande majorité des images, sons et vidéos qui apparaissent aujourd’hui dans Wikipédia se trouvent être placés sous licence Creative Commons (et plus précisément les plus libres de la gamme, à savoir la By et By-Sa).

On peut affirmer sans risque de se tromper que si Wikipédia avait vu le jour en 2008, elle aurait choisi la licence Creative Commons By-Sa[1].

Le problème c’est qu’elle n’a jamais pu envisager cela parce que les deux licences étaient incompatibles. C’est justement cette incompatibilité que vient de lever la Free Software Foundation dans la nouvelle version de sa licence GNU FDL modifiée quasiment sur mesure pour que Wikipédia puisse passer sous Creative Commons By-Sa.

Dans la mesure où Free Software Foundation ne souhaite pas voir toutes les ressources sous GNU FDL suivre le même chemin, la clause est restreinte aux wikis créés avant le premier novembre 2008 et s’arrêtera après le 1er août 2009. Autrement dit la Wikimedia Foundation a quelques mois pour se décider mais il serait étonnant qu’elle ne profite pas d’une opportunité qu’elle a elle-même ardemment désirée.

Et pour ajouter plus de poids encore à cette information rien de telle que la traduction de l’annonce de Larry Lessig sur son blog où il témoigne aussi bien de son enthousiasme que de sa reconnaissance envers Richard Stallman[2].

Nouvelle de la plus haute importance émanant de la Free Software Foundation

Enormously important news from the Free Software Foundation

Lawrence Lessig – le 3 novembre 2008
(Traduction Framalang : Olivier)

La Free Software Foundation a publié la nouvelle version 1.3 de sa GNU Free Document License. La section 11 de cette licence permet (principalement) maintenant à certains wikis d’être publiés sous licence Creative Commons Paternité-Partage des Conditions Initiales à l’Identique (By-Sa v3.0) à condition que le changement de licence soit effectué avant le 1er août 2009. Ceci implique donc que la communauté Wikipédia a le choix de modifier sa licence au profit d’une licence Creative Commons (voir la FAQ pour cette amendement).

C’est un changement d’une importance majeure pour la communauté de la culture libre, difficile de le nier. Un défaut élémentaire du mouvement de la culture libre actuel est que la licence qui protège son projet le plus important, Wikipédia, le rend incompatible avec une qmajorité d’autres contenus du mouvement de la culture libre. Une solution pour y remédier serait évidemment de tout mettre sous Free Document License (FDL). Mais cette licence a été créée à l’origine pour les manuels et pour certaines raisons techniques elle était peu (voire parfois pas du tout) adaptée à d’autres types importants de contenu.

Cette modification devrait maintenant permettre l’interopérabilité des projets de culture libre, tout comme la prédominance de la GNU GPL permet l’interopérabilité entre les projets de logiciels libres. Cette modification abat des obstacles inutiles et contre-productifs à la diffusion et au développement de la culture libre.

Richard Stallman y est pour beaucoup dans ce changement. Nombreux étaient en effet ceux qui pensaient qu’il n’autoriserait jamais le changement de licence d’un Wikipédia devenu par sa licence FSF l’exemple emblématique de son mouvement pour les libertés. Car c’est de cela qu’il est question, tout comme le système d’exploitation GNU/Linux qui a été rendu possible par son mouvement, Wikipedia a été rendu possible par la liberté qu’offre la FDL. Qu’un homme moins noble que Richard Stallman trouve toute sorte d’excuses pour faire opposition à ce changement serait compréhensible.

Mais voici les mots de Richard, en 2002 et dans un autre contexte : « Si nous ne voulons pas vivre dans la jungle, nous devons changer notre manière de faire. Nous devons commencer par faire comprendre à tout le monde qu’un bon citoyen est une personne qui coopère quand cela s’avère nécessaire… ».

Vous pouvez ajouter « bon citoyen » à la liste des grandes qualités de ce père de la liberté moderne.

Notes

[1] On notera que Framasoft s’est aussi retrouvé avec ce dilemme quand sont apparues les licences Creative Commons, dilemme que nous avons résolu par le « tour de passe-passe » consistant à adopter au choix les deux licences en question pour notre contenu. Ce qui donne depuis 2004 : « Sauf mention contraire, le site est placé sous double licence Creative Commons By-Sa et GNU Free Documentation License ».

[2] Crédit photo : Drunkprincess (Creative Commons By)




Un logiciel libre peut-il se passer d’un dictateur bienveillant à vie ?

Hoyasmeg - CC byLe développement d’un logiciel libre est paradoxal. En théorie, et c’est même ce qui le fonde, il est ouvert à tout le monde mais en pratique son efficacité tire très souvent profit d’une structure qui voit une personne, presque toujours le créateur initial, se dégager de la multitude pour exercer, ce que l’on qualifie faut de mieux, une « dictature bienveillante ».

La « dictature »[1] c’est le fait de choisir seul la ligne directrice du projet en assumant les décisions (prises en concertation mais généralement sans réel processus démocratique). La « bienveillance », c’est la capacité du « dictateur » à écouter et l’attitude par laquelle il manifeste la considération qu’il éprouve envers les contributeurs.

C’est le sujet de la traduction du jour qui penche très clairement en faveur de cette étrange méritocratie qui va à l’encontre d’une organisation plus collective que l’auteur nomme ici « comité ». Avec, quoiqu’il arrive, une question en suspens : et si le « dictateur à vie » venait à ne plus pouvoir travailler sur son projet, ce dernier saurait-il véritablement lui survivre ?

NB : Il est à noter que si l’on accepte de voir le réseau Framasoft dans son ensemble comme une sorte de « gros logiciel libre en développement » alors nous n’échappons pas au débat. Le rôle de dictateur bienveillant, si dictature il y a, étant alors joué conjointement par Pierre-Yves Gosset et moi-même.

Les dictateurs dans les logiciels libres et open source

Dictators in free and open source software

Tony Mobily – 22 juillet 2008 – Free Software Magazine
(Traduction Framalang : Olivier et Penguin )

Certaines personnes remettent en cause l’idée que la plupart (voire la totalité) des projets de logiciels libres ne peuvent pas se passer d’un dictateur bienveillant, c’est à dire une personne qui a le dernier mot sur toutes les décisions prises. Ils pointent facilement les « erreurs » passées de Linus Torvalds (notez les guillemets) : l’utilisation de BitKeeper pour gérer le noyau, l’interdiction de greffons, etc. En tant que développeur logiciel, je pense qu’un dictateur est absolument nécessaire dans un projet de logiciel libre. Voici pourquoi.

Respect gagné par le DBAV

La première raison est aussi certainement la plus importante : le respect. Le dictateur bienveillant à vie (on le nommera DBAV à partir de maintenant) doit prendre des décisions, et même beaucoup de décisions, et en même temps il doit conserver le respect de ses pairs. Les décisions ne sont pas toujours populaires, et elles ne sont pas non plus toujours justes (particulièrement aux yeux des autres). Cependant, le DBAV doit faire preuve de charisme, aussi bien sur le plan technique que relationnel, pour conserver le respect du reste de l’équipe. Personne ne songerait jamais à initier un fork de Linux, car peu de développeurs abandonneraient Linus au profit de la personne à l’origine de la fourche. C’est vrai pour la plupart des projets et c’est pourquoi les forks sont rares. Il faut reconnaître cependant qu’il arrive que le DBAV réussisse à se mettre toute l’équipe de développement à dos, et que quelqu’un finisse par créer une fork en entraînant la majeure partie des développeurs avec lui. Un nouveau projet avec un nouveau nom se crée en s’appuyant sur le code source existant et l’ancien projet disparaît après quelques temps. C’est une bonne chose : le DBAV est en place tant que le peuple le souhaite. C’est une dictature, mais une dictature étrange puisqu’à tout moment les citoyens peuvent s’en aller créer un nouvel état ou en rejoindre un autre.

Connaissance

Le DBAV connaît le projet de A à Z. Il ou elle est à même de savoir si une décision détruira les fondations du projet, et saura également résoudre un problème en conservant la solidité de la structure. Drigg (un projet populaire que je maintiens) m’en apporte la preuve presque chaque semaine : je me rends compte que ma très bonne connaissance du projet le protège des mauvais patchs (NdT : correctifs) et des mauvaises demandes de fonctionnalités. Un DBAV est crucial et il ou elle doit être la personne qui prend les décisions. Dans un logiciel commercial, un manager moyen (qui ne sait pas coder) arrivera parfois à imposer une fonctionnalité ou une modification qui détruira inévitablement la structure du logiciel. Cela m’est aussi arrivé et je pense que c’est arrivé à presque toutes les personnes travaillant sur des logiciels clients propriétaires.

Rapidité

Tout se passe souvent très vite dans le développement de logiciels libres. Parfois les décisions sur la conception et la technique doivent être prises presque dans l’instant. Même si le DBAV peut demander leur avis aux autres membres, c’est à lui ou à elle que revient la décision finale. Il existe une expression anglaise qui dit « A Camel is a horse designed by committee » (NdT : « Un chameau est un cheval créé par un comité » pour dire que les décisions prises collectivement ne sont jamais optimales), je la trouve légèrement exagérée, tout dépend évidemment du comité en question, mais c’est en général vrai et c’est bien dommage. Des décisions doivent être prises, et parfois quand on suit la liste de discussion d’un projet, on souhaiterait vraiment que quelqu’un mette fin aux argumentations qui parfois s’éternisent et dise « ok, ça suffit, on va faire les choses comme ça ».

Charge de travail

Soumettre des idées pour de nouvelles fonctionnalités est un droit fondamental (par contre les exiger ne l’est pas). Les membres de l’équipe peuvent débattre de ces demandes de fonctionnalités et de leur implémentation. Cependant, le code fait la loi. Si un utilisateur propose quelque chose qui trouve écho chez une développeur, les discussions peuvent tirer en longueur, mais à un moment « quelque chose doit être codé si vous voulez qu’il se passe quelque chose ». En proposant un patch un membre de l’équipe gagnera du respect et de la crédibilité, à condition bien entendu que le correctif ne détruise pas la structure du projet. Cela signifie donc que les membres qui veulent contribuer prendront en charge ce qui leur tient vraiment à cœur et ils devront coder ces éléments de manière à ce que le DBAV ne les rejettent pas. Cela est bénéfique à la fois pour le code et pour la motivation des gens. Le code créé par les autres membres de l’équipe doit être bon. Ce qui nous amène au point suivant…

Envoyer de bons correctifs

Si un développeur sait que son patch sera inspecté par une personne ayant une connaissance poussée du projet, et que cette personne cherchera la petite bête, il mettra plus d’application dans l’élaboration de son correctif. Si ce n’est pas un DBAV mais un comité démocratique qui décide du sort des contributions, alors souvent de mauvais correctifs seront intégrés au code, des correctifs qui seront susceptibles de mettre à mal la structure du projet ou qui auront des effets secondaires obscures et difficiles à corriger. Ceci peut aussi se produire si le DBAV se comporte comme un père de famille confiant et aimant plutôt que comme un vrai DBAV. Oui, il m’est déjà arrivé d’accepter des correctifs trop rapidement, et je me suis retrouvé dans cette situation.

Maintenir la politique à l’écart du projet

Créer un comité c’est ouvrir la porte à la politique. L’équation suivante est souvent vraie : « Politique + Projet technique = Catastrophe ». Si un comité prend toutes les décisions, une partie des membres du comité pourrait finir par s’allier afin de faire passer des décisions pour des raisons autres que techniques (comprendre ici : renvoyer l’ascenseur, demander une faveur, etc.). Le DBAV peut aussi prendre des décisions politiques, mais ce ne seront toujours que les décisions politiques d’une personne, le DBAV lui-même, qui saura qu’une mauvaise décision sur le plan technique sera très préjudiciable au développement du projet.

Pour conclure…

Je ne suis pas spécialement fan des comités. Je pense qu’une méritocratie avec un DBAV fonctionne beaucoup mieux et réalise les choses beaucoup plus rapidement. Durant ma courte expérience de chef de projet de logiciel libre (presque un an), j’ai fait face, à une échelle plus modeste bien sûr, aux mêmes problèmes que rencontrent tous les jours beaucoup de développeurs de logiciels libres. Si vous n’êtes pas d’accord avec mes idées, vous pouvez créer un fork à partir d’un projet et mettre sa gestion dans les mains d’un comité. Mais vous avez de bonne chance d’accoucher d’un chameau plutôt que d’un cheval.

Vous êtes libre de me prouver que j’ai tort.

Notes

[1] Crédit photo : Hoyasmeg (Creative Commons By)




Un jusqu’Ubuntiste se cache à la rédaction de Libération

Ce jusqu’Ubuntiste, les lecteurs du Framablog commencent à bien le connaître puisqu’il s’agit du « novice » Erwan Cario.

Son fameux journal n’en finit pas d’essaimer car le voici aujourd’hui (dans sa version condensée) rien moins qu’en pleine page 32 du Libération papier du jour, qui pour le coup porte plutôt bien son nom 😉

Libération du 29 novembre - Page 32

Sachant que le tirage moyen du quotidien tourne autour des 140.000 unités (source Wikipédia), je vous laisse imaginer le nombre de personnes qui auront parcouru l’article qui commence ainsi :

« Fin octobre, un bouquetin intrépide a débarqué sur des milliers d’écrans. Il s’agit de la version 8.10 de la distribution Linux Ubuntu, Interpid Ibex en VO. Mais pourquoi donc Libération se met-il à parler de ce genre de trucs obscurs qu ne concernent qu’une poignée d’informaticiens barbus ? Sans doute parce que cette idée reçue n’a pas de raison d’être. Linux, qui est un système d’exploitation au même titre que Windows de Microsoft ou OS X d’Apple, se tourne vers le grand public et devient petit à petit très accessible. Récit d’une transition pas si compliquée… »




Les 46 meilleurs logiciels libres et/ou gratuits ?

Guillermo Esteves - CC byHier, c’était Thanksgiving aux USA. Et « ce jour-là, on remercie Dieu par des prières et des réjouissances pour les bonheurs que l’on a pu recevoir pendant l’année » (source Wikipédia).

Et si l’on détournait la chose pour se demander pour quel(s) logiciel(s) nous sommes le plus reconnaissant en le(s) remerciant de ce qu’il(s) nous apporte(nt) pendant toute l’année ? C’est cette idée qu’a eu Lifehacker, l’un des blogs références outre-atlantique pour tout ce qui tourne autour du logiciel.

Et comme c’est une référence, il est fort fréquenté et cela a donné… près de 800 réponses ! Réponses que l’on peut supposer signifiantes si l’on se hasarde à penser que le public de ce blog est lui aussi un peu spécialiste[1].

La question exacte était : « What Free Software are You Most Grateful For? », ce qui (au grand dam de Richard Stallman) aboutit à une liste qui mélange les free software libres et les free software gratuits, autrement appelés freewares ou gratuiciels.

Voici en tout cas ci-dessous la fameuse liste dont je me suis permis, contrairement à Lifehacker, de mettre en exergue les logiciels libres (accompagnés parfois de quelques liens bien sentis du réseau Framasoft) histoire de bien faire la distinction.

Pour ce qui me concerne elle m’aura permis de renouer un peu le contact avec certains free softwares non libres que j’avais perdu de vue depuis un certain temps déjà…

Quelques petites remarques à la va-vite :

  • Près de la moitié des logiciels de la liste sont libres
  • Les 6 premiers sont libres
  • Firefox est le grand gagnant puisque quasiment cité dans 50 % des cas (voir le camembert sur le site d’origine)
  • Le trio Firefox + VLC + Ubuntu approchent les 75% de citations
  • Pas beaucoup de nouveaux logiciels a priori (mais je ne les connais pas tous), certains sont là depuis un bail et se bonifient avec le temps
  • Pas mal de produits Google (Gmail, Picasa, Apps, Docs, Calendar) sans concurrence libre sur le terrain qu’ils occupent à savoir l’informatique dans les nuages
  • Un peu plus de logiciels pour Mac que pour un échantillon lambda
  • C’en est fini des eMule et autres Bittorrent
  • Ubuntu est largement devant Linux et sans autre distributions citée (cette remarque est hautement trolliphère)

The Lifehacker List

1. Firefox (FramasoftFramakey)
2. VLC Media Player (FramasoftFramakey)
3. Ubuntu (FramasoftFramabook)
4. OpenOffice.org (FramasoftFramakeyFramabook)
5. Pidgin (FramasoftFramakey)
6. Launchy (Framasoft)
7. Digsby
8. Gmail
9. Adium (Framasoft)
10. CCleaner
11. Picasa
12. AutoHotKey (Framasoft)
13. Google
14. Quicksilver
15. GIMP (FramasoftFramakey)
16. Foobar 2000
17. Thunderbird (FramasoftFramakeyFramabook)
18. 7-Zip (FramasoftFramakey)
19. DropBox
20. uTorrent
21. Winamp
22. Google Apps
23. AVG Antivirus
24. Evernote
25. IrfanView
26. Opera
27. Google Chrome
28. Google Calendar
29. HandBrake
30. Skype
31. Linux
32. Paint.NET (FramasoftFramakey)
33. Ad-Aware
34. Avast Antivirus
35. Google Docs
36. LogMeIn
37. Transmission (Framasoft)
38. TrueCrypt (FramasoftFramakey)
39. Amarok (Framasoft)
40. FileZilla (FramasoftFramakey)
41. Notepad++ (Framasoft)
42. PortableApps.com
43. Rocket Dock
44. Spybot Search & Destroy
45. UltraVNC (Framasoft)
46. VirtualBox

Et bien entendu, vous avez les commentaires pour nuancer, amender, critiquer et ajouter les logiciels selon vous scandaleusement oubliés 😉

Notes

[1] Crédit photo : Guillermo Esteves (Creative Commons By)




L’April ou le meilleur des remèdes à la surdité au logiciel libre

A4gpa - CC by-saNous le savons, le logiciel libre tient souvent du bon sens. Et nombreux sont ceux qui, lorsqu’ils le découvrent, ne peuvent s’empêcher de laisser échapper un « bon sang mais c’est bien sûr ! » qui résume assez bien le choc de la rencontre 😉

Le problème c’est qu’il y avait une vie avant le logiciel libre (si, si, je vous assure). Une vie avec ses us et coutumes qui ne s’accommode pas toujours forcément très bien de ce nouvel objet mutant, fut-il virtuel. Une vie qui d’ailleurs n’avait pas toujours fait du bon sens sa première vertu.

Du coup on se retrouve dans une situation quelque part paradoxale où ce qui semble « naturel » doit être au mieux maintes fois explicité et au pire âprement défendu pour d’abord se donner le droit d’exister puis ensuite se donner les moyens de se développer et s’épanouir.

C’est dans ce processus que s’inscrit l’April, l’association qui vient murmurer « logiciel libre » à l’oreille des décisionnaires.

Or ces oreilles sont parfois capricieuses. Selon l’étage dans la hiérarchie, elles peuvent être en effet distraites, sélectives voire même carrément bouchées. En adhérant à l’April c’est le logiciel libre dans son ensemble que vous soutiendrez et aiderez à devenir toujours plus audible sur la place publique[1].

Ils partirent peu nombreux mais par tous vos renforts, je, tu, nous nous vîmes cinq mille en arrivant au port. Voilà l’objectif visé. Il est ambitieux mais il est nécessaire quel que soit le port accosté. Qu’il s’agisse d’un sous-secrétariat de circonscription, une chambre de commerce, un couloir d’assemblée nationale ou européenne, un établissement scolaire, ou encore une manifestation festive qui vient à la rencontre des concitoyens, il est important de nous rassembler pour que l’April soit présente et continue de porter haut et fort la voix du logiciel libre.

Plus nous serons nombreux derrière l’April et plus celle-ci rencontrera d’oreilles attentives qui n’auront plus besoin d’être tirées. Ce n’est pas pour cela que nous pourrons ensuite tranquillement dormir sur nos deux oreilles, d’autant qu’il ne tient qu’à nous d’y participer, mais c’est l’assurance que le logiciel libre sera de plus en plus écouté.

À bon entendeur, salut !

Notes

[1] Crédit photo : A4gpa (Creative Common By-Sa)




Innovation et logiciel libre

Les logiciels libres n’innovent pas, il ne font que copier les nouveautés pertinentes de leurs petits camarades propriétaires, entend-t-on parfois ça et là. Certains vont même jusqu’à dire qu’ils font planer une menace sur cette innovation car ils combattent les brevets logiciels tout en dynamitant, à grands coups de partage et de gratuité, le modèle économique de certaines entreprises qui souhaitent tirer profit de leurs inventions.

Le débat mérite d’être posé (d’autant qu’on peut très bien considérer qu’un logiciel qui a choisi d’être libre est innovant en soi) mais toujours est-il qu’il y a indéniablement des progrès qui viennent directement des logiciels libres. En voici quelques uns, issus de la liste de M. Saunders. Cette liste non exhaustive est peut-être discutable alors nous vous attendons de pied ferme dans les commentaires.

Une traduction Olivier pour Framalang. Nous avons ajouté quelques liens wikipédia francophones à l’article d’origine qui n’en comportait aucun, histoire que ce soit plus clair pour un public non averti. Nous avons également choisi de conserver « Open Source » plutôt que de le traduire par « logiciel libre » parce qu’il nous a semblé que c’était plus proche de l’auteur qui manipule les deux termes, mais si vous voyez les choses différemment n’hésitez pas là aussi à troller vous manifester 😉

screenshot_linux-format.jpg

Les innovations de l’Open Source

Open source innovations

M. Saunders – 28 octobre 2008 – LinuxFormat.co.uk

L’Open Source ou les logiciels libres n’ont pas une réputation d’inventeurs. Ils se contentent de copier les logiciels commerciaux, n’est-il pas ? Pas vraiment, comme l’explique Neil Bothwick, du simple gadget jusqu’à l’Internet, les logiciels libres et open source sont à l’origine de nouvelles technologies et de nouvelles façons de travailler…

« L’Open Source ne fait que plagier les logiciels commerciaux. Si les logiciels commerciaux ne dépensait pas autant d’argent dans la recherche, les logiciels Open Source seraient à cours d’innovation. L’Open Source a besoin des logiciels commerciaux pour survivre. » Voici un florilège de déclarations sur les logiciels Open Source faites par ceux qui ont un intérêt particulier à les voir échouer ou piétiner, mais est-ce justifié ou est-ce simplement de l’intimidation ?

Même si on peut répondre à ceci par quelques arguments logiques, et nous en aborderons quelques uns, la meilleure réponse se trouve dans les exemples de tous les jours où ce sont les développeurs Open Source qui innovent et les logiciels commerciaux qui se contentent de suivre.

Avant toute chose, il faut préciser que suivre l’exemple donné par les autres et utiliser leur expérience n’est pas une mauvaise chose en soi. Si vous voyez une bonne idée, ne l’ignorez pas sous le seul prétexte que d’autres l’ont eu avant vous. Les produits concurrents, quelque soit leur domaine, ont bien plus de points communs que de différences. L’ergonomie est également un facteur : une interface graphique intuitive, ça n’existe pas vraiment.

Ce que l’on décrit comme étant intuitif n’est en fait que familier ; aucune personne censée ne créerait une voiture dans laquelle les commandes sont disposées différemment de ce qui se fait habituellement, pourquoi est-ce que ça devrait être différent pour une interface en informatique ? C’est la raison pour laquelle toutes les interfaces utilisateur graphiques sont basées sur l’interface Wimp (Windows, Icons, Menus, Pointer pour Fenêtres, Icônes, Menus et Pointeur) conçue par le centre de recherche de Xerox à Palo Alto. Ce sont aussi eux qui sont à l’origine de l’Ethernet, des imprimantes laser et de bien d’autres choses encore, donc ils savent ce qu’ils font.

Alors, dans quels domaines les développeurs Open Source sont-ils des pionniers, où ont-ils explorés des terres encore vierges ? Voici quelques exemples issus de différents domaines.

compiz-fusion.jpg

Bureau 3D

Que vous les aimiez ou que vous les détestiez, les gadgets sont partis pour durer et ils font vendre des systèmes d’exploitation. Que l’on parle d’Aqua de MacOS ou des bordures de fenêtres translucides (et illisibles) de Vista, les systèmes d’exploitation se battent pour rendre leurs bureaux « attirants ». La communauté Open Source est à la base de cette innovation grâce à Compiz Fusion qui a donné une nouvelle dimension aux gadgets sur le bureau, au sens propre du terme car le projet a apporté les effets 3D. Alors que certains fonctionnalités font la part belle aux effets visuels au détriment de l’ergonomie, d’autres permettent vraiment d’avoir une interface sensationnelle. Faites simplement démarrer le PC de votre pote qui ne jure que par Windows sur un LiveCD avec Compiz Fusion et regardez le demeurer bouche bée. Les bureaux en 3D n’iront qu’en s’améliorant avec le développement naturel du matériel qui leur permettra de tourner sans effort sur ce qui sera bientôt les machines d’entrée de gamme et un bureau en 3D sous Linux demande aujourd’hui toujours moins de ressources qu’un bureau en 2D sous Vista.

En fait, le nom Compiz Fusion lui-même dissipe un autre mythe à propos de l’Open Source : les projets sont perpétuellement en train de se diviser et de se fragmenter. De Compiz est née la sous division Beryl, mais les deux projets ont à nouveau fusionnés, mettant en commun les résultats de l’effort des deux communautés pour en faire un projet bien plus fort.

knoppix.jpg

LiveCD

L’un des grands avantages de l’Open Source est que les programmeurs peuvent utiliser le travail d’un autre, en faire un nouveau paquet et le sortir. C’est exactement ce qu’à fait Klaus Knopper avec Debian quand il a créé le LiveCD Knoppix. Les disques Knoppix possédaient des outils avancés de détection du matériel et de configuration automatique, quelque chose que l’on peut considérer déjà comme novateur. Pendant le démarrage, le disque se configure tout seul pour la majorité du matériel. Même si Knopper n’a pas inventé le concept du LiveCD (Suse en avait déjà une démo), il a été le premier a rendre ce concept utilisable, avec un disque capable de démarrer et de faire tourner un OS complet sur la majorité des configurations. Maintenant un système live dérivé de celui de Knoppix est derrière le disque d’installation de beaucoup de distributions.

Grâce à l’Open Source, Knopper a pu s’appuyer sur le travail de la communauté Debian plutôt que d’avoir à tout créer par lui même. Imaginez que l’envie vous prenne de développer un liveCD de Windows, simplement parce que l’idée vous plaît. Les seuls personnes qui seraient vraiment intéressées par votre idée seraient les avocats.

wikipedia.jpg

L’édition collective Wiki

Aux début du Web vous ne trouviez que des pages fixes où le contenu de chaque page était un fichier HTML. Ensuite le HTML dynamique a pointé le bout de son nez, se servant de modifications qui touchaient uniquement les serveurs au moyen de divers langages de programmations, mais le contenu n’était toujours que le contenu que le webmaster vous fournissait. Vous pouviez le lire ou l’imprimer, mais c’était tout. Le WikiWikiWeb a changé tout cela grâce à un concept novateur : le site Web pouvait être édité par n’importe quel visiteur. A partir de ce moment tout visiteur d’un wiki a le pouvoir de créer, d’éditer ou de supprimer des pages. Cette idée anarchique au demeurant a plutôt bien fonctionné et maintenant un site peut être amélioré par n’importe qui et n’est possédé par personne, le site Web Open Source.

Internet était bien moins sauvage en 1995 quand est apparu WikiWikiWeb, sa population se composait principalement de geeks et d’universitaires inoffensifs. De nos jours, le vandalisme peut devenir problématique et de nombreux wikis nécessitent la création d’un compte avant de se lancer dans l’édition, mais cela ne change en rien leur nature ouverte. Open Source n’est pas synonyme d’irresponsabilité protégée par l’anonymat, il est question d’échange et de reconnaissance de la contribution apportée par les autres. Le wiki n’est donc pas seulement une innovation de la communauté Open Source, c’est aussi un exemple vivant de ce qu’il y a de bon dans le concept d’ouverture.

vnc.jpg

Virtual Network Computing

VNC est l’exemple type d’invention qui ne pouvait émaner que de l’open source. VNC permet à un ordinateur de voir et, potentiellement, de prendre le contrôle d’un autre ordinateur. C’est utile pour accéder à votre propre machine lorsque vous n’êtes pas au bureau mais aussi pour assister à distance un autre utilisateur. « Appuie sur ce bouton et dis-moi ce que ça fait. » Toute personne ayant déjà eu ce genre de conversation téléphonique avec ses parents en comprendra l’utilité.

Même ceux qui sont le moins à cheval sur la sécurité de leur ordinateur devraient être horrifiés à l’idée de laisser quelqu’un contrôler leur ordinateur par Internet. Même si vous faites entièrement confiance à l’utilisateur de l’autre ordinateur (qui peut être vous-même) vous n’avez aucun moyen de savoir avec certitude ce qui advient des données lorsque vous utilisez un système propriétaire. L’Open Source n’est pas simplement à l’origine d’une innovation ici, c’est aussi un gage de sécurité : vous avez accès au code source et vous pouvez déterminer si les données de votre session ne seront pas envoyées dans une base souterraine secrète.




Building the world we want, not the one we have

4 EveR YounG - CC by-saJ’aimais bien le titre en anglais de la traduction du jour alors je l’ai conservé pour le titre du mon billet, nonobstant le fait qu’il occulte complètement son sujet à savoir Firefox et ses efforts pour nous proposer des formats multimédias audios et vidéos libres et ouverts[1].

Je partage l’enthousiasme de l’auteur et je remercie Mozilla qui, comme il est dit plus bas, améliore tout autant Firefox qu’il améliore le web tout entier.

PS1 : Cet article a été rédigé cet été, Firefox 3.1 n’est pas encore sorti à ce jour mais cela ne saurait tarder.

PS2 : J’en profite pour saluer ici le projet iTheora qui est « un script PHP permettant de diffuser des vidéos (et des fichiers audios) mais uniquement au format ogg/theora/vorbis. Il est simple à installer et à utiliser. Il conviendra aussi bien au blogger qu’au webmaster averti. »

Construire le monde que nous voulons, pas celui que nous avons

Building the world we want, not the one we have

Schrep’s Blog – 8 août 2008
(Traduction Framalang : Penguin et Olivier)

Grâce au dur labeur de Chris Double, Robert O’Callahan, Johnny Stenback et de beaucoup d’autres, les balises <video> et <audio> avec support natif de Theora video et Vorbis audio sont actuellement disponibles dans les nightly builds de Firefox. Ils seront inclus dans Firefox 3.1 Beta 1 qui sortira plus tard cette année.

Ce n’est pas nouveau mais je voulais vous expliquer pourquoi je trouve cela important.

Si vous lisez attentivement la spécification HTML1.0 de 1993 vous remarquerez qu’aucun format d’image n’était spécifié alors qu’il en existait des douzaines. GIF est excellent pour les logos, le dessin de lignes, etc… mais limité à 256 couleurs il n’est pas idéal pour les photos. JPEG compresse avec perte et donc est très bien pour les photos mais est moins adapté pour le dessin. PNG est arrivé plus tard pour résoudre certains problèmes de GIF et n’était pas totalement ni correctement supporté dans Internet Explorer jusqu’à la version 7. Avant que PNG ne soit supporté nativement par tous les navigateurs il existait de nombreux plug-ins pour combler ce manque.

Une technologie entravée par les brevets (GIF), primordiale pour la toile, a été remplacée par un format réellement libre et ouvert (PNG), d’abord à travers des plug-ins, puis, rapidement après, nativement dans les navigateurs. Les spécifications HTML ne spécifiait pas un format d’image spécifique, mais quelques uns devinrent incontournables dans l’usage courant.

Je pense que le même sort attend les balise <video> et <audio>. A l’heure actuelle, des centaines de millions d’utilisateurs peuvent visualiser des vidéos dans leur navigateur Web, mais cela nécessite pour les lire un des nombreux plug-ins propriétaires qui supportent des formats propriétaires. Cela veut dire que si vous réalisez une site Web avec vidéos flash/silverlight/WMV il ne fonctionnera pas sur des millions d’iPhone et d’autres navigateurs pour mobile. Et sur Linux il se peut qu’il marche comme il se peut qu’il ne marche pas. Le faire fonctionner nécessite des avocats, de l’argent et des accords commerciaux entre plusieurs parties.

En rendant disponible dans Firefox les balises HTML5 <video> et <audio> avec des formats ouverts, libres de droit, nous espérons rendre ces formats omniprésents grâce à un usage quotidien. Des formats ouverts et libres de droit vont permettre à tous les fabricants de navigateurs d’implanter nativement la lecture audio et vidéo sur toutes les plateformes, appareils et environnements, sans aucune restriction. Ils vont permettre à tous produits dont les sources sont ouvertes d’embarquer sans crainte de façon native la lecture audio et vidéo. Ils vont permettre aux réalisateurs de site Web d’utiliser gratuitement du son et de la vidéo dans leurs sites, sans se soucier de la présence ou l’absence sur une plateforme précise d’une version précise d’un plug-in précis. En tant qu’utilisateur final, nous n’aurons bientôt plus à nous demander si nous pourrons visionner le contenu vidéo d’un site donné sur notre nouveau téléphone, tablet PC ou PC parce que tous les systèmes sont capables de supporter un standard vidéo ouvert. Peut-être que je serai capable de voir les Jeux Olympiques de 2010 sur mon téléphone portable.

Un véritable accès universel au contenu. Voici le monde que nous voulons.

Il existe peu de contenu encodé en Theora/Vorbis à l’heure actuelle. Oui, et alors ?

Il y a 10 ans, il n’existait aucun contenu en H.264 alors que c’est un format plutôt répandu aujourd’hui. Jusqu’à ce que les vidéos en Flash ne deviennent courantes il n’existait pas beaucoup de contenu vidéo encodé en VP6. De nouveaux contenus sont créés sans arrêt et les transcoder en Theora/Vorbis est vraiment simple. Peu de temps après la sortie de Firefox 3.1 il y aura près de 200 millions d’ordinateurs de bureau capables de lire ce genre de vidéo. Le contenu suivra rapidement.

Je peux déjà regarder les vidéos qui Flash, Quicktime, Silverligt, etc… quel est l’intérêt de ce nouveau format ?

Avoir un support audio/video natif au sein de HTML5, avec des formats ouverts libres de droit, cela veut dire que n’importe quel fabricant de navigateur, appareil, etc.. peut supporter ce format. S’il est adopté largement, cela voudra dire que les créateurs de sites Web pourront bientôt utiliser un seul format pour toucher tous les appareils. En tant que technologie Web native, la vidéo peut donc être intégrée et mélangée avec toutes les autres avancées que le Web a connu jusqu’ici.

Est-ce que Theora ne fait pas baisser l’autonomie de ma batterie et/ou utilise mon processeur ?

Beaucoup de systèmes à l’heure actuelle sont vendus avec un forme quelconque d’accélération pour les formats H.264, MPEG-2 ou autres, ce qui réduit l’utilisation du processeur et donc l’utilisation de la batterie. Avec l’adoption du format nous nous attendons à ce que Theora bénéficie des mêmes accélérations matérielles dans un futur proche. Dans le même temps, la vidéo HD à 5-6 Mo/s se jouera de façon fluide sur des systèmes modernes sans aucune assistance matérielle.

La qualité video de Theora est-elle vraiment au rendez-vous ?

C’est tout à fait regardable et cela s’améliore tous les jours avec un travail comme celui-ci.

Existe-t-il des problèmes légaux ?

Nous avons réalisé une étude minutieuse de tous les problèmes connus et pour ce que nous en savons, Theora et Vorbis ne posent aucun risque concernant les brevets. Ils existent depuis un certain temps sans aucun problème; cependant, il existe toujours le risque que des gens sortent de leur chapeau des brevets cachés, mais ce risque existe pour tous les développeurs logiciels et pour n’importe quel type de logiciel. On ne peut pas exclure le risque que quelqu’un réclame quelque chose, ce qui ne veut pas dire que cette revendication a un fondement. Nous pensons qu’il n’y a pas de problème, mais si l’on y est contraint, nous pouvons : i) évaluer la réclamation et déterminer si elle est fondée; ii) utiliser la puissance du Web pour rassembler des preuves d’antériorité pour invalider la plainte; et iii) retirer ou desactiver la fonctionnalité si besoin est en dernier recourt.

Qu’en est-il de la Haute Définition (HD) ?

Theora peut lire et encoder du contenu HD. Avec les implémentations actuelles la qualité de la vidéo n’est pas aussi bonne qu’en H.264 mais des améliorations sont encore à venir. De plus, nous avons discuté avec les types géniaux à l’origine de Dirac et j’ai quelques vidéos 720p très impressionnantes encodées en Dirac. La bonne nouvelle, c’est qu’une fois que vous avez l’infrastructure video/audio de base dans Firefox, ajouter de nouveaux codecs/formats est assez simple. C’est un point de départ pour fournir à tout le monde un dénominateur commun pour la lecture de vidéos.

Pourquoi n’avez-vous pas juste acheté une license H.264, VC-1, MPEG-2, ou (insérer votre codec préféré ici) ?

Nous avons étudié attentivement cette option et nous aurions très bien pu le faire, à un coût élevé pour nous, pour le version binaire “officielle” de Firefox. Mais cela posait certains problèmes :

  • Cela aurait nécessité l’inclusion de code fermé dans Firefox.
  • Tout travail dérivé du code de Firefox ou Mozilla n’aurait *pas* pu le rendre disponible.
  • Aucun autre projet open source n’aurait pu l’utiliser.

Cela aurait simplement résolu le problème pour les utilisateurs de Firefox. Notre priorité est de résoudre le problème pour le Web dans son ensemble.

Pourquoi ne pas utiliser uniquement nativement DirectShow/Quicktime/Gstreamer sur chaque plateforme ?

Nous travaillons également sur cela comme vous pouvez le voir ici, ici et ici. Toutefois, cette approche a deux limitations importantes : a) le support des codecs varie énormément d’une plateforme à l’autre et b) cela ne résoud rien pour les téléphones et autres systèmes. Nous voulons un format de référence sur lequel tous les créateurs de sites Web pourront compter et qui fonctionne sur tous les environnements.

C’est fabuleux, comment est-ce que je peux aider ?

Téléchargez la version de développement de Firefox (“nightly build”) ici et essayez-là ici ou sur Wikimedia Commons. Créez du contenu natif en Theroa/Vorbis. Aidez à transcoder d’autres formats en Theora. Parlez-en à vos amis.

Notes

[1] Crédit photo : 4 EveR YounG (Creative Commons By-Sa)




C’est rien qu’à cause de Wikipédia si nos enfants échouent !

B2i - aKa - 2008À l’heure où notre ministre de l’Éducation Nationale Xavier Darcos annonce pour la nouvelle classe de Seconde 2009 un module « Informatique et société numérique » dont je n’ai pour l’heure aucune autre information (accent algorithmique, accent éducation aux médias et à internet, ou les deux mon capitaine ?), je voudrais rappeler par cette traduction au titre volontairement caricatural qu’il y a selon moi effectivement urgence à mieux former la nouvelle génération à l’usage d’internet en général et de la recherche en particulier.

En tant qu’enseignant censé animer le B2i dans mon établissement, j’avais pris l’année dernière l’initiative de venir évoquer cela devant nos quatre classes du niveau troisième réunies pour l’occasion (voir photo ci-dessus). Je m’étais appuyé pour se faire sur de nombreuses ressources[1] dont une a priori paradoxale puisque s’adressant aux parents mais qui avait le grand mérite de couvrir à peu près tous les sujets envisagés tout en faisant (parfois vivement) réagir les élèves : Devenir e-Parent du fort intéressant site québécois Réseau Éducation-Médias (dont on ferait bien de s’inspirer du reste soit dit en passant).

Et j’en avais également profité pour parler un peu de Wikipédia, sa spécificité, son mode d’édition, sa collaboration, ses licences, son projet citoyen, ses forces et ses faiblesses, etc. pour en conclure que cette encyclopédie mutante constituait une excellente (mais non exclusive) première rampe de lancement pour une recherche particulière. Recherche particulière qui peut vous mener fort loin. Tellement loin qu’elle peut parfois vous faire revenir à Wikipédia pour compléter vous-même l’article de départ avec la pertinente information trouvée ailleurs. Histoire d’apporter nous aussi notre pierre à l’édifice 😉

Nos enfants échouent – et tout est de la faute de Wikipedia !

Our Kids Are Failing – And It’s All Wikipedia’s Fault!

Sarah Perez – 23 juin 2008 – ReadWriteWeb
(Traduction Framalang : Penguin et Olivier)

Quelle réaction irréfléchie ! Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens en Ecosse. Selon le SPTC (Scottish Parent Teacher Council : Conseil écossais des enseignants et parents d’élèves), Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ?

Tout est de la faute de Wikipédia !

Dans le rapport, Eleanor Coner, porte-parole du SPTC, dit ceci : « Les enfants ont une très bonne maîtrise des outils informatiques, mais ils sont nuls en recherche. » Elle remarque que les étudiants d’aujourd’hui font la majeure partie de leurs recherches en ligne, au lieu d’utiliser des livres ou d’autres ressources qu’ils pourraient trouver dans une bibliothèque.

L’encyclopédie Internet, Wikipédia, était au cœur des préoccupations du conseil, car sa nature même lui permet d’être éditée par n’importe qui et qu’elle n’est pas mise à jour par des chercheurs reconnus.

De plus, le conseil s’inquiète des capacités de recherche des étudiants et de leur tendance à faire aveuglément confiance aux ressources en ligne. D’après Ronnie Smith, le secrétaire général de l’Institut d’Éducation d’Écosse, « Nous devons être sûrs que les jeunes ne considèrent pas ce qu’ils lisent en ligne comme des faits. »

Cela vous semble familier, non ?

Nous avons déjà entendu cette phrase de nombreuses fois : « Ne croyez pas tout ce que vous lisez » , « Ne croyez pas tout ce que vous voyez à la télévision », … maintenant c’est le tour d’Internet d’être soumis à l’inspection.

Est-ce que Internet nous rend stupide ?

Un coup d’œil rapide à cette information peut nous amener à croire qu’il s’agit d’un argument frappant en faveur de la thèse de Nicholas Carr qui dit que Internet (ou, comme il dit, Google) nous rend stupide. L’accès facile à un flot d’informations grâce à Internet, dit-il, affecte notre capacité à nous concentrer sur de longues périodes, comme lorsque nous lisons et absorbons de longs articles (une tendance que nous avons déjà mentionnée ici). D’une certaine façon, Wikipédia peut être vu comme la manifestation ultime de notre culture accommodante lorsqu’il s’agit de récupérer des informations.

Combien de fois par jour est-ce que vous faites une recherche rapide sur un fait quelconque et passez en coup de vent sur une page Wikipédia en récupérant uniquement les éléments mis en avant (dans mon cas en tout cas, j’admets que cela m’arrive au moins une fois par jour, si ce n’est plus).

Mais est-ce que les échecs aux examens sont réellement une indication sur la capacité de nos cerveaux à se reprogrammer pour s’adapter à cette nouvelle façon d’apprendre, comme Carr l’évoque dans son article ? Et est-ce que cette capacité affecte réellement notre intelligence ?

…Ou bien est-ce que les étudiants ont besoin d’apprendre à faire des recherches ?

Peut-être que non. Ce problème met plutôt en avant le fait que les institutions pédagogiques ont besoin d’adapter leur cursus et d’inclure des cours pour apprendre aux étudiants ce qu’est réellement une recherche. Une recherche Google peut les amener ou non à une ressource en ligne valable, mais beaucoup d’étudiants ne savent vraiment pas comment faire la différence entre ce qui est juste et ce qui ne l’est pas. Être capable de chercher une information en ligne et de la remettre en question pour déterminer s’il s’agit ou non d’un fait est tout simplement une aptitude qui manque à beaucoup d’utilisateurs sur Internet. Cependant, une fois que cette technique est acquise les étudiants peuvent l’appliquer durant toute leur formation, quelque soit le média qu’ils utilisent.

Notes

[1] Parmi les ressources on trouvait également notre diaporama Les licences Creative Commons expliquées aux élèves qui nous a été d’une aide précieuse pour aborder la question de l’échange et du partage sur internet.