Quand l’éducation suisse quitte sa neutralité en faveur du logiciel libre

Fedewild - CC by-saTransition vers les standards ouverts et les logiciels libres, tel est le titre d’une récente directive du Département de l’instruction publique (DIP) du Canton de Genève[1], dans le cadre de son orientation stratégique en matière de logiciels informatiques (24 juin 2008).

Après un bref rappel de la définition d’un logiciel libre (selon la Free Software Foundation) et d’un standard ouvert (selon la Commission européenne), voici quelques extraits de ce que l’on peut y lire :

« Les logiciels dits libres ont atteint aujourd’hui un niveau de maturité technique qui en fait une alternative fiable, stable, adaptable et pérenne aux logiciels dits propriétaires »

Il a donc été décidé d’opérer une large migration au motif que :

« L’information gérée par l’État est une ressource stratégique dont l’accessibilité par l’administration et les citoyens, la pérennité et la sécurité ne peuvent être garanties que par l’utilisation de standards ouverts et de logiciels dont le code source est public.
Par ailleurs, même s’ils ne sont pas forcément gratuits, les logiciels libres permettent de réaliser des économies substantielles sur l’acquisition des licences. »

Par ailleurs :

« L’utilisation d’outils et de standards libres permet de garantir la sauvegarde et le partage des documents produits par les enseignant-e-s. La possibilité de fournir aux élèves pour leur usage externe à l’école les logiciels utilisés pour l’apprentissage représente un atout pédagogique et social d’importance.
Une large communauté éducative mondiale s’est développée autour des licences libres, produisant des ressources librement partagées adaptées aux besoins spécifiques de l’enseignement.
L’apprentissage est favorisé par des outils dont on peut étudier le fonctionnement. »

Ce qui donne, entre autres, les modalités d’applications suivantes :

« Lors des choix de solutions informatiques pédagogiques, les produits sous licence libre et les standards ouverts sont choisis par défaut.
Les migrations importantes qui sont prévues seront annoncées suffisamment à l’avance pour permettre l’accompagnement nécessaire au changement.
Tout choix de solutions propriétaires devra être dûment justifié par les demandeurs, en expliquant de façon détaillée les usages qui rendent indispensable l’acquisition d’un produit ou l’utilisation d’un standard non libre. »

Conclusions similaires à celles du fameux rapport Becta.

On notera également la présence d’une autre directive du DIP sur la Diffusion interne de documents dont voici quelques unes des préconisations :

Tout document qui ne demande pas une modification par le destinataire doit être diffusé en format PDF (Portable Document Format).
Pour les documents qui doivent être modifiés par le(s) destinataire(s), le format ouvert OpenDocument doit être privilégié. Ce format constitue en effet la garantie que le document pourra être relu en tout temps indépendamment du logiciel utilisé.

Cet engagement vers le Libre du DIP est fort bien raconté par Marco Gregori dans un article de la gazette interne du mois dernier (Les Clefs de l’École) intitulé Logiciels libres et pédagogie sans frontières. Il a de plus l’excellente idée d’insister sur un argument de poids que de trop nombreux enseignants ne peuvent ou ne veulent encore entendre : l’enjeu du logiciel libre à l’école est bien moins technique (ou financier) que pédagogique.

« Aux yeux du grand public, un logiciel libre se définit avant tout par sa gratuité. Pour le monde de la pédagogie, il est bien plus que ça: à la fois outil de transmission de la connaissance – notamment, il est vrai, par ses coûts réduits – et symbole même du savoir à partager sans barrières. »

Puis plus loin :

« Il y a quelques mois, le Service Ecoles-Médias du DIP publiait un texte dans lequel il soulignait la grande convergence entre l’éthique sur laquelle se fonde le mouvement libre et le système éducatif public: Dans sa volonté de rendre accessibles à tous les outils et les contenus, le « libre » poursuit un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication.
Démocratisation du savoir, autonomie, sens critique, autant de principes qui figurent dans la loi genevoise… sur l’instruction publique. Exagérée, la comparaison ? Pas vraiment si l’on considère les quatre critères majeurs d’un logiciel libre: il doit pouvoir être diffusé, utilisé, étudié et amélioré librement. »

Et l’article de s’achever sur un passage en revue des implications pédagogiques de ces quatre libertés que je vous invite vivement à lire et faire lire.

Bon, je ne voudrais pas donner l’impression de me répéter mais avec l’Angleterre ou encore l’Espagne, ça commence à faire pas mal de voisins qui, frappés du bon sens, s’interrogent et agissent officiellement en faveur du logiciel libre et des standards ouverts à l’école.

Anne, ma sœur Anne[2], vois-tu la même volonté venir du côté de la Rue du Genelle ? Ce serait d’autant plus simple que… y’a qu’à copier nos amis suisses et britanniques 😉

Liens annexes et connexes

Notes

[1] Edit : Le titre de mon billet est non seulement un peu facile mais surtout un peu maladroit puisqu’il laisse à penser qu’il s’agit de la Suisse dans sa globalité alors que seul le Canton de Genève est concerné ici (merci merinos d’avoir pointé cela et mea culpa).

[2] Crédit photo : Fedewild (Creative Commons By-Sa)




La Clé du Routard

Abraao - VinceDeg - CC-by-nc-nd

La Framakey voyage bien.

Nous nous en étions rendus compte à l’occasion des Jeux Olympiques de Pékin. La voici qui se promène aujourd’hui à bicyclette dans toute l’Amérique Latine[1].

Au départ il y a ce message de argh0 posté le 6 octobre dernier sur les forums d’Ubuntu-fr et titré : 20 000 bornes (à peu près) à vélo… J’emmène un netbook ?

« Amis Ubunteros, votre avis m’intéresse…

Voilà, je pars mercredi soir, pour une dizaine de mois, parcourir l’amérique latine à vélo, ce qui fait, si mes calculs sont bons, dans les 20000 bornes. Bon. Normal quoi.

Je me tate quelque peu sur le matos informatique. Je pourrais ne pas en prendre, à l’ancienne. Et puis, le poids, c’est l’ennemi du cycliste.

Mais sinon j’envisage l’éventuelle possibilité de prendre un netbook. Comme ça, je pourrai taper directement mon journal de bord avant de le mettre sur mon blog et stocker/retoucher mes photos (reflex numérique). C’est pas pour internet, pasque bon les bornes wi-fi ça m’étonnerai que ça coure la pampa. L’eee PC 901 m’a pas trop l’air mal. Mais si vous avez d’autres idées je suis preneur. Peut-on vraiment écrire avec un clavier de netbook 8′ ? A l’essai, c’est infernal, mais peut-être s’y habitue-t-on…

Merci de vos réponses ! »

Comme la grouillante communauté Ubuntu-fr est toujours prête à conseiller et participer au débat (ce qui, soit dit en passant, n’est pas pour rien dans le succès de cette distribution GNU/Linux en francophonie), il s’en est suivi un certain nombre d’interventions pour presqu’autant de propositions.

La question méritait effectivement attention : est-il opportun d’emporter un ordinateur avec soi (fut-il mini) lorsque l’on s’apprête a effectuer une telle épopée à vélo ? Pas si sûr. Mais alors, comme nous le suggère kimented il peut être judicieux d’emporter avec soi une Framakey, toujours prompte à brièvement et gentiment squatter un poste Windows qui traîne.

Le temps passa sans plus de nouvelles de argh0 jusqu’à mercredi dernier :

« C’est parti, je suis au Brésil, j’ai déjà avalé mes 700 premiers kilomètres (trop facile).

Alors, j’ai suivi vos conseils, et j’me suis fait une chtite Framakey. Et c’est vraiment tip top, exactement ce qu’il me fallait, donc merci beaucoup pour le conseil ! Emmener un netbook aurait été une grosse connerie. Donc voilà, j’arrive dans un cyber, bam je balance mon Firefox portable avec tous mes raccourcis et mdp et je laisse aucune trace. Gimp Portable est génial, en plus assez léger (genre je fais tourner Gimp et Firefox en même temps avec 200Mo de RAM, pour dire). »

On ne va pas bouder notre plaisir de rendre ainsi service à l’autre bout du monde, d’autant que le mouvement habituel (voire « naturel ») va plutôt de Framasoft vers Ubuntu-fr et non l’inverse 😉

Bon, c’est bien beau l’auto-congratulation mais ceci n’empêche pas notre ami d’ajouter :

« Par contre c’est horrible de retourner sous Windows après un peu plus d’un an d’Ubuntu. »

Horrible certes mais bien moins que de rester chez soi dans la pollution urbaine à lire avec une pointe de jalousie non dissimulée les péripéties de ce beau voyage sur le blog dédié L’Amérique Latine rurale à vélo : une aventure trépidante et à pédales de VinceDeg !

PS : Nous sommes preneurs de tout témoignage autour de la Framakey, aussi bien en tant qu’utilisateur comme ici qu’en tant que développeur/intégrateur lorsque vous réutilisez nos briques pour l’adapter à vos besoins. C’est malheureusement presque toujours un peu par hasard que l’on apprend de telles initiatives alors même qu’elles sont importantes aussi bien pour mesurer la pertinence de notre travail que pour le moral des troupes 😉

Notes

[1] L’illustration, sous Creative Commons By-Nc-Nd, est elle-même issue du blog de VinceDeg.




La fabuleuse histoire d’une pièce de 5 euros

Une pièce de 5 euros commémorative entièrement réalisée avec des logiciels libres, cela n’arrive pas tous les jours.

Quand, de plus, son auteur prend le soin de nous expliquer en détail sa démarche technique mais surtout artistique, cela donne un article tout à fait passionnant qu’il eut été grand dommage de ne pas traduire[1].

screenshot_herdenkingsmunt.jpg

Comment faire de l’argent avec du logiciel libre

How to make money with free software…

Stani – 29 octobre 2008 – Creative Commons By

Le ministère des finances néerlandais a organisé un concours d’architecture pour lequel un groupe de cabinet d’architectes trié sur le volet (unstudio, nox, etc.) et des artistes étaient conviés, moi y compris. Le but de la compétition n’était pas d’ériger un bâtiment mais de réaliser le design de la nouvelle pièce de 5 euros commémorative sur le thème « Les Pays-Bas et l’architecture ». Le gagnant se verra offrir un beau prix, mais sa récompense sera surtout d’avoir l’honneur de voir son design concrétisé sur une pièce qui aura cours au sein des Pays-Bas.

J’ai abordé le sujet « Les Pays-Bas et l’architecture » sous deux aspects. J’ai voulu rendre hommage aussi bien à la riche histoire architecturale des Pays-Bas qu’à la qualité de l’architecture néerlandaise contemporaine. Voilà les idées pour chaque face de ma pièce. Traditionnellement le portrait de la reine doit apparaître sur le côté face tandis qu’on retrouve la valeur de la pièce sur le côté pile.

Côté face

Architectuur_5_2008_vz_v5.jpg

Si l’on regarde de près mon portrait de la reine (cliquez sur l’image pour un agrandissement) vous verrez clairement qu’il est constitué de noms d’architectes néerlandais majeurs. Quand on part de l’extérieur les noms sont clairement lisibles et ils deviennent plus petit au centre. Grâce à une loupe tous les noms sont lisibles, mais pas tous à l’œil nu. Je trouve cela fascinant qu’un vieux support comme une pièce de monnaie puisse devenir en quelque sorte un « disque compact » d’informations.

La tension entre ce qui est lisible et ce qui ne l’est pas est aussi une métaphore du temps qui façonne l’histoire. Quelques grands noms du passé peuvent devenir moins influents et réciproquement. Pour retranscrire cette idée j’ai décidé non pas de classer les architectes par ordre alphabétique ou chronologique mais d’utiliser Internet comme un sismographe et de les classer par nombre de références trouvées.

ordening_en.jpg

Évidemment cet ordre évolue dans le temps et il constitue donc un repère temporel supplémentaire par rapport au nombre « 2008 » gravé. Je ne pouvais faire entrer que 109 noms d’architectes sur la pièce, ma sélection a donc été simple. Apparemment, la célébrité est exponentielle :

architects_yahoo.png

Pour réaliser l’image j’ai développé ma propre police. La largeur des lignes au sein d’une même lettre est variable afin de pouvoir recréer l’image :

Koningin_niveaus5_32mm_big_dark40_light80_crop.png

Côté Pile

Architectuur_5_2008_kz_v5.jpg

De nos jours l’architecture néerlandaise est connue pour sa forte approche conceptuelle. Cela se traduit par le fait que non seulement il y a beaucoup de livres à propos des architectes néerlandais, mais aussi beaucoup d’ouvrages rédigés par des architectes néerlandais.

all_books.jpg

Du côté pile j’ai imaginé le bord de la pièce comme une bibliothèque. Les livres s’élèvent comme des immeubles vers le centre de la pièce. Leur disposition n’est pas laissée au hasard puisqu’ils recréent les contours des Pays-Bas tandis que les silhouettes d’oiseaux rappellent la capitale de chaque province. Le dessin ci-dessous dévoile le cheminement de l’idée :

scheme_books.jpg

Un des problèmes était alors de choisir le nombre de livres : beaucoup de livres fins ou seulement quelques gros livres ? Avec un gros livre on ne peut que faire un cercle. Pour réussir à découper la silhouette la plus précise des Pays-Bas il faudrait des livres d’une page, ce qui n’est pas idéal non plus. Il fallait donc trouver un juste milieu et vous pouvez voir le résultat sur les ébauches ci-dessous. A gauche vous trouverez l’approximation des Pays-Bas, au milieu la « skyline » (NdT : ligne de crête) dessinée par les livres et à droite la différence entre la « skyline » dessinée par les livres et la silhouette des Pays-Bas :

schemes-pagina1.jpg

Ensuite vient le croquis de l’idée avec les oiseaux. Chaque oiseau vole au dessus de la capitale d’une province néerlandaise. Sur la pièce finale ces oiseaux choisis aléatoirement sont remplacés par des oiseaux typiques de chaque province.

birds_for_gimp.jpg

Technique

Tout le travail a été accompli à 100% avec des logiciels libres. La plupart sont des logiciels en Python adaptés à mes besoins grâce à l’éditeur SPE (Stani’s Python Editor). Pour la puissance visuelle j’ai employé PIL et pyCairo. De temps à autre Gimp, Inkscape et Phatch se sont révélés utiles. Tout le développement et le traitement ont été fait sur des machines sous GNU/Linux qui exécutaient Ubuntu/Debian. A la fin j’ai du travailler en étroite collaboration avec les techniciens de la Royal Dutch Mint (là où les pièces sont frappées) dans leurs ateliers. Les derniers détails ont donc été réglés sur mon Asus Eee PC (je ne comprends toujours pas pourquoi Asus ne livre pas ses netbooks sous Ubuntu). Générer la pièce sur le Eee prenait un peu plus de temps (30 secondes à la place de 3 secondes pour générer la pièce entière) mais faisait très bien l’affaire. Pour chercher le nombres de références sur Internet j’ai redécouvert Yahoo qui propose une api bien meilleure pour les requêtes automatiques que ses concurrents. Évidemment, le jury ne jugeait que le design et pas les logiciels utilisés et d’autres ont employé Maya, Illustrator, etc.

And the winner is…

Je suis fier de vous annoncer que j’ai gagné le concours ! Et donc prochainement 350 000 néerlandais feront usage du fruit de logiciels libres. J’aurai aimé pouvoir mettre la pièce sous licence GPL, ce qui aurait peut-être résolu la crise financière. Mais pour des raisons évidentes je n’ai pas eu la permission de le faire. Des versions spéciales seront aussi produites pour les collectionneurs du monde entier : une édition en argent pur pour 30,95€ et une édition en or pur pour 194,95€. Elles seront certainement rapidement en rupture de stock car ce sont des vrais objets de collection. La pièce sera mise en vente dans tous les bureaux de la poste néerlandaise le même jour que la sortie d’Intrepid Ibex : le 30 octobre 2008.

Voilà quelques images de la vraie pièce :

scan_herd_2400_queen.jpg

scan_herd_2400_books.jpg

Une publicité pour cette pièce sera diffusée une vingtaine de fois aux heures de forte audience à la télévision néerlandaise, c’est une belle réalisation (elle sera disponible prochainement) et des encarts publicitaires ont déjà été achetés dans plusieurs journaux. Ci-dessous le lancement officiel de la pièce aujourd’hui avec de gauche à droite : moi-même, le secrétaire d’Etat aux finances De Jager, l’architecte gouvernemental en chef Liesbeth van der Pol et le Maître de l’Hôtel des Monnaies Maarten Brouwer…

dsresource.jpg

Notes

[1] Grand merci à Olivier pour la traduction.




Hadopiraterisible !

Désolé pour ceux qui comme moi sont abonnés à leur flux RSS mais voici reproduite en intégralité la dernière dépêche de la Quadrature du Net.

Histoire de nous associer à l’indignation du collectif mais aussi peut-être sensibiliser quelques nouveaux lecteurs sur un sujet qui nous concerne tous. Prochain rendez-vous : l’Assemblée nationale.

The thing they call progress - Shutterhack - CC-by-nc-nd

"Création et internet" – Riposte graduée – Le Sénat déconnecté.

URL d’origine de l’article (CC by-nd)

Paris, le 31 Octobre 2008. La loi « Création et Internet » a été débattue et votée à toute allure en trois séances au Sénat, au terme d’un débat navrant, indigne des enjeux et des citoyens, mercredi 29 et jeudi 30 octobre. Sous le regard attentif des lobbyistes initiateurs et seuls bénéficiaires de cette loi (Vivendi, SACD, SACEM, SNEP, etc.)[1], le coûteux projet de loi décrété par Nicolas Sarkozy en novembre 2007 a été adopté sans aucune opposition. Les sénateurs ont plébiscité et voté à l’unanimité[2] l’usine à gaz administrative de la « riposte graduée » contre les partageurs sur Internet. Le Sénat français, tout entier au service de l’exécutif, contredit ainsi superbement l’Europe.

Un fossé générationnel au service de modèles économiques du passé…

Les sénateurs légiférant sur un domaine qu’ils ne maîtrisent pas, fossé générationnel et culturel aidant[3], ont pour beaucoup déchiffré, souvent mot à mot, des discours pré-mâchés par les industries du divertissement et leur ministre, Christine Albanel.

« Inconsistances, mensonges, amalgames et insultes que les industriels profèrent habituellement à l’encontre de leurs clients[4] servent de justification à des votes autistes, dans l’ignorance du débat public qui se tient dans la société française[5]. », résume Jérémie Zimmermann, co-fondateur de la Quadrature du Net.

… sous contrôle de l’executif, sans opposition.

Jeudi matin, dans un frémissement, quelques mesures adoucissant vainement la « riposte » sont votées contre l’avis du gouvernement et du groupe socialiste. Quelques courageux sénateurs centristes et UMP tentent de faire remplacer par des amendes la coupure d’accès à internet, afin de réduire le caractère visiblement injuste et disproportionné de la « riposte graduée ».

La majorité reprend les choses en main à la faveur d’une opportune suspension de séance juste avant le scrutin tranchant cette question. Une poignée de frais représentants de l’UMP parmi la vingtaine de sénateurs présents et le renfort de Roger Karoutchi[6] permettent un vote de la loi en un temps record, sans heurts, sans surprise et sans aucune forme d’opposition. Christine Albanel, « réconfortée », recevra-t-elle un accueil aussi chaleureux lors de la suite de l’examen de la loi à l’Assemblée Nationale ?

« La seule option acceptable aurait été le rejet pur et simple de ce texte. Les quelques modifications cosmétiques, vaguement positives, votées avant que le gouvernement ne reprenne un contrôle qui commençait à échapper à Christine Albanel, n’y changeront rien. Le Parti Socialiste a même surmonté ses divisions afin d’unanimement[7] voter ce texte anachronique si cher à Nicolas Sarkozy ! » affirme Gérald Sédrati-Dinet, analyste pour La Quadrature du Net.

Un déni manifeste des citoyens français et de l’Europe.

Plus se précise la mise en œuvre pratique de la "riposte graduée", plus elle dévoile son incapacité intrinsèque à fonctionner sans mettre en place une surveillance automatique à grande échelle du Net. Les processus techniques qu’on a demandé aux sénateurs de prendre pour argent comptant sont facilement contournables. Ils occasionneront, inévitablement et à grande échelle, des sanctions d’internautes qui n’auront commis aucune contrefaçon (faux positifs) et n’inquiéteront pas la plupart des contrefacteurs (faux négatifs). Le droit à la défense des personnes suspectées n’existe donc pas, car on ne peut garantir ni son innocence ni sa culpabilité ; ce texte est donc manifestement anti-constitutionnel.

« Cette loi est scandaleuse et ne sert que quelques industries qui refusent l’évolution de la société. Le Sénat aide le gouvernement à s’asseoir sur la démocratie européenne et à nier les droits fondamentaux des citoyens. Ces manœuvress représentent la pire façon de faire de la politique et d’écrire la loi. Il faut mettre un terme à ce processus dans l’intérêt de tous, en France et dans le reste de l’Europe. » concluent, de concert, les représentants du collectif citoyen.

Notes

[1] Crédit photo : The thing they call progress de Shutterhack sous licence Creative COmmons By-Nc-Nd. Légendée ainsi par la Quadrature du Net : « Riposte graduée : une usine à gaz contre les citoyens. »

[2] À l’unanimité de tous les groupes votant, le groupe des sénateurs Communiste, républicains et citoyens (CRC) ayant revendiqué son « abstention combative »…

[3] À l’exception notable du sénateur Bruno Retailleau, seul à paraître familier de l’environnement numérique et de ses réalités économiques et sociales au travers de quelques interventions salutaires.

[4] Clients présents, potentiels futurs clients, et anciens clients pour qui le rejet des pratiques de ces industries se traduit par un refus d’achat…

[5] Des propositions sont pourtant avancées pour discuter enfin une solution au problème que ce projet de loi a oublié : financer la création culturelle à l’ère numérique.

[6] Émissaire du gouvernement auprès du Parlement, il remplace le zélé conseiller Henrard aux côtés de la ministre Albanel, le temps de s’assurer que la situation était maîtrisée.

[7] Au plus fort de la séance durant laquelle le texte a été voté, seuls 2 sénateurs sur la vingtaine présente en hémicycle étaient socialistes, votant pour tout leur groupe.




Il faut lire Internet & Création de Philippe Aigrain

Law Keven - CC by-saLa loi Création et Internet (Hadopi) est aujourd’hui devant le Sénat. Alors que, faute à la crise économique, de nombreux autres projets de loi ont été sagement repoussés, celle qui nous concerne ici suivra la procédure d’urgence : le texte ne sera ainsi débattu qu’une fois, au lieu de deux, par chaque assemblée.

L’urgence ne s’imposait pas, sauf à vouloir que nos élus ne se penchent pas trop dans le détail sur ce projet de loi. Mais quitte à se placer coûte que coûte en situation d’urgence, alors il y a bien quelque chose à faire : lire le nouveau livre de Philippe Aigrain Internet & Création dont le sous-titre annonce un ouvrage qui va justement se risquer à lever le point d’interrogation : « Comment reconnaître les échanges hors marché sur internet en finançant et rémunérant la création ? ».

Parce que n’en déplaisent aux défenseurs radicaux de cette loi qui ont la caricature d’autant plus facile qu’ils sentent que leurs monopoles se fissurent, Philippe Aigrain n’est pas un « anarchiste numérique ». Au contraire, prolongeant son travail quotidien à la Quadrature du Net, il tente ici de réconcilier partisans et détracteurs en exposant clairement la situation et ses enjeux et en avançant des propositions concrètes et argumentées[1].

Extrait (p.12) :

« Avec ce rapport, nous tentons une gageure : parler à presque tous, installer un cadre commun qui ne suppose pas de se mettre d’accord sur tout pour explorer ensemble les voies du possible. Lecteurs, il vous faut cependant consentir à de petits efforts. Si vous êtes sincèrement convaincus qu’un individu qui met un fichier numérique représentant une œuvre à disposition des usagers d’un réseau pair à pair est un pirate (celui qui s’empare par la violence des biens d’autrui) et que les œuvres saignent lorsqu’on les partage, nous ne vous demandons pas d’abandonner ces croyances. Acceptez cependant de lire la prose de ceux qui ont une autre vision de ces activités. Considérez leurs propositions et le soin qu’elles mettent à préserver ce à quoi vous tenez : la reconnaissance et la récompense de ceux qui contribuent à la création ; l’organisation des filières qui permettent à certaines formes d’œuvres d’exister ; l’accès de tous à la culture. Si au contraire vous pensez qu’à l’âge d’internet, la gestion collective ne sert plus à rien et qu’il suffit de laisser faire les échanges universels pour que les ressources nécessaires aux activités créatives se répartissent mieux qu’aujourd’hui, nous ne vous demandons pas de changer d’avis.Mais lisez avec soin ce qui suit, et demandez-vous si les solutions qui y sont esquissées ne garantissent pas ce qui est pour vous l’essentiel : le développement des activités propres à internet, leurs libertés constitutives, la coopération de tous à la production d’un objet commun. »

Le détail des propositions mentionnées ci-dessus est donc contenu dans ce livre. C’est assez technique parfois mais sortir de l’anathème pour changer de paradigme ne s’improvise pas !

Oui la situation actuelle est intenable et non démocratique et il convient d’en faire son deuil. Oui un mécanisme de financement mutualisé (une « licence globale » revue et corrigée pour ceux qui se souviennent de la tout aussi contestée loi DADVSI) est souhaitable et permettrait non seulement de libérer les échanges hors marché entre individus mais également d’avoir un impact positif sur l’économie générale de la création.

En voici le plan tel qu’il apparait dans l’introduction (p. 5-6) :

« L’introduction rappelle le contexte des débats actuels. Elle défend la nécessité d’envisager ensemble la liberté de certains types d’échanges sur internet et la mise en place d’une nouvelle source de financement et de rémunération de la création. Le deuxième chapitre discute des échanges hors marché entre individus sur internet, montre l’intérêt qu’il y aurait à les reconnaître comme légitimes et propose de les délimiter précisément. Le troisième chapitre discute de l’état des mécanismes de financement et de rémunération de la création. Il souligne la crise qu’ils traversent et défend l’intérêt de les compléter par une redevance payée par les usagers d’internet. Le quatrième chapitre compare différentes formes de financements mutualisés pouvant être envisagées. Sur la base de cette comparaison, il défend l’intérêt d’un mécanisme de licence accordant des droits d’usage aux individus. Le cinquième chapitre analyse les différents cadres juridiques applicables, des licences collectives étendues aux licences légales. Il analyse chacun des mécanismes du point de vue de leur compatibilité avec les traités internationaux et le droit européen. Le sixième chapitre discute les paramètres fondamentaux du mécanisme (œuvres incluses dans le mécanisme, droits et obligations des usagers, montant de la redevance, relation avec d’autres dispositifs). Le septième chapitre répond à certains arguments qui ont été avancés contre la libération des échanges hors marché entre individus sur internet ou contre la mise en place d’un financement mutualisé. Le huitième chapitre discute de la répartition du produit de la redevance entre médias, entre fonctions pour chaque média et entre contributeurs. Le neuvième chapitre analyse les modes d’observation des usages permettant une répartition juste des ressources collectées. Enfin, la conclusion esquisse quelques pistes pouvant conduire à l’introduction du mécanisme proposé. »

Merci à Philippe Aigrain pour ce document qui tombe à point nommé et apporte beaucoup au débat. Merci également d’avoir choisi l’éditeur InLibroVeritas et opté pour une licence Creative Commons (la by-nc-nd) permettant la mise à disposition dans son intégralité du format numérique du livre. Mais comme pour le projet Framabook nous vous invitons à acheter le livre (pour la modique somme de 10 €) pour soutenir la démarche et faire en sorte que de plus en plus de ressources de qualité suivent ce modèle original de diffusion.

Lire ce livre vous donnera peut-être comme moi l’étrange impression de faire partie de ces pionniers qui, à tâtons, avancent lentement mais sûrement dans le sens de l’Histoire. Une Histoire qui, nous le savons bien, a connu son lot de rendez-vous manqués. Ne prenons pas plus de retard et saisissons ici tout de suite l’occasion d’être à l’heure 😉

PS : Joli coup de projecteur, on pourra également lire l’article Internet : du piratage au partage que Libération consacre ce même jour à ce même livre en ne cachant pas sa sympathie pour les propositions contenues dans l’ouvrage !

Notes

[1] Crédit photo : Law Keven|http://flickr.com/photos/66164549@N00/2487291985/] (Creative Commons By-Sa)




Sur la place des grands hommes du logiciel libre

À ces quelques noms, la communauté du logiciel libre reconnaissante !

Vous ne serez pas forcément d’accord avec le choix de l’auteur[1] mais nous sommes aussi là pour en discuter dans les commentaires 😉

PS : Le titre est un peu provocateur eu égard à un récent billet sur les femmes et le logiciel libre, d’autant qu’il y a bien une femme dans le lot. On pourra également remarquer qu’il n’y a pas beaucoup de non américains.

Copie d'écran - Free Software Magazine

Les héros du logiciel libre : de Stallman à Google, les figures emblématiques grâce à qui tout est devenu possible.

Free software heroes: from Stallman to Google, a list of inspiring individuals who made everything possible

Tony Mobily – 15/06/2008 – Free Software Magazine

Dans chaque domaine, on trouve un certain nombre d’acteurs majeurs qui ont consacré beaucoup de leur temps aux idées auxquelles ils croyaient. Tous nous rappellent qu’il revient à chacun d’entre nous de changer la donne et d’écrire l’histoire. Leur travail touche un grand nombre de personnes et peut avoir une influence extraordinaire sur notre façon de voir et de percevoir le monde.

Le monde du logiciel libre compte lui aussi ses héros. Vous connaissez déjà sans doute bon nombre d’entre eux; et si ce n’est pas le cas, il est fort probable que vous utilisiez tous les jours le fruit de leur travail.

Le but de cet article est à la fois de leur rendre hommage et d’offrir un résumé à ceux qui découvrent l’univers du logiciel libre.

Quelques figures emblématiques

Richard Stallman

Richard Stallman. Pour RMS, difficile de savoir par où commencer. C’est lui qui a initié le projet GNU, composante majeure du système d’exploitation GNU/Linux, en 1983 (vous lisez bien : mille neuf cent quatre-vingt trois !), et fondé la Free Software Foundation en 1985. C’est également lui qui a écrit le compilateur C GNU, oui, l’outil permettant de transformer le langage de programmation en code exécutable. Il consacre la majeure partie de son temps à l’action politique et à la promotion du logiciel libre. Pour avoir une idée de ce que dévouement veut dire, lisez son blog et consultez son agenda de voyages plus que surchargé.

Pamela Jones. Encore un bel exemple de dévouement : Pamela Jones est l’auteure de Groklaw, le site qui a sans doute sauvé GNU/Linux et le logiciel libre en général des griffes de SCO et de Microsoft. Pamela Jones est quelqu’un d’époustouflant : ces trois dernières années, elle a signé un millier d’articles, et une grande partie d’entre eux sont des papiers très fouillés qui ont eu un écho retentissant dans toute l’industrie des nouvelles technologies.

Linus Torvalds

Linus Torvalds. C’est lui qui a codé Linux, le noyau, sans lequel les applications GNU ne pourraient fonctionner. Le noyau de Linus, qui est arrivé à point nommé, a été distribué sous licence GPL (établie par Richard Stallman) en 1991. Linux est une composante essentielle du projet GNU/Linux.

Mark Shuttleworth

Mark Shuttleworth. C’est le fondateur de Canonical, la société qui a créé la distribution Ubuntu Linux. La version abrégée de la biographie de Shuttleworth est simple : il a gagné une fortune en vendant Thawte (qui fabriquait des certificats numériques) à VeriSign. Il a ensuite suivi le programme d’entraînement des cosmonautes Russes et est allé dans l’espace. À son retour, il a fondé Canonical afin de créer Ubuntu Linux, que l’on peut considérer comme la plus populaire et la plus innovante des distributions GNU/Linux destinées aux utilisateurs finaux.

Larry Page - Sergey Brin

Larry Page et Sergey Brin. Les créateurs de Google. Indépendamment de la grosse faute d’orthographe que cache ce mot (NdT : Le terme exact est googol, qui définit le nombre 10 suivi de cent zéros), vous en avez sans doute entendu parler : on tape quelques mots sur leur page Web, et l’on obtient comme par magie une liste pertinente de pages qui s’y rapportent… jetez-y donc un coup d’œil à l’occasion ! Bien que Google ne soit pas une entreprise qui se consacre au logiciel libre, et qu’une bonne partie de leurs logiciels soient au contraire sous licence propriétaire, ils ont néanmoins produit une quantité importante de logiciels libres et (plus important encore) contribué à la création de standards ouverts facilitant l’usage des logiciels libres (par exemple OpenSocial – en opposition à Facebook, ou Android – en opposition à l’iPhone et à Windows Mobile).

Matthew Szulik - Bob Young

Bob Young et Matthew Szulik. Bob Young est le fondateur de Red Hat, une des entreprises de logiciel libre connaissant le plus de succès. Sous la direction de Young, Red Hat s’est imposée comme la distribution GNU/Linux la plus implantée dans le domaine des serveurs. Les contributions de Red Hat au noyau Linux et au logiciel libre en général sont innombrables. Matthew Szulik a pris la succession de Young à la tête de Red Hat et a accru le succès de l’entreprise. Plus important encore, Szulik aurait eu un dîner célèbre (mais qui n’a jamais été avéré) avec Steve Ballmer, le PDG de Microsoft, qui aurait tenté de le convaincre de signer avec Microsoft un accord compromettant concernant les brevets. Szulik a refusé, même si un tel accord se serait révélé fort lucratif pour Red Hat. Le signer aurait causé un tort immense au monde du logiciel libre.

Jimmy Wales

Jimmy Wales. C’est le créateur d’un autre site dont vous avez dû entendre parler : Wikipédia. Inutile que je vous fournisse un lien : tapez ce qui vous passe par la tête dans Google (voir ci-dessus : c’est le moteur de recherche sympa dont je vous parlais un peu plus tôt), et il y a de fortes chances qu’une ou plusieurs pages de Wikipédia apparaissent dans les résultats… La technologie sur laquelle est basée Wikipédia est disponible sous une licence libre (GPL). C’est bien ça – la licence créée par Richard Stallman (voir plus haut). Même si Wikipédia en soi n’est pas un logiciel libre, c’était une des premières fois (voire la toute première) qu’on appliquait la philosophie du libre à un domaine ne relevant pas de la technique. Et depuis, son succès est énorme.

Lawrence Lessig

Lawrence Lessig. Il est à l’origine des licences Creative Commons, grâce auxquelles les artistes peuvent distribuer leurs œuvres sous des licences fonctionnant selon les principes du Libre.

Tim Berners Lee

Sir Tim Berners-Lee. L’inventeur du Wold Wide Web (NdT : L’Internet comme on le connaît aujourd’hui) Il a préféré mettre gratuitement ses spécifications (HTTP et HTML) à la disposition de tous plutôt que de demander à des entreprises et à des développeurs de se conformer à des accords inacceptables afin de respecter des termes soi-disant non-discriminatoires. Sans lui, l’Internet pourrait être aujourd’hui la chasse gardée de protocoles propriétaires de l’acabit de MSN ou AOL, et en proie au chaos. Et quand je dis chaos, je pèse mes mots.

Blake Ross

Blake Ross. C’est celui qui, alors qu’il était encore adolescent (en 2003), s’est rendu compte que le mouvement du Libre disparaissait du paysage des navigateurs parce qu’aucun navigateur libre et léger n’était disponible. Il a donc initié un fork de Mozilla et créé un autre logiciel dont vous avez sans doute entendu parler : Firefox. La suite, vous la connaissez. En fait, c’est une suite qui totalise 25% de parts de marché, résultat impressionnant sachant qu’il faut télécharger et installer volontairement sa copie de Firefox, contrairement à ce qui est livré directement avec Windows.

Dries Buytaert

Dries Buytaert. L’inventeur de Drupal, l’un des meilleurs CMS (Système de gestion de contenu) disponibles à l’heure actuelle. (Oui je sais, je ne suis pas objectif, puisque je suis un des développeurs de Drupal.) La plupart des internautes n’utilisent pas Drupal, mais nombreux sont ceux qui fréquentent des sites construits avec cet outil.

Keith Packard

Keith Packard. C’est l’instigateur du projet XOrg, un fork de XFree86. Grâce à lui, GNU/Linux possède aujourd’hui un sous-système graphique d’une qualité extraordinaire. Dans un entretien, qui date de 2003, Keith Packard explique en partie comment cet épisode s’est déroulé. À noter qu’au moment de l’entretien, rien n’était encore acquis, et XOrg n’était encore plus ou moins qu’une « idée ». À présent, c’est une réalité solide dans le monde du Libre.

Bram Cohen

Bram Cohen. Le petit génie de la mathématique qui a créé BitTorrent. À contre courant de la tendance générale, il a mis à disposition gratuitement les spécifications de son protocole. BitTorrent est depuis un outil crucial pour le logiciel libre, car il rend possible le téléchargement de distributions qui ne cessent de se développer. D’autres (cf : la RIAA) ne voient pas du même œil le potentiel de ce protocole.

Michael Tiemann

Michael Tiemann. Il a fondé Cygnus en 1989. Cygnus Solutions fut une des premières tentatives de « monétiser » le logiciel libre. Tiemann a aussi codé le compilateur C++ GNU et travaillé sur le compilateur et débogueur C GNU, deux logiciels d’une importance cruciale sans lequel le monde des nouvelles technologies ne serait pas le même.

Le monde s’ils n’avaient pas été là

À quoi ressemblerait le monde si ces personnages clé avaient préféré embrasser une carrière de plombier ? On pourrait avancer que si ça n’avait pas été eux, d’autres s’en seraient peut-être chargé. Mais dans le cas qui nous intéresse, c’est bien ce « peut-être » qui interpelle (soulevant la question plus théorique de la liste des « ça s’est joué à pas grand chose »).

Sans Pamela Jones, nombreux sont ceux (et j’en fais partie) qui pensent que le procès de SCO contre Linux aurait pu beaucoup plus mal se finir. Sans Stallman, le mouvement du Libre serait loin d’être aussi solide et organisé. Sans Shuttleworth, une distribution GNU/Linux propriétaire aurait pu prédominer sur le marché (ce qui était en train de se profiler, petit à petit, avec Linspire). Sans Larry Page et Sergey Brin, pas de Google. Pas de Summer of Code. Pas d’Android. Pas d’OpenSocial, la liste est longue comme le bras. Sans Bob Young et Matthew Szulik, pas de chef de file bien défini sur le marché des serveurs GNU/Linux, ou, pis encore, Red Hat aurait pu céder à la pression de Microsoft et signer un accord désastreux sur les brevets. Sans Jimmy Wales, pas de Wikipédia. Sans Lawrence Lessig, des milliers d’œuvres d’art ne seraient pas disponibles sur le World Wide Web. Et d’ailleurs, sans Sir Tim Berners-Lee, il n’y aurait même pas de World Wide Web. Sans Blake Ross, vous n’auriez sans doute pas d’autre choix que d’utiliser Internet Explorer pour aller sur Internet. Sans Dries Buytaert, Drupal n’existerait pas. Sans Keith Packard, nous serions coincés avec le XFree86 monolithique que nous connaissions avant, plus ou moins libre mais pas vraiment.

Sans eux, en gros, le monde serait aujourd’hui bien plus gris.

Faire partie du club, ça vous tente ?

À la lecture de cet article, vous voyez sans doute où je veux en venir : tous ces acteurs du Libre sont des gens brillants, dévoués et prêts à consacrer une grande part de leur vie à l’amélioration du monde dans lequel nous vivons.

Un des aspects formidables des logiciels libres, c’est qu’il s’agit d’un monde sans barrières. Peut y entrer qui veut. Votre nom pourrait bien figurer un jour dans cette liste. Pour y parvenir, il suffit de fournir une somme de travail phénoménale et de nourrir une immense passion pour le domaine, quel qu’il soit, auquel vous la consacrez.

Quant à moi, je ne figure pas dans cette liste, même si je crois en rêver depuis toujours. Je fais de mon mieux au sein de Free Software Magazine, et chaque fois que la lassitude ou le manque d’inspiration me saisissent, je pense à ceux qui ont rendu possible l’existence de cet univers, et m’efforce d’en faire autant, et aussi bien.

À notre niveau, nous n’apporterons pas forcément à l’édifice des pièces aussi majeures que celles de Sir Tim Berners-Lee, Richard Stallman ou Pamela Jones, mais rien ne nous empêche d’essayer.

Notes

[1] Traduction Don Rico sous l’œil avisé de Burbumpa et Olivier.




Building the world we want, not the one we have

4 EveR YounG - CC by-saJ’aimais bien le titre en anglais de la traduction du jour alors je l’ai conservé pour le titre du mon billet, nonobstant le fait qu’il occulte complètement son sujet à savoir Firefox et ses efforts pour nous proposer des formats multimédias audios et vidéos libres et ouverts[1].

Je partage l’enthousiasme de l’auteur et je remercie Mozilla qui, comme il est dit plus bas, améliore tout autant Firefox qu’il améliore le web tout entier.

PS1 : Cet article a été rédigé cet été, Firefox 3.1 n’est pas encore sorti à ce jour mais cela ne saurait tarder.

PS2 : J’en profite pour saluer ici le projet iTheora qui est « un script PHP permettant de diffuser des vidéos (et des fichiers audios) mais uniquement au format ogg/theora/vorbis. Il est simple à installer et à utiliser. Il conviendra aussi bien au blogger qu’au webmaster averti. »

Construire le monde que nous voulons, pas celui que nous avons

Building the world we want, not the one we have

Schrep’s Blog – 8 août 2008
(Traduction Framalang : Penguin et Olivier)

Grâce au dur labeur de Chris Double, Robert O’Callahan, Johnny Stenback et de beaucoup d’autres, les balises <video> et <audio> avec support natif de Theora video et Vorbis audio sont actuellement disponibles dans les nightly builds de Firefox. Ils seront inclus dans Firefox 3.1 Beta 1 qui sortira plus tard cette année.

Ce n’est pas nouveau mais je voulais vous expliquer pourquoi je trouve cela important.

Si vous lisez attentivement la spécification HTML1.0 de 1993 vous remarquerez qu’aucun format d’image n’était spécifié alors qu’il en existait des douzaines. GIF est excellent pour les logos, le dessin de lignes, etc… mais limité à 256 couleurs il n’est pas idéal pour les photos. JPEG compresse avec perte et donc est très bien pour les photos mais est moins adapté pour le dessin. PNG est arrivé plus tard pour résoudre certains problèmes de GIF et n’était pas totalement ni correctement supporté dans Internet Explorer jusqu’à la version 7. Avant que PNG ne soit supporté nativement par tous les navigateurs il existait de nombreux plug-ins pour combler ce manque.

Une technologie entravée par les brevets (GIF), primordiale pour la toile, a été remplacée par un format réellement libre et ouvert (PNG), d’abord à travers des plug-ins, puis, rapidement après, nativement dans les navigateurs. Les spécifications HTML ne spécifiait pas un format d’image spécifique, mais quelques uns devinrent incontournables dans l’usage courant.

Je pense que le même sort attend les balise <video> et <audio>. A l’heure actuelle, des centaines de millions d’utilisateurs peuvent visualiser des vidéos dans leur navigateur Web, mais cela nécessite pour les lire un des nombreux plug-ins propriétaires qui supportent des formats propriétaires. Cela veut dire que si vous réalisez une site Web avec vidéos flash/silverlight/WMV il ne fonctionnera pas sur des millions d’iPhone et d’autres navigateurs pour mobile. Et sur Linux il se peut qu’il marche comme il se peut qu’il ne marche pas. Le faire fonctionner nécessite des avocats, de l’argent et des accords commerciaux entre plusieurs parties.

En rendant disponible dans Firefox les balises HTML5 <video> et <audio> avec des formats ouverts, libres de droit, nous espérons rendre ces formats omniprésents grâce à un usage quotidien. Des formats ouverts et libres de droit vont permettre à tous les fabricants de navigateurs d’implanter nativement la lecture audio et vidéo sur toutes les plateformes, appareils et environnements, sans aucune restriction. Ils vont permettre à tous produits dont les sources sont ouvertes d’embarquer sans crainte de façon native la lecture audio et vidéo. Ils vont permettre aux réalisateurs de site Web d’utiliser gratuitement du son et de la vidéo dans leurs sites, sans se soucier de la présence ou l’absence sur une plateforme précise d’une version précise d’un plug-in précis. En tant qu’utilisateur final, nous n’aurons bientôt plus à nous demander si nous pourrons visionner le contenu vidéo d’un site donné sur notre nouveau téléphone, tablet PC ou PC parce que tous les systèmes sont capables de supporter un standard vidéo ouvert. Peut-être que je serai capable de voir les Jeux Olympiques de 2010 sur mon téléphone portable.

Un véritable accès universel au contenu. Voici le monde que nous voulons.

Il existe peu de contenu encodé en Theora/Vorbis à l’heure actuelle. Oui, et alors ?

Il y a 10 ans, il n’existait aucun contenu en H.264 alors que c’est un format plutôt répandu aujourd’hui. Jusqu’à ce que les vidéos en Flash ne deviennent courantes il n’existait pas beaucoup de contenu vidéo encodé en VP6. De nouveaux contenus sont créés sans arrêt et les transcoder en Theora/Vorbis est vraiment simple. Peu de temps après la sortie de Firefox 3.1 il y aura près de 200 millions d’ordinateurs de bureau capables de lire ce genre de vidéo. Le contenu suivra rapidement.

Je peux déjà regarder les vidéos qui Flash, Quicktime, Silverligt, etc… quel est l’intérêt de ce nouveau format ?

Avoir un support audio/video natif au sein de HTML5, avec des formats ouverts libres de droit, cela veut dire que n’importe quel fabricant de navigateur, appareil, etc.. peut supporter ce format. S’il est adopté largement, cela voudra dire que les créateurs de sites Web pourront bientôt utiliser un seul format pour toucher tous les appareils. En tant que technologie Web native, la vidéo peut donc être intégrée et mélangée avec toutes les autres avancées que le Web a connu jusqu’ici.

Est-ce que Theora ne fait pas baisser l’autonomie de ma batterie et/ou utilise mon processeur ?

Beaucoup de systèmes à l’heure actuelle sont vendus avec un forme quelconque d’accélération pour les formats H.264, MPEG-2 ou autres, ce qui réduit l’utilisation du processeur et donc l’utilisation de la batterie. Avec l’adoption du format nous nous attendons à ce que Theora bénéficie des mêmes accélérations matérielles dans un futur proche. Dans le même temps, la vidéo HD à 5-6 Mo/s se jouera de façon fluide sur des systèmes modernes sans aucune assistance matérielle.

La qualité video de Theora est-elle vraiment au rendez-vous ?

C’est tout à fait regardable et cela s’améliore tous les jours avec un travail comme celui-ci.

Existe-t-il des problèmes légaux ?

Nous avons réalisé une étude minutieuse de tous les problèmes connus et pour ce que nous en savons, Theora et Vorbis ne posent aucun risque concernant les brevets. Ils existent depuis un certain temps sans aucun problème; cependant, il existe toujours le risque que des gens sortent de leur chapeau des brevets cachés, mais ce risque existe pour tous les développeurs logiciels et pour n’importe quel type de logiciel. On ne peut pas exclure le risque que quelqu’un réclame quelque chose, ce qui ne veut pas dire que cette revendication a un fondement. Nous pensons qu’il n’y a pas de problème, mais si l’on y est contraint, nous pouvons : i) évaluer la réclamation et déterminer si elle est fondée; ii) utiliser la puissance du Web pour rassembler des preuves d’antériorité pour invalider la plainte; et iii) retirer ou desactiver la fonctionnalité si besoin est en dernier recourt.

Qu’en est-il de la Haute Définition (HD) ?

Theora peut lire et encoder du contenu HD. Avec les implémentations actuelles la qualité de la vidéo n’est pas aussi bonne qu’en H.264 mais des améliorations sont encore à venir. De plus, nous avons discuté avec les types géniaux à l’origine de Dirac et j’ai quelques vidéos 720p très impressionnantes encodées en Dirac. La bonne nouvelle, c’est qu’une fois que vous avez l’infrastructure video/audio de base dans Firefox, ajouter de nouveaux codecs/formats est assez simple. C’est un point de départ pour fournir à tout le monde un dénominateur commun pour la lecture de vidéos.

Pourquoi n’avez-vous pas juste acheté une license H.264, VC-1, MPEG-2, ou (insérer votre codec préféré ici) ?

Nous avons étudié attentivement cette option et nous aurions très bien pu le faire, à un coût élevé pour nous, pour le version binaire “officielle” de Firefox. Mais cela posait certains problèmes :

  • Cela aurait nécessité l’inclusion de code fermé dans Firefox.
  • Tout travail dérivé du code de Firefox ou Mozilla n’aurait *pas* pu le rendre disponible.
  • Aucun autre projet open source n’aurait pu l’utiliser.

Cela aurait simplement résolu le problème pour les utilisateurs de Firefox. Notre priorité est de résoudre le problème pour le Web dans son ensemble.

Pourquoi ne pas utiliser uniquement nativement DirectShow/Quicktime/Gstreamer sur chaque plateforme ?

Nous travaillons également sur cela comme vous pouvez le voir ici, ici et ici. Toutefois, cette approche a deux limitations importantes : a) le support des codecs varie énormément d’une plateforme à l’autre et b) cela ne résoud rien pour les téléphones et autres systèmes. Nous voulons un format de référence sur lequel tous les créateurs de sites Web pourront compter et qui fonctionne sur tous les environnements.

C’est fabuleux, comment est-ce que je peux aider ?

Téléchargez la version de développement de Firefox (“nightly build”) ici et essayez-là ici ou sur Wikimedia Commons. Créez du contenu natif en Theroa/Vorbis. Aidez à transcoder d’autres formats en Theora. Parlez-en à vos amis.

Notes

[1] Crédit photo : 4 EveR YounG (Creative Commons By-Sa)




C’est rien qu’à cause de Wikipédia si nos enfants échouent !

B2i - aKa - 2008À l’heure où notre ministre de l’Éducation Nationale Xavier Darcos annonce pour la nouvelle classe de Seconde 2009 un module « Informatique et société numérique » dont je n’ai pour l’heure aucune autre information (accent algorithmique, accent éducation aux médias et à internet, ou les deux mon capitaine ?), je voudrais rappeler par cette traduction au titre volontairement caricatural qu’il y a selon moi effectivement urgence à mieux former la nouvelle génération à l’usage d’internet en général et de la recherche en particulier.

En tant qu’enseignant censé animer le B2i dans mon établissement, j’avais pris l’année dernière l’initiative de venir évoquer cela devant nos quatre classes du niveau troisième réunies pour l’occasion (voir photo ci-dessus). Je m’étais appuyé pour se faire sur de nombreuses ressources[1] dont une a priori paradoxale puisque s’adressant aux parents mais qui avait le grand mérite de couvrir à peu près tous les sujets envisagés tout en faisant (parfois vivement) réagir les élèves : Devenir e-Parent du fort intéressant site québécois Réseau Éducation-Médias (dont on ferait bien de s’inspirer du reste soit dit en passant).

Et j’en avais également profité pour parler un peu de Wikipédia, sa spécificité, son mode d’édition, sa collaboration, ses licences, son projet citoyen, ses forces et ses faiblesses, etc. pour en conclure que cette encyclopédie mutante constituait une excellente (mais non exclusive) première rampe de lancement pour une recherche particulière. Recherche particulière qui peut vous mener fort loin. Tellement loin qu’elle peut parfois vous faire revenir à Wikipédia pour compléter vous-même l’article de départ avec la pertinente information trouvée ailleurs. Histoire d’apporter nous aussi notre pierre à l’édifice 😉

Nos enfants échouent – et tout est de la faute de Wikipedia !

Our Kids Are Failing – And It’s All Wikipedia’s Fault!

Sarah Perez – 23 juin 2008 – ReadWriteWeb
(Traduction Framalang : Penguin et Olivier)

Quelle réaction irréfléchie ! Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens en Ecosse. Selon le SPTC (Scottish Parent Teacher Council : Conseil écossais des enseignants et parents d’élèves), Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ?

Tout est de la faute de Wikipédia !

Dans le rapport, Eleanor Coner, porte-parole du SPTC, dit ceci : « Les enfants ont une très bonne maîtrise des outils informatiques, mais ils sont nuls en recherche. » Elle remarque que les étudiants d’aujourd’hui font la majeure partie de leurs recherches en ligne, au lieu d’utiliser des livres ou d’autres ressources qu’ils pourraient trouver dans une bibliothèque.

L’encyclopédie Internet, Wikipédia, était au cœur des préoccupations du conseil, car sa nature même lui permet d’être éditée par n’importe qui et qu’elle n’est pas mise à jour par des chercheurs reconnus.

De plus, le conseil s’inquiète des capacités de recherche des étudiants et de leur tendance à faire aveuglément confiance aux ressources en ligne. D’après Ronnie Smith, le secrétaire général de l’Institut d’Éducation d’Écosse, « Nous devons être sûrs que les jeunes ne considèrent pas ce qu’ils lisent en ligne comme des faits. »

Cela vous semble familier, non ?

Nous avons déjà entendu cette phrase de nombreuses fois : « Ne croyez pas tout ce que vous lisez » , « Ne croyez pas tout ce que vous voyez à la télévision », … maintenant c’est le tour d’Internet d’être soumis à l’inspection.

Est-ce que Internet nous rend stupide ?

Un coup d’œil rapide à cette information peut nous amener à croire qu’il s’agit d’un argument frappant en faveur de la thèse de Nicholas Carr qui dit que Internet (ou, comme il dit, Google) nous rend stupide. L’accès facile à un flot d’informations grâce à Internet, dit-il, affecte notre capacité à nous concentrer sur de longues périodes, comme lorsque nous lisons et absorbons de longs articles (une tendance que nous avons déjà mentionnée ici). D’une certaine façon, Wikipédia peut être vu comme la manifestation ultime de notre culture accommodante lorsqu’il s’agit de récupérer des informations.

Combien de fois par jour est-ce que vous faites une recherche rapide sur un fait quelconque et passez en coup de vent sur une page Wikipédia en récupérant uniquement les éléments mis en avant (dans mon cas en tout cas, j’admets que cela m’arrive au moins une fois par jour, si ce n’est plus).

Mais est-ce que les échecs aux examens sont réellement une indication sur la capacité de nos cerveaux à se reprogrammer pour s’adapter à cette nouvelle façon d’apprendre, comme Carr l’évoque dans son article ? Et est-ce que cette capacité affecte réellement notre intelligence ?

…Ou bien est-ce que les étudiants ont besoin d’apprendre à faire des recherches ?

Peut-être que non. Ce problème met plutôt en avant le fait que les institutions pédagogiques ont besoin d’adapter leur cursus et d’inclure des cours pour apprendre aux étudiants ce qu’est réellement une recherche. Une recherche Google peut les amener ou non à une ressource en ligne valable, mais beaucoup d’étudiants ne savent vraiment pas comment faire la différence entre ce qui est juste et ce qui ne l’est pas. Être capable de chercher une information en ligne et de la remettre en question pour déterminer s’il s’agit ou non d’un fait est tout simplement une aptitude qui manque à beaucoup d’utilisateurs sur Internet. Cependant, une fois que cette technique est acquise les étudiants peuvent l’appliquer durant toute leur formation, quelque soit le média qu’ils utilisent.

Notes

[1] Parmi les ressources on trouvait également notre diaporama Les licences Creative Commons expliquées aux élèves qui nous a été d’une aide précieuse pour aborder la question de l’échange et du partage sur internet.