No Es Una Crisis : un web-documentaire (enfin) libre !

Le 21 novembre dernier, nous annoncions sur le Framablog une « opération de libération » du web-documentaire « No Es Una Crisis ». En effet, les ressources de ce documentaire produit par ‘‘La Société des Apaches” sont libres (CC BY-SA), malheureusement sa réalisation utilisant la technologie Flash empêchait sa visualisation sur bon nombre de supports (smartphones, tablettes, systèmes d’exploitation libres, anciennes versions de Windows, etc.).

L’objectif était d’arriver, en un week-end, à produire collectivement et bénévolement, une version HTML5 du webdoc permettant sa visualisation sur tous les supports disposant d’un navigateur web récent.

Pierre-Yves Gosset était, avec Fabien Bourgeois, le co-organisateur de ce « marathon de libération ».

noesunacrisis_LOGO_footerpartenaires_plat_m.jpg

Bonjour Pierre-Yves. La première question qui me vient à l’esprit est « Alors, l’objectif a-t-il été atteint ? »

La réponse est : malheureusement non, puisque nous n’avons pas été en mesure de publier la version HTML5 le 15 au soir.

Heureusement, « la route est longue, mais la voie est libre ». Et ne pas avoir atteint l’objectif fixé le dimanche soir ne signifiait pas pour autant la mise au placard du travail effectué le week-end.
Ce qui me permet aujourd’hui d’annoncer qu’une version – non-finalisée, mais fonctionnelle – est en ligne.

Que s’est-il passé ?

Il faut d’abord préciser quelques éléments de contexte.

Nous nous sommes réunis les 14 et 15 décembre 2013, à Lyon, à Locaux Motiv (qui héberge le local de Framasoft).
Suite à l’appel lancé via le Framablog, nous étions 7 le samedi : Adrien, Fabien, Sheetal, tonton, JosephK, Luc, pyg (+ Julien et Frib pour l’équipe du webdoc). Nous avons eu deux désistements de dernière minute. Le dimanche, nous étions 5 : Fabien, tonton, Luc, JosephK et pyg.
Pour la plupart, ces personnes n’avaient jamais travaillé ensemble et ne se connaissaient pas.

Concernant le déroulé, après un présentation du projet de webdoc par les Apaches, nous avons réparti les participants en différentes équipes : vidéos (JosephK et Adrien), panneaux interactifs (Fabien et Luc), panneau « portraits » (tonton, avec l’aide ponctuelle de Luc et Fabien), et « petites mains » (Sheetal et pyg).

IMG_20131214_150819__1_.jpg

Le rendez-vous était donné à 10h, mais je pense que nous n’avons commencé à prendre nos marques que vers 14h, après les traditionnelles pizzas-bières.
Le choix était fait dès le départ de combiner le libérathon avec une soirée « détente » : l’anniversaire de l’association Locaux Motiv (qui nous accueillait). Donc, à 21H, nous avons troqué nos claviers contre des pintes de bière (ou de jus de fruits) au bar De l’Autre Côté du Pont.
La soirée s’est transformée en nuit, puisque certains participants (dont votre serviteur) n’ont retrouvé leur lit que vers 5H du matin.
Cela ne nous a pas empêché de reprendre vaillamment le travail le dimanche vers 10 h 30.
Seulement, à 15 h, il fallait se rendre à l’évidence, nous n’aurions pas le temps d’atteindre notre objectif avec les choix techniques retenus (pourtant pertinents, mais la montre jouait contre nous).

Nous avons donc fait le choix stratégique de changer d’option technologique : l’agencement CSS des éléments des panneaux nous aurait pris trop de temps pour « boucler » à l’heure, et nous sommes donc partis sur une piste « dégradée » (une image par panneau, avec une imagemap, pas de vidéo/son de fond, etc.).

Ce choix s’est avéré payant, puisqu’à 21h, nous avions bien les 4 panneaux interactifs « fonctionnels », mais dans un mode relativement dégradé : peu d’interactivité, pas de titres de séquences, et plein de « petits détails » simples à régler mais dont le nombre ne permettait pas d’envisager une publication le soir même.

Cependant, il restait quelques points bloquants (la transition « accueil > vidéo intro > instructions » non fonctionnelle, certains fichiers json mal encodés empêchant le lancement de certaines vidéos, etc.).

Bref, il manquait peut-être 4 à 6h de travail pour avoir un rendu « publiable », mais l’équipe était épuisée (et affamée !).

NO_ES_UNA_CRISIS_-_Mozilla_Firefox_055.png

Quels sont les obstacles que vous avez rencontrés ?

Notre incapacité à publier le dimanche soir résulte d’une double cause.

D’abord, nous avons sous-estimé la phase de préparation. En effet, un webdoc de 3 heures, ce sont beaucoup de ressources diverses (des pictos, des logos, des images, des vidéos, des sons, etc.). Sans compter qu’il s’agit d’un webdoc multilingue (FR/ES/EN), ce qui complexifie encore les choses. Or, si nous avions bien accès aux sources, une partie de ces dernières étaient intégrées dans les fichiers .psd et .fla (Adobe Photoshop et Flash). Il a donc parfois fallu extraire des ressources de ces fichiers parfois très lourds et complexes (j’en profite pour remercier Sheetal et la société Mobiped pour leur aide précieuse et la mise à disposition d’une machine disposant de ces logiciels propriétaires, car Gimp refusait évidemment d’ouvrir des .psd de 2 Gio avec plus de 200 calques).
Pourtant, Fabien et moi avions passé plusieurs heures en amont à préparer ce libérathon (identifier les ressources, réfléchir à l’organisation, faire la mise en place, etc.).
Cependant, sans connaitre le nombre exact de participants (nous nous attendions à des défections) et leurs compétences, difficile d’être plus prêts.

Ensuite, nous manquions d’un expert CSS3. Alors évidemment, le web est plein de ressources, d’informations, de bibliothèques préexistantes, etc. Mais même si la courbe d’apprentissage est rapide et relativement sans douleur, on ne peut échapper à quelques tâtonnements. Et ces tâtonnements nous auront fait perdre bien du temps le samedi. Un expert CSS3 nous aurait permis de gagner plusieurs heures, très précieuses dans le cadre d’un « sprint » comme celui-ci.

Ajoutez à cela que nous étions tous bénévoles, et que l’ambiance et la bière étaient bonnes, et vous comprendrez bien qu’un des objectifs était aussi d’apprendre en s’amusant. Nous nous étions lancé un défi, mais nous ne voulions pas non plus nous mettre trop la pression. Il fallait quand même que cela reste un moment de partage et de plaisir !

Souvent, dans ce type de projet, les gens restent coder pendant la nuit. Ce ne fut pas notre cas. Si nous avions préféré rester enfermés plutôt que de sortir, nous aurions sans doute fini dans les temps, mais il n’y a pas que le code dans la vie !

Mozilla_Firefox_056.png

Et aujourd’hui, où en est le webdoc ?

Il est en place !

Il nous aura fallu un peu de temps, car les vacances et les fêtes de fin d’année sont passées par là. Ainsi que l’assemblée générale de Framasoft. Le temps de pouvoir remettre les doigts dans le code, nous étions déjà fin janvier.

Le webdoc est donc accessible sur http://noesunacrisis.com. Ou directement sur http://noesunacrisis.framasoft.org/html5 (si vous avez Flash d’installé et que vous voulez accéder à la version HTML5)

Attention ! Je sens les critiques pleuvoir en commentaires :

  • Utiliser des images maps en 2014, c’est nul !
  • Le positionnement CSS n’est pas totalement responsive !
  • Sur mon smartphone, la navigation est difficile.
  • Vous auriez pu rajouter (un routeur javascript|les vidéos en fond d’écran|les transitions CSS entre les pages|etc), c’est franchement pas difficile !
  • Et l’accessibilité, runtudju !
  • etc.

Alors, croyez bien que nous sommes tout à fait conscient des (très grands) défauts de cette version. Mais il faut bien comprendre ce que je disais plus haut : nous avons dû faire un choix. Soit nous publiions une version « dégradée » mais fonctionnelle. Soit nous ne publiions pas du tout ! Tout simplement parce qu’aucune des personnes présentes à ce libérathon n’avait de temps à y consacrer après le week-end.

Donc, nous voyons bien tout ce qu’il aurait été possible de faire. Mais disons qu’on a privilégié le « release early » plutôt que de faire une version techniquement nickel en terme de code, de technologies employées, etc… Mais qui n’aurait probablement jamais été finalisée.

Par ailleurs, nous avons publié notre code (hors vidéos) sur notre compte Github : https://github.com/framasoft/noesunacrisis Vous pouvez donc signaler des bugs mais surtout proposer des améliorations du code (car on ne vous cache pas qu’il est assez peu probable qu’on ait beaucoup de temps à y consacrer).

Enfin, il y a des “effets de bord” positifs à ne plus utiliser Flash, en dehors du fait que cela évite d’utiliser un plugin propriétaire. Comme par exemple le fait de pouvoir pointer directement vers une vidéo ou un panneau. Ainsi, plutôt que de dire « Je te conseille de regarder la vidéo sur la comparaison entre la crise immobilière et la situation des clubs de football espagnols. Va sur http://noesunacrisis.com, puis clique sur “No Futur” (en bas), puis le dessin du stade de foot (à droite) », on peut se contenter de donner le lien
http://noesunacrisis.framasoft.org/html5/video.html#foot
(et on peut même changer les sous-titres en live, ce que ne permettait pas la version Flash).

Un dernier mot pour la fin ?

Comme il s’agit d’une œuvre culturelle, j’aimerais faire comme aux Oscars/Grammy/Césars et remercier tout plein de gens :

  • d’abord bien évidemment tous les bénévoles qui sont venus !
  • l’association Locaux Motiv pour avoir fourni une salle de réunion adaptée à notre petit sprint de code ;
  • la société Mobiped pour le prêt de son matériel ;
  • l’association Rézopole pour la mise à disposition de machines virtuelles, mais surtout de bande passante (ils hébergent pas mal de projets libres parmi lesquels des miroirs de LibreOffice ou d’OpenStreetMap, mais aussi notre miroir Abulédu, les vidéos du webdoc, et bientôt bien d’autres projets Framasoft) ;
  • la société Tonnerre Total, qui était en charge de la réalisation Flash du documentaire (ce n’est pas parce que cette technologie nous pose problème qu’on ne doit pas les féliciter pour leur travail) ;
  • et enfin, la Société des Apaches, pour avoir fait le choix de publier leur webdoc sous licence libre.

Cela aura vraiment été une expérience enrichissante !

IMG_20131214_150802__1_.jpg

Rappel des principaux liens :




No Es Una Crisis : un documentaire à la fois déjà libre et bientôt libre !

Sorti en octobre 2013, No Es Una Crisis est un passionnant documentaire de Fabien Benoit et Julien Malassigné traitant de la situation politique et économique en Espagne dans le sillage du mouvement des Indignés.

Sa particularité : c’est, à notre connaissance, le premier web-documentaire professionnel créé et diffusé sous licence Creative Commons BY-SA[1] . Les images, les sons, les sous-titres, sont donc en effet réutilisables librement (à condition de citer les auteurs et de conserver les œuvres dérivées sous la même licence). Ce qui fait plus de 3h de média de qualité professionnelle accessibles pour tous.

Mais, ami-e libriste, ne te jette pas à clic perdu sur ce lien, ou ta déception risque d’être grande ! En effet, la diffusion se fait dans un format fermé (Flash), ce qui empêche sa visualisation sur de nombreux supports : smartphones, tablettes, GNU/Linux et même Windows XP (dont le support des dernières version de Flash était incomplet jusqu’à il y a peu).

Or, il se trouve que Framasoft partage le même bureau[2] que l’équipe de production de ce web-documentaire ! Nous leur avons donc proposé notre aide à deux niveaux. 

D’abord, nous avons hébergé les fichiers vidéos du web-documentaire, particulièrement sollicités lors de l’annonce sur différents sites de la presse nationale et espagnole. Grâce à l’aide précieuse de Rézopole (pour la mise à disposition de serveurs et surtout de bande passante) et de Fabien Bourgeois (notre autre voisin de bureau, pour l’aide à la configuration de ces serveurs), le webdoc a pu dépasser sans encombre les 60 000 visualisations, avec des pics à 2x200Mbps et plus de 6To transmis sur quelques jours.

Mais surtout, nous avons proposé aux auteurs de les aider à « libérer » totalement leur oeuvre en organisant mi-décembre un week-end de « conversion » de leur documentaire en Flash dans une technologie libre et ouverte (HTML5). Un « liberathon », en quelque sorte !

Vous en apprendrez plus à la fin de cette entrevue avec Jean-Baptiste Fribourg, producteur du documentaire à la Société de Apaches.


Bonjour Jean-Baptiste. Avant tout peux-tu te présenter et présenter La Société des Apaches ? 

La Société des Apaches est une jeune structure de production audiovisuelle, elle a tout juste un an. Elle s’est montée autour du projet de Julien et Fabien, ce web-documentaire NO ES UNA CRISIS. Au-delà de cette première réalisation, son objectif est de faire travailler de jeunes auteurs et réalisateurs de documentaires, pour qui il peut être parfois compliqué d’avoir une écoute auprès de sociétés de production déjà dans la place. Notre ligne éditoriale, pour la résumer en quelques mots, consiste à témoigner de notre époque comme un moment charnière, entre les soubresauts d’une époque révolue et les prémices d’un monde en train de se réinventer. Je m’occupe du suivi administratif des projets développés par La Société des Apaches, du travail de production en somme. Par ailleurs je suis preneur de son pour le cinéma documentaire, et réalisateur de documentaires radiophoniques.

Donc, vous avez produit le web-documentaire No Es Una Crisis. Peux-tu nous dire quelques mots sur la génèse de ce webdoc ? 

Fabien et Julien sont partis à Madrid à l’été 2011, intrigués par le mouvement indigné qui avait secoué l’Espagne à partir du 15 mai 2011 (d’ailleurs là-bas, ce mouvement s’appelle le 15M, en référence à cette date fondatrice). Frappés par ce mouvement social nouvelle génération, ils sont revenus en France avec la conviction qu’il y avait là une histoire à raconter, qu’il était essentiel même de transmettre cette expérience en France, où le traitement médiatique du 15M avait été au mieux léger, au pire caricatural. 

Au cours du travail d’écriture, il leur est apparu que pour parler du mouvement 15M, il fallait aussi parler de son contexte, à savoir la crise économique qui a déstabilisé l’Espagne suite à l’explosion de la bulle immobilière, et la sévère politique de rigueur qui a été l’unique réponse des gouvernants, de gauche comme de droite, face à cette crise. Ainsi, peu à peu, le propos de Julien et Fabien s’est élargi, pour parler de l’Espagne comme un double laboratoire : celui d’un système économique à bout de souffle qui cherche à se renouveler dans l’austérité, et celui de nouvelles pratiques sociales et politiques dans le sillage du mouvement du 15M. Quant au choix du format web-documentaire, il nous a semblé qu’il était tout à fait adapté pour traiter d’un mouvement social qui a su utiliser toute la puissance d’internet et des réseaux sociaux. Nous avons aussi pensé qu’il faciliterait une diffusion hors de France, ce qui s’est avéré avec un nombre de visites plus important en Espagne qu’en France.

Pour en savoir plus, voir http://blog.noesunacrisis.com/le-projet/

Comment avez-vous financé ce travail ? 

Ça a été un long processus, où nous avons sollicité différents guichets. D’abord, en tant qu’auteurs du projet, Fabien et Julien ont sollicité, et obtenu, une aide à l’écriture du CNC, dédiée aux projets dits « nouveaux médias ». C’était au printemps 2012, et forts de ce qui constituait en somme une « validation » de l’intérêt de leur projet, ils ont alors lancé une campagne de financement participatif, sur KissKissBankBank. L’idée était de pouvoir se payer un tournage en Espagne : 10 000€ sont alors levés. Parallèlement, un dossier de mécénat déposé à la Fondation Un Monde Par Tous nous permet d’obtenir 15 000€ supplémentaires. Avec toutes ces bonnes nouvelles, nous nous disons alors qu’il est temps de se doter de notre propre outil de travail, pour sortir un peu de l’esprit Do It Yourself qui avait prévalu jusque-là : La Société des Apaches est créée. Avec elle, nous serons en mesure de solliciter à nouveau le CNC, pour une aide à la production cette fois-ci, puis la Région Rhône-Alpes. Parallèlement nous avons développé des partenariats pour l’hébergement des vidéos, la conception du blog qui accompagne le webdoc, la communication autour du lancement, etc.

Vous avez choisi la licence Creative Commons BY-SA pour votre webdoc. Peux-tu nous expliquer les raisons de ce choix ? 

En fait ça nous a semblé une évidence dès le départ. Nous avons eu du mal à imaginer plaquer le modèle classique du droit d’auteur, qui doit concerner 99% de la production audiovisuelle, sur un format dédié au web. Il y avait pour nous quelque chose d’incongru d’apposer sur le web-doc la mention habituelle « tous droits réservés, toute duplication interdite, toute projection interdite, etc. ». Non ! Justement, le choix du webdoc était principalement motivé par la facilité de circulation du projet que ce format suppose. 

On trouvait aussi le principe du CC tout à fait en accord avec le financement participatif qu’on avait sollicité. Quant au choix de la licence, on était d’abord parti sur quelque chose de plus restrictif, à savoir NC[3] . Et puis on s’est dit qu’on ne prenait pas grand risque à l’ouvrir complètement, que le NC était restrictif sans raison : pour le dire autrement, une chaîne de TV privée ou une agence de pub va-t-elle réutiliser nos images ? On peut sérieusement en douter, d’où le choix au final évident du BY-SA. L’aboutissement de cette démarche a été de proposer en téléchargement toutes les séquences vidéo qui constituent le webdoc, avec leurs fichiers de sous-titrage. Ainsi chacun peut s’approprier notre matériel.

Avez-vous rencontré des difficultés, des réticences, lors du choix de cette licence ? 

Alors d’abord je dois dire qu’on n’est absolument pas des spécialistes du CC ! Personnellement j’avais découvert ces licences en 2006, quand j’ai commencé à réaliser des documentaires radiophoniques pour ARTE Radio.com, la webradio d’Arte, qui diffuse toutes ses productions en CC-BY-SA-NC. A l’époque d’ailleurs, il me semble qu’ils étaient un peu des pionniers du CC. Mais à part ça, on a quand même beaucoup défriché tout ça tout seuls ! Ce qui nous a conduit à faire des erreurs, comme avec certaines musiques d’illustration, qui ont une licence BY-SA attribuée à NO ES UNA CRISIS, donc qui ne devraient pas être amenées à pouvoir circuler librement avec le reste du webdoc. Ca fait que NO ES UNA CRISIS est libre à 99% en vérité : on va dire que c’est cohérent avec le slogan « We are the 99% » cher aux mouvements Occupy et 15M ! Plus sérieusement, on constate que les cadres de production, même pour les webdocs, sont très inspirés des cadres classiques de la production audiovisuelle. Par exemple, pour prouver à un financeur public (CNC ou collectivité locale) que le producteur et l’auteur sont engagés l’un envers l’autre, le contrat qui les lie doit être accompagné d’un versement de droits d’auteur. Et pas de dossier de demande de subvention valable sans les justificatifs AGESSA correspondant ! (l’AGESSA est la Sécurité Sociale des auteurs). Je trouve ça curieux.

Quelques jours avant la diffusion du webdoc, vous avez eu un souci avec Dailymotion, que s’est-il passé ?

Nous avions convenu d’un partenariat avec Dailymotion, à propos de l’hébergement des vidéos du webdoc. Nous étions très heureux de ça, pensant avoir accès au nouveau service de Dailymotion, DM Cloud, qui nous permettait de développer notre propre player, de faire gérer les différentes versions linguistiques par Flash, etc; Sauf que, tout contents de ça, nous n’avions alors pas pris la peine de préciser les modalités de ce partenariat. Erreur de débutant de notre part, c’est clair… Du coup ça a été un peu terrible pour nous quand le malentendu est devenu flagrant, à savoir quand notre web-développeur a voulu récupérer les codes d’accès au service DM Cloud, et qu’on lui a répondu que c’était Dailymotion Premium qui était prévu ! Le hic, c’est que ça ne pouvait pas du tout fonctionner avec l’interface développée ! Nos contacts chez DM étaient conscients de la situation dans laquelle nous nous trouvions, aussi ils nous ont fait une proposition commerciale allégée pour l’accès à leur service Cloud. Mais ça restait très problématique pour nous, puisque la facture finale dépendant du débit utilisé : pour le dire autrement, plus NO ES UNA CRISIS serait vu, plus on paierait. Voire, s’il devait cartonner, nous mettrions la clé sous la porte ! On a donc eu quelques heures de sueurs froides, et c’est là que la magie de la mutualisation a opéré, et que nous voyant dans le pétrin, tu nous as dit peut-être pouvoir faire quelque chose…

Lorsque tu échanges avec d’autres équipes de réalisation de webdoc, tu leur parles de votre choix de licence ? Ça leur parle ? En d’autres termes, et si c’était à refaire, vous feriez le même choix ? 

Sans hésiter, nous referions le même choix, qui est cohérent par rapport au propos de NO ES UNA CRISIS et qui est en parfaite adéquation avec le format web-documentaire. En plus, de façon tout à fait pragmatique, ça nous donne un angle supplémentaire de communication pour parler du projet. Je suis toujours un peu étonné de voir que peu de webdocs sont diffusés en CC. Après il ne faut pas se leurrer, pour des projets futurs qui seraient amenés à être diffusés en télévision, l’enjeu économique ferait que le choix serait plus cornélien : vue la fragilité économique des auteurs dans le documentaire (ils peuvent parfois être les moins bien rémunérés dans une équipe de production), les droits d’auteurs leur sont indispensables. 

Il y a même une perversion du système, où le producteur va négocier à la baisse le salaire de l’auteur, en lui faisant miroiter les futurs droits d’auteur qu’il percevra de la SCAM après la diffusion télé. Personnellement, je ne suis pas contre le droit d’auteur par principe. Je suis même sociétaire de la SCAM pour mon activité radiophonique ! Mais j’estime que la licence libre a un immense intérêt pour permettre une meilleure diffusion des œuvres, et finalement, plus que les droits des auteurs, c’est les droits des producteurs qu’elle conteste, ces droits qui peuvent parfois être une rente. Je trouve dommage que des institutions comme la SCAM soit un peu obtue sur cette question du libre, elle gagnerait à mettre ses compétences au service des réflexions qui entourent ces nouveaux modes de diffusion, et les auteurs aussi y seraient gagnants.

Venons-en à la question qui fâche (au moins les libristes 😉 ) : pourquoi le choix de Flash comme technologie pour diffuser votre web documentaire, empêchant sa visualisation pour de nombreux internautes ?

Le choix de Flash est une très bonne illustration de ce que je disais tout à l’heure sur les licences CC : ce n’était pas notre univers, on s’y est mis peu à peu, on a voulu bien faire… et on s’est planté ! On a choisi Flash sans aucune idée des implications que ça pourrait avoir sur l’accessibilité du webdoc, un comble ! Le choix s’est principalement fait pour des raisons de budget. Notre web-développeur nous avait indiqué que Flash serait moins coûteux que HTML5, et comme à l’époque, on avait accepté son devis sans avoir encore bouclé le financement du projet, le choix de Flash nous permettait de réduire le risque financier. En plus, si on savait bien qu’avec Flash nous n’aurions pas accès aux tablettes, on s’était dit que l’audience des webdocs y étant encore assez confidentielle, on pouvait s’en passer. Par contre on ne savait pas que ça allait coincer sous Linux ! Donc Flash, c’est une erreur de débutant, mais dans un contexte budgétaire contraint.

D’où l’idée de monter ce « liberathon » avec Framasoft, donc. Peux-tu nous en dire plus ?

Effectivement, on invite tous ceux qui seraient prêts à nous aider sur ce challenge de basculer NO ES UNA CRISIS en HTML5 à nous rejoindre à Lyon les 14 et 15 décembre. Ça se passera à Locaux Motiv’ où nous avons nos bureaux, La Société des Apaches et Framasoft. Nous pourrons accueillir 15 personnes max (il faut donc se préinscrire). Venez avec vos machines, nous on s’occupe des conditions d’accueil (café à gogo, repas le midi, apéro). Puisque NO ES UNA CRISIS est captif de Flash, il s’agira de le libérer ! L’objectif est d’avoir, le dimanche soir, un webdoc aussi proche que possible de la version originale sous Flash.

Merci Jean-Baptiste, un petit mot pour la fin ? 

En me heurtant aux problèmes techniques qu’a connus NO ES UNA CRISIS (hébergement des vidéos, Flash…), et en étant aidé sur ces questions par Framasoft et Fabien Bourgeois, j’ai découvert que l’informatique était un monde de solutions.

Notes :

[1] Il existe plusieurs documentaires sous licence Creative Commons avec clause non commerciale, comme « Collaborative Cities », ou l’excellent « RIP! A remix Manifesto », mais si vous avez connaissance d’autres web-documentaires sous licence CC BY ou CC BY-SA, n’hésitez pas à nous le signaler en commentaire

[2] Pour rappel, le siège social de Framasoft est désormais situé à Lyon, à Locaux Motiv’, un espace mutualisé ouvert aux structures formelles ou informelles et qui entend favoriser l’implication de chacun, qu’il soit bénévole, salarié ou usager des lieux, en suscitant la coopération et l’échange.

[3] « Non Commercial », imposant une entente préalable avec les auteurs pour une utilisation dans un cadre commercial

Crédits images : La Société des Apaches, licence Creative Commons BY-SA




Google abandonne les standards ouverts pour sa messagerie instantanée ?

Un coup on souffle le chaud, un coup on souffle le froid, Google est bipolaire vis-à-vis du logiciel libre, des formats ouverts et du respect de la vie privée.

C’est d’autant plus flagrant lorsque pour critiquer Google on s’en réfère à ses propres déclarations.

Et l’on se retrouve, sans crier gare, du jour au lendemain, avec une messagerie instantanée potentiellement amputée de ses qualités précédentes…

Osde8info - CC by-sa

Google abandonne les standards ouverts pour la messagerie instantanée

Google Abandons Open Standards for Instant Messaging

Parker Higgins – 22 mai 2013 – EFF.org
(Traduction : Penguin, TheCamel, audionuma, Asta, KoS)

Au milieu du tourbillon médiatique qui entoure sa conférence I/O annuelle, Google a lâché quelques informations malheureuses sur ses plans concernant sa messagerie instantanée. À plusieurs endroits sur le web, la société remplace son actuelle plateforme « Talk » par une nouvelle dénommée « Hangouts » qui réduit drastiquement le support du protocole ouvert de messagerie instantanée connu sous le nom de XMPP (ou Jabber de manière informelle) et supprime également l’option de désactivation de l’archivage de toutes les communications en messagerie instantanée. Ces changements représentent une bascule des protocoles ouverts vers des protocoles fermés ainsi qu’un recul flagrant pour de nombreux utilisateurs.

Une régression pour l’interopérabilité

Auparavant, le support complet de XMPP par Google signifiait que les utilisateurs pouvaient communiquer avec des interlocuteurs utilisant d’autres services de messagerie instantanée, voire hébergeant leur propre serveur de messagerie instantanée. Ce type de décentralisation est une bonne chose : il diminue la dépendance à un service particulier, ce qui en contrepartie permet aux différents services de se différencier sur des aspects importants comme la qualité, la fiabilité ou le respect de la vie privée.

Certains utilisateurs, par exemple, ne souhaitent peut-être pas fournir à Google des informations sur le contenu de leurs messages, quand et d’où ils se sont connectés, ou bien avec qui ils ont l’habitude de clavarder. Les informations concernant les personnes avec qui les utilisateurs communiquent peuvent être sensibles ; souvenez vous, ces données étaient au cœur du retour de bâton qui frappa Buzz, un ancien réseau social, lorsqu’il décida de les rendre publiques par défaut.

La possibilité de fédérer différents services permet aux utilisateurs de faire leur choix eux-même. Voici une explication issue de la propre documentation de Google concernant la plateforme « Talk », dans une partie intitulée « Communications ouvertes » :

Le choix du service vous permet de choisir votre fournisseur en vous basant sur des facteurs plus importants tels que les fonctionalités, la qualité de service et le prix, tout en conservant la capacité de communiquer avec qui vous voulez.

Malheureusement, ce n’est pas le cas de nombreux services IM (messagerie instantanée) et VOIP (voix sur IP) aujourd’hui. Si les personnes avec qui vous souhaitez communiquer sont toutes connectées à des services IM/VOIP différents, vous devez créer un compte chez chacun d’entre eux pour pouvoir communiquer.

Le nouveau protocole Hangouts soulève précisément les questions que Google souligne ci-dessus. Les utilisateurs n’ont d’autre choix que d’utiliser les serveurs de Google ou se déconnecter des gens qui les utilisent. Les utilisateurs de Google ne sont pas informés du changement : leurs copains qui utilisent jabber.org, member.fsf.org, ou n’importe quel autre service qui utilise XMPP n’apparaîtront tout simplement plus dans la liste des contacts en ligne.

Ces changements sont le résultat de l’abandon par Google d’un sous-ensemble particulier du standard XMPP, le server-to-server federation. Mais pour le moment, Google continue à utiliser la partie connexion client-serveur, ce qui signifie que dès lors que vous êtes connecté avec un compte Google, vous pouvez utiliser n’importe quelle application utilisant ce protocole.

C’est important pour plusieurs raisons. Une des plus importantes est qu’aucun client officiel Google ne propose le chiffrement des communications Off-the-Record (OTR), qui devient un composant critique pour la sécurité des communications en ligne. Si les deux participants dans un échange sur messagerie instantanée utilisent chacun un chiffrage OTR, ils disposent d’une liaison sécurisée d’un bout à l’autre, ce qui signifie que personne, y compris leur fournisseur de service, ne peut lire le contenu de leurs messages.

Des changements dans l’historique

Malheureusement, un autre changement de la part de Google pourrait forcer les utilisateurs à faire un choix difficile, à savoir utiliser ou non ces clients externes tels que Pidgin, Adium, Gibberbot ou Chatsecure pour discuter. Le dilemme vient en particulier de la manière dont Google a changé sa façon d’archiver les conversations et de les présenter à l’utilisateur.

Précédemment, les utilisateurs pouvaient désactiver l’« historique de conversation », ce qui empêchait la sauvegarde des messages instantanés sur leur compte Gmail. Avec les nouveaux paramètres, les utilisateurs qui ne veulent pas conserver une copie de leur conversation accessible via Gmail doivent désactiver l’« historique Hangout », et ce pour chaque contact[1]. Le problème est que les utilisateurs peuvent seulement désactiver l’historique Hangout avec un compte Google Hangout officiel.

Donc tant pis pour les utilisateurs soucieux de leur vie privée qui veulent utiliser le chiffrement Off-the-Record et qui désirent garder leurs messages loin de leur compte Gmail. Et s’ils veulent continuer à discuter avec leurs amis sur Google chat, ils ne peuvent même pas le faire autre part.

Depuis la semaine dernière, Google demande aux utilisateurs de remplacer l’application Android Talk par Hangouts et de passer à Hangout au sein de Gmail dans Chrome. Soyez vigilants avant d’effectuer la mise à jour, soyez vigilants du coût pour la liberté de ces « améliorations ».

Que devrait faire Google ?

Dans son explication publique officielle de son abandon du support de XMPP, Google a expliqué que c’était une décision difficile, rendue nécessaire par des contraintes techniques. Mais même si le nouveau protocole obéit à de nouvelles contraintes techniques, cela n’empêche pas la compagnie de le rendre public et interopérable. Libérer les spécifications de Google Hangouts serait un bon premier pas. Fournir des client et des serveurs open source en serait un second. Il est clair que certaines fonctionnalités vidéo de Hangouts ont été implémentées dans un but spécifique à Google. Mais ce n’est pas une excuse pour nous emmener vers un monde où les seuls choix concrets sont des logiciels et des protocoles de chat propriétaires.

Une autre initiative simple à mettre en œuvre au bénéfice des utilisateurs aurait été d’incorporer le support de Off-the-Record dans le client Hangout officiel. Si de telles possibilités de confidentialité étaient proposées aux utilisateurs, cela atténuerait le fait d’offrir des options de protection de la vie privée seulement dans le logiciel propriétaire de Google.

Dans le document Google « Communications ouvertes » cité ci-dessus, l’entreprise explique en quoi c’est un véritable engagement d’ouvrir les canaux de communication :

La mission de Google est de rendre l’information mondiale universellement accessible et utile. Google Talk, qui permet aux utilisateurs de communiquer instantanément avec leurs amis, leur famille et leurs collègues via des appels vocaux et des messages instantanés, reflète notre conviction que les communications devraient être accessibles et utiles.

Nous sommes frustrés et déçus de voir Google reculer face à cette mission.

Crédit photo : Osde8info (Creative Commons By-Sa)

Notes

[1] Pour être clair, même les réglages précédents étaient loin d’être parfaits du point de vue de la vie privée : désactiver l’historique de conversation permettait uniquement d’empêcher l’archivage des messages sur votre compte Gmail, mais n’empêchait pas les autres utilisateurs, ou Google lui-même, de garder une trace de la conversation.




Guerre sans merci dans le maquis des codecs vidéos

La guerre des formats vidéos sur le Web bat son plein, sans que nous puissions à priori faire grand-chose (c’est dans la cour des grands que cela se passe, avec un Google qui est ici du bon côté de la Force).

Et une fois de plus les brevets sont pointés du doigt…

Seth Anderson - CC by-sa

Codecs vidéo : les sales affaires derrière les belles images

Video codecs: The ugly business behind pretty pictures

Simon Phipps – 15 mars 2013 – InfoWorld.com
(Traduction : audionuma, goofy, KoS + anonymes)

Lorsque Google a annoncé la semaine dernière qu’il avait fait la paix avec le gestionnaire de brevets MPEG-LA à propos de son codec VP8, certains ont déclaré que l’entreprise avait cédé et rejoint le cirque des brevets logiciels. Il n’en est rien.

La vérité est bien plus complexe et pourrait annoncer de grands changements dans la lutte pour le contrôle de nos habitudes de visionnage et d’écoute en ligne. En conséquence, de puissants intérêts sont rapidement intervenus pour tenter de museler les canons du VP8 avant qu’ils ne tonnent.

Le contexte des codecs

Le secteur des codecs vidéo est complexe et truffé d’acronymes et de manœuvres politiques depuis des dizaines d’années. Même ceux qui sont les plus impliqués dans cette situation sont en désaccord, tant sur la réalité que sur l’histoire de cette situation. Voici un résumé :

Lorsque vous téléchargez ou visionnez une vidéo, vous pouvez la considérer comme du QuickTime, du Flash ou même de l’Ogg, mais ce ne sont que des mécanismes de distribution. La vidéo représente une énorme quantité de données, et vous la faire parvenir requiert de la compression de données. Le contenu d’une vidéo est encodé dans un format obtenu par un logiciel de compression de données, et est ensuite affiché sur votre écran après que ce contenu ai été décodé par un logiciel de décodage.

Le codec est le logiciel qui réalise ce processus. Les travaux théoriques sur les codecs sont exceptionnellement complexes, et il y a toujours un compromis entre la compression maximale, le temps nécessaire à compresser les données, et la qualité optimale. C’est ainsi qu’il existe une grande variété de codecs, et le savoir-faire concernant leur implémentation est un bien précieux.

Dès 1993, il devint évident qu’une standardisation des formats de données pris en charge par les codecs était nécessaire. Les institutions internationales de standardisation ISO et IEC constituèrent un groupe d’experts appelé le Motion Picture Expert Group (groupe des experts de l’image animée, MPEG) qui a depuis produit une série de standards destinés à divers usages.

Le secteur est truffé de techniques brevetées. La standardisation des codecs est basée sur le modèle du secteur des télécommunications, dans lequel il est commun de permettre à des techniques brevetées de devenir des standards pour ensuite en dériver des paiements de licences pour chaque implémentation. Pour faciliter la collecte des royalties, une société appelée MPEG-LA, LLC (qui, pour rajouter à la confusion, n’a aucun lien avec avec MPEG) a été constituée pour gérer un portefeuille de brevets au nom de la plupart des détenteurs de brevets qui contribuent aux standards MPEG.

Ce dispositif fonctionnait correctement dans l’ancien monde basé sur des points de passages obligés où les sociétés étaient les créateurs de logiciels. Mais la nouvelle société basée sur le réseau et les techniques qu’il utilise (tel que l’open source) ne fonctionne pas correctement dans un modèle où chaque nouvelle utilisation nécessite d’abord de demander la permission. Les éléments qui nécessitent une autorisation a priori — les points de passage obligés — sont des insultes à Internet. Ils sont considérés comme des nuisances, et les experts cherchent des solutions pour les éviter.

La naissance des codecs ouverts

Lorsqu’il fut clair que le Web ouvert avait besoin de codecs ouverts pour traiter des formats de médias ouverts, de brillants esprits commencèrent à travailler au contournement de ces problèmes. La sciences des codecs est bien documentée, mais l’utilisation de n’importe laquelle des techniques bien connues risquait d’enfreindre des brevets logiciels contrôlés par MPEG-LA. Il ne suffisait pas de simplement modifier un standard dérivé de MPEG pour contourner les brevets. Ces standards avaient créé un tel maquis de brevets que n’importe quel nouveau projet utilisant les mêmes calculs mathématiques était quasiment certain d’enfreindre un portefeuille de brevets quelque part.

La création de codecs ouverts réclamait une nouvelle réflexion. Heureusement, certains intérêts commerciaux travaillaient sur des idées de codecs alternatifs. Une entreprise nommée On2, notamment, avait créé une famille de codecs basée sur des idées hors du champ des brevets MPEG et avait déposé ses propres brevets pour éviter de se faire marcher sur les pieds. En 2001, elle publia une technologie de codecs appellée VP3 en open source, technologie protégée par ses propres brevets. Cette technologie constituait la base de ce qui devint Theora. On2 continua à travailler pour produire une série de codecs dédiés à des niches jusqu’à son acquisition par Google en 2010.

Le VP8 était le codec de On2 à la pointe de la technologie, offrant à la fois une excellente qualité d’image et une bonne compression des données. Peu après l’acquisition de On2 par Google, ce dernier rendit libre l’utilisation de VP8, créant un engagement d’ouverture pour tous les brevets lui étant liés, et déclara que le nouveau projet WebM offrirait un format totalement libre et ouvert pour la lecture de vidéos.

Évidemment, MPEG-LA a senti la menace et a rapidement décidé de contre-attaquer. Il a presque immédiatement annoncé la constitution d’un portefeuille de brevets pour vendre des licences sur des brevets qu’il était certain que WebM et VP8 violaient, et a invité les détenteurs habituels de brevets à lui communiquer toutes informations sur ces brevets.

Une lueur d’espoir

Et puis … plus rien. Il semble que les coups d’épée de MPEG-LA étaient plutôt des bruits de fourreau. L’accord avec MPEG-LA que Google a annoncé était formulé avec beaucoup de soins pour ne pas froisser les parties prenantes, mais il semble indiquer que MPEG-LA avait les mains vides :

Aujourd’hui, Google Inc. et MPEG-LA, LLC ont annoncé qu’ils ont conclu un compromis qui accorde à Google une licence sur les techniques, quelles qu’elles soient, qui pourraient être essentielles à VP8. De plus, MPEG-LA a accepté de mettre fin à ses efforts pour constituer un portefeuille de brevets autour de VP8.

Vous pouvez constater qu’il n’y pas grand-chose de valeur qui soit licencié dans ce cas, puisque Google est apparemment autorisé à :

…rétrocéder les licences à n’importe quel utilisateur de VP8, que l’implémentation de VP8 soit celle de Google ou d’une autre entité : cela signifie que les utilisateurs peuvent développer des implémentations de VP8 indépendantes et bénéficier de la protection accordée par la rétrocession de licence.

Le communiqué continue avec deux déclarations importantes. Premièrement, Google a le projet de soumettre VP8 à MPEG pour standardisation. Cela constituerait un profond changement d’orientation, qui pourrait orienter les futurs efforts hors du maquis des brevets et vers des territoires plus ouverts. Deuxièmement, Google a l’intention de proposer VP8 comme codec « obligatoire à implémenter » dans le groupe RTCWEB de l’IETF qui définit les protocoles permettant les communications en temps-réel dans les navigateurs Web : WebRTC.

Si tout cela réussissait, cela ouvrirait de grandes opportunités pour les logiciels open source et le web ouvert. Libérés de la course à la rente des détenteurs de brevets, les développeurs open source seraient enfin libres d’innover dans le domaine des applications audio et vidéo sans avoir en permanence à surveiller leurs arrières ou à demander la permission.

Naturellement, de puissants groupes d’intérêts continuent à essayer de ralentir, voire interrompre, cette révolution. À peine Google avait-il publié son communiqué à propos de VP8, de l’accord avec MPEG-LA et de son intention de standardiser, que deux messages furent postés sur la liste de discussion de l’IETF-RTCWEB. Le premier, envoyé par le collaborateur de Microsoft Skype Matthew Kaufmann, essayait de ralentir les progrès vers la standardisation et invoquait les règles et le débat pour tenir VP8 hors des prochaines discussions de standardisation. Le deuxième, envoyé par l’ancien spécialiste des brevets de Nokia Stephan Wenger, invoquait aussi les règles mais plus inquiétant, sous-entendait que MPEG-LA n’était pas seul à pouvoir jouer ce jeu là. Cette crainte prit bientôt corps dans un message du collaborateur de Nokia Markus Isomaki annoncant que Nokia — qui n’est pas membre de MPEG-LA — avait l’intention de démontrer que VP8 enfreint un de ses brevets.

C’est la vie de tous les jours dans le monde des codecs et c’est riche d’enseignements sur les dangers des brevets logiciels. Une fois acceptés et institutionnalisés comme processus normaux et légaux, ils contrôlent tout le reste. Bien que VP8 vienne d’un héritage technologique différent, ayant prudemment évité la masse des brevets déposés lors des premiers travaux sur le MPEG, et ayant ainsi été scrupuleusement ouvert par Google (il devait se corriger lors du processus, ce qu’il fit admirablement), le monde oppressant des brevets tente de le faire tomber dans ses griffes et de le contrôler, afin de le soumettre à la taxation sur l’innovation imposée par les vainqueurs de la première course technologique.

Nous ne pouvons pas faire grand-chose à part observer avec anxiété l’initiative de Google pour le Web ouvert. Dans cette histoire, il apparaît plus clairement que jamais que la réforme du système des brevets pour aboutir à une société plus juste et harmonisée se fera encore attendre.

Crédit photo : Seth Anderson (Creative Commons By-Sa)




Avons-nous perdu le Web que nous aimions ?

Conflit de génération sur le Web…

Les pères fondateurs avaient imaginé un réseau ouvert, génératif, bidouillable.

Ils sont aujourd’hui amers de constater que le Web est devenu un adolescent qui loin de chercher à émanciper ses utilisateurs, tente plutôt de les forcer dans des cases, de les infantiliser, de ne leur laisser aucun contrôle.

Le constat dressé la semaine dernière par Anil Dash a depuis été largement partagé par les vétérans du Web. Comme l’impression d’un paradis perdu.

Mais la roue tourne et les utopistes des débuts rêvent d’un retour aux sources, d’éduquer les milliards de nouveaux internautes, de leur faire partager leur rêve. Est-ce envisageable ? Surtout, même s’ils prenaient conscience des valeurs que portait le Web à ses débuts, la majorité des utilisateurs serait-elle prête à abandonner ses usages confortables actuels pour reprendre le flambeau des fondateurs et à explorer de nouvelles voies respectueuses de ces valeurs ?

Le retour au bricolage high-tech avec un fer à souder allié au code (Ardhuino, imprimantes 3D, FabLabs…), les initiatives comme celles du projet Webmakers qui vise à éduquer au Web toute une génération pour qu’elle s’en empare au lieu de le consommer, autant de signes d’une prise de conscience qui pourrait modifier la donne. Cet article qui lance un coup d’œil dans le rétroviseur n’est pas un moment de simple nostalgie mais une invitation au renouvellement des idéaux fondateurs.

Le Web que nous avons perdu

article original The Web We Lost par Anil Dash, proposé et présenté par Clochix

Traduction framalang Zii, KoS, Goofy, Garburst, lamessen

L’industrie technologique et sa presse ont traité l’explosion des réseaux sociaux et l’omniprésence des applications pour smartphone comme une victoire sans appel pour Monsieur Tout-le-monde, un triomphe de la convivialité et de l’autonomisation. On a moins parlé de ce que nous avons perdu tout au long de cette transition, et je trouve que les jeunes générations ne savent même pas comment était le Web autrefois.
Alors voici quelques aperçus d’un Web qui pour l’essentiel a disparu :

  • Il y a 5 ans, la plupart des photos qu’on voulait partager étaient chargées sur Flickr, où elles pouvaient être taguées par les humains ou même par les applications et services, en utilisant un système de balises. Les images étaient facilement accessibles sur le Web, en utilisant de simples flux RSS. Et les photos chargées pouvaient facilement l’être sous des licences permissives comme celles fournies par Creative Commons, autorisant la modifications et la réutilisation de n’importe quelle façon par des artistes, des entreprises ou des particuliers.
  • Il y a une dizaine d’années, Technorati vous laissait chercher sur la majeure partie du Web social en temps réel (cependant la recherche avait tendance à être horriblement longue pour l’affichage des résultats), avec des tags qui marchaient comment le font les hashtags sur Twitter aujourd’hui. Vous pouviez trouver des sites en relation avec votre contenu avec une simple recherche, et savoir qui s’exprimait dans un fil de discussion, indépendamment des outils ou plateformes utilisés pour exposer des idées. À l’époque, c’était tellement excitant que lorsque Technorati ne put faire face au volume croissant de la blogosphère, les utilisateurs furent très déçus. Au point que même quelqu’un d’aussi habituellement circonspect que Jason Kottke se mit à descendre le service en flammes pour l’avoir laissé tomber. Dès l’instant de ses premiers succès pourtant, Technorati avait suscité les louanges de gens comme John Gruber :

Vous pouviez, en théorie, écrire un logiciel pour examiner le code source des quelques centaines de milliers de blogs, et créer une base de données des liens entre ces blogs. Si votre logiciel était assez efficace, il devait pouvoir rafraîchir ses informations d’heure en heure, ajoutant de nouveaux liens à sa base de données en quasi-temps réel. En fait, c’est exactement ce qu’a créé Dave Sifry avec son incroyable Technorati. À ce jour, Technorati surveille 375 000 blogs et a référencé plus de 38 millions de liens. Si vous n’avez jamais joué avec Technorati, vous manquez quelque chose.

  • Il y a dix ans, vous pouviez laisser les gens poster des liens sur votre site ou montrer des listes de liens qui pointaient vers votre site. Car Google n’avait pas encore introduit AdWords et AdSense, les liens ne généraient pas de revenus, c’était juste un moyen d’expression ou un outil éditorial. Le Web était un endroit intéressant et différent avant la monétisation des liens, mais en 2007 il devint clair que Google avait changé le Web pour toujours, et pour le pire, en corrompant les liens.
  • En 2003, si vous aviez introduit un service d’authentification individuelle opéré par une société, même en documentant le protocole et encourageant les autres à cloner le service, vous auriez été décrit comme quelqu’un qui introduisait un système de surveillance relevant du « Patriot Act ». Il y avait une telle méfiance à l’égard services d’authentification que même Microsoft abandonna ses tentatives de créer un tel système d’inscription. Même si leur expérience utilisateur n’était pas aussi simple que la possibilité omniprésente de s’identifier avec Facebook ou Twitter, le service TypeKey introduit alors avait des conditions légales de partage des données bien plus restrictives. Et pratiquement tous les systèmes qui fournissaient une identité aux utilisateurs autorisaient l’usage de pseudonymes, respectant le besoin qu’ont les gens de ne pas toujours se servir de leur identité légale.
  • Au début de ce siècle, si vous aviez créé un service qui permettait aux utilisateurs de créer ou partager du contenu, ils s’attendaient à pouvoir facilement télécharger une copie fidèle de leurs données, ou importer leurs données vers d’autres services compétitifs, sans la moindre restriction. Les entreprises commerciales passaient des années à travailler sur l’interopérabilité autour des échanges de données simplement pour le bénéfice de leurs utilisateurs, quitte à lever théoriquement les barrières pour l’entrée de la concurrence.
  • Aux premiers temps du Web social, il était largement admis que de simples gens pourraient être propriétaires de leur identité en ayant leurs propres sites, plutôt que d’être dépendants de quelques gros sites pour héberger leur identité numérique. Dans cette vision, vous possédez votre nom de domaine et contrôlez complètement son contenu, plutôt que d’avoir les mains liées sur un site géré par une grande entreprise. C’était une réaction sensée lorsqu’on prenait conscience que la popularité des gros sites croît et chute, mais que les gens ont besoin d’une identité plus persistante que ces sites.
  • Il y a cinq ans, si vous vouliez publier sur votre site du contenu d’un autre site ou d’une application, vous pouviez le faire en utilisant un format simple et documenté, sans avoir besoin de négocier un partenariat ou un accord contractuel entre les sites. L’expérience des utilisateurs n’était donc pas soumise aux caprices des luttes politiques entre les sociétés, mais basée sur l’architecture extensible du Web lui-même.
  • Il y a une douzaine d’années, lorsque les gens voulaient soutenir les outils de publication qui symbolisaient cet état d’esprit, ils mutualisaient le coût des serveurs et des technologies nécessaires à ces outils, même si cela coûtait bien plus cher avant l’avènement de l’informatique dans le nuage et la baisse du prix de la bande passante. Leurs pairs de l’univers des technologies, même s’ils étaient concurrents, participaient même à cet effort.

Ce n’est pas notre Web aujourd’hui. Nous avons perdu les éléments-clés auxquels nous faisions confiance et pire encore, nous avons abandonné les valeurs initiales qui étaient le fondement du monde du Web. Au crédit des réseaux sociaux actuels, ils ont apporté des centaines de millions de nouveaux participants sur ces réseaux, et ils ont sans doute rendu riche une poignée de personnes. Mais ils n’ont pas montré le Web lui-même, le respect et l’attention qu’il mérite comme le support qui leur a permis de réussir. Et ils sont maintenant en train de réduire les possibilité du Web pour une génération entière d’utilisateurs qui ne comprennent pas à quel point leur expérience pourrait être beaucoup plus innovante et significative.

Retour vers le futur

Aujourd’hui, lorsque vous voyez des compilations intéressantes d’informations, elles utilisent encore souvent des photos de Flickr, parce qu’il n’y a pas grand-chose à faire avec les maigres métadonnées d’Instagram, et qu’Instagram n’utilise le Web qu’à contre-cœur. Lorsque nous ne pouvons pas retrouver d’anciens messages sur Twitter ou nos propres publications sur Facebook, nous trouvons des excuses aux sites alors que nous avions de meilleurs résultats avec une recherche sur Technorati, qui n’avait portant à sa disposition que de piètres logiciels de son époque. Nous assistons à de stupides combats de coqs avec Tumblr qui ne peut pas récupérer la liste de vos contacts sur Twitter, ou Facebook qui refuse que les photos d’Instagram s’affichent sur Twitter, tout cela parce que des entreprises géantes suivent chacune leur propre programme de développement au lieu de collaborer pour être utiles aux utilisateurs. Et nous nous coltinons une génération de patrons qui sont incités à créer des produits toujours plus bornés et hostiles au Web, tout cela pour permettre à un petit nombre de nantis de devenir toujours plus riches, au lieu de laisser les gens se créer de nouveaux possibles innovantes au dessus du Web lui-même.

Je ne m’inquiète pas, nous allons corriger tout cela. L’industrie technologique, comme toutes les industries, suit des cycles, et le pendule est en train de revenir vers les philosophies globales et émancipatrices sur lesquelles le Web social s’est bâti au début. Mais nous allons devoir affronter un gros défi, ré-éduquer un milliard d’utilisateurs pour leur apprendre ce qu’est le Web, comme nous l’avons fait pendant des années il y a dix ans quand tout le monde a quitté AOL, leur apprendre qu’il y a bien plus à expérimenter sur Internet que ce qu’ils connaissent.

Ce n’est pas ici la polémique habituelle à base de : « ces réseaux verrouillés sont mauvais ». Je sais que Facebook, Twitter, Pinterest, LinkedIn et tous les autres sont de super-sites, qui apportent beaucoup à leurs utilisateurs. D’un point de vue purement logiciel, ce sont de magnifiques réussites. Mais ils sont basés sur quelques hypothèses qui ne sont pas forcément exactes. La première idée fausse d’où découlent beaucoup de leurs erreurs est que donner aux utilisateurs de la flexibilité et du contrôle crée forcément une expérience utilisateur complexe qui empêche leur croissance. La seconde hypothèse erronée, plus grave encore, est de penser qu’exercer un contrôle total sur les utilisateurs est le meilleur moyen de maximiser les profits et la rentabilité de leur réseau.

La première étape pour les détromper, c’est que les gens qui sont en train de créer la prochaine génération d’applications sociales apprennent un peu d’histoire, pour savoir de quoi ils parlent, qu’il s’agisse du modèle économique de Twitter, des fonctions sociales de Google ou de n’importe quoi d’autre. Nous devons savoir ce qui a été essayé et a échoué, quelles bonnes idées étaient tout simplement en avance sur leur temps, et quelles occasions ont été gâchées par la génération actuelle de réseaux sociaux dominants.

Qu’est-ce que j’oublie ? Qu’avons-nous perdu d’autre sur le Web social ?




Libérer nos médias captifs du matériel ?

Matériels incompatibles, absence d’interopérabilité, formats fermés, logiciels propriétaires… des motifs de colère et de combats familiers de la communauté libriste. Ces problématiques sont cependant un peu désincarnées aux yeux de la majeure partie de nos concitoyens du Net tant qu’ils n’ont pas été personnellement confrontés à des blocages fort irritants.

Une situation concrète est le point de départ du coup de gueule de Terence Eden. Quant à la véhémence de ses propos, elle est à la mesure de l’urgence. Car dans la guerre en cours, celle de notre liberté de choix, Apple, Amazon, Google et quelques autres ont plusieurs longueurs d’avance : des millions d’utilisateurs sont déjà entrés de leur plein gré dans des prisons numériques dorées.

Dans cet environnement, nous ne sommes plus propriétaires des fichiers médias que nous avons pourtant achetés, nous n’en sommes que les usagers à titre révocable et temporaire ! Autant dire que nous perdons la possibilité de réutiliser nos biens dès lors que nous changeons de support matériel. Du disque vinyle au CD-ROM et du DVD au fichier numérique, nous avons déjà vu comment un saut technologique nous contraint à acheter de nouveau. Eh bien cette farce au goût amer se joue maintenant sur la scène des médias numériques.

Parviendrons-nous à libérer nos médias captifs du matériel ? Il faudra certes bien plus qu’un coup de gueule comme celui qui suit, mais il n’est pas mauvais qu’un cri de colère agite un peu nos esprits de consommateurs endormis.

Luke Addison - CC by-sa

Je ne veux pas faire partie de votre putain d’écosystème

I Don’t Want To Be Part of Your Fucking Ecosystem

Terence Eden – 23 novembre 2012 – Blog personnel
(Traduction framalang & les twittos : Gatitac, Zii, ga3lig, Stan, Isdf, Slystone, Quartz, Coyau, Goofy, Exirel, greygjhart)

Je discutais avec un ami qui exprimait une opinion que je trouve assez répandue :

— Alors oui, j’aimerais bien passer à Android, mais tous mes données sont dans iTunes.

J’ai découvert que le problème, ce ne sont pas les applications : les racheter est pénible, mais la plupart sont gratuites. Le problème, ce sont les données qui emprisonnent les utilisateurs avec des services dont ils ne veulent plus.

Les musiques, les films, les séries TV, les abonnements et les podcasts. Tout est fermé à double tour dans l’étroit écosystème d’Apple. C’est une façon bien pensée d’enchaîner les gens à leur matériel.

Imaginez, ne serait-ce qu’un instant, que votre lecteur de DVD Sony ne puisse lire que des films de chez Sony. Si vous décidiez d’acheter un nouveau lecteur de marque Samsung par exemple, aucun de ces contenus ne serait lisible sur votre nouvel appareil sans un sérieux bidouillage.

Voilà les hauts murs derrière lesquels tant de grandes entreprises voudraient bien nous enfermer. Et je trouve que ça pue.

Sur un réseau de téléphonie mobile au Royaume-Uni, on peut utiliser le téléphone de son choix. Le matériel et les services sont complètement indépendants les uns des autres. Cela suscite de la concurrence parce que les consommateurs savent que s’ils sont mécontents de HTC, ils peuvent passer à Nokia et que tout fonctionnera comme avant.

Mais si tous vos contacts, vos services de divertissement et sauvegardes sont enchaînés à HTC, eh bien, vous êtes juste dans la merde si vous voulez changer.

Je veux assister à une séparation complète de l’Église et de l’État. Le matériel devrait être séparé du logiciel. Le logiciel devrait être séparé des services. Je veux pouvoir regarder des films achetés chez Nokia sur un système Google Android tournant sur un appareil Samsung, et ensuite sauvegarder le tout sur Dropbox.

C’est comme cela que ça fonctionne, plus ou moins, dans le monde du PC. Je ne comprends pas pourquoi cela n’est pas pareil dans le monde des tablettes et des smartphones. Pourquoi est-ce que j’achèterais une tablette qui ne fonctionnerait qu’avec le contenu d’un seul fournisseur ? Que ce soit Amazon, Microsoft ou Apple, ils constituent un dangereux petit monopole qui fera augmenter les prix et diminuer la qualité.

Bon, je sais. Le mantra du « It just works » (« Ça marche, tout simplement » ). Je suis légèrement dégoûté de devoir configurer ma tablette pour qu’elle parle à mon NAS, puis de faire en sorte que mon téléviseur fonctionne avec les deux à la fois. Cette situation n’est pas due à mes équipements multimédias qui viennent de différents fabricants, elle est plutôt due à ces différents fabricants qui n’utilisent pas de standards ouverts.

J’ai peur de ce qui arrivera lorsqu’un fournisseur mettra fin à un service. Je rigole à l’idée d’une éventuelle faillite d’Apple : même s’ils restent solvables, qu’est-ce qui les empêchera de supprimer tous vos achats de films et de musiques ? Après tout, ils ont fermé leur service Mobile Me quasiment sans avertissement et détruit toutes les données que leurs clients payants hébergeaient chez eux.

Adobe a fermé ses serveurs de DRM après un court préavis de 9 mois, en empêchant de fait quiconque de lire les livres pourtant achetés (Amazon peut vider votre Kindle).

Google a emmené Google Video au bûcher et lui a tiré une balle dans la tête — tout comme Buzz, Wave et qui sait combien d’autres produits.

Microsoft a mis en place PlaysForSure, puis l’a laissé mourir, piégeant ainsi des millions de fichiers musicaux sur des appareils qui ne sont plus pris en charge.

Donc peut-être vais-je m’en tenir à Google et espérer que mon téléviseur Google communiquera avec mon téléphone Google pendant que je regarderai des vidéos Google Play et que j’écouterai des musiques Google Play sur mon ChromeBook Google que je partagerai sur Google+ et que j’achèterai avec Google Wallet. Et je leur enverrai la prière du geek : « S’il vous plaît, ne décidez pas que ce service bien pratique n’est pas rentable ».

Je veux simplement que l’on s’entende tous. Je veux que mes équipements disparates se parlent. Je ne veux pas vivre dans une maison où chaque composant doit être fabriqué par une unique entreprise sous peine de ne rien voir marcher correctement. Je ne veux pas être bloqué ni devoir utiliser un mauvais produit parce que c’est le seul à offrir un certain service.

Je ne veux pas de vos jouets qui ne fonctionnent qu’avec les piles de votre marque.

Je ne veux pas faire partie de votre putain d’écosystème.

Crédit photo : Luke Addison (Creative Commons By-Sa)




Framavectoriel : Nouveau projet Framasoft qui met en avant le format SVG

Dans la famille « les libres et pratiques services Web proposés par Framasoft » qui ne demandent pas d’inscription, on a : le traitement de texte collaboratif (Framapad), le tableur collaboratif (Framacalc), l’équivalent d’un Doodle mais en libre (Framadate) et un tout récent éditeur de cartes mentales (Framindmap).

Et pourquoi pas aussi, tant qu’on y est, un outil d’édition d’images en ligne ?

Il arrive, il arrive et il s’appelle Framavectoriel !

Framavectoriel

Attention, ce n’est pas demain la veille qu’on trouvera un équivalent de The Gimp à même votre navigateur, mais on vous propose néanmoins la version francisée de svg-edit, libre application certes modeste mais non dénuée déjà de nombreuses fonctions et qui saura trouver son utilité dans des cas simples ou des situations de formation (nous ne saurons trop vous suggérer de mettre vos enfants dessus plutôt que sur l’abominable Paint).

En fait ce n’est pas la comparaison avec The Gimp qui est judicieuse ici mais plutôt Inkscape (dont il constitue une excellente initiation). En effet l’atout principal de Framavectoriel c’est de proposer de travailler au puissant format libre et ouvert SVG.

Parce que certains l’ignorent encore mais lorsque vous êtes en situation de création graphique et non de retouche photo il est alors bien plus pertinent d’utiliser des images vectorielles et non matricielles, a fortiori si le format est libre.

Et c’est aussi parce que nous avons envie de participer à pousser ce format que nous avons décidé de mettre en ligne ce service en le baptisant ainsi.

-> Découvrir et utiliser Framavectoriel

PS : Oui, on vous fait le coup à chaque fois désormais, mais si vous avez le temps et les moyens d’un petit soutien sonnant et trébuchant pour nous remercier du service (si service il y a), ça nous aiderait à poursuivre sereinement l’aventure car nous n’avons qu’une visibilité de quelques mois actuellement.




Entretien avec Sésamath : au revoir Flash, bonjour HTML5, JavaScript (et LaTeX)

L’association Sésamath existe depuis 10 ans maintenant.

10 ans de projets au service des mathématiques dans l’éducation. 10 ans également, et par effet de bord, au service du logiciel libre, de par les choix des outils et des licences adoptées ainsi que la manière toute collaborative de travailler.

Avoir, entre autres, réussi à couvrir tout le collège avec des manuels scolaires libres qui représentent aujourd’hui près de 20% du marché, ça n’est pas rien ! (et c’est même du jamais vu au niveau mondial !)

L’occasion de faire le point avec Sébastien Hache, salarié et co-fondateur de l’association, qui nous annonce de bien bonnes et libres nouvelles.

Sésamath - Flyer

En quelques mots, comment se porte Sésamath ?

Sébastien Hache : Sésamath se porte plutôt bien. L’envie et la passion sont toujours là, depuis maintenant plus de 10 ans. De nouveaux membres viennent régulièrement renforcer une équipe globalement stable et de plus en plus expérimentée. La grosse difficulté est de parvenir à maintenir les ressources existantes (de plus en plus utilisées : plus d’un million d’élèves inscrits à Labomep par exemple l’an dernier) tout en continuant à faire évoluer les outils et à élargir le champ : c’est un défi compliqué mais c’est aussi passionnant.

Que pensez-vous de la récente circulaire sur l’usage du logiciel libre dans l’administration ?

Nous pensons que c’est une très bonne chose et que cela constitue un bon élément d’appui pour tous ceux qui veulent promouvoir les ressources et logiciels libres dans l’enseignement.

Que pensez-vous de l’opération Open TextBook de l’État californien ?

Plus il y aura de ressources éducatives libres et ouvertes, et mieux ce sera !

Que pensez-vous de la récente introduction de l’option Informatique et Sciences du Numérique en Terminale S ? Pensez-vous vous y impliquer de près ou de loin ?

Sesamath a fait le choix de ne pas se positionner sur des sujets autres que ceux inscrits dans ses statuts. Les objectifs de Sesamath nous occupent déjà largement.

Alors, justement, Sésamath a annoncé des nouveaux projets au lycée et dans le primaire. Peux-tu nous en dire plus ?

Pour l’instant, l’essentiel des projets de Sésamath se concentrait sur le collège, même si depuis longtemps, en particulier au niveau des liaisons inter-cycles, des ressources collège étaient utilisées en CM2 ou en seconde. C’est donc assez naturellement que nous avons lancé des appels (toujours en vigueur pour ceux que ça intéresse) dans ces deux directions pour amorcer des projets éditoriaux. En effet, l’expérience de Sésamath au collège a montré que le travail collaboratif autour d’ouvrages destinés à être publiés sur papier (même s’ils ont nativement une version numérique) était un bon catalyseur pour créer ensuite d’autres ressources numériques : un peu comme si l’ouvrage éditorialisé servait de fil conducteur pour tout le reste. Paradoxalement, le papier est aussi une bonne façon de faire connaître le numérique.

En CM2, une équipe composée de professeurs des écoles et de professeurs de collège travaille actuellement à un cahier d’exercices sur le modèle des cahiers d’exercices de collège (afin d’avoir une continuité dans la ressource). Ce cahier est destiné à être sous licence libre (CC By-Sa) : pour l’instant, durant la phase de conception, seuls les enseignants inscrits à Sésaprof peuvent y avoir accès mais quand il sera achevé (début 2013) il sera intégralement téléchargeable pour tous aux formats ODT et PDF. En même temps, nous concevons le cahier numérique associé. Une autre équipe construit en parallèle le futur manuel Sésamath 6e, qui est très largement modifié par rapport au précédent en partie justement pour tenir compte de la liaison.

En seconde, une équipe composée de professeurs de collège et de lycée travaille sur un manuel complet. Ce manuel est écrit en LaTex. Il sera de la même façon publié sous licence libre et accompagné d’un manuel numérique gratuit. Le premier chapitre sera très prochainement mis en ligne. Beaucoup de lecteurs de ce blog seront heureux de voir que Sésamath produit collaborativement un ouvrage en Latex (c’était déjà le cas pour un ouvrage d’exercices en classes préparatoires) !

Pour résumer, nous travaillons cette année sur 3 ouvrages en même temps. C’est possible grâce à l’expérience de l’association et de ses membres sur la création collaborative de manuels scolaire (organisation, outils…), mais aussi les licences libres et les formats ouverts qui permettent ce mode de création et motive les auteurs.

En parlant de format ouvert, il se dit que Sésamath est en train d’abandonner Flash. Qu’en est-il ?

Effectivement, une grande partie des ressources interactives de Sésamath (dont l’exerciseur Mathenpoche) a été développé en Flash. Il y a déjà eu pas mal de discussions sur ce point : avec le recul, il n’y a sans doute rien à regretter, mais on se rend compte actuellement que cela nous mène à une impasse. Avant d’être technique, l’impasse est d’abord collaborative : nous n’avons pas réussi à former suffisamment d’enseignants à la programmation en Flash et nous nous sommes coupés d’une communauté de développeurs dont nous avons grand besoin aujourd’hui.

C’est pourquoi, Sésamath s’est donné les moyens, depuis plus d’un an maintenant, de créer un nouveau modèle d’activités intéractives : Il s’agit du projet J3P basé sur les technologies web modernes (html5/javascript). D’une certaine façon, Sésamath a terminé sa mue complète vers le libre (je me permets de remercier tous ceux qui ont contribué à ça, de façon souvent très intelligente et patiente, et parmi ceux-là évidemment toute l’équipe de Framasoft). Mais l’intérêt de J3P ne réside pas que dans son format : il ouvre aussi des pistes importantes du point de vue pédagogique. L’idée est de pouvoir créer des ressources de plus en plus adaptées aux difficultés de chaque élève en leur proposant des exercices où les réponses qu’ils donnent conditionnent les questions suivantes, pour tenter de s’adapter à la nature de leurs difficultés éventuelles.

Le projet J3P veut donc offrir aux enseignants un moyen de concevoir de tels exercices. L’enseignant pourra construire ou paramétrer le graphe de chaque exercice. Ce graphe décrit, suivant les réponses de l’élève à chaque étape, les différents parcours possibles parmi les sections qui composent l’exercice. Le projet J3P est sous licence GPL.

Toutes les bonnes volontés sont les bienvenues (ne pas hésiter à nous contacter.

Crédit illustration : Brochure Sésamath