Toute recherche scientifique digne de ce nom doit ouvrir son code informatique

TenSafeFrogs - CC byVoici un récent article du Guardian qui tourne paradoxalement autour du logiciel libre et des formats ouverts mais sans véritablement les nommer.

Nous avons cependant jugé qu’il avait son intérêt dans la mesure où la science et la recherche ont désormais de plus en plus recourt à l’informatique pour traiter des données et en tirer analyses et conclusions[1].

Or comment voulez-vous que l’on puisse valider les résultats si les applications utilisées sont propriétaires ou si les chercheurs eux-mêmes ne mettent pas le code de leur programme à disposition ?

L’article s’appuie sur la récente affaire dite du « Climategate » qui a fait grand bruit outre-Manche (et étrangement peu de cas chez nos grands médias français).

Quand recherche sérieuse rime avec libération du code informatique

If you’re going to do good science, release the computer code too

Darrel Ince – 5 février 2010 – The Guardian
(Traduction Framalang : Kovalsky et Olivier)

Les programmes informatiques prennent chaque jour plus de place dans le travail scientifique. Mais partie prenante dans les conditions de l’expérience vous devez pouvoir les vérifier comme en atteste la bataille qui se joue autour des données sur le changement climatique.

On retiendra de l’affaire concernant la révélation publique des e-mails et des documents de l’Unité de Recherche Climatique de l’Université d’East Anglia qu’ils mettent en lumière le rôle du code informatique dans la recherche climatique. Il y a notamment une série de « README » produite par un programmeur de l’UEA connu sous le nom de « Harry ». Ces notes sont celles de quelqu’un qui lutte avec du code ancien non-documenté, et des données manquantes. Et pourtant, on parle bien d’un élément de l’une des trois bases de données climatiques principales dont se sont servis les chercheurs du monde entier pour en tirer analyses et conclusions.

Beaucoup de scientifiques du climat ont refusé de publier leur programme informatique. À mes yeux, ça n’est ni scientifique, ni responsable, parce que les logiciels scientifiques sont réputés pour leur manque de fiabilité.

L’Histoire nous a appris à ne pas faire une confiance aveugle aux logiciels scientifiques. Par exemple le Professeur Les Hatton, un expert international en tests logiciels, résident de l’Université du Kent et de Kingston, a mené une analyse approfondie de plusieurs millions de lignes de code scientifique. Il a montré que les logiciels présentaient un nombre exceptionnellement élevé d’erreurs détectables.

Par exemple, les erreurs de communication entre les modules de logiciels qui envoient les données d’une partie d’un programme à une autre se produisent à une fréquence de 1 pour 7 communications en moyenne dans le langage de programmation Fortran, et de 1 pour 37 communications dans le langage C. C’est d’autant plus inquiétant qu’une seule et unique erreur est susceptible d’invalider un programme informatique. Plus grave encore, il a découvert que la précision des résultats chute de six chiffres significatifs à un chiffre significatif après traitement par certains programmes.

Les travaux d’Hatton et d’autres chercheurs indiquent que les logiciels scientifiques sont souvent de mauvaise qualité. Il est stupéfiant de constater que cette recherche a été menée sur des logiciels scientifiques commerciaux, produits par des ingénieurs logiciels soumis à un régime de tests, d’assurance qualité et à une discipline de contrôle des modifications plus connue sous le nom de gestion de configuration.

À l’opposé, les logiciels scientifiques développés dans nos universités et nos instituts de recherches sont souvent produits, sans assurance qualité, par des scientifiques qui n’ont pas de formation en ingénierie logicielle et donc, sans aucun doute, l’occurence des erreurs sera encore plus élevée. Les fichiers « Harry ReadMe » de l’Unité de Recherche Climatique sont une preuve flagrante de ces conditions de travail. Ils résument les frustrations d’un programmeur dans sa tentative de conformer ses séries de données à une spécification.

Le code informatique est au coeur d’un problème scientifique. La science se définit par sa potentielle remise en cause : si vous érigez une théorie et que quelqu’un prouve qu’elle est fausse, alors elle s’écroule et on peut la remplacer. C’est comme cela que fonctione la science : avec transparence, en publiant chaque détail d’une expérience, toutes les équations mathématiques ou les données d’une simulation. Ce-faisant vous acceptez et même encouragez la remise en question.

Cela ne semble pas être arrivé dans la recherche climatique. De nombreux chercheurs ont refusé de publier leur programme informatique, même ceux qui sont encore utilisés et qui ne sont pas sujet à des accords commerciaux. Le Professeur Mann, par exemple, refusa tout d’abord de fournir le code, employé pour construire en 1999 le graphique en cross de hockey, qui a démontré que l’impact de l’homme sur le réchauffement climatique est un artefact unique de la dernière décennie (il l’a finalement publié en 2005).

La situation n’est pas aussi désastreuse pour tous les travaux académiques. Certaines revues, économiques et économétriques par exemple, imposent que l’auteur soumette ses données et ses programmes au journal avant publication. Un cas fondamental en mathématiques a également fait parler de lui : la preuve « par ordinateur » de la conjoncture des quatre couleurs par Appel et Haken. Cette démonstration a partagé la communauté scientifique puisque pour la première fois le problème de la validation du théorème s’est trouvé déplacé vers le problème de la validation de l’algorithme d’exploration et de sa réalisation sous forme de programme. Bien que critiquée pour son manque d’élégance, la preuve n’en était pas moins correcte et le programme informatique, publié et donc vérifiable.

Des organismes et des individus, ralliés à l’idée du quatrième paradigme, attachent beaucoup d’importance au problème de l’informatique scientifique à grande échelle et à la publication des données. C’était l’idée de Jim Gray, un chercheur expérimenté de Microsoft, qui a identifié le problème bien avant le Climategate. Actuellement, la recherche consacrée aux mécanismes qui pourraient faire du Web un dépôt pour les publications scientifiques est très active, elle englobe également les logiciels et la formidable quantité de données qu’ils consomment et génèrent. Un certain nombre de chercheurs mettent au point des systèmes qui montrent le progrès d’une idée scientifique, des premières ébauches d’idées jusqu’à la publication papier[2]. Les problèmes rencontrées avec la recherche climatique apporteront un élan à ce travail pour qu’il soit accéléré.

Donc, si vous publiez des articles de recherche qui s’appuient sur des programmes informatiques, si vous prétendez faire de la science mais que vous refusez de publier les programmes en votre possession, je ne peux vous considérer comme un scientifique. J’en irais même jusqu’à dire qu’à mes yeux les publications basées sur ces programmes seront nulles et non avenues.

Je trouve incroyable qu’une faute de frappe puisse être à l’origine d’une erreur dans un programme, un programme qui pourrait à son tour être à l’origine de décisions portant sur des milliards d’euros, et le pire, c’est que la fréquence de ces erreurs est élevée. Les algorithmes (ou copules gaussiennes), sur lesquels se sont appuyées les banques pour s’assurer que les crédits sub-prime étaient sans risque pour eux, ont été publiées. La facture était salée. La facture du changement climatique sera aussi élevée. Raison de plus pour qu’aucune erreur dans les calculs ne soit tolérée là non plus.

Notes

[1] Crédit photo : TenSafeFrogs (Creative Commons By)

[2] Voir à ce sujet l’article du Framablog : Première démonstration « open source » d’un théorème mathématique.




Quand Google fait l’ange avec nos données

The Data Liberation Front - GoogleGoogle fait peur et Google le sait. Alors Google fait de gros efforts pour tenter de nous rassurer.

Mais cela sera-t-il suffisant ? Google n’est-il pas devenu intrinsèquement trop gros, quelle que soit la manière dont il brasse nos nombreuses données personnelles, quelle que soit l’indéniable qualité de sa myriade de services et de produits ?

Telle est la vaste question du jour, tapie derrière notre traduction évoquant leur projet du « Front de Libération des Données ».

La page d’accueil Google propose depuis peu un petit lien Confidentialité en bas du champ de recherche. Il vous mènera au portail google.fr/privacy qui a pour titre Centre de confidentialité : Transparence et liberté de choix.

Chez Google, nous sommes parfaitement conscients de la confiance que vous nous accordez, ainsi que de notre devoir de protéger la confidentialité de vos données. À cette fin, vous êtes informé des données qui sont collectées lorsque vous utilisez nos produits et services. Nous vous indiquons en quoi ces informations nous seront utiles et comment elles nous permettront d’améliorer les services que nous vous proposons.

On y décline alors la philosophie Google résumée en « cinq principes de confidentialité » et illustrée par cette vidéo que je vous invite à parcourir et qui témoigne une fois de plus de la maîtrise didactique de Google dans sa communication.

Du lard ou du cochon ? De l’art de faire l’ange quand on fait la bête ? Les commentaires accueilleront peut-être certaines de vos réactions.

En attendant la vidéo fait référence à un récent service, le Google Dashboard, qui est censé vous permettre de « savoir ce que Google sait de vous » en centralisant en un unique endroit toutes les informations collectées associées à votre compte Google (Gmail, Google Docs, Agenda, Maps, etc.) et à ses services connexes (YouTube, Picasa, etc.). Pour en avoir un bref aperçu, là encore, nouvelle et toujours efficace vidéo dédiée.

Cette initiative est louable parce qu’elle vous expose à priori la situation en vous facilitant la modification des paramétrages. Mais elle est à double tranchant parce que vous vous rendez compte d’un coup d’un seul de l’étendu de la pieuvre Google et de la quantité impressionnante de vos données que Google peut potentiellement manipuler. Et puis n’oublions jamais la force d’inertie du paramétrage par défaut.

La vidéo nous parle également du « Data Liberation Front », ou « Front de Libération des Données » en français, dont le logo ouvre ce billet. Ce n’est pas un nouveau mouvement révolutionnaire mais un projet interne qui œuvre à ce que l’assertion suivante devienne réalité :

Nous voulons que nos utilisateurs restent chez nous parce qu’ils le souhaitent, non parce qu’ils ne peuvent plus en sortir.

Il s’agit donc en théorie de pouvoir facilement quitter Google en listant sur un site, service par service, les procédures à suivre pour exporter nos fichiers et nos données depuis les serveurs de Google vers notre disque dur local dans des formats standards et ouverts. Les manipulations à réaliser ne sont pas toujours des plus simples (quand elles existent effectivement), mais le projet nous dit qu’il travaille justement à constamment améliorer cela.

On retrouve cette idée, lorsque Google nous affirme que « Competition is just one click away », autrement dit que tout est fait pour qu’il suffise d’un clic de souris pour s’en aller chez un concurrent, et que les autres devraient en faire autant pour que s’établisse une saine compétition. Pas sûr que Microsoft soit sensible à l’argument.

Centre de confidentialité, Google Dashboard, Data Liberation Front, One click away, Sens de l’ouverture… il n’y a pas à dire, Google met les bouchées doubles pour ne pas se mettre en porte-à-faux avec son fameux slogan « Don’t be evil ».

Alors, convaincu ?

Dans l’affirmative, remercions Google pour son souci de transparence et continuons à lui faire confiance, sachant alors que le futur et novateur système d’exploitation Google Chrome OS vous tend les bras. Point trop d’inquiétudes mal placées, vos données sont bien au chaud dans les nuages.

Dans le cas contraire, c’est plutôt un « Google Liberation Front » qu’il va falloir songer à créer !

Pourquoi Google vous laisse facilement quitter Google

Why Google makes it easy to leave Google

Nate Anderson – 1 mars 2010 – Ars Technica
(Traduction Framalang : Goofy et Don Rico)

Nous avons déjà évoqué le Front de Libération des Données de Google (FLD) l’année dernière, lorsque ce projet a été rendu public, mais depuis, qu’a fait l’équipe interne de Google qui se consacre à l’exportation des données ? Eh bien… elle a créé des autocollants, pour commencer.

« DONNÉES ÉLEVÉES EN PLEIN AIR », proclament-ils, ce qui résume en quelques mots les efforts du Front de Libération des Données. L’objectif de l’équipe n’est rien moins que de permettre aux utilisateurs de quitter plus facilement Google et ses multiples services, en emportant avec eux leurs courriels, leurs photos et tous leurs documents.

Les travaux les plus récents concernaient Google Docs, qui propose désormais une option pour télécharger en masse. Sélectionnez les documents que vous désirez, cliquez sur un bouton, Google les archive en un seul fichier .zip (jusqu’à 2Go) et vous les envoie par e-mail.

Au cours d’une récente visite aux bureaux de Google à Chicago, où le FLD est basé, nous avons discuté avec Brian Fitzpatrick, qui dirige l’équipe, pour savoir plus en détail pourquoi il souhaite que l’on puisse s’affranchir facilement des services Google, et comment il compte s’y prendre.

Empêcher l’inertie

Il est certain que lancer cette initiative estampillée « ne faites pas le mal » au sein de l’entreprise est une bonne manœuvre de communication, mais le FLD ne découle pas d’une décision prise au sommet de la hiérarchie. Fitzpatrick déclare qu’en ce qui le concerne, il a « commencé en toute naïveté ». Après avoir écouté pendant des années le président Eric Schmidt déployer son éloquence pour expliquer combien il est important de ne pas enfermer les utilisateurs, Fitzpatrick a remarqué que certains produits Google compliquaient l’application de cette politique.

Le FLD est l’émanation de son travail de réflexion. L’équipe existe depuis deux ans maintenant, et depuis les choses ont changé : à ses débuts, c’est elle qui allait trouver les autres équipes d’ingénieurs, mais à présent, selon Fitzpatrick, ce sont ces dernières qui « viennent nous consulter » pour savoir comment elles s’en tirent.

La rétention des données n’est pas mauvaise que pour les utilisateurs ; Fitzpatrick estime qu’elle est aussi mauvaise pour Google. « Si l’on crée une base d’utilisateurs verrouillée, avance-t-il, on devient forcément complaisant avec soi-même ».

Rendre aussi facile l’abandon de Google Docs que celui du moteur de recherche de Google force Google à cultiver un de ses points forts : engager des collaborateurs brillants. Le travail du FLD « met en effervescence les équipes d’ingénieurs », explique Fitzpatrick, puisque les ingénieurs doivent satisfaire les utilisateurs en innovant, et non en les mettant en cage.

The Data Liberation Front - Google - Sticker

Les utilisateurs se préoccupent-ils vraiment de la libération de leurs données ? Certains, oui, mais l’utilisation des fonctions d’exportation demeure limitée. Google enregistre « un niveau constamment faible de l’usage de ces fonctions », déclare un ingénieur de l’équipe, particulièrement quand le géant de la recherche choisit d’abandonner des services peu performants.

Disposer d’outils d’exportation facilite également de telles interruptions de services ; souvenez-vous des problèmes rencontrés par les sites de vente de musique bardés de DRM, lorsqu’ils ont finalement tenté de fermer leurs serveurs de DRM. Grâce à l’ouverture des données de Google, l’entreprise évite ce genre de critiques publiques quand survient une fermeture de service, comme lorsque Google Notebook a été mis au rebut.

Nicole Wong, conseillère juridique adjointe de Google, nous a confié que Google prend le FLD au sérieux pour deux raisons : d’abord, il donne le contrôle aux utilisateurs, et ensuite, « quand nous déclarons qu’il suffit d’un clic pour passer à la concurrence, des initiatives telles que le FLD le prouvent ».

Ce dernier commentaire nous rappelle que l’ouverture représente un réel bénéfice stratégique pour l’entreprise qui va bien au-delà de la conception des produits et du pouvoir accordé à l’utilisateur. Google est de plus en plus en ligne de mire des investigations antitrust, de la part du ministère de la Justice américain, et subit déjà des enquêtes en Europe au nom de la lutte antitrust. Le FLD est ainsi un argument de plus que Google peut employer pour démontrer qu’il n’est pas un Cerbère pour usagers captifs.

Il arrive que l’équipe du FLD affronte les critiques de ceux qui accusent Google de ne rendre « libres » et exportables que les données à faible valeur marchande pour l’entreprise (voyez par exemple ce commentaire du chercheur Ben Edelman à propos de la récupération des données Adwords). Mais depuis sa création, le FLD a travaillé avec plus de vingt-cinq équipes de Google pour faciliter l’exportation des données, et nul doute que ses efforts concernant les applications comme Google Docs sont une bonne nouvelle pour les utilisateurs.

« Nous nous efforçons de provoquer une plus grande prise de conscience au sein de l’entreprise, » déclare Fitzpatrick, tout en admettant avec une petite grimace qu’il n’a aucun « pouvoir » réel sur les décisions des différents chefs de projet.

On peut toujours aller plus loin. L’équipe surveille la page du modérateur Google, sur laquelle les utilisateurs peuvent soumettre des suggestions – et elles sont nombreuses. « Mes contacts Gmail — pouvoir les exporter, et ré-importer une version modifiée, sans copier chaque élément un à un » propose l’un d’eux. « Ajouter les microformats hCalendar à l’agenda Google, pour pouvoir réutiliser partout ailleurs les rendez-vous enregistrés » suggère un autre. « Je veux récupérer l’historique de mon tchat avec Gmail », réclame un troisième.

Fitzpatrick promet que d’autres avancées vont suivre, bien qu’il ne puisse pas parler des projets qui sont dans les incubateurs. Ce qu’il peut faire, pour l’instant, c’est vous envoyer un autocollant.




Logiciel Libre : la Guerre Mondiale aura bien lieu

The U.S. Army - CC byUn évènement d’importance est passé totalement inaperçu la semaine dernière du côté des médias francophones (à l’exception notable de Numerama). Il faut dire qu’à priori cela ne nous concerne pas puisqu’il oppose un lobby américain à l’état indonésien.

Et pourtant, à l’heure de la mondialisation (de moins en moins heureuse), cet épisode est riche d’enseignements et annonce peut-être la fin de l’enfance et de l’innocence pour le logiciel libre.

« Ils » veulent la guerre économique et politique ? Alors ils l’auront ! Et tant qu’Internet demeurera neutre et ouvert, « nous » ne sommes en rien assurés de la perdre, quand bien même nous n’ayons pas la puissance financière de notre côté et la capacité à mobiliser un bataillon des meilleurs avocats à notre service[1].

En perdant un brin notre sang-froid, nous pourrions presque qualifier cela de « Choc des Civilisations 2.0 » !

Plantons le décor de ce qui ressemble au départ à une information trop grosse pour être vraie.

Compagnies aériennes, paradis fiscaux, organisations terroristes… nombreuses sont les listes noires, émanant d’organismes divers et variés (nationaux ou internationaux, publics ou privés). Ainsi en va-t-il du « Special 301 Report » qui provient du bureau s’occupant officiellement de la politique commerciale internationale des États-Unis (The Office of the United States Trade Representative ou USTR).

Ce rapport vise à examiner chaque année la situation de la protection et de l’application des droits de la « propriété intellectuelle » à l’échelle mondiale. Il classe ainsi les pays en trois catégories : « surveillance en priorité » (on y retrouve en 2009 par exemple la Chine, la Russie et, plus surprenant, le Canada), « surveillance inférieure » et les autres, les bons élèves (cf cette mappemonde Wikipédia).

C”est un instrument de la politique économique internationale des États-Unis, et gare à vous si vous êtes en haut de la pyramide. Parce que vous fabriquez de fausses chaussures Nike, parce que vous produisez des médicaments sans y avoir autorisation, parce que vous proposez, dans la rue ou sur vos serveurs, des versions « piratés » de tel film, musique ou logiciel, etc.

Que la contrefaçon, la copie illégale, le non respect des brevets… fassent du tort à une économie américaine qui repose beaucoup sur l’exploitation de sa « propriété intellectuelle » et constituent par là-même un grand manque à gagner, nul ne le conteste. Qu’adossés à l’USTR on trouve un certain nombre d’associations qui agissent comme des lobbys en poussant le gouvernement américain à faire pression sur les pays incriminés pour qu’ils prennent les mesures nécessaires afin d’améliorer la situation, c’est de bonne guerre, d’autant que l’on connait l’influence et la force de persuasion des États-Unis dans la géopolitique internationale.

Mais que, tenez-vous bien, la volonté d’un état à développer le logiciel libre dans son pays en fasse un ennemi des intérêts américains de la « propriété intellectuelle » propre à vouloir le faire figurer en bonne place dans le « Special 301 Report », c’est nouveau, c’est scandaleux, et c’est ô combien révélateur des craintes, pour ne pas dire de la panique, qu’il suscite désormais dans l’économie « traditionnelle » de la connaissance.

C’est pourtant ce que n’a pas hésité à suggérer la très sérieuse et puissante International Intellectual Property Alliance (ou IIPA), coalition d’associations représentants les plus grandes multinationales des secteurs de la culture, du divertissement et des nouvelles technologies. On y retrouve ainsi le RIAA pour l’industrie musicale (Universal, Warner…), le MPAA pour le cinéma (Walt Disney, Paramount…), l’IFTA pour la télévision, l’ESA pour le jeu vidéo (Electronic Arts, Epic Games…) sans oublier la BSA pour l’informatique (Apple, Microsoft…).

Donc ici l’Inde, la Brésil et surtout l’Indonésie sont pointés du doigt pour la simple et (très) bonne raison qu’ils souhaitent favoriser l’usage du logiciel libre au sein de leur administration ! Vous avez bien lu, mis à l’index non pas parce qu’on veut l’imposer (ce qui aurait pu alors se discuter) mais juste parce qu’on souhaite l’encourager !

Plus c’est gros mieux c’est susceptible de passer, comme dirait le dicton populaire. Mais quels sont alors les (pseudos) arguments avancés ? Vous le saurez en parcourant l’article ci-dessous, traduit du journal anglais The Guardian.

On veut clairement nous abuser en nous faisant croire qu’il y a la « propriété intellectuelle » d’un côté et le logiciel libre de l’autre (qui tel Attila détruirait toute valeur marchande sur son passage). C’est de la propagande économique mais ne nous y trompons pas, c’est également éminemment politique puisque derrière cette initiative se cache une certaine conception du libéralisme et du rôle des états, où vieille Europe et monde anglo-saxon ne sont d’ailleurs pas forcément toujours sur la même longueur d’onde.

Cet épisode est évidemment à rapprocher avec ce qui se passe en ce moment du côté de l’ACTA.

L’ironie de l’histoire (outre le fait que le logiciel libre soit « né » aux USA), c’est que le Framablog passe son temps à patiemment ajouter des pays à sa propre liste blanche des institutions légitimement intéressées par les logiciels, les contenus et les formats libres et ouverts : Suisse, Angleterre, Canada, Brésil, Équateur, Amérique latine… sans oublier les États-Unis d’Obama qui n’en sont plus à un paradoxe près.

La liste est blanche pour certains et noire pour d’autres. Un nouvel échiquier se dessine, et la partie peut alors commencer…

Vous utilisez l’open source ? Vous êtes un ennemi de la nation !

When using open source makes you an enemy of the state

Bobbie Johnson – 23 Février 2010 – The Guardian Blog Technology
(Traduction Framalang : Tinou et Goofy)

Le lobby du copyright aux États-Unis s’est longtemps battu contre les logiciels open source – c’est maintenant au tour de l’Indonésie d’être dans la ligne de mire pour avoir poussé à leur utilisation dans les institutions gouvernementales.

Nous ne sommes que mardi, et cette semaine s’est déjà révélée intéressante pour les droits numériques. Le gouvernement britannique a reformulé sa proposition controversée de riposte graduée, et le traité secret de lutte contre la contrefaçon, l’ACAC (NdT : ou ACTA en anglais), fait de nouveau les gros titres. Pendant ce temps, un juge américain est encore en train de délibérer dans l’affaire Google Books.

Et comme si cela ne suffisait pas, voilà une nouvelle pierre à ajouter à l’édifice branlant des dernières nouvelles, grâce à Andres Guadamuz, professeur de droit à l’université d’Édimbourg.

Suite à des recherches, Guadamuz a découvert qu’un lobby influent demande, en substance, au gouvernement des États-Unis de considérer l’open source comme l’équivalent de la piraterie — voire pire.

Pardon ?

Il apparaît que l’Alliance Internationale pour la Propriété Intellectuelle (NdT : International Intellectual Property Alliance ou IIPA en anglais), groupe qui allie des organisations comme la MPAA et la RIAA, a demandé au représentant américain au commerce d’envisager d’inclure des pays comme l’Indonésie, le Brésil et l’Inde dans sa « Liste de surveillance n°301 », parce qu’ils utilisent des logiciels libres.

Qu’est-ce que la « Liste de surveillance n°301 » ? C’est un rapport sur « le respect réel de la propriété intellectuelle » dans le monde – en réalité une liste de pays que le gouvernement des États-Unis considère comme des ennemis du capitalisme. Elle est souvent utilisée comme moyen de pression commerciale — souvent dans le domaine de l’industrie pharmaceutique et de la contrefaçon — pour essayer de forcer les gouvernements à changer d’attitude.

On pourrait avancer qu’il n’est pas surprenant de la part du représentant américain au commerce — supposé militer pour un capitalisme de l’économie de marché — de ne pas aimer pas les logiciels libres, mais la situation n’est pas aussi simple.

Je sais bien qu’on a tendance à rattacher l’open source aux idéaux socialistes, mais je pense aussi que c’est un exemple de l’économie de marché en action. Quand les entreprises ne peuvent pas jouer contre des concurrents écrasants, elles contournent le problème et trouvent d’autres moyens de réduire les coûts pour rester dans la course. La plupart des logiciels libres, qui n’appartiennent pas à des états, se contentent de pousser la logique de la réduction du coût jusqu’à son terme et se servent de la gratuité comme d’un bâton pour taper sur la concurrence (iriez-vous accuser Google, dont le produit phare est gratuit, d’être anti-capitaliste ?).

Ceci dit, dans les pays où le gouvernement a légiféré en faveur de l’adoption de logiciels libres et/ou open source, cette tactique ne manque pas de cohérence, puisqu’elle attaque des acteurs comme Microsoft. Mais ce n’est pas tout.

Là où ça devient intéressant, c’est que Guadamuz a découvert que les gouvernements n’ont même pas besoin de légiférer. Une simple recommandation suffit.

L’année dernière, par exemple, le gouvernement indonésien a envoyé une circulaire à tous ses ministères et aux entreprises nationales, les incitant à utiliser des logiciels libres. Selon l’IIPA, il « encourage les agences gouvernementales à utiliser des logiciels libres ou open source, avec l’objectif d’en avoir terminé le déploiement fin 2011. On aboutira ainsi, selon la circulaire, à un usage légitime de logiciels libres, ainsi qu’à une réduction générale des coûts en logiciel ».

Rien de grave là-dedans, non ? Après tout, le gouvernement britannique a déclaré qu’il mettrait le turbo sur l’usage de logiciel open source.

Mais l’IIPA suggère que l’Indonésie mérite sa place sur la liste n°301 parce qu’encourager (et non forcer) de telles initiatives « affaiblit l’industrie du logiciel » et « ne contribue pas au respect des droits relatifs à la propriété intellectuelle ».

Extraits de la recommandation :

« La politique du gouvernement indonésien (…) affaiblit l’industrie du logiciel et sabote sa compétitivité à long terme en créant une préférence artificielle pour des sociétés qui proposent des logiciels open source et des services dérivés, et va même jusqu’à refuser l’accès du marché gouvernemental à des entreprises reconnues.

Au lieu de promouvoir un système qui permettrait aux utilisateurs de bénéficier de la meilleure solution disponible sur le marché, indépendamment du modèle de développement, elle encourage un état d’esprit qui ne reconnaît pas à sa juste valeur la création intellectuelle.

Ainsi, elle échoue à faire respecter les droits liés à la propriété intellectuelle et limite également la capacité du gouvernement ou des clients du secteur public (comme par exemple les entreprises nationales) à choisir les meilleures solutions. »

Oublions que cet argument ne tient pas compte du grand nombre d’entreprises qui prospèrent autour du modèle du logiciel open source (RedHat, WordPress et Canonical, pour ne citer qu’eux). Au-delà de ça, voici ce qui me paraît stupéfiant : il suffit de recommander des produits open source — produits qui peuvent être facilement taillés sur mesure sans affecter les règles définies par la licence — pour être accusé de vouloir tout « saboter ».

En fait, la mise en œuvre du respect de la propriété intellectuelle est souvent plus stricte dans la communauté open source, et ceux qui enfreignent les licences ou oublient d’attribuer les crédits à qui de droit sont souvent cloués au pilori.

Si ce que vous lisez vous met hors de vous, vous avez raison. C’est abracadabrant. Mais l’IIPA et l’USTR n’en sont pas à leur coup d’essai : il y a quelques années, ils ont mis le Canada sur leur liste des pays à surveiller en priorité.

Notes

[1] Crédit photo : The U.S. Army (Creative Commons By)




Mardi 4 mai 2010 : Journée Mondiale contre les DRM

Martin Krzywinski - CC byLe 21 mars 2010 aura lieu la dixième édition de l’initiative Libre en Fête, permettant de faire découvrir le logiciel libre sur tout le territoire français.

Mais il n’y a pas que des journées de promotion. Dicté par le contexte actuel, il existe également des journées de résistance.

Ainsi en va-t-il du 4 mai prochain que la Free Software Foundation et l’Open Rights Group ont décidé d’ériger en « Journée Mondiale contre les DRM », (ou GDN en français, pour Gestion des Droits Numériques).

Il faut dire que le sujet est malheureusement toujours, voire plus que jamais, d’actualité. Pour s’en convaincre il suffit de parcourir cette longue chronologie non exhaustive de faits et de méfaits qui courent sur une décennie sur le site Defective by Design (la lecture de l’article dédié de Wikipédia étant également particulièrement instructive)[1].

Il y a un choix à faire (ou tout du moins accepter les alternatives). Soit contraindre la technologie actuelle pour la forcer artificiellement à rentrer dans les cases de la production de valeur de l’économie d’avant (fondée principalement sur la captation du client et la rareté du produit). Soit s’adapter et tirer parti des formidables possibilités de création et d’échanges liées à l’interopérabilité des fichiers, leur copie et leur remix à coût marginal, ainsi que leur diffusion massive et rapide sur le réseau.

En 1997, Richard Stallman écrivait sa nouvelle Le droit de lire. De la pure science-fiction (ou du délire paranoïaque) a-t-on pu alors penser. Sauf qu’en 2009, Amazon a décidé, sans préavis et sans accord préalable, de s’introduire dans le Kindle de ses clients pour en effacer tous les romans 1984 de George Orwell (notes des lecteurs incluses). La réalité peut toujours dépasser la fiction…

Journée mondiale contre les DRM : mardi 4 mai 2010

Day Against DRM: Tuesday, May 4th 2010

Holmes Wilson- 25 février 2010 – Communiqué FSF
(Traduction Framalang : Don Rico)

« Chaque fois qu’une entreprise conçoit des produits destinés à limiter nos libertés, nous devons nous organiser afin de déjouer ses projets » — Richard Stallman, président de la FSF.

Le 25 février, des groupes pour la défense de la justice sociale et les droits en ligne ont annoncé que le mardi 4 mai 2010 aura lieu la Journée Mondiale contre les DRM.

La Journée contre les DRM réunira de nombreux acteurs — organisations pour l’intérêt public, sites Internet et citoyens —, qui mettront sur pied une opération destinée à attirer l’attention de l’opinion publique sur les dangers d’une technologie qui restreint l’accès des utilisateurs aux films, à la musique, à la littérature, aux logiciels, et d’ordre plus général à toutes les formes de données numériques. De nombreux dispositifs de DRM enregistrent les activités de l’utilisateur et transmettent leurs données aux grosses entreprises qui les imposent.

Dans le cadre de sa campagne anti-DRM, Defective by Design, la Free Software Foundation (FSF) participera à la coordination des activistes anti-DRM de par le monde pour mobiliser l’opinion publique contre cette technologie antisociale. Il a aussi été publié un billet offrant un bref historique d’une Décennie de DRM (NdT : Decade in DRM).

« Les DRM s’en prennent à votre liberté à deux égards. Leur but est d’attaquer votre liberté en limitant l’utilisation que vous pouvez faire de vos copies d’œuvres numériques. Pour cela, ils vous obligent à utiliser des logiciels privateurs, dont vous ne contrôlez pas les actions. Chaque fois qu’une entreprise conçoit des produits destinés à limiter nos libertés, nous devons nous organiser afin de déjouer ses projets, » a déclaré Richard Stallman, le président de la FSF.

Jim Killock, le directeur exécutif de l’Open Rights Group, précise quant à lui que « les dispositifs de DRM sont une catastrophe pour les usages légaux de musique, de films et de livres. Ils sont conçus pour enchaîner les utilisateurs à des logiciels et à des appareils particuliers, et anéantissent vos droits à l’usage de la liberté d’expression tels que l’information, l’enseignement et la critique. À cause des DRM, vous n’avez plus la maîtrise des données et êtes à la merci des fabricants. »

Richard Esguerra, de l’Electronic Frontier Foundation, partenaire de la Journée contre les DRM, explique que « Les activistes et les utilisateurs de technologie bien informés ont joué un rôle clé dans la dénonciation des méfaits des DRM à l’époque où les mesures techniques consistaient en programmes anticopie. À présent, les DRM évoluent car les entreprises cherchent à limiter les utilisateurs bien au-delà de leur capacité à copier des fichiers. La Journée mondiale contre les DRM est une nouvelle occasion de relever le défi et de se battre pour la liberté technologique. »

Les évènements, partenaires et partisans qui s’ajouteront à la « Journée contre les DRM » seront annoncés à mesure que la date approchera. Les organisations et les particuliers qui souhaitent s’impliquer peuvent contacter info@defectivebydesign.org ou se rendre sur le site http://defectivebydesign.org/ pour s’inscrire et suivre la campagne.

La Free Software Foundation

La Free Software Foundation, fondée en 1985, se consacre à la défense des droits des utilisateurs à utiliser, étudier, copier, modifier et redistribuer les programmes informatiques. La FSF promeut la conception et l’utilisation des logiciels libres — en particulier du système d’exploitation GNU et de ses dérivées GNU/Linux —, et d’une documentation libre pour les logiciels libres. La FSF contribue aussi à informer le public sur les questions éthiques et politiques qui sont en jeu dans la liberté d’utilisation des logiciels ; ses sites Web, que l’on trouve aux adresses fsf.org et gnu.org, offrent d’importantes sources d’information sur GNU/Linux. Si vous souhaitez soutenir financièrement l’action de la FSF, vous pouvez faire un don sur la page http://donate.fsf.org. Son siège se trouve à Boston, Massachusetts, aux États-Unis.

L’Open Rights Group

L’Open Rights Group est un groupe de défense des droits numériques basé au Royaume-Uni, qui vise à attirer l’attention sur les questions des droits numériques, à favoriser l’activité citoyenne, ainsi qu’à protéger et étendre les libertés civiques à l’ère numérique.

Notes

[1] Crédit photos : Martin Krzywinski (Creative Commons By) et Martin Krzywinski (Creative Commons By)




L’ACTA en l’état ne passera pas par moi !

Raïssa Bandou - CC by« Depuis le printemps 2008, l’Union européenne, les États-Unis, le Japon, le Canada, la Corée du Sud, l’Australie ainsi qu’un certain nombre d’autres pays négocient secrètement un accord commercial destiné à lutter contre la contrefaçon (Anti-Counterfeinting Trade Agreement ou ACTA). Suite à des fuites de documents confidentiels, il apparaît clairement que l’un des buts principaux de ce traité est de forcer les pays signataires à mettre en place des mesures de répression de partage d’œuvre sur Internet sous la forme de riposte graduée et de filtrage du Net.

Alors que d’importants débats ont lieu sur la nécessité d’adapter le droit d’auteur à l’ère numérique, ce traité cherche à contourner les processus démocratiques afin d’imposer, par la généralisation de mesures répressives, un régime juridique fondamentalement dépassé. »

Ainsi s’ouvre la rubrique ACTA du site de La Quadrature du Net qui nous demande aujourd’hui d’écrire à nos représentants pour appuyer une initiative de quatre eurodéputés s’opposant à l’accord.

Sur le fond comme dans la forme, cet accord s’apparente à un pur scandale. Ces petites négociations entre amis seraient passées comme une lettre à la poste il y a à peine plus de dix ans. Mais aujourd’hui il y a un caillou dans les souliers de ceux qui estiment bon de garder le secret[1]. Un caillou imprévu qui s’appelle Internet. Raison de plus pour eux de le museler et pour nous de résister…

Pour évoquer cela nous avons choisi de traduire un article de Cory Doctorow qui résume bien la (triste) situation et comment nous pouvons tous ensemble tenter d’y remédier.

ACTA et le Web : quand le copyright s’installe en douce

Copyright Undercover: ACTA & the Web

Cory Doctorow – 17 février 2010 – InternetEvolution.com
(Traduction Framalang : Tinou, Psychoslave, Barbidule, Goofy et Don Rico)

Introduction

Le septième round de négociations secrètes sur l’ACAC (Accord commercial anti-contrefaçon, en anglais ACTA) s’est achevé le mois dernier à Guadalajara (Mexique). Le silence radio sur ces négociations est quasi-total : tels les kremlinologues de l’ère soviétique, nous devons nous contenter d’interpréter les maigres indices qui transpirent au-delà des portes closes.

Voici ce que nous savons : l’idée que des traités fondamentaux sur le droit d’auteur puissent être négociés secrètement est en train de perdre du terrain partout dans le monde. Les législateurs des pays participant aux négociations exigent que ce processus soit ouvert à la presse, aux activistes et au public.

Pour leur répondre, les négociateurs soutiennent — de manière surprenante — que le traité ne modifiera en rien les lois de leur pays, et que seuls les autres états devront faire évoluer leur droit (comme tous ces pays ont des législations foncièrement divergentes en matière de droits d’auteur, quelqu’un ment forcément. Je parie qu’il mentent tous).

Nous connaissons enfin l’attitude des promoteurs de l’ACAC à l’égard du débat public : au cours de la terne « réunion publique » tenue avant que les négociations ne débutent, une activiste a été expulsée pour avoir ébruité sur Twitter un compte-rendu des promesses faites verbalement par les intervenants à la tribune. Alors qu’on l’emmenait, elle a été huée par les lobbyistes qui peuvent participer à ce traité dont sont exclus les simples citoyens.

Cette situation embarrasse toutes les parties concernées, mettant à nu une attitude pro-capitaliste dont l’intérêt dépasse largement le cadre du copyright. Cela doit cesser. Nous verrons dans cet article comment nous en sommes arrivés là, et ce que vous pouvez faire pour mettre un terme à cette menace.

Comment en sommes-nous arrivés là ?

Un peu d’histoire, pour ceux à qui les épisodes sous-médiatisés précédents auraient échappé : les traités internationaux sur le droit d’auteur émanent à l’origine d’une agence des Nations Unies appelé l’OMPI, l’Organisation Mondiale de la Propriété Intellectuelle. Au départ, il s’agissait d’une agence privée créée pour servir de bras armé aux grandes « industries de la propriété intellectuelle » (musique, films, produits pharmaceutiques, télévision, etc.). Elle a pris forme en tant que consortium d’industries du privé, puis a ultérieurement gagné une légitimité lors de son intégration à l’ONU.

La prise en compte par l’ONU a donné un pouvoir énorme aux intérêts privés qui ont fondé l’OMPI, mais dans le même temps cela signifiait qu’ils devaient suivre les règles de l’ONU, c’est-à-dire que les organismes non-gouvernementaux et la presse était autorisés à assister aux négociations, à en rendre compte et même à y participer. Au début des années 2000, le groupement d’intérêt public Knowledge Ecology International a commencé à embrigader d’autres organisations pour suivre les actions de l’OMPI.

Ah, au fait, j’étais l’un des délégués qui a rejoint cette vague, au nom de l’Electronic Frontier Foundation. Les militants présents à l’OMPI ont tué dans l’œuf le traité en cours de négociation, le Traité de Télédiffusion, et l’ont remplacé par un autre destiné à aider les personnes aveugles et handicapées, les archivistes et les éducateurs. Pas vraiment les actions prioritaires pour les grosses multinationales du divertissement.

Ils ont donc déplacé leurs forums. Depuis 2006, divers pays riches — les États-Unis, le Canada, le Japon, l’Union Européenne, l’Australie et d’autres – ont tenu une série de séances de rédaction de traité en comité privé, sous le sceau de la non-divulgation.

Tout secret connu de deux personnes ou plus finit toujours par s’éventer, aussi de nombreuses divulgations nous donnent-elles un aperçu du chapitre « Internet » du traité, où des dispositions ont été prises sur la gouvernance et les restrictions imposées au réseau mondial. Lisez donc la suite.

Ce qu’a fait l’ACAC jusqu’ici

Arrêtons-nous un instant pour parler des concepts de copyright, d’Internet, et de gouvernance. Historiquement, les lois sur le copyright ont été écrites par et au bénéfice des prestataires de l’industrie du divertissement. Les règles du copyright n’ont pas été pensées pour contrôler de façon appropriée un quelconque autre domaine: on n’essaie pas de caser des morceaux du code du travail, des lois sur la finance, l’éducation, la santé ou les campagnes électorales dans le système du copyright.

Mais dès que vous transférez ces activités à Internet, le copyright devient la première méthode de contrôle, faisant autorité sur tout. Il est impossible de faire quoi que ce soit sur Internet sans faire de copie (vous venez de créer entre 5 et 50 copies de cet article rien qu’en suivant le lien qui vous y a amené). Et comme le copyright régit la copie, toute règle qui touche à la copie touchera également à ces domaines.

Et c’est bien ce qui dérange dans le secret qui entoure l’ACAC, même quand on ne se préoccuppe pas de copyright, d’utilisation équitable (NdT : « fair use »), ou de tout autre sujet biscornu.

Divers brouillons de l’ACAC ont inclus l’obligation pour les FAI d’espionner leurs clients et d’interdire quoi que ce soit qui ressemble à une violation de copyright. (Cela signifie-t-il qu’on vous empêchera d’enregistrer une publicité trompeuse ou mensongère et de l’envoyer à votre député ?) L’ACAC a également soutenu la fouille des supports multimédia aux postes frontières pour y chercher des infractions au copyright (Les secrets professionnels de votre ordinateur portable, les données clients confidentielles, des correspondances personnelles, votre testament, vos coordonnées bancaires et les photos de vos enfants prenant leur bain pourraient être fouillées et copiées la prochaine fois que vous partez en voyage d’affaires).

L’ACAC a en outre appelé à la création de procédures simplifiées pour couper l’accès à Internet d’un foyer entier si l’un de ses membres est accusé d’une infraction (ainsi, votre épouse perdra la capacité de contacter par e-mail un praticien gériatre au sujet de la santé de grand-papa si votre enfant est soupçonné d’avoir téléchargé trop de fichiers par poste-à-poste (P2P).

Ce n’est pas tout, mais ce sont là quelques exemples des propositions principales des sommets secrets de l’ACAC.

Ce qui a eu lieu à Mexico et pourquoi vous devriez vous y intéresser

Je pense par ailleurs que toutes les ébauches de l’ACAC sont également mauvaises pour le copyright et les créations qu’il protège. Je suis l’un des nombreux artistes qui gagnent leur vie en ligne, et qui profitent d’un Internet libre et ouvert. Mes livres sont disponibles au téléchargement gratuit le jour même où mes éditeurs le mettent en rayon. Mon premier roman pour jeunes adultes – Little Brother (NdT : « Petit Frère ») – a atteint le classement des meilleurs ventes du New York Times grâce à cette stratégie.

Mais même si vous vous fichez éperdument de la musique, des films, des jeux ou des livres, vous devez prêter attention à l’ACAC.

Ceci dit, le fait est que nous ne savons presque rien de la façon dont s’est déroulée la septième réunion. Elle a assez mal démarré : lors d’une réunion d’information publique, les organisateurs de l’ACAC ont tenté de faire signer à l’assistance un accord de non-divulgation (lors d’une réunion publique !), et ont ensuite fait sortir une activiste qui ébruitait des notes sur les éléments publiés — elle a été évincée manu militari sous les huées des lobbyistes présents, outrés que le public puisse assister à la réunion.

Pendant la réunion, des membres de diverses représentations parlementaires de par le monde se sont levés au sein de leur institution, et ont exigé de prendre connaissance des détails du traité qui était négocié par le département du commerce de leur pays, sans la supervision de leur sénat ni de leur parlement. Les législateurs de toute l’Europe, les membres des parlements canadien et australien, et les représentants du Congrès des États-Unis se sont vu opposer un silence de marbre et de vagues garanties.

Ces assurances étant les seules informations publiques visibles que nous ayons sur la question, elles méritent notre attention : l’Union Européenne, les États-Unis et le Canada ont tous affirmé que rien dans l’ACAC n’aura d’impact sur le droit national dont les représentants élus sont responsables.

Au lieu de cela, ils prétendent que l’ACAC ne fait qu’incarner les lois nationales dans un accord international, ce qui dans les faits oblige tout le monde à s’aligner sur les lois existantes.

Cette absurdité — pourquoi négocier un traité qui ne changerait rien ? — devient encore plus ridicule lorsque l’on considère que l’Union Européenne, le Canada et les États-Unis ont des règles de droit d’auteur différentes et incompatibles sur les questions en discussion à l’ACAC. Il est littéralement impossible pour l’ACAC de parvenir à un ensemble de règles qui n’entraînerait pas de modifications pour tout le monde.

Ce que l’avenir nous réserve – et ce que vous pouvez faire

Certes, nous pourrions tous constater par nous-mêmes ce qui a été proposé, si seulement l’ACAC était ouvert au public, comme tous les autres traités sur le copyright mondial le sont depuis l’avènement d’Internet.

Là encore, voici une série de déclarations contradictoires sur lesquelles nous creuser la tête : le délégué en chef du commerce États-Unien dit que le secret est une condition requise par les partenaires des États-Unis. Or, la déclaration sur la confidentialité qui a été divulguée provient clairement des États-Unis. De nombreux États de l’UE sont sur le point de lancer un appel officiel pour la transparence de l’ACAC.

Pour ma part, je parie sur les États-Unis. L’industrie mondiale du divertissement a plus d’emprise là-bas que dans toute autre nation, et l’administration Obama est allée jusqu’à nier la loi sur la liberté de l’information (NdT « Freedom of Information Act ») pour le traité en prétextant des raisons de sécurité nationale. (Oui, la sécurité nationale ! Ceci est un traité de droit d’auteur, pas une liste des codes de lancement de missiles.) Et le Bureau du Représentant État-Unien au Commerce (ndt : « United States Trade Representative », USTR) a déclaré clairement que l’administration Obama prévoit de ratifier l’ACAC par décret, sans la faire passer par le Congrès.

Le prochain sommet de l’ACAC se déroulera en Nouvelle-Zélande en avril, et les militants se préparent pour la bataille. En Nouvelle-Zélande, les opposants au copyright (NdT : « copyfighters ») sont aguerris et prêts à en découdre, ayant récemment repoussé le règlement 92A qui aurait permis aux producteurs de cinéma et de musique de couper l’accès à Internet sur simple accusation — sans preuve — de violation de copyright.

Impliquez-vous. Appelez votre sénateur, votre député, votre euro-député. Dites-leur que vous voulez que l’ACTA soit négocié de façon ouverte, avec la participation du public et de la presse.

Refusez que des règles affectant les moindres recoins de votre vie en ligne soient décidées en douce par ceux qui ne défendent que les intérêts de leur portefeuille.

Cory Doctorow
Militant de l’Internet, blogueur – Co-rédacteur en chef de Boing Boing

Notes

[1] Crédit photo : Raïssa Bandou (Creative Commons By)




Si Google is not evil alors qu’il le prouve en libérant le format vidéo du Web !

Diegosaldiva - CC byQuel sera le futur format vidéo du Web ? Certainement plus le Flash dont les jours sont comptés. Mais quel nouveau format va alors s’imposer, un format ouvert au bénéfice de tous ou un format fermé dont le profit à court terme de quelques-uns se ferait au détriment des utilisateurs ?

Un acteur, à lui seul, possède semble-t-il la réponse ! Et c’est une fois encore de Google qu’il s’agit. Une réponse que la Free Software Foundation attend au tournant car elle en dira long sur les réelles intentions de la firme de Moutain View.

Tentative de résumé de la situation.

Faute de mieux, et alors qu’il n’avais pas été spécialement conçu pour jouer les premiers rôles, le format Flash Video d’Adobe (.flv) s’est imposé pendant des années comme format standard de fait de la vidéo en lecture continue (ou streamée) sur Internet, comme par exemple sur le site emblématique YouTube.

Pour le lire il nécessitait la présence d’un player Flash sur son ordinateur, ce qui a toujours posé problème aux Linuxiens puisque la technologie Flash est propriétaire et (en partie) fermée et qu’il n’est donc pas possible de l’inclure dans les distributions libres de GNU/Linux (ceux qui juste après une installation ont recherché comment lire ce satané format comprendront fort bien ce que je veux dire). Un problème si important que la FSF n’a pas hésité à le placer au top de ses priorités logicielles avec son projet de lecteur libre Gnash (juste en dessous d’un lecteur alternatif pour le format PDF, autre format problématique).

Mais tout ceci sera bientôt du passé car la nouvelle version du format des pages Web, le HTML5, est en train de changer la donne avec l’introduction de la balise <video> (cf cet article du Framablog pour en savoir plus : Building the world we want, not the one we have).

Exit le Flash donc dans nos vidéos du Web. D’ailleurs, coup de grâce, il ne figurera pas dans l’iPad et Steve Jobs aurait déclaré « ne pas vouloir perdre du temps sur une technologie dépassée aussi ringarde que les disquettes » !

Conséquence et grand progrès, on peut donc potentiellement lire directement les vidéos sur tout navigateur qui implémente le HTML5 (actuellement Firefox 3.5+, Safari 4+, Chrome 3+). Plus besoin de télécharger de plugins (Flash, QuickTime ou autre). Sauf que comme le dit Tristan Nitot « la spécification HTML5 précise comment un navigateur doit interpréter l’élément video, mais pas sur le format dans lequel doit être publiée la vidéo en question ».

Or justement deux formats sont les principaux candidats à la succession, l’un ouvert, que nous connaissons bien, le Ogg Theora (adopté notamment sur les projets Wikimedia), et l’autre fermé le H.264. Tristan Nitot expose avec la clarté qu’on lui connaît, la situation, ses contraintes et ses menaces, dans son billet Vidéo dans le navigateur : Theora ou H.264 ?.

Il en rajoute une couche sur Rue89 dans Firefox refuse que YouTube devienne « un club de riches » :

« Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

En effet, il en coûterait plusieurs millions par an à Mozilla si elle voulait intégrer le H.264 dans Firefox. Ce qu’elle ne pourrait pas se permettre et du coup si YouTube adoptait définitivement ce format (que la célèbre plate-forme teste actuellement), nous serions face à un choix cornélien : Firefox sans YouTube (et tous les autres sites de vidéos qui auront alors suivi YouTube, gageons qu’ils seront nombreux) ou YouTube sans Firefox.

Ceux qui pensent, comme Stallman, qu’on « ne brade pas sa liberté pour de simples questions de convenances » feront peut-être le premier choix. Mais pour le grand public, rien n’est moins sûr (c’est même sûr qu’il fera le choix inverse).

Or c’est un feuilleton à épisodes car un tout dernier évènement est venu semer le trouble en apportant son lot de spéculations. Un évènement passé un peu inaperçu à cause du buzz (négatif) engendré par la sortie simultanée de Google Buzz : le rachat par Google de la société On2 Technologies pour un peu plus de cent millions de dollars.

On2 Technologies est justement spécialisée dans la création de formats vidéos, dont un, le VP3, a d’ailleurs été libéré et est directement à l’origine de l’Ogg Theora. Mais c’est le tout dernier de la gamme, le VP8 qui focalise l’attention de par ses qualités (cf présentation et comparaison sur le site d’On2).

Ce rachat a quelque peu atténué les craintes des observateurs, à commencer par Mozilla (cf cet article de Numerama : Codec vidéo : Google rachète On2 et rassure Mozilla). Pourquoi en effet débourser une telle somme puisque le H.264 est là ? Peut-être pour le remplacer par le VP8. Mais alors aura-t-on un VP8 également fermé (et peut-être aussi payant) ou bien ouvert pour l’occasion ?

La balle est dans le camp de Google.

Soit la société fait le choix du H.264. Firefox ne peut pas suivre et alors il y a fort à parier que cela profitera au navigateur Google Chrome (nombre d’utilisateurs ne pouvant désormais concevoir le Web sans YouTube). Comme de plus l’essentiel des revenus de Mozilla provient de l’accord avec Google sur le moteur de recherche par défaut de Firefox, et que cet accord ne court que jusqu’en 2011, on voit bien que Google peut en théorie si ce n’est tuer Firefox, tout du moins participer directement à freiner son ascension.

Soit la société oublie le H.264 en optant pour le VP8 d’On2. Mais reste alors à savoir quelle sera la nature de ce format. Si Google décide de le libérer en donnant le la en l’installant sur YouTube, c’est non seulement Firefox qui en profitera mais le Web tout entier.

Le choix est important, parce qu’au-delà de l’avenir de la vidéo sur le Web, c’est l’avenir de Google dont il est question. Et aujourd’hui, qu’on le veuille ou non, l’avenir de Google rejoint souvent l’avenir du Web tout court, ce qui en dit long sur sa puissance et son influence actuelles sur le réseau.

Il est bien évident que le H.264 ou le VP8 fermé serait à priori la meilleure option pour Google en tant que multinationale cotée en bourse avec des actionnaires qui réclament leurs dividendes. Mais ce serait la plus mauvaise pour les partisans d’un Web libre et ouvert. « Google is not evil » nous dit le slogan, alors qu’elle le prouve en faisant le bon choix, celui de l’intérêt des utilisateurs. Google en tirerait alors l’avantage de conserver une image positive de plus en plus écornée ces derniers temps. Dans le cas contraire le masque serait définitivement levé[1] et le bénéfice du doute ne serait plus permis.

Tel est en substance le message lancé par la FSF que nous avons traduit ci-dessous.

Lettre ouverte à Google : libérez le VP8, et utilisez-le sur YouTube

Open letter to Google: free VP8, and use it on YouTube

Holmes – 19 février 2010 – FSF Blogs
(Traduction Framalang : Don Rico et Goofy)

Après son acquisition d’On2, entreprise spécialisée en technologie de compression vidéo, le 16 février 2010, Google est à présent en position de standardiser les formats vidéo libres et ainsi libérer le Web à la fois du Flash et du codec propriétaire H.264.

Cher Google,

Après votre rachat d’On2, vous possédez désormais le plus important site de vidéos au monde (YouTube) et tous les brevets déposés pour un nouveau codec vidéo de haute performance, le VP8. Imaginez ce que vous pouvez accomplir si vous rendez disponible, de façon irrévocable, le codec VP8 sous une licence libre de royalties, et le proposez aux utilisateurs de YouTube ? Vous pouvez mettre un terme à la dépendance du Web aux formats vidéo criblés de brevets et aux logiciels propriétaires tel que Flash.

Garder le secret sur les spécifications de cette technologie ou ne l’utiliser que comme levier de négociation desservirait le monde du Libre, en n’apportant dans le meilleur des cas que des bénéfices à court terme à votre entreprise. Libérer le code du VP8 sans recommander ce format aux utilisateurs de YouTube constituerait une occasion manquée et nuirait au navigateurs libres tel que Firefox. Nous voulons tous que vous fassiez le bon choix. Libérez le code de VP8, et utilisez-le pour YouTube !

Pourquoi ce serait un immense bond en avant

Le monde disposerait alors d’un nouveau format libre affranchi de brevets logiciels. Internautes, créateurs de vidéo, développeurs de logiciels libres, constructeurs de matériel informatique, tout le monde pourrait distribuer de la vidéo sans se soucier des brevets, des droits d’utilisation et des restrictions. Le format vidéo libre Ogg Theora est au moins aussi performant pour la vidéo sur le web (voir comparatif) que son concurrent fermé, le H.264, et jamais nous n’avons approuvé les objections que vous opposiez à son utilisation. Puisque vous avez pris la décision d’acquérir le VP8, on peut néanmoins supposer que ce format ne soulève pas selon vous les mêmes objections, et que l’implémenter dans YouTube est un jeu d’enfant.

Vous avez le pouvoir de faire de ce format libre un standard planétaire. Si YouTube, qui héberge la quasi totalité des vidéos numériques jamais conçues, proposait un format libre en option, ce simple changement vous vaudrait le soutien d’une pléthore de fabricants d’appareils et d’applications numériques.

Cette capacité à proposer un format libre sur YouTube n’est toutefois qu’une partie infime de votre véritable pouvoir. On passera aux choses sérieuses quand vous encouragerez les navigateurs des utilisateurs à prendre en charge les formats libres. Il existe un tas de moyens de s’y prendre. La meilleure, à nos yeux, serait que YouTube abandonne le Flash au profit des formats libres et du HTML, et propose à ses utilisateurs équipés de navigateurs obsolètes un plug-in ou un navigateur moderne (un logiciel libre, bien sûr). Apple a eu le cran de mettre au rebut le Flash pour l’iPhone et l’iPad (même si leurs raisons sont suspectes et leurs méthodes détestables les DRM), et cette décision pousse les développeurs Web à créer des alternatives sans Flash de leurs pages. Vous pourriez faire de même avec YouTube, pour des raisons plus nobles, ce qui porterait un coup fatal à la prédominance de Flash dans le secteur des vidéos en ligne.

Même des actions de moindre envergure porteraient leur fruits. Vous pourriez par exemple susciter l’intérêt des utilisateurs avec des vidéos HD disponibles sous format libre, ou inciter fortement les utilisateurs à mettre à niveau leur navigateur (plutôt que de mettre Flash à jour). De telles mesures sur YouTube porteraient la prise en charge des formats libres par les navigateurs à un niveau de 50% et plus, et elles augmenteraient lentement le nombre d’internautes qui ne prendraient pas la peine d’installer un plug-in Flash.

Si le logiciel libre et l’internet libre vous tiennent à cœur (un mouvement et un médium auxquels vous devez votre réussite), vous devez prendre des mesures drastiques pour remplacer Flash par des standards ouverts et des formats libres. Les codecs vidéo brevetés ont déjà fait un tort immense au Web et à ses utilisateurs, et cela continuera tant que nous n’y mettrons pas un terme. Parce qu’il était coûteux d’implémenter des standards bardés de brevets dans les navigateurs, un logiciel privateur aussi lourd qu’inadapté (le Flash) est devenu le standard de facto pour la vidéo en ligne. Tant que nous ne passerons pas aux formats libres, la menace des actions en justice pour violation de brevet et des royalties à verser pèsera sur tous les développeurs de logiciel, les créateurs de vidéo, les fabricants de matériel informatique, les sites Internet et les entreprises du Web, vous y compris.

Vous pouvez utiliser votre acquisition d’On2 comme simple levier de négociation pour apporter votre propre solution au problème, mais ce serait à la fois un faux-fuyant et une erreur stratégique. Si vous ne faites pas du VP8 un format libre, ce ne sera jamais qu’un codec vidéo de plus. À quoi servirait un énième format vidéo souffrant d’une compatibilité avec les navigateurs limitée par des brevets ? Vous devez au public et à l’Internet de résoudre ce problème ; vous le devez à nous tous, et pour toujours. Des organisation telles que Xiph, Mozilla, Wikimedia, la FSF et On2 elle-même mettent l’accent sur la nécessité d’imposer les formats libres et se battent corps et âme pour rendre cela possible. À votre tour, maintenant. Si vous en décidez autrement, nous saurons que vous avez à cœur non pas la liberté des utilisateurs mais seulement le règne sans partage de Google.

Nous voulons tous que vous preniez la bonne décision. Libérez le code du VP8 et utilisez-le sur Youtube !

Notes

[1] Crédit photo : Diegosaldiva (Creative Commons By)




Pourquoi le logiciel libre est-il important pour moi ?

The unnamed - CC by-saBruce Byfield est un journaliste américain que nous avons souvent traduit sur le Framablog.

Il nous livre ici une sorte de témoignage confession autour de cette simple question : Pourquoi le logiciel libre est-il important pour moi ? Une question qui, vers la fin, en cache une autre : Pourquoi le logiciel libre n’est-il pas important pour les autres ?

La réponse m’a alors fait fortement penser à l’Allégorie de la caverne de Platon parce que « pour une grande majorité, le Libre contraste tellement avec ce qu’ils connaissent qu’ils peinent à concevoir que cela existe »[1].

Mais je ne vous en dis pas plus…

Pourquoi les 4 libertés du logiciel sont plus importantes que jamais pour les Linuxiens

Why ‘Free as in Freedom’ is More Important Than Ever for Linux Users

Bruce Byfield – 17 novembre 2009 – LinuxPlanet.com
(Traduction Framalang : Don Rico)

Une marionnette heureuse de sa condition

La Free Software Foundation organise un concours de vidéos sur le thème « Pourquoi le logiciel libre est-il important pour vous ? » C’est une question qui tombe à point nommé, en raison, d’une part, de la récente sortie de Windows 7, et d’autre part des bisbilles au sein de la communauté du Libre qui ont tellement gagné en virulence que ses partisans semblent en passe d’oublier leur objectif commun.

Je n’ai pas le talent pour monter une vidéo, mais ce concours m’a poussé à m’interroger : Pourquoi le logiciel libre est-il important pour moi ? Pourquoi la plupart de ceux qui m’entourent s’en soucient comme d’une guigne ? Ces deux questions sont plus intimement liées qu’on pourrait le croire au premier abord.

Une changement de logiciel et de relations

À certains égards, il m’est plus facile d’expliquer ce qui ne présente pas d’intérêt pour moi dans le logiciel libre que ce qui en présente. Par exemple, le code que j’écris se limite à des modifications d’un code existant, aussi avoir accès au code source n’est pour moi qu’un avantage indirect.

De la même manière, être journaliste spécialisé dans le domaine du logiciel libre ne présente que peu de bénéfices pour moi. J’aurais davantage de débouchés et de lecteurs si j’écrivais des rubriques sur le matériel, Windows, et même OS X.

La gratuité du logiciel m’importe peu elle aussi, car depuis des années je peux défalquer le prix des logiciels acquis de ma déclaration de revenus. D’ailleurs, utiliser des logiciels libres et gratuits est même un désavantage lorsque je déclare mes impôts, car j’ai moins de frais professionnels à déduire.

Je ne peux même pas avancer l’argument que je voue une vive haine à Microsoft – mon sentiment envers cette entreprise est plus une grande méfiance et le désir d’avoir le moins possible affaire à elle.

Microsoft a néanmoins contribué à me pousser vers le logiciel libre. Un mois à peine après l’acquisition de ma première machine, je pestais déjà contre les carences du DOS, que j’ai remplacé par 4DOS. 4DOS était alors un partagiciel (à l’époque, quasi personne ne connaissait l’existence des logiciels libres) et ses fonctionnalités plus riches m’ont appris que le prix de vente d’un programme n’avait rien à voir avec sa qualité.

C’est aussi cette recherche de qualité qui m’a conduit à préférer OS/2 à Windows 3.0, et à vouloir être en mesure de bidouiller mes logiciels.

L’abandon d’OS/2 par IBM sous la pression de Microsoft m’a fourni un enseignement supplémentaire : je ne pouvais compter sur une entreprise commerciale pour protéger mes intérêts en tant que client. Lorsque j’ai découvert le logiciel libre, je me suis aussitôt rendu compte que mes intérêts en tant qu’utilisateur seraient sans doute mieux protégés par une communauté. Au moins, la mise à disposition du code source réduisait les risques que l’on cesse de veiller à mes intérêts.

Au cours des dix dernières années, l’évolution du monde des affaires et de la technologie n’a fait que renforcer ces convictions. À une époque où primait le bon sens, les ordinateurs et internet auraient été construits à partir de standards élaborés de façon collaborative et soumis à la régulation des pouvoirs publics, comme la télévision et la radio l’ont été au Canada et en Europe. Hélas, l’informatique et l’internet étant apparus à l’ère où dominait le conservatisme américain, ils ont été développés pour leur majeure partie par des entreprises privées.

Le résultat ? Qualité discutable, obsolescence programmée, et absence quasi totale de contrôle par l’utilisateur. Les utilisateurs de Windows et de Mac OS X ne possèdent même pas les logiciels qu’ils achètent, on leur accorde seulement un licence pour les utiliser. D’après les termes de ces licences, ils n’ont même pas le droit de contrôler l’accès que peuvent avoir Microsoft ou Apple à leur matériel ou à leurs données.

Du point de vue du consommateur, une telle situation serait inacceptable avec n’importe quel appareil. Qui tolérerait pareilles restrictions si elles s’appliquaient aux voitures ou aux cafetières électriques ?

La véritable liberté

Dans le domaine de l’informatique et de l’internet, pourtant, la situation est quasi catastrophique. Les ordinateurs pourraient être le plus formidable outil de tous les temps pour la promotion de l’éducation et de la liberté d’expression. De temps à autre, les entreprises propriétaires reconnaissent par un petit geste ce potentiel en créant des logiciels éducatifs ou en vendant leurs produits à bas prix aux pays en voie de développement.

Pourtant, dans la plupart des cas, ce potentiel n’est exploité au mieux qu’à 50% par les logiciels propriétaires. Leur coût élevé et l’absence de contrôle par l’utilisateur signifient que l’accès à ces outils reste bridé et filtré par leurs fabricants. À cause d’un hasard de l’Histoire, nous avons laissé des entreprises commerciales utiliser ces technologies, ce qui est bien sûr tout à fait acceptable, mais aussi avoir le contrôle sur tous ceux qui comme eux les utilisent.

Le logiciel libre, lui, reprend une partie de ce contrôle aux entreprises commerciales et rend l’informatique et internet plus accessibles à l’utilisateur moyen. Grâce aux logiciels libres, notre capacité à communiquer n’est plus restreinte par notre capacité financière à acquérir tel ou tel programme. Ce n’est pas la panacée, car le prix du matériel reste une barrière pour certains, mais il s’agit d’un pas de géant dans la bonne direction.

Pour résumer, le logiciel libre est une démocratisation d’une technologie privative. On retrouve cet esprit intrinsèque dans les communautés qu’il génère, dans lesquelles la norme est le bénévolat,le partage et la prise de décision collégiale. On le retrouve aussi dans l’utilisation de logiciels libres pour la création d’infrastructures dans les pays en développement, ou dans les initiatives que mènent l’Open Access Movement (NdT : Mouvement pour l’Accès Ouvert) pour affranchir les chercheurs universitaires des revues à accès restreint, de sorte que tout un chacun puisse les exploiter. En un mot, le logiciel libre, c’est un pas en avant pour atteindre les idéaux sur lesquels la société moderne devrait reposer.

On pourrait me rétorquer que d’autres causes, telles que la lutte contre la faim et la misère dans le monde, sont plus importantes, et je vous donnerais raison. Néanmoins, c’est une cause à laquelle je peux apporter ma modeste contribution. À mon sens, elle est non seulement importante, mais si essentielle pour les droits de l’homme et la liberté de la recherche que je peine à comprendre pourquoi elle n’est pas déjà universelle.

Hors du cadre de référence

Hélas, le logiciel libre ne peut se targuer que d’un nombre d’utilisateurs réduit, même si celui-ci augmente sans cesse. On cite souvent les monopoles, l’ampleur de la copie illégale, l’absence d’appui des constructeurs, les luttes intestines au sein des communautés et l’hostilité envers les non-initiés, pour expliquer pourquoi l’utilisation des logiciels libres n’est pas plus répandue. Toutes ces raisons jouent sans doute un rôle, mais je soupçonne les véritables causes d’être beaucoup plus simples.

« Je ne comprends pas qu’on puisse encore utiliser Windows », ai-je un jour grommelé en présence d’un ami. « Parce que c’est préinstallé sur tous les ordinateurs ? » a-t-il répondu. Il n’avait sans doute pas tort.

On pourrait penser que des gens qui passent de huit à quatorze heures devant leur machine souhaiteraient avoir davantage de contrôle sur elle. Mais il ne faut jamais sous-estimer la force de la peur du changement. Si les ordinateurs sont vendus avec un système d’exploitation préinstallé, la plupart des utilisateurs s’en accommodent, même s’ils passent leur temps à s’en plaindre ou à s’en moquer.

Je pense néanmoins que le frein principal à une adoption plus massive des logiciels libres est plus basique encore. Pour une grande majorité, le Libre contraste tellement avec ce qu’ils connaissent qu’ils peinent à concevoir que cela existe.

Le logiciel libre trouve son origine dans l’informatique universitaire des années 1960 et 1970, mais pour le plus grand nombre, l’histoire de l’informatique ne commence qu’avec l’apparition de l’ordinateur personnel sur le marché vers 1980.

Depuis, les logiciels sont avant tout des produits marchands, et le fait que les fabricants aient tout contrôle sur eux constitue la norme. Même si de temps à autre il arrive aux utilisateurs de râler, ils sont habitués à perdre les droits qui devraient être les leurs en matière de propriété dès qu’ils sortent leur logiciel de sa boîte.

De nombreux utilisateurs ignorent encore quels sont les objectifs du logiciel libre. Pourtant, s’ils sont un jour amenés à découvrir le logiciel libre, ils apprennent vite que ses aspirations sont radicalement différente.

Pour le mouvement du Libre, le logiciel n’est pas une marchandise mais un médium, comparable aux ondes télé ou radio, qui devrait être fourni à tous avec leur matériel informatique. Cette philosophie suggère que l’utilisateur moyen devrait être plus actif dans sa façon d’utiliser son ordinateur et modifier son rapport aux fabricants.

Face à des aspirations si opposées, quelle peut être la réaction de l’utilisateur moyen à part l’incompréhension et le rejet ? Il se peut que son premier réflexe consiste à penser que tout cela est trop beau pour être vrai. Il risque de ne pas croire à la façon dont sont conçus les logiciels libres, et craindre des coûts cachés ou la présence de logiciels malveillants.   Cet utilisateur n’est pas près de prendre ces promesses pour argent comptant, et il n’y a rien d’étonnant à cela.

Le logiciel libre diffère tant des logiciels qu’il utilise depuis toujours qu’il n’a pas de cadre de référence. Le fait que le Libre offre plus de souplesse et plus de possibilité de contrôle qu’il n’en a jamais eu ne fait pas le poids contre l’incapacité de l’utilisateur à le rapprocher du reste de son expérience avec les logiciels. Plutôt que de de se jeter dans les bras du Libre, il risque de le rejeter par incompréhension.

Retour aux fondamentaux

Lors de mon premier contact avec le Libre, je l’ai considéré comme un phénomène isolé. Ses similitudes avec d’autres tendances ou mouvements historiques ne me sont apparues que plus tard. Aujourd’hui encore, il m’arrive de temps à autre de négliger trop facilement son importance, et je soupçonne qu’il en va de même pour de nombreux membres de la communauté.

Cette remarque s’applique surtout pour ceux qui se définissent comme partisans de l’Open Source, lesquels accordent de la valeur au logiciel libre principalement pour la qualité supérieure que permet le code ouvert. Ils oublient parfois, comme me l’a un jour confié Linus Torvalds, que ce confort accordé aux codeurs n’est qu’un moyen permettant d’accéder à la liberté de l’utilisateur.

Mais négliger l’importance du logiciel libre a un effet encore plus profond. Nous, qui appartenons à la communauté, sommes conscients de cette importance, mais nous la prenons souvent pour acquise. Pris dans notre routine, nous perdons de vue que ce qui nous semble normal peut se révéler déroutant et menaçant pour qui en entend parler pour la première fois.

Chaque année, le logiciel libre accomplit de nouvelles avancées. Quand je fais le point sur mes dix ans d’activité dans ce domaine, je suis souvent stupéfait par les progrès dont j’ai été témoin, à la fois concernant les logiciels eux-mêmes et le succès qu’ils remportent en dehors de la communauté. Néanmoins, le logiciel libre pourrait rencontrer le succès plus vite si ceux qui participent au mouvement se remémoraient plus souvent son importance et se rendaient compte du caractère déconcertant qu’il peut avoir pour les néophytes.

Notes

[1] Crédit photo : The unnamed (Creative Commons By-Sa)




L’Éclaternet ou la fin de l’Internet tel que nous le connaissons ?

Raúl A. - CC byUne fois n’est pas coutume, nous vous proposons aujourd’hui une traduction qui non seulement ne parle pas de logiciel libre mais qui en plus provient de CNN, et même pire que cela, de sa section Money !

Et pourtant il nous semble pointer du doigt une possible évolution d’Internet, celle de son éclatement sous la pression des smartphones et autres objets connectés tels ces nouvelles liseuses et tablettes dont on vante tant les futurs mérites.

Une évolution possible mais pas forcément souhaitable car c’est alors toute la neutralité du Net qui vacille puisque les trois couches qui définissent le réseau d’après Lessig se trouvent ensemble impactées.

l’iPad ou le Kindle en sont des exemples emblématiques car ce sont des ordinateurs (la couche « physique ») dont Apple et Amazon contrôlent à priori les protocoles et les applications (la couche « logique ») et peuvent filtrer à leur guise les fichiers (la couche des « contenus »).

L’article s’achève sur une note optimiste quant au HTML5 et au souci d’interopérabilité. Encore faudrait-il avoir affaire à des utilisateurs suffisamment sensibilisés sur ces questions[1].

Hier encore on nous demandait : T’es sous quel OS, Windows, Mac ou Linux ? Aujourd’hui ou tout du moins demain cela pourrait être : T’es sous quel navigateur, Firefox, Internet Explorer ou Chrome ?

Et après-demain on se retrouvera à la terrasse des cafés wi-fi, on regardera autour de nous et on constatera, peut-être un peu tard, qu’à chaque objet différent (netbook, smartphone, iPad, Kindle et leurs clones…) correspond un Internet différent !

La fin de l’Internet tel que nous le connaissons, grâce à l’iPad et aux autres

End of the Web as we know it, thanks to iPad and others

Julianne Pepitone – 3 février 2010 – CNNMoney.com
(Traduction Framalang : Martin et Goofy)

Pendant plusieurs années, l’Internet a été relativement simple : tout le monde surfait sur le même réseau.

Plus on s’avance vers 2010, plus l’idée d’un même Internet « taille unique » pour tous devient un souvenir lointain, à cause de l’arrivée de l’iPhone, du Kindle, du BlackBerry, d’Android, et bien sûr du fameux iPad.

La multiplication des gadgets mobiles allant sur Internet s’accompagne à chaque fois d’un contenu spécifique pour chaque appareil. Par exemple, l’application populaire pour mobile Tweetie permettant de se connecter à Twitter n’est disponible que pour l’iPhone, alors que l’application officielle pour Gmail ne l’est que pour Android. Et si vous achetez un e-book pour le Kindle d’Amazon, vous ne pourrez pas forcément le lire sur d’autres lecteurs électroniques.

En même temps de plus en plus de contenus en ligne sont protégés par un mot de passe, comme la plupart des comptes sur Facebok et certains articles de journaux.

C’est un Internet emmêlé qui est en train de se tisser. Simplement, le Web que nous connaissions est en train d’éclater en une multitude de fragments. C’est la fin de l’âge d’or, selon l’analyste de Forrester Research Josh Bernoff, qui a récemment formulé le terme de « éclaternet » pour décrire ce phénomène (NdT : the splinternet).

« Cela me rappelle au tout début d’Internet la bataille de fournisseurs d’accès entre AOL et CompuServe » dit Don More, du fond de capital risque Updata, une banque d’investissement conseillère dans les technologies émergentes de l’information. « Il y aura des gagnants et des perdants ».

Dans ces premiers temps du Web, les utilisateurs accédaient aux contenus en utilisant des systèmes spécifiques ; ainsi les abonnés de chez AOL ne pouvaient voir que les contenus AOL. Puis le World Wide Web est devenu une plateforme ouverte. Maintenant les appareils nomades sont à noueau en train de morceler le Web.

D’après Bernoff, « Vous ne pouvez plus recoller les morceaux, la stabilité qui a aidé le Web à prendre forme s’en est allée, et elle ne reviendra plus ».

Des angles morts

Quand les utilisateurs d’appareils mobiles choisissent d’acheter un iPhone, un Motorola avec Android, un BlackBerry ou d’autres, ils sont effectivement en train d’opter pour certains types de contenus ou au contraire d’en abandonner d’autres, puisque toutes les applications ne sont pas disponibles sur tous ces gadgets.

D’après Don More de Updata, ce phénomène est en train de mettre le contenu dans des « communautés fermés ». Les fabricants de ces appareils peuvent (et ils le font) prendre et choisir quelles applications fonctionneront avec leur machine, en rejetant celles qui pourraient être en concurrence avec leurs propre produits, ou bien celles qu’ils estiment n’être pas à la hauteur.

Par exemple, Apple a rejeté l’application Google Voice sur l’iPhone, qui aurait permis aux utilisateurs d’envoyer gratuitement des messages et d’appeler à l’étranger à faible coût.

Et les limitations ne s’arrêtent pas seulement aux applications. Une affaire d’actualité : Le nouvel iPad ne prend pas en charge le lecteur Flash d’Adobe, ce qui empêchera les utilisateurs d’accéder à de nombreux sites.

Bernoff ajoute : « bien que (cette tendance) ne soit pas nécessairement mauvaise pour les consommateurs, ils devraient prendre conscience qu’ils sont en train de faire un choix. Quoi qu’ils choisissent, certains contenus ne leur seront pas disponibles ».

Des choix difficiles

Les entreprises qui créent les applications sont maintenant confrontées à des choix difficiles. Quels appareils choisiront-elles de prendre en charge ? Combien d’argent et de temps devront-elles prendre pour que leurs contenus fonctionnent sur ces gadgets ?

Quel que soit le choix des développeurs, il leur manquera toujours une partie des consommateurs qu’ils pouvaient auparavant toucher lorsque le Web était un seul morceau.

Sam Yagan, co-fondateur du site de rencontres OKCupid.com, ajoute : « quand nous avons commencé notre projet, jamais nous avons pensé que nous aurions à faire face à un tel problème. Réécrire un programme pour un téléphone différent c’est une perte de temps, d’argent, et c’est un vrai casse-tête ».

D’après Yagan, OkCupid emploie 14 personnes, et son application pour l’iPhone a nécessité 6 mois de travail pour être développée. L’entreprise envisage de créer une application pour Android, ce qui prendra environ 2 mois.

« C’est un énorme problème de répartition des ressources, surtout pour les petites entreprises », explique Yagan, « Nous n’avons tout simplement pas assez de ressources pour mettre 5 personnes sur chaque appareil qui sort ».

Chris Fagan, co-fondateur de Froogloid, une société qui propose un comparateur pour le commerce électronique, dit que son entreprise a choisi de se spécialiser sur Android, car il marche avec plusieurs téléphones comme le Droid, Eris, ou G1.

Selon Fagan « les consommateurs sont en train de perdre des choix possibles, et les entreprises sont en train de souffrir de ces coûts supplémentaires ». Mais il ajoute que la popularité en plein essor des applications signifie que les entreprises continueront à en concevoir malgré leur coût.

Et après ?

Comme un Internet plus fragmenté devient chose courante, Bernoff de Forrester pense qu’il y aura un contrecoup : une avancée pour rendre le contenu sur mobile plus uniforme et interopérable.

La solution pourrait bien être la nouvelle version du langage Web qui arrive à point nommé, le HTML5, qui d’après Bernoff pourrait devenir un standard sur les appareils nomades dans quelques années. Par exemple, le HTML5 permet de faire fonctionner des animations sur les sites Web sans utiliser le Flash.

Mais l’arrivée de n’importe quelle nouvelle technologie déclenchera une lutte pour la contrôler. Don More de Updata s’attend à voir « une bataille sans merci entre les entreprises (pas seulement Apple et Google, mais aussi Comcast, Disney et tous ceux qui s’occupent des contenus). Que ce soit les applications, les publicités, les appareils… tout le monde est en train d’essayer de contrôler ces technologies émergentes ».

Évidemment, personne ne peut prévoir le futur du Web. Mais Bernoff est au moins sûr d’une chose.

« Nous ne connaissons pas ce que seront les tous nouveaux appareils en 2011. Mais ce qui est certain, c’est que l’Internet ne fonctionnera plus comme on l’a connu. »

Notes

[1] Crédit photo : Raúl A. (Creative Commons By)